Erweiterte Suche

Digitalisierung & KI

Standpunkte Die EU droht, eine einzigartige Chance zu verspielen

KI-Experte und Informatikprofessor Yoshua Bengio
KI-Experte und Informatikprofessor Yoshua Bengio Foto: Maryse Boyce

Ein Bündnis aus Deutschland und Frankreich setzt sich im Europäischen Rat dafür ein, die von der spanischen Ratspräsidentschaft vorgeschlagene Regulierung von Allzweck-KI-Modellen im AI Act zu verwässern. Damit würden sie europäischen Bürger:innen und dem KI-Standort aber einen Bärendienst erweisen, ist sich der kanadische KI-Experte Yoshua Bengio sicher.

von Yoshua Bengio

veröffentlicht am 15.11.2023

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Vor zwei Wochen hatte ich die besondere Ehre, mit Regierungschefs und Staatsoberhäuptern auf dem AI Safety Summit über die gesellschaftlichen Auswirkungen von KI zu diskutieren. Dort gab es ein klares gemeinsames Verständnis, das in der Bletchley-Deklaration zum Ausdruck kommt: Leistungsstarke KI-Grundlagenmodelle bergen besondere Risiken und werden eine immer wichtigere Rolle für Wirtschaft und Gesellschaft spielen.

In diesen Wochen hat die Europäische Union eine einzigartige historische Gelegenheit: Sie entwirft den ersten umfassenden und verbindlichen Regelkatalog für KI: den EU AI Act. Damit kann die EU die erste sein, die den Expertenkonsens über die Vorteile und Risiken von Grundlagenmodellen in konkrete Gesetzgebung gießt, um die Zukunft der KI in Europa, aber auch weltweit zu gestalten. Auf den letzten Metern allerdings droht diese Gelegenheit vertan zu werden: In finalen Verhandlungen wird erwogen, jegliche verbindliche Regulierung fallen zu lassen, die explizit auf Grundlagenmodelle abzielt – obwohl genau diese mächtigen Modelle am dringendsten demokratischer Kontrolle unterliegen sollten.

Der AI Act unterläuft aktuell abschließende Verhandlungen im Trilog-Format – zwischen der EU-Kommission, dem EU-Parlament und dem Rat der EU, den Vertretern der Mitgliedstaaten. Nachdem eingangs scheinbar ein Konsens zur Grundlagenmodell-Regulierung erreicht wurde, sind die Verhandlungen am Freitag aufgrund des Widerstands der Ratsparteien – angeführt von Deutschland, Frankreich und Italien – ins Stocken geraten. Berichten zufolge sind diese Mitgliedstaaten von Bedenken bezüglich der Entwicklung von Grundlagenmodellen in Europa, insbesondere der jeweiligen nationalen Champions Mistral aus Frankreich und Aleph Alpha aus Deutschland, angetrieben. Dieser Widerstand und die damit einhergehende Ausnahme von Grundlagenmodellen aus dem AI Act könnte EU-Bürger ernsthaften Risiken aussetzen und den KI-Standort Europa stark beschädigen.

Grundlagenmodelle und ihre Risiken 

Grundlagenmodelle (foundation models) sind der leistungsstarke Antrieb hinter zuletzt populär gewordenen KI-Anwendungen. Der Chatbot ChatGPT beispielsweise basiert auf dem Grundlagenmodell GPT-4; einem Allzweck-Modell, das durch Open AI’s API-Zugang ein ganzes Spektrum an Anwendungen ermöglicht - von kommunalen digitalen Helfern bis hin zu Microsoft Office’s Copilot. Deshalb schlagen sich Schwachstellen und Anfälligkeiten einzelner Grundlagenmodelle häufig in vielen nachgelagerten Anwendungen nieder. 

Die Flexibilität von Grundlagenmodellen schafft eine Vielzahl von Risiken. Experten warnen, dass Grundlagenmodelle für CyberangriffeBioterrorismus und die Manipulation demokratischer Prozesse genutzt werden können. Mit dem Trend immer größerer solcher Modelle geht ein Fähigkeitenzuwachs einher, der selbst für die Entwickler häufig unberechenbar ist. Diese Eigenschaft von Grundlagenmodellen macht es besonders schwierig, Gefahren im Voraus abzusehen.

Deshalb ist die zum ursprünglichen Training des Modells genutzte Rechenleistung ein wichtiger Indikator für den Umfang der notwendigen Sicherheitsprüfungen und -Vorkehrungen. Wenn ein Grundlagenmodell bereitwillig gefährliche Inhalte produziert, oder seine Sicherheitsschranken einfach umgangen werden können, sind auch Anwendungen auf Basis dieses Modells häufig unsicher und können für kriminelle oder anderweitig schädliche Absichten eingesetzt werden. So kann ein harmloser digitaler Laborassistent zum Ermöglicher von Biowaffenentwicklung und ein hilfreicher Programmierlehrer zum Ermöglicher eines umfangreichen Cyberangriffs werden. 

Diese Risiken sind tief in den Modellen verankert und unabhängig von individuellen Anwendungsfällen oder Anwendungen, die auf dem Modell aufbauen. Daher können sie am besten während der initialen Entwicklung und durch die ursprünglichen Entwickler angegangen werden. Ein aktueller Vorschlag durch die spanische Ratspräsidentschaft sieht Regulierung auf Ebene der Grundlagenmodell-Entwickler zur Abwehr dieser Risiken vor. Regelmäßige Audits und verpflichtendes Red-Teaming wären zentrale Elemente einer solchen Regulierung. Letztendlich sollte es, in Anlehnung an die US-amerikanische Executive Order zu KI, die Verantwortung der Entwickler sein, zu demonstrieren, dass ihre Systeme sicher und ethisch sind, bevor sie eingesetzt oder als Bausteine für nachgelagerte Anwendungen verwendet werden. Ein Versäumnis, umfassende Regulierung frühzeitig umzusetzen, wäre kostspielig: Der Umfang der Risiken wie zum Beispiel Cybersicherheit, Desinformation und Pathogene bedeuten, dass selbst ein einziges nicht adressiertes Risiko zu erheblichen Schäden führen könnte.

Anwender können die Last nicht tragen

Neben gesellschaftlichen Risiken ginge die Ausnahme von Grundlagenmodellen aus dem AI Act auch mit einer substanziellen Belastung für den KI-Standort Europa einher: Würden Regeln für Entwickler von Grundlagenmodellen gestrichen, würde implizit von den KMU und anderen nachgelagerten Anwendern, die Grundlagenmodelle nutzen, erwartet, dass sie blind für die Qualität der ihnen zur Verfügung gestellten Blackboxen bürgen und daher von Gerichten zur Verantwortung gezogen werden können. Vertragliche Vereinbarungen oder sekundäre Rechtsstreitigkeiten können dies angesichts der starken Machtkonzentration der vorgelagerten Anbieter im Vergleich zu den Anwendern nicht lösen: Die nachgelagerten Akteure müssen entweder die gesamte Verantwortung für unverantwortliches Verhalten des vorgelagerten Oligopols übernehmen oder auf die generative KI-Welle verzichten. Bei Verträgen und Rechtsstreitigkeiten ist es viel wahrscheinlicher, dass Big Tech gewinnt. Grundlagenmodelle von der Regulierung auszunehmen, macht es also nicht nur unwahrscheinlicher, den Modellen inhärente Risiken abzuwehren – sondern es ist ökonomisch teurer.

Da die letztendlichen Anwender über weniger sicherheitsspezifisches technisches Know-how, weniger umfangreiches Verständnis der von ihnen verwendeten Grundmodelle und oft wesentlich kleinere Budgets als die Entwickler der Grundmodelle verfügen, wären sie mit dieser Verschiebung einer ungleich größeren regulatorischen Last ausgesetzt. Darüber hinaus führt eine Regulierung auf der Ebene der Anwender zu Redundanz: Für jeden Entwickler eines Grundmodells gibt es eine Vielzahl nachgelagerter Anwender, von denen alle – darunter möglicherweise Tausende von europäischen Unternehmen – eine eigene detaillierte Sorgfaltsprüfung durchführen müssten, bevor sie ein Grundlagenmodell in ihrer Anwendung einsetzen könnten. Verglichen mit einem zentralen, strengen Sicherheitsstandard, der auf das Grundlagenmodell selbst angewendet wird, wäre das höchst ineffizient. Und zuletzt: wenn alle Grundmodelle qua regulatorischer Anforderung mit grundlegenden Sicherheitsstandards konform wären, könnten Anwender frei zwischen den Anbietern von Grundmodellen wechseln, ohne wiederholte Compliance-Kosten für jeden Wechsel zu tragen. Das führt zu einem dynamischeren und für neue Entwickler von Grundmodellen zugänglicheren Markt.

Der Widerstand der Mitgliedstaaten gegen die Grundlagenmodell-Regulierung ist getrieben von einer Sorge um die europäischen Player in der Grundlagenmodell-Entwicklung. Verständlicherweise befürchten EU-Politiker, dass eine Überregulierung diese Akteure gerade jetzt bedroht, wo sie hoffen, den Sprung zur internationalen Wettbewerbsfähigkeit zu schaffen. Aber die Sicherheit der EU-Bürger und die Integrität und Nachhaltigkeit des KI-Markts in Europa wären ein zu hoher Preis für die Gewährleistung der Wettbewerbsfähigkeit dieser Entwickler.

Glücklicherweise gibt es jedoch eine Lösung, die Sicherheit gewährleistet und heimische Entwickler von Grundmodellen schützt: Aufstrebende Anbieter von kleineren Grundlagenmodellen könnten unter einem „tiered approach“, wie er von der spanischen Ratspräsidentschaft vorgeschlagen wurde, unter weniger strenge Regulierung fallen. Die umfangreichere Regulierungslast würde nur von den Anbietern der größten und mächtigsten Modelle getragen werden – internationalen Tech-Giganten mit mehr als ausreichenden Ressourcen für wirksame Compliance. Mit diesem Ansatz könnte die EU ihre Bürger, ihr Marktumfeld für KI und ihre aufkeimende Entwicklung von Grundmodellen gleichermaßen schützen. Das bereits vorgeschlagene „AI Office“ könnte ermächtigt werden, neue Anforderungen auf der Grundlage technologischer Entwicklungen festzulegen, und damit eine zukunftssichere Gestaltung dieser Abstufung gewährleisten.

Keine globale Vorreiterschaft ohne Regulierung von Grundlagenmodellen

Als der AI Act im Jahr 2021 vorgelegt wurde, hatte er das Potenzial zum Goldstandard dafür zu werden, wie diese schnell fortschreitende Technologie reguliert werden kann. Dieses Potenzial besteht weiterhin. Allerdings haben seit 2021 praktisch alle großen technologischen Durchbrüche in der KI mit Grundlagenmodellen zu tun. Wenn der AI Act diesen mächtigsten und am schnellsten fortschreitenden Teil der KI außen vor lässt, wäre er von Tag eins an veraltet.

In den letzten Monaten haben die USAChina, das Vereinigte Königreich und die beim AI Safety Summit vertretenen Staaten wesentliche regulatorische Fortschritte erzielt – alle mit einem hauptsächlichen Fokus auf Grundlagenmodelle. Während der Rest der Welt versucht, die Schäden, die diese Modelle verursachen können, umfassend anzugehen und das Potenzial, das sie bieten, zu nutzen, droht die EU, von der Regulierung von Grundlagenmodellen komplett abzusehen. Es wäre traurig, der EU dabei zuzusehen, wie sie damit die Gelegenheit zur globalen Vorreiterschaft verspielt. Aber noch gibt es Hoffnung. Die Trilog-Verhandlungen könnten immer noch zu einer klugen Regulierung von Grundmodellen führen – um den Menschen in der EU die Möglichkeiten zu geben, all die Chancen von KI zu nutzen, und sie gleichzeitig vor den Risiken zu schützen. Dafür sollte sich auch die deutsche Bundesregierung einsetzen. 

Yoshua Bengio ist ein kanadischer Informatiker und Turing-Preisträger. Er wurde bekannt für seine Forschung zu künstlichen neuronalen Netzen und Deep Learning, für die er als einer der Pioniere mit Geoffrey Hinton und Yann LeCun gilt. Er ist Professor an der Université de Montréal und Gründer und wissenschaftlicher Direktor von Mila, dem Quebec AI Institute. 

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen