Die Erwartungen an den am Montag startenden „AI Action Summit“ in Paris sind immens – was am Deepseek-Schock der vergangenen Woche liegen mag. Aber natürlich auch daran – wie könnte es anders sein – an Donald Trump. Es ist das erste KI-Gipfeltreffen seit dem Machtwechsel in Washington, bei dem Staatenlenkerinnen, darunter US-Vizepräsident J. D. Vance und Bundeskanzler Olaf Scholz, auf Mitglieder der globalen Tech-Elite wie Elon Musk und Sam Altman treffen.
Die ersten beiden internationalen KI-Gipfel im englischen Bletchley Park und Seoul haben durchaus Erfolge gezeigt: Trotz frostiger Beziehungen schlossen sich die USA und China einer gemeinsamen Erklärung zur KI-Sicherheit an. Tech-Giganten wie Open AI, Mistral und Google Deepmind verpflichteten sich zu mehr Transparenz und strengeren Sicherheitsstandards.
Doch die Ausgangslage hat sich seitdem fundamental verändert. Die geopolitischen Rivalitäten, allen voran zwischen den USA und China, haben sich weiter verschärft. Europas Mut zur Konfrontation mit Big Tech scheint zu schwinden. Was also kann, was muss der Pariser Gipfel unter diesen Vorzeichen leisten?
Es wird immer notwendiger, Antworten auf Risiken zu finden
Ursprünglich sollten die KI-Gipfeltreffen Antworten auf die Risiken einer rasant fortschreitenden Technologie liefern. Seit dem letzten Gipfel im Mai 2024 ist die Lage noch dringlicher geworden: In Sachen IT-Sicherheit können die neuesten KI-Modelle laut AI Safety Report beinahe das Niveau professioneller Sicherheitsteams erreichen und teils IT-Schwachstellen schneller finden.
Auch in der Biotechnologie setzen die Modelle neue Maßstäbe, übertreffen immer wieder sogar promovierte Fachkräfte bei der Planung komplexer Laborversuche. Mit zunehmender Leistungsfähigkeit steigen so auch die Gefahren: Cyberangriffe, Deepfakes und mögliche Dual-Use-Szenarien in der Biotechnologie bedrohen sowohl Demokratien als auch die öffentliche Sicherheit. Zugleich zeigt eine Prognose der Internationalen Energieagentur, dass KI-Anwendungen enorme Energiefresser sind: Bis 2026 könnten sie den Schätzungen im AI Safety Report nach den jährlichen Stromverbrauch eines Landes wie Österreich erreichen.
Politisches Klima belastet Chancen auf einheitliche Regeln
Eigentlich hatten Politiker:innen und Tech-Konzerne auf den vergangenen Gipfeln versprochen, über unverbindliche Absichtserklärungen hinauszugehen. Sie wollten ein verbindliches Regelwerk schaffen. Geschehen ist bislang wenig, während sich das politische Klima rapide verändert hat.
Trump setzt wieder auf die „America First“-Strategie, hat in einer ersten Amtshandlung KI-Sicherheits- und Umweltauflagen gekippt und droht mit protektionistischen Maßnahmen. Entsprechend ist kaum zu erwarten, dass er sich auf neue globale KI-Regulierungsinitiativen einlässt – geschweige denn bereits beschlossene Vereinbarungen wie den Global Digital Compact der United Nations (UN), der globale Leitlinien für einen sicheren und inklusiven Umgang mit digitalen Technologien festlegt, weiterhin stützt.
Das chinesische Deepseek wiederum sorgt mit spektakulären Durchbrüchen für Unruhe bei Konzernen wie Open AI oder Microsoft. Das befeuert „AI Arms Race“ weiter. Und die Europäische Union, lange Zeit als „Super-Regulierer“ gefeiert oder – je nach Perspektive – gefürchtet, schlägt seit dem Draghi-Report zur europäischen Wettbewerbsfähigkeit leisere Töne an, wohl in der Hoffnung, Investoren und Tech-Firmen nicht zu verschrecken oder den von Trump angedrohten Exportzöllen zu entgehen.
Treffen darf nicht zu Leistungsschau verkommen
Dieses Klima spiegelt sich auch in der Gipfelagenda wider: Zwar bleiben Regulierungsfragen ein Thema, doch im Fokus stehen vor allem Projekte aus den Bereichen Innovation, Kultur und öffentliche Anwendungen. Keine Frage, auch das sind wichtige Aspekte. Doch je breiter sich die Agenda auffächert, desto schwieriger wird es, verbindliche Ziele für jene Handvoll Tech-Giganten durchzusetzen, die das Risiko maßgeblich treiben.
Wenn das Treffen zu einer Leistungsschau erfolgreicher KI-Projekte verkommt, gerät die zentrale Aufgabe aus dem Blick: Nämlich den übermächtigen Tech-Firmen klare Grenzen zu setzen und die Gefahren für Gesellschaft und Umwelt zu minimieren.
Damit Paris zu einem Erfolg wird, sind drei Punkte entscheidend:
- Es muss kritisch geprüft werden, ob die in Bletchley Park und Seoul getroffenen Selbstverpflichtungen der Tech-Konzerne irgendeinen Fortschritt gebracht haben. Mit den Seoul Commitments verpflichten sich die Unterzeichner:innen, ihre fortschrittlichsten KI-Systeme konsequent auf systemische Risiken zu prüfen, verbindliche Schwellenwerte für unvertretbare Gefahren zu definieren, sich unabhängigen Sicherheitsprüfungen zu unterziehen und im Extremfall ganz auf eine Veröffentlichung zu verzichten – bei voller Transparenz und Rechenschaftspflicht gegenüber Regierungen. Umgesetzt wurden diese Zusagen aber nur teilweise. Zwar haben manche Unternehmen, wie Anthropic, Berichte zu bereits getroffenen Sicherheitsmaßnahmen vorgelegt. Viele andere aber, darunter das französische Mistral, blieben konkrete Einblicke bisher schuldig.
Um zu verhindern, dass sich das berüchtigte Motto von Facebook-Gründer Mark Zuckerberg „move fast, break things“ in „break promises“ verwandelt, braucht es einen Mechanismus, der es belohnt, sich an die Regeln zu halten. Sonst profitieren am Ende die verantwortungslosesten Akteure und setzen die Standards für alle. Der AI Action Summit bietet nun die ideale Gelegenheit, nachzuhaken: Welche Maßnahmen wurden wirklich umgesetzt, wo bestehen Lücken und wie lässt sich ein unabhängiges Kontrollsystem etablieren? Nur so wird verhindert, dass Trittbrettfahrer den verantwortungsbewussten Firmen den Rang ablaufen. - Zudem braucht es das diplomatische Fingerspitzengefühl Frankreichs, um die größten KI-Mächte an einen Tisch zu bringen. Gerade die USA und China liefern sich ein gefährliches Wettrennen um technologische Vorherrschaft. In den USA ist von einem „Manhattan Project für AI“ die Rede, angelehnt an das Atomprogramm der 1940er-Jahre, während das chinesische Deepseek als „Sputnik-Moment“ wahrgenommen wird. Solange beide Seiten KI vor allem als Machtfrage sehen, geraten Sicherheitsstandards schnell ins Hintertreffen. KI-gestützte Informationsmanipulation und Meinungsbeeinflussung etwa überschreitet mühelos Landesgrenzen und kann demokratische Prozesse weltweit unterwandern – ein Risiko, das letztlich nicht nur die beiden Rivalen, sondern alle Länder gleichermaßen trifft. Genau hier könnten die Europäer, angeführt von Frankreich, vermitteln. Dialogforen und vertrauensbildende Maßnahmen könnten das Risiko einer Eskalation maßgeblich verringern.
- Die Europäer sollten sich nicht von ihrem bisherigen Kurs abbringen lassen und – wie Kaltenbrunner es auf den Punkt gebracht hat – keinesfalls in ein aussichtsloses Wettrennen um die größten KI-Modelle einsteigen. Stattdessen braucht es klare Leitplanken, die Marktmacht begrenzen und gezielt jene Anwendungen fördern, mit denen Europas Firmen dank ihrer Branchenexpertise und Spezialisierung punkten können. Ein Zurückfahren der Regulierungsambitionen würde vor allem den ohnehin schon marktbeherrschenden US-Konzernen zugutekommen – während europäische Start-ups und Mittelständler durch schwammige Transparenz- und Sicherheitsvorgaben schnell auf erheblichen Haftungsrisiken sitzen bleiben. Nur wer über die Funktionsweise und Risiken von Basis-Modellen hinreichend informiert ist, kann darauf Produkte sicher entwickeln und weiterdenken. Deshalb sind verbindliche Transparenzpflichten unerlässlich, ebenso wie eine konsequente Durchsetzung bestehender Digitalgesetze. Hält Europa an seinem Ziel fest, Technologie- und Innovationsstandort zu sein, muss es diese Regeln entschlossen anwenden, statt selbst minimale Standards zu verwässern.
Der Pariser Gipfel ist weit mehr als nur ein weiteres diplomatisches Großereignis. Er ist ein Testfall dafür, ob die internationale Gemeinschaft willens und in der Lage ist, in Sachen KI-Sicherheit zusammenzuarbeiten. Oder ob nationale Egoismen, der Wunsch nach Innovationsruhm und Rivalitäten den mühsam errungenen Fortschritt der vergangenen Jahre zunichtemachen.
Europa spielt hier eine Schlüsselrolle: Entweder es vermittelt erfolgreich zwischen den Machtblöcken und setzt seine Regulierungskompetenz klug ein – oder es macht den Weg frei für einen Wildwuchs, in dem wenige Giganten allen anderen die Regeln diktieren. Die Risiken liegen auf dem Tisch, die Akteure stehen bereit. Und das Zeitfenster für echte globale Kooperation könnte sich schneller schließen, als uns lieb sein kann.