Man weiß nicht, wozu es gut sein soll, bringt es aber dennoch auf den Markt. So lässt sich die Politik der Big-Tech-Unternehmen mit ihren KI-Produkten seit einiger Zeit auf den Punkt bringen. Jüngstes Beispiel: KI, die Stimmen klont.
Open AI stellte Ende März das KI-Programm „Voice Engine“ vor, dem eine 15-sekündige Sprachaufnahme reicht, um eine Stimme täuschend echt nachzuahmen. Im US-Wahlkampf hatten kurz zuvor Berichte für Aufsehen gesorgt, nach denen zahlreiche Wähler in New Hampshire durch einen vermeintlichen Telefonanruf Joe Bidens aufgefordert wurden, ihre Stimme nicht abzugeben.
Programme, die solche „Robocalls“ ermöglichen, sind also schon auf dem Markt und so gab sich Open AI bei der Vorstellung von Voice Engine selbstkritisch: „Wir sind uns bewusst, dass die Erzeugung von Stimmen, die denen von Menschen ähneln, ernsthafte Risiken birgt“, teilte das Unternehmen aus San Francisco mit. Aufgrund des Potenzials für den Missbrauch synthetischer Stimmen habe man sich für einen „vorsichtigen“ Ansatz für eine breitere Freigabe entschieden. Wir können gespannt sein, wie dieser Ansatz genau aussieht.
Als Open AI kürzlich sein Text-to-Video-Werkzeug „Sora“ (deutsch: Himmel) vorstellte, war das Unternehmen weniger zurückhaltend: Die KI sei „ein vielversprechender Weg zum Aufbau von Allzwecksimulatoren unserer physischen Welt“ und könne etwa verwendet werden, um künftig die Auswirkungen von Naturkatastrophen zu untersuchen. Konkurrent Facebook legte sogleich Widerspruch ein: Dazu sei Sora aus technischen Gründen gar nicht in der Lage. Die hehren Ziele der Menschheitsrettung vor den Gewalten der Natur sind also möglicherweise nicht realistisch. Fakt dagegen ist: Desinformation wird durch Sora noch leichter und das in einem Jahr, in dem weltweit 60 Wahlen stattfinden. Darunter so wichtige wie die in den USA oder für das Europaparlament.
KI-Chefs mit doppeltem Visier unterwegs
Open-AI-Chef Sam Altman verglich seine KI-Geschöpfe vor einem Jahr mit der Atombombe und beschwor gar die Auslöschung der Menschheit als Gefahr. Dennoch hört man wenig von ihm, wenn es um eine bindende rechtliche Regulierung seiner Technologie geht.
Zuletzt forderte Google-Chef Sundar Pichai am Rande der Münchener Sicherheitskonferenz (sic!) weltweite verbindliche Regeln. KI sei zu wichtig, um sie nicht zu regulieren. Sprachs, und empfing direkt nach dem Reporter Wirtschaftsminister Habeck zu einem Vieraugengespräch. Ob dieser sein Flehen nach Anti-Fake-Gesetzen erhören wird? Kaum wahrscheinlich, denn die Politik tut sich gerade in der aktuellen Weltlage mit verbindlichen Regeln erkennbar schwer. Das Lobbying von Big Tech gegen den AI Act zeigt zudem, dass Regulierung zwar öffentlich gefordert, hinter den Kulissen aber als Bremse für den freien Wettbewerb denunziert wird. Und welcher Wirtschaftsminister will schon dafür verantwortlich sein, dass unter ihm seine Wirtschaft abgehängt wird vom vermeintlich exponentiellen Gang der Technik?
Technische Lösungen stoßen an Grenzen…
Wenn es um das mögliche Abfedern negativer Auswirkungen geht, wird von Big Tech statt auf bindende Gesetze entweder auf interne Ethikkomitees oder auf technische Lösungen verwiesen. Mit Wasserzeichen etwa sollen die Fakes erkennbar werden, die durch Voice Engine, Sora und Co. noch einfacher möglich werden. Nach einer aktuellen Studie der Mozilla Foundation stellen allerdings immer mehr Labels und Kennzeichnungen keine zufriedenstellende Lösung für das Problem dar, wie Nutzer authentische Inhalte von KI-Fakes unterscheiden können.
…und der AI Act auch
Und es gibt in dieser Debatte noch ein viel größeres ungelöstes Problem: Alle Kennzeichnungen beruhen auf Freiwilligkeit. Die Unternehmen, die eine Technik in Umlauf bringen, die unabsehbare negative Folgen haben kann, entscheiden wie im Falle Voice Engine vollkommen eigenmächtig. Gesetzliche Vorschriften, um solche Hochrisikotechnologien für die Demokratie zu bändigen, sind weltweit Fehlanzeige. Nicht einmal der AI Act enthält KI-Nutzung in den Medien als Hochrisikofall.
Dabei wäre die Regulierung einer Technologie, die wie generelle KI nach allgemeinem Dafürhalten der weltweit anerkannten Experten existentielle Gefahren birgt – gerade ist in „Science“ eine neue Warnung erschienen – nicht so ungewöhnlich, wie es nach dreißig Jahren wildem Westen im Cyberspace zunächst erscheint.
Die Pharmaindustrie beispielsweise investiert jährlich Milliardenbeträge, um neue Medikamente zu testen, bevor sie zugelassen werden. Regelmäßig müssen auch teure Neuentwicklungen zurückgezogen werden, wenn die Tests keine Wirksamkeit garantieren, oder unvorhersehbare Nebenwirkungen auftreten. Das drückt wie kürzlich im Falle eines Gerinnungshemmers von Bayer den Aktienkurs schonmal um 19 Prozent, und kostet damit Milliarden an Börsenbewertung. Doch nicht einmal die FDP würde wohl deshalb nach einem Ende der vor Markteinführung verbindlichen Pharmastudien rufen.
Erstmal den Nutzen beweisen
Warum schreiben wir der KI-Industrie also nicht die Abwägung eines Nutzen-Risiko-Verhältnisses wie im Fall der Pharmaindustrie verpflichtend vor? Die Gesundheitsgefahren von Social-Media-Algorithmen gerade für junge Menschen sind nachgewiesen, dass Fake News eine unmittelbare Gefährdung für den Zusammenhalt der Gesellschaft darstellt, ist inzwischen auch recht klar. Weitere Beweise für das Gefährdungspotential von KI-Fakes für die Demokratie werden in den laufenden Wahlkämpfen folgen.
Eine Idee wäre es, vor der flächendeckenden Einführung solcher KI-Systeme erst einmal über ihren sinnvollen Einsatz nachdenken: Wo ist das gesellschaftliche Problem, das wir damit lösen wollen? Sollen Abläufe und Zugänge vereinfacht werden oder Journalisten, Schauspieler und Kreative ersetzt werden? Und generell: wer haftet für die Folgen?
Schon lange steuern Algorithmen die Informationsflüsse und übernehmen immer stärker die Rolle von Gatekeepern der öffentlichen Meinung. Mit der automatisierbaren Erzeugung von Texten, Bildern, Videos, und jetzt auch Stimmen sind sie nun in der Lage, auch die Produktion der Informationen zu steuern, und zwar in einer Weise, die die Quellen verschüttet, aus denen sie sich speisen. Ungebremst führt diese Entwicklung direkt in eine Ära der strukturellen Desinformation. Wozu soll das gut sein, und wollen wir weiterhin, dass die Instrumente dazu ungeprüft auf den Markt gebracht werden?
Jürgen Pfeffer ist Professor für Computational Social Science an der TUM School of Social Science in München. Matthias Pfeffer ist Direktor des Thinktanks „Council for European Public Space“ in Berlin. Sie führen gemeinsam Lehrveranstaltungen zu „Digitalisierung und Demokratie“ an der TUM durch.