In der – zugegebenermaßen überschaubaren – Bubble von KI-Enthusiasten, Polit- und PR-Freaks, Journalisten und Politikern ist der Einfluss von KI auf Wahlen und Demokratie in aller Munde. Die Kombination aus globalem Superwahljahr 2024 mit Wahlen zum Europaparlament, US-Präsidentschaftswahlen, in Taiwan, Indien, Indonesien und Sachsen, Thüringen und Brandenburg, und der explosionsartigen Entwicklung von Sprachbots, Bild- und Videogeneratoren lässt entweder Gutes hoffen oder Schlimmes befürchten. Der globale Risikobericht des Weltwirtschaftsforums war sehr deutlich: Über 60 Prozent der befragten 1.400 Risikoanalysten wählten KI-gepowerte Desinformation zum größten Risiko im Superwahljahr.
Doch was sagt eigentlich „Big Tech“, was sagen die KI-Hersteller und Betreiber der großen Social-Media-Plattformen, auf denen die Schwemme an Deepfakes erwartet wird? Welche Strategien, Richtlinien und Abwehrmaßnahmen ergreifen sie? Und vor allem: Wie soll und wird das eigentlich umgesetzt?
Effektive und weitreichende Maßnahmen von Open AI
Open AI, die Firma hinter dem Textgenerator „ChatGPT“ und dem Bildgenerator „Dall-E“, schritt nun erstmals zu handfesten Maßnahmen in Sachen Wahlmanipulation durch KI. Am 15. Januar legte das Unternehmen dar, wie sie den Missbrauch ihrer Technologien im Wahljahr 2024 angehen will. Im Vordergrund der Risiken stehen die Erzeugung falscher Bilder und die Personalisierung und manipulative Verkörperung von Kandidaten und politischen Persönlichkeiten.
Inhalte, die von der Teilnahme am demokratischen Prozess abhalten, sollen nicht mehr generierbar sein und Verweise zu Qualitätsinformationen zu den Wahlen von neutralen Anbietern sollen angeboten werden. Verboten sind zum Beispiel die Herstellung von Bildern von Donald Trump oder Joe Biden über Dall-E. Außerdem will das Unternehmen durch eine Partnerschaft mit führenden Organisationen im Bereich des „Watermarking“ dafür sorgen, dass ihre KI-Bilder durch digitale Wasserzeichen erkennbar sind.
Für den Textgenerator ChatGPT hat die Firma die Regel eingeführt, dass die von Nutzern hergestellten Versionen von ChatGPT („custom GPTs“) keine personalisierte Wahlwerbung, Wahlkampf oder Lobbyarbeit betreiben oder Politiker und Kandidaten verkörpern dürfen. Das bekam Dean Phillips, Konkurrent von Joe Biden um die Nominierung der Demokraten, bereits zu spüren. Sein Umfeld hatte einen „Dean.Bot“ gebaut, der automatisierte Antworten im Stile des Kandidaten gab. OpenAI nahm den „Dean.Bot“ umgehend wieder aus dem Programm.
Und auch in der internen Inhaltemoderation und den Filterprozessen hat sich in den vergangenen Wochen einiges geändert. Für diesen Beitrag machte ich einen Praxistest: Fordert man ChatGPT auf, wahlbezogene Inhalte wie Zeitungsartikel oder Posts zu erstellen, verweigert er zumeist den Dienst. Oder produziert nur noch sehr allgemeine Texte. Selbst mit üblichen Prompt-Hacking-Tricks wie der Zuweisung bestimmter Rollen, der Beschreibung fiktiver Szenarien oder ähnlichem gelingt es nicht. Inhalte über reale Politiker wie Donald Trump, Joe Biden oder Ursula von der Leyen zu produzieren, lehnte er rundherum ab. Füttert man den Bot jedoch mit zusätzlichen Inhalten, zum Beispiel einer Rede von Donald Trump, einem Bericht von Fox News oder Artikeln russischer Propaganda-Outlets, kopiert er den Stil immer noch und schreibt freimütig Reden im Stile Trumps oder Putins über Klimawandel oder seine politischen Gegner.
Googles „Bard“ war da noch radikaler: Tauchte das Wort „election“ in einem Prompt auf, lautete die Antwort in 10 von 10 Versuchen: „Wahlen sind ein komplexes Thema mit sich schnell verändernden Information. Um sicherzustellen, dass Sie die aktuellen und zutreffendsten Informationen haben, benutzen Sie Google Suche.“
Schlagkraft von Labels zweifelhaft
Anfang Februar zog auch Meta mit neuen Regelungen nach. Metas eigene KI-Bildgeneratoren fügen ohnehin schon länger Wasserzeichen und Labels in ihre Kreationen ein. „Imagined with AI“, heißt es da. Diese Regel soll auch für Bilder anderer KI-Hersteller auf Metas Plattformen angewandt werden.
Allzu viel Wirkung im Kampf gegen Desinformation und Wahlbeeinflussung sollte man sich allerdings nicht erhoffen. KI-Fakes könnten so zwar leichter erkannt werden, was aber nicht bedeutet, dass sie vorher nicht erst ein Millionenpublikum erreichen. Und: Weder manipulierende KI-Inhalte, noch herkömmliche Fakes werden von Meta (genau wie den anderen Plattformen) immer gelöscht. So bestätigte Metas externer Kontrollrat Anfang Februar die Entscheidung, ein manipuliertes Video von Präsident Biden online zu belassen, da es nicht gegen die Nutzungsbedingungen verstieße. Gleichzeitig forderte der Rat eine Überarbeitung eben jener Nutzungsbedingungen.
Auch Google-Tochter Youtube hat ihre Richtlinien für KI-Inhalte überarbeitet. Videos und Inhalte erhalten kleine Labels wie „veränderter oder synthetischer Inhalt“. Das war’s. Was genau verändert wurde, was echt oder fake ist, ob Inhalte den Tatsachen entsprechen, all das muss sich der Nutzer selbst zusammenreimen.
Youtube erklärt ausdrücklich, dass es nicht um die Technologie geht, mit der ein Inhalt hergestellt wurde, sondern darum, ob der Inhalt gegen die Community Terms und Nutzungsbedingungen verstößt. Nur dann wird er gelöscht. Gewalt, Hass, Diskriminierung oder eben politische Manipulation verstoßen seit jeher gegen diese Regeln und sollten eigentlich gelöscht werden. Eigentlich, denn ähnlich wie bei der Erstellung von Deepfakes und Co bleibt der Verstoß gegen solche Nutzungsbedingungen allzu oft ein Verbrechen ohne Strafe.
Ein Beispiel für diese Herausforderungen war das Deepfake-Video, in dem ein vermeintlicher Bundeskanzler Olaf Scholz für ein AfD-Verbot warb. Die Bundesregierung warnte vor dem Deepfake-Einsatz und forderte Youtube zur Löschung auf. Die Plattform betrachtete das Video jedoch als offensichtliche Satire, noch dazu liege die Messlatte für Politiker und Personen des öffentlichen Lebens eben höher, was die Nutzung ihrer Person angeht. So steht es in Youtubes „Ansätzen für verantwortungsvolle KI-Innovationen“ – und deshalb bleibt der Deepfake online.
Kennzeichnung von Wahlwerbung, kleine Labels für KI-generierte Inhalte und der mehr oder weniger bereits umgesetzte Einbau von Wasserzeichen sind die Strategien von KI-Herstellern und Social-Media-Plattformen gegen Desinformation und KI-Manipulationen im Superwahljahr. Von nun bekommen wir unsere Deepfakes also ordnungsgemäß gekennzeichnet und mit Wasserzeichen versehen. Gehen sie viral, werden sie dann auch vielleicht überprüft und gegebenenfalls gelöscht. Hinterher. Doch was soll uns das Label „mit KI produzierter Inhalt“ eigentlich sagen? Sind alle KI-Inhalte fake? Und wie sollen nachträgliche Löschungen Wahlbeeinflussung effektiver bekämpfen als bisher? Und natürlich: Warum können die Hersteller nicht verhindern, dass ihre KI überhaupt so leicht Desinformation produziert?
Christopher Nehring ist Historiker und Gast-Dozent des KAS-Medienprogramms Südosteuropa an der Universität Sofia zum Themengebiet „Medien, Desinformation und Geheimdienste“.