Die Prognosen für die Demokratie waren Anfang 2024 düster. Manche Expert:innen fürchteten, dass Künstliche Intelligenz (KI) im Superwahljahr 2024 große Herausforderungen bedeuten würde. Die EU-Kommission warnte gar, dass KI-gestützte Desinformationskampagnen einschlagen könnten wie eine „Atombombe“. Selbst Tech-Optimisten wie Open AI-CEO Sam Altman mussten eingestehen, dass sie „nervös“ seien, was die Auswirkungen von KI auf die bevorstehenden Wahlen angeht.
Kein Wunder, bei dem, was auf dem Spiel steht: Bis Dezember wird in mehr als 60 Ländern, in denen mehr als die Hälfte der Weltbevölkerung lebt, gewählt. Gekoppelt mit Fortschritten bei generativer Künstlicher Intelligenz (GenAI), die es mehr Akteuren als zuvor ermöglicht, ausgefeilte Desinformationskampagnen schnell hochzuziehen, waren eigentlich alle Zutaten für eine KI-Katastrophe gegeben. Doch entgegen der Erwartungen sieht es bisher so aus, als ob die „Atombombe“ der KI-Desinformation zumindest 2024 ein Blindgänger gewesen sei.
Wer sich die Berichterstattung zu den Wahlen der vergangenen Monate ansieht, findet schnell Beispiele, wie KI zur Einmischung in Wahlen verwendet wurde. Da wäre etwa der Fall der Präsidentschafts-Vorwahl im US-Bundesstaat New Hampshire vom Januar: Dort forderte eine per KI geklonte Stimme des US-Präsidenten Joe Biden die Mitglieder der Demokratischen Partei telefonisch dazu auf, das Wählen besser bleibenzulassen. Bei Wahlen in Taiwan wurden mithilfe von Deepfake-Videos Falschmeldungen über eine „geheime Vergangenheit“ der scheidenden Präsidentin Tsai Ing-Wen verbreitet.
Sowohl der US-amerikanische als auch der taiwanesische Fall verstärkten die Besorgnis über KI, obwohl die Täuschung schnell aufgedeckt und Aufklärung betrieben wurde. Auch bei den Wahlen in Frankreich, der EU und in Großbritannien wurden zwar KI-generierte Bilder verwendet, zum Beispiel durch rechtspopulistische Wahlkämpfer, die versuchten, Migrationsdebatten weiter anzuheizen. Aber keine dieser Täuschungen ging viral oder war allein überzeugend genug, um sich wirklich auf die Ergebnisse der Wahlen auszuwirken. Auch wenn es schwierig ist, den Einfluss von Desinformation auf Wahlen genau zu bewerten, so gibt es dennoch bisher keine eindeutigen Anzeichen dafür, dass KI eine Wahl grundlegend im Ergebnis beeinflusst hat.
Womit wir in Zukunft rechnen müssen: Verbesserung
Ist also alles in Ordnung mit KI und der Demokratie? Auf keinen Fall, denn auch wenn die schlimmsten Vorhersagen so nicht eingetreten sind, ist jetzt keineswegs Zeit für Nachlässigkeit. Drei KI-Trends, die sich erst in der Zukunft wirklich entfalten werden, sind besonders besorgniserregend.
Erstens ist es angesichts der sprunghaften Verbesserung von KI-Modellen nur eine Frage der Zeit bis sich die Verbreitung von Desinformation grundlegend ändert – und viel persönlicher und personalisierter wird, als alles, was wir bisher kennen. Schon jetzt gibt es KI-generierte Charaktere, die als Social-Media-Influencer mit ihren Botschaften hunderttausende Follower erreichen. In Zukunft werden auch „KI-Begleiter“, also Chatbots, die menschliche Persönlichkeiten nachahmen, immer beliebter und lebensechter werden. Dies eröffnet ganz neue Möglichkeiten, Desinformation zu verbreiten.
Der KI-Chatbot der Plattform X, der Millionen Nutzer:innen erreicht, hat bereits Falschinformationen zu Wahlen ausgespuckt. Rechtsextremisten programmieren sogar gezielt Chatbots, die den Holocaust leugnen. In Zukunft könnten Desinformationen, die in täuschend echte und persönliche Unterhaltungen mit KI-„Freunden“ eingebettet sind, besonders überzeugend sein – und auch besonders schwierig zu regulieren.
Womit wir in Zukunft rechnen müssen: Allgegenwart
Zweitens werden realistische GenAI-Inhalte immer allgegenwärtiger. In Zukunft werden sich auch politische Akteure kaum mehr dagegen versperren können, sie für ihre Zwecke zu nutzen. Beispiele für solche – durchaus kreative – Einsätze von KI finden sich schon jetzt. Vor den Wahlen in Indonesien im Februar ließen Wahlkämpfer den verstorbenen Diktator Suharto durch KI „wiederauferstehen“ und in einer Videobotschaft ihren aktuellen Kandidaten unterstützen. Sogenannte „Softfake“-Videos finden sich aber auch in den USA, wo Kandidat:innen sich dank KI in Sprachen, die sie eigentlich gar nicht beherrschen, an die Wählerschaft wenden.
Wenn die Verwendung von GenAI im politischen Wahlkampf zur Norm wird, wird es immer schwieriger, bösartige Deepfakes von legitimer politischer Werbung oder sogar satirischen Inhalten zu unterscheiden. Das macht die Sache nicht nur für die Bürger:innen kompliziert, sondern auch für Regulierungsbehörden, KI-Entwickler und Social-Media-Unternehmen, die entscheiden müssen, welche Formen von KI-Inhalten online erlaubt sind oder nicht.
Womit wir in Zukunft rechnen müssen: Vermüllung
Drittens könnte die Allgegenwart von KI-Inhalten für die Bürger nicht nur verwirrend, sondern auch lästig werden. Nutzer von Social-Media-Plattformen wie X und Facebook beschweren sich bereits, dass sie mit KI-generiertem Spam überschwemmt werden. Ebenso hat sich die Zahl der „Nachrichten“-Websites, die ausschließlich von KI-geschriebenen Artikeln befüllt sind – manche harmlos, manche irreführend – im vergangenen Jahr vervielfacht. Solch mittelmäßige KI-Inhalte breiten sich im Internet aus und entziehen qualitativ hochwertigen Informationsquellen den Sauerstoff. Das Ergebnis ist ein zunehmend vermüllter Online-Informationsraum und die Gefahr einer Abwärtsspirale, bei der neue KI-Modelle mit immer schlechteren Informationen gefüttert werden.
Gleichzeitig zeigen Studien über Studien, dass weltweit das Vertrauen der Bürger in Informationsquellen wie traditionelle Medien und öffentliche Institutionen abnimmt und die „Nachrichtenvermeidung“ zunimmt. Eine Flut von nicht vertrauenswürdigen oder einfach minderwertigen Online-Informationen wird Bürger:innen nur noch zynischer machen. Eine Öffentlichkeit, die es müde ist, nach qualitativ hochwertigen Informationen zu suchen, stellt ein echtes Problem für die Demokratie dar.
Technische Lösungen und Regulierungsvorhaben
Wir müssen uns also gegen zukünftige Störungen nicht nur unserer Wahlen, sondern demokratischer Prozesse allgemein, wappnen. Der Fokus sollten Maßnahmen sein, die wieder Vertrauen in Informationen herstellen. Technologische Lösungen können ein wichtiger Teil dessen sein. Ein vielversprechendes Mittel, um KI-generierte Inhalte kenntlich zu machen sind Wasserzeichen. Diese sind weder wahrnehmbar noch löschbar, doch digital lässt sich anhand dessen auslesen, dass diese Inhalte KI-generiert sind. So lässt sich unterscheiden, ob Audio-, Film-, oder Bildmaterial von Mensch oder Maschine erstellt ist. Momentan ist die Applikation von Wasserzeichen jedoch technisch noch schwierig und branchenweit zu uneinheitlich.
Technische Lösungen allein reichen zudem nicht aus, um die Demokratie zu schützen. Tech-Firmen müssen auch entscheiden, wie sie mit KI-Inhalten umgehen, wenn sie erstmal erkannt sind. Werden sie von Empfehlungs-Algorithmen anders behandelt? Werden sie für Nutzer:innen als KI-generiert gekennzeichnet? Das Markieren von Falschinformationen als solche hat sich allgemein als eine der wenigen Korrekturmaßnahmen erwiesen, die wirklich wirksam sind, um Vertrauen herzustellen.
Initiativen der Tech-Firmen zur Selbstregulierung, wie der AI Elections Accord, gibt es bereits. Diese müssen nun noch effektiver genutzt werden, um etwa im Bereich von Wasserzeichen „Best practices“ zum industrieweiten Standard zu machen. Effektive Regeln von Regierungsseite können den Druck dazu erhöhen. Die EU hat erst kürzlich mit dem AI Act und dem Gesetz über Digital Dienste zwei verbindliche Regelungen verabschiedet, die Firmen vorschreiben, wie sie mit KI-Inhalten und Desinformation umzugehen haben. Beide befinden sich aber, was ihre Umsetzung betrifft, noch am Anfang. Priorität sollte sein, sicherzustellen, dass die Vorschriften effektiv durchgesetzt und weiter an die rapiden technologischen Fortschritte angepasst werden.
Auch wenn dieses Jahr die KI-Atombombe nicht hochgegangen ist, stehen die Zeichen nicht auf Entwarnung. Auch ohne große Beteiligung von KI verzerrt Desinformation, wie man schon im laufenden US-Wahlkampf sieht, demokratische Debatten. Die Absicherung der Demokratie gegen den Einfluss von KI wird also ständige Anpassung erfordern. Für die nächste Bundestagswahl könnte die Informationslandschaft dank KI schon wieder bedeutend anders aussehen. Daher heißt es: wachsam bleiben.
Der Text basiert auf den Erkenntnissen der Analyse „AI-pocalypse Now? Disinformation, AI, and the Super Election Year“ von Köhler und Carr, die im Oktober erschienen ist.