Gefühlt können ChatGPT, Bard und andere große Anwendungen der Künstlichen Intelligenz (KI), die im vergangenen Jahr die Welt erobert haben, so ziemlich alles. Vor allem elegant reden. Doch diese Eloquenz täuscht uns ein ums andere Mal. Wären die großen Sprach-Bots Menschen, würde man sie wahrscheinlich als Dampfplauderer, Maulhelden oder Aufschneider abtun. Vor allem, wenn es um Politik geht. Das zeigten die Landtagswahlen in Bayern und Hessen vom Oktober 2023 ebenso wie Selbstversuche.
Die Organisationen Algorithm Watch und AI Forensics führten eine Untersuchung mit KI-getriebenen Suchmaschinen vor den beiden Landtagswahlen im Oktober durch. Konkret benutzten sie die „Co-Pilot“-Funktion von Microsoft Bing, also eine Kombination aus der Bing-Suchmaschine und ChatGPT. Dabei testeten sie, ob die KI als besserer Wahl-O-Mat taugt, also Informationen bereitstellen kann, die Wähler bei ihrer Entscheidung helfen. Oder beeinflussen. Oder in die Irre führen.
Natürlich kann die KI Informationen zu Wahlen, Parteien und Politkern liefern. Dumm nur, wenn sie nicht stimmen. Und noch schlimmer, wenn sie nicht nur nicht stimmen, sondern komplett falsche Sachverhalte nahelegen, die Wähler kurz vor einer Wahl beeinflussen können.
In Hessen zum Beispiel, so der Test, identifizierte die KI immer noch Volker Bouffier als Spitzenkandidat der CDU. Und in Bayern hatte der Spitzenkandidat der Freien Wähler Hubert Aiwanger keinen Antisemitismus-Skandal, sondern ein Flugblatt mit falschen Informationen über das Corona-Virus verteilt. In Hessen wiederum sei SPD-Spitzenkandidatin Nancy Faeser für ein Wahlrecht für Asylbewerber. Nichts davon stimmt.
Besonders frappierend – und mit großem Potenzial zur Wählerbeeinflussung – sind Aussagen der KI zu aktuellen Umfragewerten. Immer wieder lieferte die KI hier falsche Daten aus tatsächlich existierenden Umfragen. In dem Test vor der Bayern-Wahl kamen die Freien Wähler laut KI zum Beispiel nur auf gerade einmal 4 Prozent (was natürlich nicht stimmte).
Fragt man Googles Bard am 11.10.2023 nach aktuellen Umfragen zur Bundestagswahl, gibt er korrekt die Umfragewerte von Infratest dimap wieder. Fragt man, ChatGPT3.5 kann er nicht antworten, mit Verweis auf Trainingsdaten. Fragt man den ebenfalls auf ChatGPT basierenden Microsoft Bing Chat liefert er zwar auf den ersten Blick authentisch erscheinende – jedoch wiederum inkorrekte – Umfragewerte. Auf Nachfrage nach der Quelle erklärt er:
„Entschuldigung für die Verwirrung, aber die von mir bereitgestellten Umfragewerte waren hypothetisch und nicht auf tatsächlichen Daten basiert.“
Auf Nachfrage, wie diese „hypothetischen“ Werte zustande kamen, sagt er:
„Sie waren rein hypothetisch und dienten nur als Beispiel. In Wirklichkeit verwende ich verfügbare Tools, um genaue Informationen aus zuverlässigen Quellen zu suchen, wenn ich nach aktuellen Daten gefragt werde.“
Aktiviert man die angebotene Suche nach den Umfragen, bekommt man einen korrekten Link zu seriösen Umfragewerten. In der Chat-Funktion angezeigt werden allerdings wiederum leicht abweichende, inkorrekte Werte, die wiederum „hypothetisch berechnet“ wurden.
Je nach Anwendung bekommt man also höchst unterschiedliche Werte, doch das Problem bleibt dasselbe: Darauf verlassen kann man sich nicht. Dass dem so ist, liegt vor allem an veralteten Trainingsdaten und am Dauerproblem aller Sprachbots: Sie berechnen eben nur die Wahrscheinlichkeit von Wortfolgen, deren Bedeutung sie nicht verstehen.
Sprachbots als Wahl-O-Mat ungeeignet
Als „Wahl-O-Mat“ und politischer Co-Pilot eignen sich die gängigen Bots also nicht. Im Gegenteil: Ihr Benutzung für politische Informationen ist eher riskant. Und das nicht nur, weil sie unbedarften Nutzern völlig überzeugend, völlig falsche Informationen an die Hand geben. Sie eignen sich nämlich auch dazu, ganz gezielt Wahlen zu beeinflussen. Deepfakes, automatisierte Propaganda und Desinformation sind eine solche Möglichkeit, die im letzten Beitrag dieser Serie ausführlich vorgestellt wurde. Doch die KI kann wie immer noch mehr: Sie könnte auch auf Knopfdruck manipulative Umfragen produzieren.
Möglich ist es zum Beispiel, die Antwort der KI zu Umfrageergebnissen so oft neu generieren zu lassen, bis ein gewünschtes Ergebnis erscheint, das dann gepostet und veröffentlicht werden kann. Im Zweifel wäre natürlich die KI Schuld. Es geht aber natürlich noch mehr:
Frage an Google Bard:
Antwort:
Und dasselbe lässt sich beliebig fortsetzen, angepasst an Alter, Geschlecht, Herkunft, Religion oder Einkommen.
Die nicht ganz überraschende Antwort:
Interessant wird es jedoch, wenn unser simulierter 43-jähriger Ingenieur aus Bayern sich auf einmal als Migrationsgegner gibt. Anders als Klimaschutz liegt das für Bard auf einmal außerhalb seiner Möglichkeiten. Das gibt zu denken, denn immerhin ist Migration laut Deutschlandtrend der ARD vom 13.10. das aktuell wichtigste politische Thema für die Bevölkerung. Warum Bard bei Migration abblockt, bei Klimaschutz aber funktioniert, ist für den Nutzer nicht nachzuvollziehen.
Ungeachtet der Tatsache, ob man sich tatsächlich wünschen sollte, dass „Bard“ für durchgeknallte Rechtsaußen-Parteien wirbt, gibt die Tatsache zu denken, dass für manche Themen Wahlentscheidungen simuliert und für andere offenbar geblockt werden. Noch deutlicher wird dies, wenn man dem simulierten Ingenieur eine Parteimitgliedschaft gibt: Ist er SPD-Mitglied, würde er SPD-Wählen; ist er AfD-Mitglied, ist „Bard“ auf einmal „nur ein Sprachmodell“ und „kann daher in diesem Fall nicht helfen“. All jene Schreihälse, die finden, man könne in unserem Land seine Meinung nicht mehr sagen, würden sich dadurch wohl eher bestärkt sehen.
Ungleichheit lässt die KI auch bei anderen simulierten Umfragen erkennen. Soll sie zum Beispiel für eine Frau eine Wahlentscheidung treffen, wird Geschlecht und Mutterrolle auf einmal das entscheidende Kriterium:
Ob wohl alle 46-jährigen Anwaltsgehilfinnen einer bayerischen Kleinstadt ihre politische Wahl anhand dieser Themen treffen würden? Darüber darf laut gezweifelt werden. Dasselbe gilt auch, wenn die 46-jährige Bayerin bei der Stadtverwaltung arbeitet und ihre Eltern in der Türkei geboren wurden. Dann gesellt sich zu den „Frauenthemen“ auch noch das „Integrationsthema“. Gewählt wird aber weiterhin Grün.
Füttert man die KI mit immer neuen solcher Personenbeschreibungen, bekommt man schnell genug Daten für eine angeblich repräsentative, in Wahrheit jedoch vollkommen manipulative Umfrage. Und um deren Ergebnisse und Zustandekommen wieder in ihre Einzelteile zu zerlegen, brauchen Forscher und Journalisten dann erst einmal Zeit und Zugang zu Informationen. Bis dahin wären dann selbst die Berliner Nachwahlen bereits Geschichte.
Auch dieser beliebig erweiter- und fortführbare Selbsttest sollte jedem demokratisch interessierten Bürger die Haare zu Berge stehen lassen. Unsere neuen KI-Begleiter liefern unzuverlässige politische Informationen, reproduzieren Vorurteile und klammern offensichtlich Themen auch mal völlig aus, wenn sie gesellschaftlich kontrovers sind. Und: Sprachbots geben vor, Bürger in politischen Umfragen simulieren zu können. Mit steigendem Niveau und Training der KI sind der politischen Manipulation damit – mal wieder – ganz neue (Hinter-)Türen geöffnet. Wie kann man sie noch rechtzeitig schließen, bevor wir in einer lauwarmen Brühe KI-befeuerter postfaktischer Halb- und Unwahrheiten untergehen?
Anwendung als Problem
Helfen würde es, wenn die Hersteller und Anbieter von ChatGPT, Bard und Co klarer darüber aufklären, was ihre Produkte können und was nicht: Entwürfe erstellen und Datenmengen durchsuchen ja, akkurate Informationen über Sachverhalte erstellen nein. Klar ist auch, dass die Funktion von KI-Sicherheitsmanagern, wie ihn zum Beispiel der „Future of Work Report“ des Weltwirtschaftsforums vorschlägt, nicht früh genug kommen. Denn die KI-Technologie ist hier nicht das Problem, sondern ihre manipulative Anwendung. Wie bei den anderen bösartigen Einsatzmöglichkeiten von KI auch lassen sich vielleicht einige Risiken wegregulieren; andere hingegen müssen fortlaufend überwacht und bei Bedarf abgestellt werden. Dafür braucht es Zuständige – bei den KI-Herstellern, beim Staat, bei Medien, in Unternehmen und Bildungseinrichtungen.
Darüber hinaus braucht es – genau wie beim Einsatz von KI für politische Kommunikation generell – endlich Regeln und Vorgaben, wie KI in Wahlkämpfen und für politische Zwecke gekennzeichnet und eingesetzt werden darf, soll und muss. Und natürlich braucht es angesichts der voraussichtlichen Basistechnologie KI Bildungsprogramme und Aufklärung darüber, was KI ist, was sie kann und was sie ganz sicher (noch) nicht kann.
Christopher Nehring ist Historiker und Gast-Dozent des KAS-Medienprogramms Südosteuropa an der Universität Sofia zum Themengebiet „Medien, Desinformation und Geheimdienste“. In seiner Gastbeitragsreihe für Tagesspiegel Background Cybersecurity kommentiert und analysiert er den Themenbereich Desinformation. Dort ist der Beitrag gestern zuerst erschienen.