In den USA sind „innovative“ Methoden der Wahlvorhersage längst ein Trend. Bei der letzten Präsident:innenwahl gab es Vorhersagen unter anderem von Baby-Flusspferden und Makaken. Dass ein Tool zur Wahlvorhersage – trotz des Unterhaltungsfaktors – nicht in der Tierwelt, sondern in der Tech-Welt liegt, versteht sich von selbst. Schon längst sind Algorithmen überall im Einsatz, um künftige Ereignisse zu prognostizieren. Doch was, wenn Algorithmen nicht nur vorhersagen, wer gewählt wird, sondern sich wegen ihnen entscheidet, wer gewählt wird? Was, wenn Tiktok die Wahlergebnisse der nächsten Bundestagswahl beeinflussen könnte? Wer dort viral geht, gewinnt die Wahl? Ein absurder Gedanke? Nicht unbedingt.
Ein Blick nach Rumänien zeigt, wie mächtig soziale Medien sein können. Der vergleichsweise unbekannte Kandidat Călin Georgescu erzielte im ersten Wahlgang – der später annulliert wurde – überraschende 22,9 Prozent der Stimmen und zog in die Stichwahl ein. Für viele Wahlbeobachter:innen war dies kaum nachvollziehbar. Für Nutzer:innen von Tiktok hingegen war der Putin zugewandte Rechtsextremist alles andere als unbekannt: Sein Gesicht war auf der Plattform omnipräsent. Unterstützt durch russische Social Bots, also automatisierte Accounts, die das Empfehlungssystem manipulieren, indem sie Beiträge liken oder teilen, um sie populärer zu machen, wurde Georgescu systematisch gepusht.
Was bedeutet das für Deutschland?
Wer hierzulande einen neuen Tiktok-Account erstellt, wird schnell mit Inhalten der AfD konfrontiert. Wird Alice Weidel deshalb die nächste Bundeskanzlerin?
Zwischen Rumänien und Deutschland bestehen einige Unterschiede. In Rumänien nutzen fast 50 Prozent der Wahlbevölkerung Tiktok, fast doppelt so viele wie in Deutschland. Während hier Meta-Plattformen wie Facebook und Instagram mehr genutzt werden, ist sie in Rumänien eine der meistgenutzten Plattformen. Doch das Problem liegt nicht allein bei Tiktok. In Rumänien wurden auch andere Netzwerke mit Social Bots und Desinformationskampagnen überschwemmt. Somit scheint ein ähnliches Szenario in Deutschland erstmal nicht ausgeschlossen.
Maßgeblich ist auch, wie viel Zeit und Geld die Plattformen in die Moderation der Inhalte des jeweiligen Markts stecken. Während Tiktok für den deutschsprachigen Raum insgesamt 597 Moderator:innen hat, sind es in Rumänien nur 95 Moderator:innen für 8 Millionen Nutzende. Das bedeutet, knapp 85.000 Nutzende pro Moderator:in. Im Vergleich dazu kommen in Deutschland 38.000 Nutzende auf ein:e Moderator:in. Noch schlechter schneiden Meta und X ab. Meta hat nur 64 rumänischsprachige Moderator:innen. Das bedeutet auf Facebook sind es 190.000 Facebook Nutzende pro Moderator:in. X verfügt über keine rumänischsprachige Moderator:innen. In Deutschland ist die Lage bei X ebenfalls besorgniserregend. Die lockere Moderationspraxis von X lässt Hass und Desinformation zunehmen. Lediglich 69 deutschsprachige Moderator:innen haben jeweils 160.000 Nutzer:innen zu betreuen.
Gleichzeitig stellt sich die Frage, wie relevant das ist, wenn der Eigentümer der Plattform diese selbst unmittelbar als Instrument für Wahlwerbung nutzt. Zugleich wird Musk aber auch in traditionellen Medien die Möglichkeit gegeben, für die AfD zu werben. Hier gilt immerhin der Pressekodex, der eine gewisse parteipolitische Neutralität vorgibt, während das bei Plattformen nicht der Fall ist.
Die Rolle von X und Netzwerkeffekten
X spielt in der politischen Debatte Deutschlands – trotz seiner vergleichsweise geringen Nutzendenzahl – aktuell noch eine tragende Rolle. Obwohl sich die Stimmung dort zunehmend verschlechtert, ist X für viele Organisationen weiterhin unverzichtbar, um sichtbar zu bleiben. Zwar gibt es inzwischen schon einige Alternativen, es ist aber unklar, ob diese sich zu echten Alternativen entwickeln. Zusätzlich verändert beispielsweise Meta gerade seine Policy in Richtung möglich geringe Moderation. Sogenannte Netzwerkeffekte halten die Nutzenden aber ohnehin nach wie vor bei X: Umso mehr Personen angemeldet sind, umso mehr steigt der individuelle Nutzen grundsätzlich. Bei X kommt noch ein weiterer Effekt hinzu: Die Netzwerke bei X basieren auf Interessen. Nutzende folgen dort den für sie relevanten Akteur:innen. Das erhöht die Bedeutung von X für Politiker:innen, Journalist:innen und NGOs enorm.
Die AfD als „Early Adopter“
Die AfD hat früh erkannt, wie wichtig digitale Plattformen für die politische Kommunikation sind. Sie war eine der ersten Parteien, die ihre Strategien gezielt auf soziale Medien abgestimmt hat. Andere Akteur*innen hinken hinterher und müssen nun aufholen. Dies wirft die Frage auf, ob dieses Versäumnis juristisch zu bewältigen ist. Können gesetzliche Vorgaben allein verhindern, dass sich demokratiefeindliche Narrative durchsetzen? Oder ist eine breitere gesellschaftliche Debatte notwendig, die die Verantwortung aller Akteur*innen betont?
Kann der DSA Wahlmanipulation verhindern?
Im Hinblick auf die Wahlen in Rumänien wird Tiktok vorgeworfen, diese manipulative Praxis nicht ausreichend unterbunden sowie Georgescu entgegen den Vorgaben der Wahlbehörde nicht als Politiker und Präsidentschaftskandidat markiert zu haben. Kritik ernten auch die rumänischen Behörden, da sie nicht entschieden genug eingegriffen haben.
Der DSA kann dem Problem aber nur begrenzt entgegentreten. Zwar sind Plattformen verpflichtet, gegen rechtswidrige Inhalte vorzugehen. Handelt es sich hingegen um unerwünschte, aber legale Meinungsäußerungen, wird es schon schwieriger. Diese sind nach den Vorschriften des DSA nicht verboten. Der DSA sieht stattdessen vor, dass Plattformen verpflichtet sind, die Risiken digitaler Plattformen für gesellschaftliche Debatten und Wahlprozesse zu bewerten und zu minimieren. Die Kommission hat dafür extra „Leitlinien für die Minderung systemischer Risiken vor Wahlen“ entwickelt. Plattformen müssen analysieren und bewerten, wie ihre Dienste zur Wahlbeeinflussung ausgenutzt werden können, wie beispielsweise in Rumänien durch den Einsatz von Social Bots.
Ein Teil des Problems liegt auch darin, dass sich Desinformationen und ihre Verbreitungswege ständig weiterentwickeln. Die Behörden und Plattformen stehen vor der Herausforderung, diesen immer einen Schritt voraus zu sein. Eine wichtige Rolle spielen deshalb auch Forschende, die Wahlbeeinflussung und Desinformation auf Plattformen untersuchen und damit wertvolle Hinweise auf manipulative Praktiken geben können. Diese Rolle sieht auch der DSA explizit vor und räumt Forschenden ein Recht auf Datenzugang ein. Allerdings bestehen in der Durchsetzung erhebliche Defizite. Insbesondere dauert es viel zu lange, bis Forschende die Daten bekommen, obwohl das essenziell wäre, um schnellstmöglich auf wahlbeeinflussende Praktiken reagieren zu können. Zum Teil weigern sich Plattformen sogar Daten herauszugeben.
Wir können also nur hoffen, dass der Einsatz solcher Programme vor den anstehenden Bundestagswahlen in Deutschland erschwert wird. Maßnahmen gibt es verschiedene, ob und welche die Plattformen hinsichtlich solcher Bots auf die anstehenden Bundestagswahlen ergreifen und wie wirksam diese sein werden, bleibt abzuwarten. Bereits jetzt gibt es viele kleine Nadelstiche, die Misstrauen in demokratische Parteien und den Wahlprozess säen. Gleichzeitig wird die AfD in Deutschland von vielen realen Einzelpersonen in den sozialen Netzwerken gepusht, ohne dass diese dafür bezahlt werden. Etwas das wir vielleicht nicht schön finden, es aber wohl nur schwer verbieten können.
Wahlen als gesellschaftliche Verantwortung
In Rumänien blieb als letzte Möglichkeit nur noch, die Wahl zu annullieren. Der Fall liegt jetzt beim Europäischen Gerichtshof für Menschenrechte. Dass eine Annullierung nicht die Lösung für alle künftigen Wahlen sein kann, liegt auf der Hand. Aber was dann?
Sind die juristischen Mittel ausgeschöpft, bleibt die gesellschaftliche Verantwortung für demokratische Wahlen. Sind wir bereit, diese Verantwortung zu übernehmen und unsere demokratischen Prozesse zu schützen? Das erfordert auch, dass wir kritisch mit Informationen umgehen, die uns über Plattformen oder private Nachrichten erreichen, und uns nicht von einfachen Versprechungen oder emotional aufgeladenen Botschaften leiten lassen. Regulierung und deren effiziente Durchsetzung durch Plattformen und Behörden ist sicherlich notwendig. Ausreichend wird das momentan aber nicht sein.
Jürgen Bering ist studierter Rechtswissenschaftler und seit 2021 bei der Gesellschaft für Freiheitsrechte. Seit September 2024 leitet er das Center for User Rights.
Simone Ruf ist seit Oktober 2024 stellvertretende Leiterin des Center for User Rights, Volljuristin und Verfahrenskoordinatorin bei der GFF.