Über Jahrzehnte gelang es Tabak- und der Öl-Industrien, Regulierung abzuwehren, indem sie den massiven Schaden verschleierte, den ihre Produkte erzeugen. Plattform-Konzerne wie Facebook und Google setzen ebenfalls atemberaubende PR-Budgets ein, um den Verdacht zu zerstreuen, dass sie Milliardenprofite auf Kosten unserer Demokratie, Grundrechte und Gesundheit machen könnten.
Jedoch summieren sich Datenskandale zu einer erdrückenden Faktenlage. Es reicht nicht aus, wenn Facebook, Google und Co. jetzt geloben, künftig noch mehr problematische Beiträge zu löschen. Die wahre Bedrohung ist die Logik, nach der die Plattformen Informationen verbreiten. Weil ihr einziges Ziel ist, unsere Aufmerksamkeit in Anzeigeneinnahmen zu verwandeln, wollen sie, dass wir so viel Zeit wie möglich auf ihren Diensten verbringen.
Das erreichen sie zum Beispiel, indem sie uns besonders viele Beiträge anzeigen, die uns aufregen, so wie Fake News oder Verschwörungsmythen. In Brüssel wird gerade ein neues „Gesetz für digitale Dienste“ verhandelt, mit dem die EU die Plattformen notfalls dazu zwingen könnte, ihr Geschäftsmodell zu korrigieren. Auf deren Umsetzung zu warten, kann sich Deutschland im Superwahljahr aber nicht leisten. Die Bundesregierung sollte die Aussicht auf harte Regulierung aus Brüssel dennoch als Druckmittel nutzen, um von den Plattformbetreibern kurzfristige Zugeständnisse einzufordern. Die Maßnahmen der Tech-Konzerne sollten sich auf mindestens fünf Gefahrenherde konzentrieren.
1. Verzerrung des Wettbewerbs zwischen den Parteien
TV-Sender müssen den Parteien Chancengleichheit gewährleisten, wenn es um Sendezeit und die Kosten von Wahlwerbung geht. Für Facebook oder YouTube gilt das nicht. Wie alle anderen Anzeigen auch wird Wahlwerbung mittels automatisierter Auktionen an Nutzer:innen ausgespielt. Deshalb kann es günstiger sein, einkommensschwache Wahlberechtigte mit Werbung zu erreichen, weil sie für Anzeigenkunden weniger interessant sind.
Diese Verzerrungseffekte belegte im vergangenen US-Wahlkampf die Investigativ-Redaktion The Markup: In einigen Schlüsselstaaten musste das Trump-Lager im Schnitt nur halb so viel für Facebook-Anzeigen zahlen wie das Biden-Team. Vorschlag: Das Auktionssystem wird für politische Werbung im Superwahljahr ausgesetzt – Anzeigenplätze werden zu einheitlichen Preisen verkauft.
2. Polarisierung
Ob Anzeige oder News-Link: Was wir auf Facebook, YouTube und Twitter zu sehen bekommen, entscheiden meist Algorithmen, die anhand unseres bisherigen Nutzungsverhaltens errechnen, wie wahrscheinlich es ist, dass wir auf den Inhalt klicken. Das bedeutet nicht nur, dass Nutzende vor allem Meinungen präsentiert bekommen, denen sie ohnehin schon zustimmen. Es bedeutet auch, dass eher konservative Menschen von der Plattform ganz automatisch eher CDU- oder AfD-Werbung angezeigt bekommen, während progressiv eingestellte Wähler eher Anzeigen von den Grünen sehen. Forscher:innen von der Northeastern University haben belegt, dass Facebook so die Polarisierung der Gesellschaft anheizt.
Vorschlag: Die Plattformen legen die Kriterien offen, nach denen sie politische Anzeigen ausspielen und stellen sich einer öffentlichen Diskussion über die gesellschaftlichen Kosten und Nutzen ihrer Technologie. Für die Verbreitung anderer Inhalte, etwa von News-Beiträgen, beziehen sie die Qualitätskriterien der Journalism Trust Initiative ein.
3. Hass und Hetze
Die Reichweite extremistischer Accounts hat sich während der Pandemie vervielfacht, der BKA-Chef warnte zuletzt sogar, dass der Hass im Netz „demokratiegefährdende Ausmaße“ annehmen kann, wenn sich immer Menschen und politische Stimmen aus dem demokratischen Diskurs zurückziehen. Das ist gerade für den Wahlkampf eine Gefahr: Mit bezahlten Facebook-Anzeigen machen manche AfD-Kandidierende schon jetzt Stimmung gegen Menschen mit Migrationshintergrund.
Vorschlag: Die Plattformen reagieren auf alle Meldungen von Nutzenden, die sich etwa durch Mobbing oder Hassrede bedroht fühlen, innerhalb von maximal zwölf Stunden – unabhängig davon, ob sie entscheiden, den gemeldeten Inhalt vom Netz nehmen oder nicht. Die 12-Stunden-Regel wird auch eingehalten, wenn Nutzer:innen umgekehrt darauf hinweisen, dass ihre eigenen Inhalt womöglich grundlos gelöscht wurden. Die Plattformen setzen in großen geschlossenen Gruppen, in denen politisch diskutiert wird, menschliche Moderator:innen ein.
4. Desinformation und Irreführung
Millionen Deutsche sind Mitglied von Gruppen auf Facebook oder Telegram, in denen Desinformation und Verschwörungsmythen über Covid-19 verbreitet werden. Im Superwahljahr droht der Fokus der Desinformationsschleudern auf den Ablauf der Bundestagswahl zu wandern: Schon jetzt verbreitet die AfD im Netz aktiv die inkorrekte Botschaft, dass die Briefwahl unsicher sei.
Twitter, Facebook oder YouTube ermöglichen es jedem, die Wähler:innen in Deutschland gezielt in die Irre zu führen. Die AfD hat in der Vergangenheit in großem Umfang Likes und Follower gekauft, um die Reichweite reißerischer Inhalte künstlich zu erhöhen und die Illusion überwältigender Popularität im Netz zu schaffen. Deshalb erhielten AfD-Inhalte während des Europa-Wahlkampfs auf Facebook 86 Prozent der Shares und 75 Prozent der Kommentare.
Vorschlag: Nutzer:innen, denen Desinformation über den Ablauf und Ausgang der Wahlen angezeigt wurde, werden auch rückwirkend benachrichtigt und auf verlässliche Informationsquellen hingewiesen. Forscher:innen, Journalist:innen und Faktenchecker:innen erhalten über Programmier-Schnittstellen Zugriff auf alle Beiträge und Kommentare auf öffentlichen Seiten und in öffentlichen Gruppen, die mit Parteien verbunden oder politischen Themen gewidmet sind.
5. Verletzung der Würde und Privatsphäre der Bürger:innen
Obwohl die Datenschutzgrundverordnung vor über zwei Jahren wirksam wurde, können Wahlkampftreibende weiterhin gezielt Menschen auf Grundlage etwa ihrer Religion, Herkunft oder sexuellen Orientierung ins Visier nehmen – ohne deren vorheriges Einverständnis. Hinzu kommt, dass Plattformen wie Facebook keinerlei Anstrengung unternehmen, um sicherzustellen, dass Werbekund:innen Daten für die Nutzer:innenansprache nicht auf rechtswidrige Weise einsetzen. So ist es zum Beispiel jederzeit möglich, Listen mit E-Mail-Adressen in die Plattform einzuspeisen, ohne dass die betroffenen Nutzer:innen dem jemals zugestimmt hätten.
Vorschlag: Echtzeit-Transparenz von Online-Wahlwerbung, damit Nutzer:innen die gesamte „Lieferkette“ einer Anzeige nachvollziehen und Datenschutzverstöße unverzüglich melden können. Plattformen und Parteien einigen sich außerdem darauf, vom Einsatz benutzerdefinierter Zielgruppen („Custom Audiences“) abzusehen.
Felix Kartte leitet die Arbeit von Reset in Deutschland. Reset, eine neue Initiative, die sich für digitale Demokratie einsetzt, ist Teil von Luminate, einer Stiftung, die von der Omidyar-Gruppe finanziert wird. Zuvor war Kartte für einige Jahre beim Europäischen Auswärtigen Dienst in Brüssel, wo er sich mit Desinformation und digitalen Bedrohungen für die Demokratie befasste.