Am 9. März bombardierte die russische Luftwaffe in der ukrainischen Stadt Mariupol eine Entbindungs- und Kinderklinik. Sie tötete mindestens fünf Menschen und verletzte 17 weitere. Die Bilder von den Folgen des Angriffs schockierten die Welt: Etwa das einer Hochschwangeren auf einer Trage, die kurz vor ihrem Tod noch schützend die Arme um ihren Bauch legte.
Sobald Nachrichten über die Bombardierung die Runde machten, zweifelte die russische Botschaft in London per Twitter ihren Wahrheitsgehalt an. Ohne Beleg behauptete sie, das Krankenhaus sei während des Angriffs gar nicht in Betrieb gewesen. Die Bilder seien inszeniert.
Twitter und andere Plattformen beschäftigten sich da schon länger mit einer pro-russischen Desinformationswelle. Die war schon lange vor der Invasion der Ukraine ins Rollen gekommen. Zwar entfernte Twitter die Tweets der Botschaft, aber die falschen russischen Narrative entwickelten in den sozialen Medien ein Eigenleben. Twitters Empfehlungsalgorithmus trug sein Übriges dazu bei, dass solche Nachrichten ein Publikum fanden und finden
Der Krieg in der Ukraine ist auch ein Informationskrieg. Er ist nur ein Beispiel von vielen: Desinformation gedeiht auf Online-Plattformen besonders gut. Davon geht eine Gefahr aus, die die soziale und institutionelle Verfassung der EU bedroht.
Die Plattformen wissen, was sie tun
Die großen Plattformen wie Facebook, Youtube, Twitter und Instagram haben einen immensen Einfluss darauf, wie wir uns in demokratischen Gesellschaften unterhalten. Doch nach wie vor bleibt es den großen Tech-Konzernen im Wesentlichen selbst überlassen, wie sie damit umgehen. So sind einige wenige Konzerne sehr mächtig geworden, die immer wieder bewiesen haben, dass ihnen die eigenen Gewinne wichtiger sind als das Gemeinwohl. Sie spielen die Gefahren, die von ihren Angeboten ausgehen, konsequent herunter oder ignorieren sie gleich ganz.
Facebook wusste beispielsweise, dass ein neuer Newsfeed-Algorithmus die Verbreitung von Desinformationen und Gewaltinhalten auf der Plattform begünstigen würde. Das beweisen die von der Whistleblowerin Frances Haugen veröffentlichten Dokumente. Doch Facebooks Topmanagement beachtete die Warnungen der eigenen Forschungsabteilung nicht. Ihm ging es letztlich nur darum, dass der Algorithmus die Auseinandersetzungen der Nutzer*innen anfachen würde, was immer gut fürs Geschäft ist.
Die EU hat erkannt, dass die Regeln geändert werden müssen, um die Macht der Tech-Konzerne einzudämmen und die großen Plattformen zur Verantwortung zu ziehen. Aus dieser Einsicht heraus ist der mehr als 300 Seiten starke Vorschlag für den DSA entstanden. Das Regelwerk schreibt Tech-Unternehmen vor, was sie gegen gesetzwidrige Inhalte auf ihren Plattformen tun müssen, wie sie die Rechte ihrer Nutzer*innen schützen und was sie gegen ihren schädlichen Einfluss auf einzelne Menschen und die gesamte Gesellschaft tun müssen – sonst drohen ihnen Geldstrafen in Milliardenhöhe.
Mit dem DSA will die EU gegen die schlimmsten Auswüchse der Plattformen vorgehen: Etwa tracking-basierte Werbeanzeigen und irreführendes Design, sogenannte „dark patterns“. Er führt wichtige Schutzmaßnahmen ein: Bessere Verfahren, um Online-Inhalte zu markieren, die möglicherweise illegal sind, oder auch Wege, Moderationsentscheidungen zu bestimmten Inhalten anzufechten.
Überprüfung von außen
Die vielleicht innovativste Auflage für Online-Plattformen
besteht darin, dass sie sogenannte systemische Risiken identifizieren und
gegen sie vorgehen müssen. Systemische Risiken sind eine direkte Folge des
Plattformdesigns und der Verwendung der Dienste. Dazu gehört, dass dort
Hassrede verbreitet und Grundrechte verletzt, gesellschaftliche Diskurse und
Wahlprozesse manipuliert werden. Von entscheidender Bedeutung ist, dass
unabhängige Prüfer*innen, Regulierungsbehörden und externe Forscher*innen
beurteilen müssen, ob die Plattformen angemessen mit solchen systemischen
Risiken umgehen. Dazu erhalten diese Aufsichtsinstanzen Zugang zu den
Plattformdaten.
In der Vergangenheit haben sich die Plattformen wiederholt geradezu feindselig gegenüber Forscher*innen gezeigt, die Plattformdaten untersuchen wollten. Im DSA wird nun der Datenzugang für Drittparteien eingeführt. Das ist eine notwendige Voraussetzung, damit in unserer Gesellschaft eine informierte Debatte darüber stattfinden kann, wie Plattformen die öffentliche Meinungsbildung beeinflussen. Wir können es nicht den Plattformen selbst überlassen, ihre automatisierten Systeme zu prüfen. Wir müssen erfahren, wie sie Inhalte personalisieren, mit illegalen Inhalten umgehen, Beschwerden von Nutzer*innen behandeln und Nutzungsbedingungen anwenden.
Obwohl der DSA längst nicht perfekt ist – was zweifellos auch an der massiven Lobbyarbeit der großen Konzerne liegt – könnte er doch insgesamt einen Paradigmenwechsel bei der Regulierung von Tech-Unternehmen einläuten. Doch selbst wenn es so sein sollte: Die großen Erwartungen, die der DSA weckt, können nur erfüllt werden, wenn sein Regulierungsansatz konsequent in die Praxis umgesetzt wird.
John Albert ist Policy und Advocacy-Manager bei Algorithmwatch, einer zivilgesellschaftlichen Watchdog-Organisation mit dem Ziel, den Nutzen algorithmischer Entscheidungssysteme für das Gemeinwohl zu maximieren. Matthias Spielkamp ist Gründer und Geschäftsführer von Algorithmwatch.