Standpunkt Social Bots: Realität digitaler Öffentlichkeit

Ulrike Klinger von der FU Berlin fordert eine wissenschaftliche Auseinandersetzung mit Social Bots. Damit reagiert sie auf einen Beitrag von Medienforscher Florian Gallwitz und Datenjournalist Michael Kreil, die ihre Forschung im Tagesspiegel Background kritisiert haben.

Lernen Sie Tagesspiegel Background kennen

Jetzt kostenlos lesen
Sie sind Background-Kunde und haben noch kein Passwort? Wenden Sie sich an unseren Support oder hier einloggen

Es ist über ein halbes Jahrhundert her, dass der Informatiker und gebürtige Berliner Joseph Weizenbaum am MIT in Boston das Computer-Programm ELIZA entwickelte. Mit einfachsten Mitteln, selbst für das Jahr 1966, war ELIZA in der Lage, simple Konversationen zu simulieren. Die eigentliche Sensation war aber nicht ELIZA selbst, sondern die Reaktion der menschlichen Konversationspartner. Weizenbaum war schockiert darüber, wie ernst sie ELIZA nahmen, sich von einem Computer-Programm verstanden fühlten, Innerstes preisgaben und Sympathien entwickelten: „Die meisten Menschen (verstehen) nicht das Geringste von Computern. (…) So können sie die intellektuellen Leistungen von Computern nur dadurch erklären, dass sie die einzige Analogie heranziehen, die ihnen zu Gebote steht, nämlich das Modell ihrer eigenen Denkfähigkeit.“ Es braucht keine Star-Wars-Technologie, damit Menschen in Maschinen ein Gegenüber sehen – ob sie nun ELIZA, Siri oder Alexa heißen. 

Wenn wir über Social Bots sprechen, ist aber etwas sehr viel Einfacheres gemeint als ausgefeilte, konversationsfähige Künstliche Intelligenz: Twitter Accounts, die teil- oder vollautomatisiert vorbereitete Tweets abschicken, auf Tweets mit vorbereiteten Antworten reagieren oder Tweets liken oder weiterverschicken. Das ist technisch sehr einfach zu bewerkstelligen und benötigt weder besonders leistungsfähige Computersysteme noch superintelligente Informatikexperten. Es gibt im Internet Anleitungen, wie man sie baut und man kann entsprechende Services mieten oder kaufen. Selbst Twitter erkennt das Problem „böswillig automatisierter“ Accounts an und löscht sie immer wieder – eine wahre Sisyphos-Arbeit, von der man im Twitter-Transparenzbericht lesen kann.

Laute Minderheiten 

Für Wissenschaftler, die sich mit politischen Diskursen in sozialen Netzwerken wie Twitter befassen, sind hyperaktive Accounts in den Datensätzen Alltag. Manche teilen mehr als 500 Tweets und Retweets pro Tag, jeden Tag, auch nachts und über Monate. Sie produzieren sehr viele Interaktionen. Zum Thema Migrationspakt stammen etwa 16 Prozent aller Weiterleitungen von Tweets von nur 100 extrem aktiven Accounts. So können laute Minderheiten entstehen, die das Meinungsklima oder die wahrgenommene Popularität von Personen und Themen beeinflussen. Natürlich sind nicht alle dieser hyperaktiven Accounts Bots, und manche automatisierte Accounts machen nicht mehr, als die Followerzahlen einzelner Twitter-User in die Höhe zu treiben.

Die Kontroverse, die in Tagesspiegel Background nun angestoßen wurde, zeigt vor allem, wie wichtig das Thema für Gesellschaft und Politik ist. Will man die Zukunftsfähigkeit demokratischer Öffentlichkeit sicherstellen, muss man die Effekte von Kommunikationstechnologien auf Meinungsbildung erforschen. Zu Social Bots erschienen allein seit 2018 Dutzende wissenschaftliche, kritisch geprüfte Publikationen von Teams auf der ganzen Welt. In unserer eigenen, von Gallwitz und Kreil angesprochenen Studie, kommen wir zu dem zentralen Ergebnis, dass Social Bots keine wesentliche Rolle in der Bundestagswahl 2017 gespielt haben, nur wenige automatisierte Twitter-Accounts aktiv waren und diese weitgehend keine politischen, wahlrelevanten Inhalte verbreitet haben. Alarmismus oder Panikmache ist das sicher nicht. Wir haben für unsere Studien zu Bots auch keine Drittmittel aus „prall gefüllten Fördertöpfen“ erhalten.

Es ist richtig, dass Social Bots nur eines der Mittel potentieller Meinungsmanipulation über Social Media sind, wahrscheinlich nicht einmal das wichtigste. Es gibt keinen Grund zu Panik oder für überhastete Regulierungsversuche, damit sind wir uns mit den beiden Autoren vermutlich weitgehend einig. Allerdings ist es unser Ansatz, solche Fragestellungen mit den uns zur Verfügung stehenden wissenschaftlichen Methoden so gut wie augenblicklich möglich aufzuklären. Der subjektive Eindruck, einzelne Accounts sähen nicht wie Bots aus, ist für uns nicht ausreichend.

Bots mit Zeitbeschränkung

Eine Voraussetzung für eine wissenschaftliche Auseinandersetzung ist eine geteilte Definition von Social Bots und die Berücksichtigung der verwendeten Methoden. Das Tool „Botometer“, das von Informatikern an der University of Indiana entwickelt wurde und wird, gibt beispielsweise gar keinen Schwellenwert an, ab dem die Unterscheidung zwischen Mensch und Bot eindeutig zu treffen wäre, schon gar nicht in der Mitte der Skala, wie von den beiden Autoren angenommen. Die öffentlich zugängliche Methodendokumentation gibt über das genaue Verfahren Auskunft – über diese Verfahren könnte man dann wissenschaftlich auch streiten.

Natürlich gibt es auch „falsche Positive“, also fälschlich als Bots identifizierte, aber tatsächlich von Menschen betriebene Accounts. Das ist ein Problem, das alle statistischen Analysen haben. Dies betrifft häufig Accounts von Organisationen, die nach festen Dienstplänen betreut werden. Aber nicht immer sind dies tatsächlich falsche Klassifikationen. Bloomberg News veröffentlicht etwa ein Drittel der Inhalte mit Hilfe automatisierter Technologien – ein Account kann also auch nur zeitweise ein Bot sein. Das sind keine manipulativen Social Bots, aber es ist eben auch Automatisierung.

Dass Botometer und andere Bot-Detection-Methoden tatsächlich nicht so leistungsfähig sind, wie sie sein könnten, hat Gründe, die in dieser Diskussion bisher noch gar nicht erwähnt wurden: Wissenschaft, und damit Gesellschaft, kann derzeit nur sehr schlecht beobachten, was an öffentlicher Kommunikation in sozialen Medien vor sich geht, weil sie nur einen sehr begrenzten Zugang zu den entsprechenden Daten hat. Wenn Twitter beispielsweise die Daten gelöschter verdächtiger Accounts als Trainingsdatensätze mit den Entwicklern von Bot-Detection-Tools teilen würde, ließen sich sehr viel präzisere Instrumente entwickeln. Es würde auch die Transparenz erhöhen. 

Ein Mangel an Daten

Fake-Accounts auf Facebook, die Verbreitungsdynamiken von Desinformationskampagnen oder Hate Speech können derzeit nur wenige Teams untersuchen – meistens Forschungsteams in den betroffenen Unternehmen selbst. Facebook teilt in speziellen Kooperationen handverlesene Daten mit handverlesenen Forschern, aber letztlich können nur die Plattformen selbst sehen, was auf Facebook, Instagram oder YouTube läuft. Zugleich nimmt deren Bedeutung für öffentliche und politische Debatten stetig zu: nicht nur das Rezo-Video vor der Europawahl ist dafür ein Beispiel, auch Daten des Reuters Digital News Report zeigen, dass Social Media für ein Fünftel der 18- bis 24-jährigen Deutschen heute schon Hauptnachrichtenquelle sind. 

Ohne besseren Datenzugang bleibt unser Wissen über Kampagnen, Desinformation oder Manipulationsversuche episodisch. Teilen sei das Prinzip von Social Media – die Plattformen aber teilen nicht gerne mit der Gesellschaft.

Ulrike Klinger ist Professorin für Digitale Kommunikation an der Freien Universität Berlin und Leiterin der Forschungsgruppe „Nachrichten, Kampagnen und die Rationalität öffentlicher Diskurse am Weizenbaum-Institut für die vernetzte Gesellschaft.

Lernen Sie Tagesspiegel Background kennen

Jetzt kostenlos lesen
Sie sind Background-Kunde und haben noch kein Passwort? Wenden Sie sich an unseren Support oder hier einloggen