Erweiterte Suche

Digitalisierung & KI

Standpunkt

Auf Augenhöhe mit den Plattformen sprechen

Michael Meyer-Resende, Geschäftsführer von Democracy Reporting International
Michael Meyer-Resende, Geschäftsführer von Democracy Reporting International Foto: Democracy Reporting International

Sowohl staatliche Institutionen als auch die Zivilgesellschaft wünschen sich mehr Einblicke in die Funktionsweise sozialer Medien. Plattformen sollten offenlegen, wie ihre Algorithmen arbeiten. Dafür soll das EU-Gesetz über Digitale Dienste sorgen, doch es braucht interdisziplinäre Zusammenarbeit, meint Michael Meyer-Resende, Geschäftsführer von Democracy Reporting International.

von Michael Meyer-Resende

veröffentlicht am 03.06.2022

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Elon Musk wirft Twitter vor, die Algorithmen der Firma würden linken Inhalten mehr Reichweite geben als konservativen. Dafür gibt es keine Belege. Im Gegenteil, eine eigene Studie der Firma stellte fest, dass ihr Dienst in den USA Inhalte rechter Accounts deutlich mehr verbreitet. Musks Vorwürfe fügen sich in eine Debatte ein, deren Schwerpunkt sich verschoben hat.

Über viele Jahre wurde die Frage des Löschens von Inhalten auf sozialen Medien heftig diskutiert: Was sollen wir nicht sehen? Inzwischen wird eher diskutiert, wie Algorithmen Inhalte für uns sortieren: Was sehen wir? Den Firmen wird vorgeworfen, durch Algorithmen Parteilichkeit, Radikalisierung und Desinformation zu verstärken.

Die Algorithmen werden gerne als „Black Box“ oder „Secret Sauce“ bezeichnet, aber damit macht man es sich zu einfach. Sicherlich, wir wissen wenig über ihre komplexe Ausgestaltung. Die Schlüsselfunktionen der Algorithmen sind allerdings bekannt.

Oft wird geschrieben, die Algorithmen würden versuchen, möglichst genau unsere Präferenzen zu verstehen, um uns Inhalte anzuzeigen, die uns interessieren. Das stimmt aber nur zum Teil. Sie wägen nämlich ab, ob sie bekannte Interessen eines Nutzers bedienen oder ob sie neue Inhalte ausprobieren, um Interessen zu testen oder neue Interessen zu wecken.

Exploit or explore

In der Wissenschaft wird diese Frage unter dem Stichwort „exploit or explore“ seit Jahrzehnten untersucht. Exploit bedeutet, die bekannten Vorlieben von Nutzern zu bedienen. Die Wahrscheinlichkeit ist hoch, dass diese Vorlieben gleich bleiben. Wer immer wieder Katzenvideos öffnet oder die Posts seiner besten Freunde liest, wird diese Inhalte von den Firmen auch immer wieder serviert bekommen.

Nur auf exploit zu setzen birgt allerdings ein Risiko. Zum einen wird es den Nutzern vielleicht langweilig – wie viele Katzenvideos will man im Leben sehen? Zum anderen ist es für die Firmen attraktiv herauszufinden, welche anderen Inhalte die Aufmerksamkeit eines Nutzers wecken. Je mehr Inhalte diesen Zweck erfüllen und je größer das Netzwerk wird, desto mehr Zeit verbringt er oder sie auf der Plattform.

Um diese neuen Inhalte zu finden muss die Plattform experimentieren. Das ist die Explore-Funktion. Andere Katzenliebhaber lieben typischerweise Blumen, also folgen die Algorithmen dieser Wahrscheinlichkeit. Auch die Explore-Funktion hat ihre Risiken, die Inhalte mögen einer Nutzerin zu willkürlich oder irrelevant erscheinen und sie verliert das Interesse an der Plattform.

Explore-Funktion ist für Kinder problematisch

Der Explore-Aspekt ist vor allem für Kinder und Jugendliche problematisch. Wir mögen es als Eltern in Ordnung finden, dass unsere Kinder mit ihren Freunden über Tiktok Filmclips austauschen. Aber den meisten Eltern ist nicht klar, dass Tiktok ihnen auch dauernd neue Inhalte anbietet.

Die Firma hüllt ihre Explore-Funktion in schöne Worte: „Vielfalt ist wesentlich, damit wir eine blühende globale Gemeinschaft bleiben (...). Deshalb kann es vorkommen, dass du in deinem Feed auf ein Video stößt, das deinen Interessen nicht zu entsprechen scheint (...). Eine Vielfalt an Videos in deinem For-You-Feed gibt dir zusätzliche Möglichkeiten, über neue Inhaltskategorien zu stolpern (...)." (Übersetzung des Autors).

Viele Eltern wollen wahrscheinlich nicht, dass ihre Kinder über Inhalte stolpern, die eine Firma algorithmisch ausgewählt hat, um sie stärker an die Plattform zu binden. Über den Jugendschutz hinaus erhöht der Explore-Ansatz die Risiken für Desinformation und Radikalisierung. Warum? Weil extreme, verschwörerische oder überraschende Inhalte mehr Aufmerksamkeit erregen und sie Algorithmen daher für die Explore-Funktion attraktiv erscheinen. Die Funktion zeigt auch: Plattform-Algorithmen ergründen nicht nur unsere Interessen, sie beeinflussen uns auch. Wir fangen an, uns für Dinge zu interessieren, die uns nicht bekannt waren.

Firmen bleiben bei Algorithmen vage

Meine Organisation, Democracy Reporting International, hat untersucht, wie gut die Firmen ihre Algorithmen erklären. Das Ergebnis ist ernüchternd: Fast alle Firmen bleiben so vage wie der zitierte Hinweis von Tiktok. Meta gibt etwas mehr Informationen preis und präsentiert unterschiedliche Ansätze für seine Produkte Facebook und Instagram. Die Details bleiben allerdings auch hier im Dunkeln.

All das sollte sich ändern, wenn das EU-Gesetz über Digitale Dienste (Digital Services Act, DSA) in Kraft tritt. Artikel 29 des Gesetzes sieht vor, dass die sehr großen Plattformen in ihren Geschäftsbedingungen in „leicht verständlicher Weise die wichtigsten Parameter“ darlegen, die in ihren Algorithmen (das Gesetz nennt sie Empfehlungssysteme) verwendet werden.

Die Plattformen werden öffentlich darlegen müssen, worauf die Algorithmen im Wesentlichen optimiert werden. Sollen wir Inhalte gezeigt bekommen, die uns möglichst lange auf der Plattform halten? Oder sollen wir möglichst viel mit anderen interagieren? Oder sollen wir möglichst viel Werbung anklicken oder vielleicht über Werbungen möglichst viele Einkäufe tätigen?

Die Firmen werden auch genauer erklären müssen, wie illegale Inhalte identifiziert und behandelt werden, ebenso wie solche Inhalte, die die Firmen selbst als schädlich ansehen. Das Gesetz enthält weitere Kontrollen dieser Algorithmen, unter anderem unabhängige Prüfungen (Audits). Da deren Ergebnisse nicht öffentlich sind, können die Prüfer – ähnlich wie Steuerprüfer – diese Empfehlungssysteme tiefgreifend kontrollieren, ohne Geschäftsgeheimnisse zu verraten.

Verbindung verschiedener Expertisen nötig

Diese vielversprechenden Ansätze sind anspruchsvoll. Die Fachdebatte zu Empfehlungssystemen wird von Juristinnen und Sozialwissenschaftlern geprägt, meist mit geringen Kenntnissen über Künstliche Intelligenz (KI) und die technischen Funktionsweisen sozialer Medien. Um das Beste aus dem Gesetz zu machen, brauchen wir möglichst schnell eine Verbindung von juristischer, sozialwissenschaftlicher und technischer Expertise, die es bislang kaum gibt.

Vor allem ehemalige Mitarbeiter der Plattformen könnten hier eine wichtige Rolle spielen. Viele staatliche Institutionen, Forscher, zukünftige Prüfungsorganisationen und die Zivilgesellschaft erhoffen sich eine deutliche Verbesserung der Transparenz und der Funktionsweise sozialer Medien. Das wird aber nur gelingen, wenn wir es schaffen inhaltlich auf Augenhöhe mit den Plattformen zu sprechen. Davon ist die Debatte noch weit entfernt.

Michael Meyer-Resende ist der Mitgründer und Geschäftsführer der NGO Democracy Reporting International (DRI) mit Sitz in Berlin. Er ist Jurist und hat in internationalen Organisationen und Medienunternehmen gearbeitet.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen