Sie
regeln, was auf der Plattform Facebook gesagt werden darf und was gelöscht
werden muss, und beeinflussen damit, wie 2,7 Milliarden Nutzer miteinander in
Kontakt treten können: Facebooks Gemeinschaftsstandards sind ein Beispiel für
den großen Einfluss, den Regeln privater Akteure auf die öffentliche Kommunikation
haben.
In einer Pilotstudie haben wir erforscht, wie Facebook seine Regeln entwickelt und welche Maßstäbe und Interessen in diesen Prozess einfließen. Damit haben wir es geschafft, etwas Licht ins Dunkel der privaten Normsetzung zu bringen. Denn es steht fest: Was die Facebooks und YouTubes unserer Zeit an Kommunikation erlauben und unter welchen Bedingungen die Twitters und TikToks Inhalte und Posts löschen, beeinflusst in hohem Maße die öffentliche Kommunikation und damit die Bedingungen, unter denen wir demokratische Diskurse stattfinden lassen, in denen über die Verteilung von Rechten und Gütern entschieden wird.
Nach einem sorgfältigen Methodendesign haben wir eine Woche lang als Beobachter an sämtlichen Meetings des Product Policy Teams teilgenommen, das im Hauptquartier von Facebook in Kalifornien für die Entwicklung der Gemeinschaftsstandards verantwortlich ist. Darüber hinaus haben wir in ausführlichen Interviews mit den verantwortlichen Personen untersucht, was die Entstehung neuer Regeln und deren Design motiviert.
Private Regeln für öffentliche Kommunikationsräume
Zu den zentralen Erkenntnissen des Pilotprojektes gehört, dass Prozesse der Regelsetzung bei Facebook, etwa zum Problem der Hassrede, aus vielerlei Richtungen angestoßen werden können, etwa durch eigene Mitarbeiterinnen, aber auch durch Hinweise von Userinnen und Moderatorinnen. Es handelt sich um einen vom nationalen und internationalen Recht im Wesentlichen unabhängigen Prozess, der aber – so konnten wir zeigen – der legitimitätserzeugenden Wirkung staatlicher Regulierung nachgebildet wird: Auch innerhalb von Staaten werden Interessensgruppen konsultiert, wenn Gesetze verabschiedet werden.
Die Ergebnisse zeigen, wie ein zentrales Social-Media-Unternehmen seinen Kommunikationsraum gestaltet. Facebook hat eine autonome und private normative Ordnung für öffentliche Kommunikation konstruiert, die – abgesehen von einigen Verankerungen im US-Recht aufgrund Facebooks Herkunft als US-Unternehmen – weitgehend ohne Bezug auf staatliches Recht oder internationale Menschenrechtsstandards konzipiert ist. Natürlich ist das Unternehmen, wenn es in Deutschland agiert, auch an deutsches (und europäisches) Recht gebunden – wie etwa das Netzwerkdurchsetzungsgesetz (NetzDG). Gleichzeitig baut es eine immer stärker ausdifferenzierte, eigene und unabhängige Normordnung auf, die definiert, was auf der Plattform sagbar ist.
Das ist charakteristisch für die Online-Kommunikation. Doch die Gesellschaft hat die privaten Normen von Facebook zu lange wie jene von Edeka oder DM betrachtet und das Hausrecht der Plattformen nicht hinterfragt. Dabei ist es bei Facebook so, dass die Regeln Teil des Produkts sind. Das sieht man schon daran, dass bei Facebook das Product Policy Team mit der Regelentwicklung betraut ist – ein sprachlicher Hinweis darauf, dass Facebooks „Produkt“ auch der sozio-kommunikative Raum ist, den es der Öffentlichkeit zur Verfügung stellt, einschließlich der kommunikativen Infrastruktur und den Gemeinschaftsstandards.
Historisch war es so, dass „Voice“ – also Meinungsäußerungsfreiheit – eine starke Präferenz eingeräumt wurde; negative Einflüsse auf sozialen Zusammenhalt finden erst langsam stärker Beachtung. Darauf weisen etwa konsultierte Stakeholder wie NGOs in den Normenentwicklungsprozessen hin – was die Normen gesellschaftlich akzeptabler macht.
Vom Gesetzgeber zum PrivatgerichtDie Pilotstudie ist ein erster Schritt zur Erforschung der Normenentwicklung bei Facebook. 2020 wird bei Facebook ein „Oversight Board“ seine Arbeit aufnehmen (Tagesspiegel Background berichtete), ein globales Gremium von Expertinnen und Experten für Meinungsäußerungsfreiheit, dem als Quasi-Gericht schwierige Fragen der Löschung oder Nichtlöschung von Inhalten vorgelegt werden können, das aber auch Facebook Empfehlungen hinsichtlich der anzuwendenden Regeln für die Inhaltsmoderation geben kann. Die Analyse des Oversight Boards und dessen Auswirkungen auf die private Kommunikationsordnung von Facebook wird unsere nächste Aufgabe sein.
Wolfgang Schulz ist Direktor des Leibniz-Instituts für Medienforschung Hans-Bredow-Institut (HBI), Direktor des Alexander von Humboldt-Instituts für Internet und Gesellschaft (HIIG) in Berlin und Professor an der Universität Hamburg. Matthias C. Kettemann ist Forschungsprogrammleiter am HBI, Projektleiter am HIIG und Vertretungsprofessor an der Universität Heidelberg.
Transparenzhinweis: Matthias Kettemann hatte im Rahmen der Untersuchung eine Woche lang Zugang zu einzelnen Mitgliedern sowie zu Meetings des Policy Teams bei Facebook. Das Unternehmen hat die Studie vor der Veröffentlichung im Hinblick auf den Schutz von vertraulichen Informationen geprüft. Das Unternehmen hat keine Informationen gestrichen. Die Untersuchung ist nicht von Facebook finanziert worden. Die vollständige Studie ist hier zu finden.