Der Bundesgerichtshof (BGH) hat vor kurzem in der Frage entschieden, ob Facebook in seiner der Bewertung der Grenzen der Meinungsfreiheit für sogenannte „Hassrede“ strengere Maßstäbe anlegen darf als das Strafrecht. Im Ergebnis: Eine Aussage muss keine Beleidigung, Verleumdung oder Volksverhetzung sein, damit Facebook sie löschen darf. Diese Einschränkungen der Meinungsfreiheit müssen aber im Dialog mit den Nutzern nach einem Anhörungsverfahren erfolgen. Dazu müssen die Grundrechte von Facebook und die der Nutzer in Ausgleich gebracht werden. Diesen Anforderungen genügen die aktuellen Nutzungsbedingungen nicht. Was bedeutet das nun konkret für Anbieter Sozialer Netzwerke und welche Regeln gelten jetzt?
Der BGH erklärt Facebooks Nutzungsbedingungen für unwirksam, weil es darin an einem Verfahren fehlt, mit dem Nutzer, deren Äußerungen von Facebook gelöscht oder gesperrt werden, ihren Standpunkt vertreten können. Das Anhörungsverfahren muss nun nach den Regeln des BGH geschaffen werden. Bis dahin sind die Nutzungsbedingungen keine wirksame Rechtsgrundlage für Löschungen. Beiträge müssen online gestellt werden, wenn sie nicht strafbar sind. Für die Zukunft kann Facebook sich Nutzungsbedingungen geben, welche die Meinungsfreiheit der Nutzer in Abgrenzung zum Strafrecht wahren. Das klingt nüchtern, bedeutet aber für Anbieter sozialer Netzwerke einen Paradigmenwechsel.
Strenge Vorgaben an Nachvollziehbarkeit und Sachgründe
Neben die Verfahrensvorgaben hat der BGH auch Grundsätze für inhaltliche Fragen aufgestellt. Facebook muss seine Grundrechte auf Berufs- und Meinungsfreiheit mit denen der Nutzer auf Meinungsfreiheit unter Beachtung des Willkürverbots abwägen und seine Nutzungsbedingungen entsprechend formulieren. Dazu muss das Unternehmen Grundrechte in sogenannte „praktische Konkordanz bringen“. Das heißt konkret:
- Inhalte dürfen nur entfernt werden, wenn ein sachlicher Grund besteht. Facebook darf also nicht „willkürlich einzelne Meinungsäußerungen“ untersagen.
- „Ein Verbot der Äußerung von bestimmten politischen Ansichten“ verstößt gegen die Meinungsfreiheit der Nutzer und gegen das Gleichbehandlungsgebot.
- „Entfernungsvorbehalte müssen die darauf gestützten Entscheidungen nachvollziehbar erklären.“
- „Sie dürfen nicht an bloß subjektive Einschätzungen oder Befürchtungen der Beklagten anknüpfen. Sie müssen vielmehr an objektive, überprüfbare Tatbestände anknüpfen.“
- Unklarheiten, die zur Unwirksamkeit von Nutzungsbedingungen führen, folgen daraus, dass Ausnahmefälle verbotener Meinungen nicht abschließend, sondern nur beispielhaft aufgezählt werden.
Rechtsfehler schon im Ansatz
Der BGH hat die für die Entscheidungen relevanten Nutzungsbedingungen nicht überprüft, denn darauf kam es im Fall nicht mehr an. Messen wir folgende Definition von Hassrede in Facebook-AGB an den neuen Grundsätzen: „Wir definieren Hassrede als direkten Angriff auf Personen aufgrund geschützter Eigenschaften: (…)“ Sie erfüllt die Voraussetzungen des BGH nicht, denn Facebook nimmt eine thematische Begrenzung vor, weil nur bestimmte Meinungen geschützt sind. Damit sind manche Ansichten geschützt, andere aber nicht. Das klingt nur auf den ersten Blick überzeugend, weil es sich um gängige, von der Mehrheit anerkannte und besonders schutzbedürftige Gruppen handelt.
Wer konkret besonders zu schützen ist, ist in der Demokratie Gegenstand einer gesellschaftlichen Auseinandersetzung. Das zeigt das wechselnde Schicksal der Anerkennung der Schutzbedürftigkeit von Minderheiten, das sich nur in einer freien Debatte durchsetzen kann. Genau dieser dem Minderheitenschutz dienende kontroverse Diskussionsprozess darf Sozialen Netzwerken nicht abgeschnitten werden. Ein diskriminierungsfreier Schutz entsteht dadurch aber nicht. Ihn gewährt etwa der Straftatbestand der Volksverhetzung in § 130 StGB. Hier werden bestimmte Gruppen zwar als schutzwürdig benannt. Daneben werden aber auch alle anderen Teile der Bevölkerung geschützt. Eine ebenso neutrale und diskriminierungsfreie Formulierung müsste sich auch in den Nutzungsbedingungen finden. Sie müssen dem Minderheitenschutz gerecht werden, dem die Meinungsfreiheit in besonderer Weise dient.
Strukturelle Defizite im Gesetzesrecht
Man kann mit guten Gründen der Meinung sein, dass das aktuelle AGB-Recht zu unspezifisch ist, um die Meinungsfreiheit in sozialen Netzwerken zu schützen. Das kann aber nicht der BGH lösen, sondern das ist das Problem des Anbieters des privaten Kommunikationsraumes, den der Gesetzgeber im Stich lässt. Es ist ein Dilemma, dass die Grenzen der Meinungsfreiheit jenseits strafbarer Äußerungen im Machtbereich Privater nach aktuellem Recht von Privaten ausgelotet werden müssen. Wegen ihrer fundamentalen Bedeutung als Grundlage und Voraussetzung einer funktionierenden Demokratie sollten sie aber in einem transparenten parlamentarischen Verfahren, also in einem Gesetz, ausgestaltet werden. Anknüpfungspunkt für eine gesetzliche Regelung wäre eine Anpassung des Rechts der AGB im Bürgerlichen Gesetzbuch (BGB). Der Gesetzgeber könnte im BGB eine Norm schaffen, die relevanten Medienintermediären eine rechtssichere Möglichkeit bietet, ihre Löschungsrechte zu regeln. Regelungstechnisch könnte man nach dem Vorbild des Musters für Widerrufsbelehrungen bei Finanzdienstleistungen verfahren, das im Einführungsgesetz zum BGB verankert ist.
Muster-AGB als Lösung
Der Gesetzgeber könnte „Muster-AGB“ für die Meinungsfreiheit und ihre Grenzen vorgeben, die in die übrigen AGB der Plattformen eingefügt werden können. Verwenden die Plattformen diese AGB, kann ein Gericht sie nicht für unwirksam erklären. Die Kontrolle, ob die Plattformen die AGB richtig anwenden, obläge dann zwar auch wiederum den Zivilgerichten. Erstinstanzlich wären grundsätzlich die Amtsgerichte zuständig. Auf diese Weise kann flächendeckend, sach- und bürgernah sowie schnell die Rechtsanwendung kontrolliert werden. Verzichtet die Plattform darauf, diese AGB zu verwenden, muss sie mit der sich daraus ergebenden Rechtsunsicherheit und gegebenenfalls sehr unschönen Posts auf ihren Seiten leben. Wenn sie sich für diese Option entschieden hat, muss sie bessere und zugleich rechtskonforme AGB abfassen.
Ein konkreter Ansatz könnte es sein, die „Äußerungsdelikte“ des Strafgesetzbuches, die in § 1 Abs. 3 NetzDG aufgelistet sind, moderat zu erweitern. Einschlägige Delikte wären insbesondere Volksverhetzung, Androhung und Billigung von Straftaten. Bei diesen Tatbeständen könnte man die Voraussetzung „die geeignet ist, den öffentlichen Frieden zu stören“ streichen. Damit würde man auch dann eine Löschung ermöglichen, wenn es an dieser Voraussetzung fehlen und daher keine strafbare Handlung vorliegen würde. Manche Straftatbestände setzen ein „Verbreiten“ voraus. Dazu müssen Inhalte für einen größeren, für den Täter selbst nicht mehr kontrollierbaren Personenkreis zugänglich gemacht werden. Weil das bei geschlossenen Gruppen oft zweifelhaft sein dürfte, könnte man in den AGB gegebenenfalls auch auf dieses Tatbestandsmerkmal verzichten.
Rolf Schwartmann ist Leiter der Kölner Forschungsstelle für Medienrecht an der Technischen Hochschule Köln, Professor für Bürgerliches Recht und Wirtschaftsrecht an der Fakultät für Wirtschafts- und Rechtswissenschaften der TH Köln sowie zugleich Privatdozent am Fachbereich 03 der Johannes Gutenberg-Universität Mainz und Vorsitzender der Gesellschaft für Datenschutz und Datensicherheit (GDD). Von 2018 bis 2019 war er Mitglied der Datenethikkommission.