Erweiterte Suche

Digitalisierung & KI

Standpunkte Kinderschutz: Die Pflicht der Plattformanbieter

Kerstin Claus, Unabhängige Beauftragte für Fragen des sexuellen Kindesmissbrauchs
Kerstin Claus, Unabhängige Beauftragte für Fragen des sexuellen Kindesmissbrauchs Foto: UBSKM, Barbara Dietl

Bei der aktuellen Diskussion zur CSA-Verordnung der EU-Kommission ist der Missbrauchsbeauftragten der Bundesregierung, Kerstin Claus, wichtig, dass beide Rechtsgüter – Kinderschutz und Datenschutz – gleichermaßen ernst genommen und nicht gegeneinander ausgespielt werden. Die Sicherheit von Kindern und Jugendlichen im Netz sei eine Pflicht der Internetdiensteanbieter.

von Kerstin Claus

veröffentlicht am 31.05.2023

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Digitale Medien sind fester Bestandteil im Leben von Kindern und Jugendlichen. Sie dienen als Informationsquellen sowie als soziale, partnerschaftliche und sexuelle Orientierungs- und Erfahrungsräume. Gleichzeitig bringen sie diverse potentielle Gefährdungen mit sich: vom Cybergrooming, also dem gezielten Ansprechen von Minderjährigen im Internet mit dem Ziel der Anbahnung sexueller Kontakte, oder der Veröffentlichung von Nacktaufnahmen ohne Zustimmung oder gegen den Willen Minderjähriger, bis hin zu sexueller Gewalt und Ausbeutung von Minderjährigen, um die dann generierten Missbrauchsdarstellungen im Netz anzubieten oder kommerziellen Profit zu erzielen.

Wie wichtig und notwendig Regeln zum Schutz von Kindern im digitalen Raum sind, zeigt auch eine Studie der Landesanstalt für Medien NRW, für die mehr als 2000 Kinder und Jugendliche im Alter von acht bis 18 Jahren befragt wurden. Knapp ein Viertel der befragten Kinder und Jugendlichen gaben an, online schon einmal eine erwachsene Person kennengelernt zu haben und von dieser auch nach einem persönlichen Treffen gefragt worden zu sein. Zahlen, die deutlich machen, wie hoch das Bedrohungspotenzial für Kinder und Jugendliche im Netz ist.

Anbieter müssen zum Schutz verpflichtet werden

Vor dem Hintergrund dieser Zahlen halte ich als Missbrauchsbeauftragte den Vorschlag der EU-Kommission zur Bekämpfung von Kindesmissbrauch im Netz – trotz andauernder heftiger Debatten – grundsätzlich für richtig und wichtig. Die Kommission legt damit den Fokus auf den digitalen Raum, in dem Kinder und Jugendliche bisher weitestgehend ungeschützt sind. Es ist paradox, dass wir in der realen Welt Vorgaben machen, welche Räume ab welchem Alter von Kinder und Jugendlichen genutzt werden dürfen, sie in der digitalen Welt aber ungeschützt, ohne Alterskontrolle, ohne Hilfsangebote und ohne ausreichende Medienkompetenz agieren lassen.

Im Kern geht es bei der CSA-Verordnung (engl. Child Sexual Abuse) darum, die Angebote der Internetdienste ausgehend vom Kinderschutz und aus der Perspektive minderjähriger User zu verbessern. Das ist ein wichtiger Schritt in Richtung mehr Kinderschutz im Netz. Die CSA-Verordnung macht deutlich, dass es die Anbieter sind, die in der Pflicht stehen müssen, bei ihren Angeboten für den Schutz der minderjährigen User zu sorgen. Deswegen sollen sie etwa Risikoanalysen ihrer Angebote vornehmen und entsprechend geeignete Maßnahmen zum Schutz ergreifen. Der Grundgedanke dahinter ist, dass nicht die Kinder und Jugendlichen für ihren Schutz selbst verantwortlich sind, sondern wir ihnen sichere Räume zur Verfügung stellen müssen. Das ist auch für digitale Lebenswelten zentral. Dieser grundsätzliche Schutzgedanke hat 2021 Einzug ins deutsche Jugendschutzgesetz gehalten – und findet sich jetzt auch im Digitale-Dienste-Gesetz der EU wieder.

Kinderschutz und Datenschutz nicht gegeneinander ausspielen

Die aktuelle Kritik am Vorschlag der EU-Kommission fokussiert sich vor allen Dingen darauf, ob zum Schutz von Kindern und Jugendlichen in die Privatsphäre beziehungsweise das Recht auf vertrauliche Kommunikation eingegriffen werden darf, was angemessen ist und was nicht. Diese Debatte ist enorm wichtig, denn es geht um die schwierige Abwägung von Grundrechten. Das politische Ziel aber muss ein bestmöglicher digitaler Kinderschutz sein, der das Recht auf Privatsphäre in der Kommunikation ebenso achtet wie die Schutzrechte von Kindern und Jugendlichen vor sexualisierter Gewalt im Internet.

Einige Maßnahmen des Entwurfs sind sehr weitgehend und werden aktuell geprüft und wo erforderlich angepasst. Das darf aber nicht dazu führen, jetzt den kompletten Entwurf zu verwerfen. Was es braucht, ist eine detailgenaue Betrachtung und Abwägung. Leider werden in der aktuellen Debatte nicht alle Argumente mit der gleichen Aufmerksamkeit gehört. Häufig wird der Schutz von Kindern und Jugendlichen vor Gewalt eben nicht als gleichermaßen zu achtendes Grundrecht dargestellt – und leider oftmals auch nicht verstanden. Stattdessen werden die Grundrechte auf Privatsphäre beziehungsweise vertrauliche Kommunikation in den Mittelpunkt gerückt. Dazu muss dann aber auch das Recht von Kindern und Jugendlichen gehören, dass keine Bilder von ihnen im Internet stehen, wenn sie das nicht möchten. Und: Auch Kinder haben das Recht auf Privatsphäre beziehungsweise vertrauliche Kommunikation. Auch diese Rechte gilt es einzuhalten.

Zielgerichtete, rechtskonforme Maßnahmen erforderlich

Die geplante CSA-Verordnung ist vor allem deshalb ein wirksames Mittel zur Bekämpfung von digitaler sexueller Gewalt an Kindern und Jugendlichen, da sie drei wichtige Kernaufgaben benennt: das Identifizieren und Löschen von bereits bekannten Inhalten, das Erkennen und Löschen von unbekannten Missbrauchsdarstellungen sowie das Erkennen von Cyber-Grooming-Mustern.

Für diese Aufgaben bedarf es unterschiedlicher Strategien sowie eines klugen Einsatzes von geschultem Fachpersonal und technischen Lösungen – sowohl auf Seiten der Anbieter als auch in den Verfolgungsbehörden. Diese müssen im Einklang mit allen anderen EU-Rechtsgütern stehen.

Der Vorschlag der EU-Kommission sieht deshalb ein mehrstufiges Verfahren vor: Anbieter nehmen zunächst selbst eine Risikobewertung vor, identifizieren die Risiken und erarbeiten Instrumente, diese Risiken dann zu mindern beziehungsweise zu vermeiden. Gelingen kann dies zum Beispiel durch den Einsatz von Moderator:innen, Alterskennzeichnungen, Schutzvorrichtungen in den Einstellungen oder die Schaffung von sicheren Räumen für Kinder. Weitergehende Maßnahmen können und dürfen nur erfolgen, wenn Anbieter eine explizite juristische Anordnung erhalten, beispielsweise zum Identifizieren von bekannten Missbrauchsdarstellungen über einen Hashwert-Abgleich. Das hierüber gefundene Material muss dann dem geplanten EU-Zentrum gemeldet werden, das den Fall untersucht. Letztendlich braucht es einen richterlichen Beschluss oder Vergleichbares zum Löschen des Materials, der die Rechte und den Schutz aller Beteiligten in den Blick nimmt. Die so oft verkürzte Bezeichnung einer „anlasslosen Chatkontrolle“ wird diesem mehrfach abgestuften Verfahren nicht gerecht und polarisiert die Debatte einseitig.

Ziel muss es sein, Missbrauch möglichst früh zu erkennen und zu unterbinden. Wenn uns beispielsweise der Einsatz Künstlicher Intelligenz (KI) zukünftig dabei unterstützen kann, unbekannte Missbrauchsdarstellungen zu finden und Kontaktanbahnungen von Tätern und Täterinnen mit Minderjährigen frühzeitig zu erkennen, so sollten wir auch den Einsatz dieser Technologien prüfen und diskutieren. Gerade im KI-Bereich werden kontinuierlich Fortschritte gemacht. Daher müssen die Regelungen, die wir mit heutigem Wissensstand verhandeln, umfassend technologieoffen gedacht sein, damit wir nicht morgen darauf reduziert sind, die Strafverfolgung von globalen Täterstrukturen im digitalen Raum mit den Technologien von gestern bewerkstelligen zu müssen. In Anbetracht der immensen Geschwindigkeit des Fortschritts im Bereich künstlicher Intelligenz wäre dies verheerend.

Wir brauchen also eine Debatte um die Maßnahmen und Ideen, die am besten dazu geeignet sind, zum maximal möglichen digitalen Kinderschutz beizutragen, und gleichzeitig dem Schutz der Privatsphäre in der Kommunikation Rechnung tragen.

Kerstin Claus ist seit April 2022 unabhängige Beauftragte für Fragen des sexuellen Missbrauchs (UBSKM), wofür sie vom Bundeskabinett berufen wurde. Sie engagiert sich bereits seit Jahren haupt- und ehrenamtlich gegen sexuelle Gewalt an Kindern und Jugendlichen.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen