Standpunkte Metas KI-Training: Die Debatte geht am Thema vorbei

Meta möchte sein KI-Modell mit den historischen Daten seiner erwachsenen Nutzer:innen füttern. Verbraucherschützer werfen Meta vor, damit die DSGVO zu verletzen. Laut David Pfau geht es bei dem Streit um eine Grundsatzfrage, die viele weitere Unternehmen betrifft. Wer den Datenschutz ernst nimmt, muss auch die Realität datenbasierter Technologien anerkennen, findet er.
Lernen Sie den Tagesspiegel Background kennen
Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.
Jetzt kostenfrei testenKünstliche Intelligenz gilt als Schlüsseltechnologie für Europas Zukunft. Wirtschaftlicher Erfolg, Wettbewerbsfähigkeit kleiner und mittlerer Unternehmen sowie wissenschaftlicher Fortschritt hängen auch davon ab, wie verfügbar und nutzbar moderne KI-Modelle sind – besonders solche, die mit lokal relevanten Daten trainiert wurden. Doch die Diskussion über ihre Regulierung verengt sich häufig auf Einzelfälle. Ein aktuelles Beispiel ist der Streit um das KI-Training des Open-Source-Modells Llama von Meta. Dieser zeigt, wie unterschiedlich Datenschutz ausgelegt und durchgesetzt wird – und wie groß der Bedarf an einer klareren, europaweit einheitlichen Regulierung und Zentralisierung der deutschen Datenschutzaufsicht in Richtung Datennutzung und DSGVO-Reform ist.
Symbolischer Schauplatz Meta
Meta will sein KI-Modell Llama mit öffentlich zugänglichen Inhalten von Facebook und Instagram weiterentwickeln – ohne neue Datenbank, sondern durch Feinjustierung eines bestehenden Wahrscheinlichkeitsmodells. Verwendet werden nur öffentlich sichtbare Inhalte. Nutzer:innen mit privaten Profilen oder eingeschränkter Sichtbarkeit sind nicht betroffen, auch rückwirkend nicht. Wer nicht möchte, dass seine öffentlichen Inhalte verwendet werden, kann dem KI-Training widersprechen. Dennoch steht Meta in der Kritik – der Fall steht exemplarisch für die Herausforderungen der Digitalwirtschaft in Europa.
Die irische Datenschutzbehörde DPC, die Meta in Europa beaufsichtigt, betont die Komplexität beim Anwenden der DSGVO auf neue Technologien. Meta hatte das Training auf Wunsch der DPC bereits um ein Jahr verschoben und sein Vorgehen entsprechend angepasst – unter anderem mit klareren Transparenzhinweisen, längeren Fristen für Widersprüche und Maßnahmen zur Anonymisierung und Filterung von Daten. Auch erforderliche Dokumente wie eine Datenschutz-Folgenabschätzung wurden der DPC übergeben.
Das Berechtigte Interesse ist die praktikabelste Rechtsgrundlage
Obwohl das European Data Protection Board (EDSA) die Rechtsgrundlage des Berechtigten Interesses für das KI-Training bestätigt hat, sind wir nun wieder bei der Frage nach der geeigneten Rechtsgrundlage angelangt. Fachleute sind sich weitestgehend einig: Die Einwilligung als Rechtsgrundlage für KI-Training, also ein Opt-In, ist in der Praxis zum aktuellen Zeitpunkt kaum umsetzbar. Das berechtigte Interesse ist die praktikablere Rechtsgrundlage.
Die DSGVO wurde zu einer Zeit formuliert, als generative KI noch Zukunftsmusik war. Manche Regelungen greifen heute zu kurz. Nationale Alleingänge – sei es von Datenschutzbehörden oder Verbraucherschutzorganisationen – erschweren eine einheitliche Linie in Europa. Eine offene Diskussion darüber, wie ein ausgewogener und innovationsfreundlicher Rahmen für KI aussehen kann, ist dringend nötig.
Meta tut mehr als gefordert
Meta bietet sein KI-Modell Llama frei zugänglich für Start-ups, KMU und Forschungseinrichtungen an – ein Schritt, der Innovation fördert und die digitale Souveränität in Europa stärken kann. In der öffentlichen Debatte geht dieser Aspekt oft unter. Ein laufendes Verfahren der Verbraucherzentrale NRW könnte nun einen Präzedenzfall schaffen – mit Folgen für viele andere Unternehmen, insbesondere im Bereich von Retrieval-Augmented Generation (RAG) oder Modell-Finetuning, wo das berechtigte Interesse entscheidend ist.
Hilfestellungen für Nutzer:innen – etwa beim Widerspruch gegen KI-Training – sind sinnvoll. Doch pauschale Verbote oder überzogene Regulierung gefährden Innovation. Hier ist ein differenzierter Blick gefragt.
Systemische Fragen statt Einzelfall-Aufregung
DSGVO und KI befinden sich in einem Spannungsverhältnis. Die Datenschutzregulierung stammt aus einer Zeit, in der generative KI nicht absehbar war. Ihre Mechanismen und Auslegungen greifen oft zu kurz. Das führt offenbar zu einer Einseitigkeit und Überforderung, die eine systemische und ausgewogene Auseinandersetzung verhindert. Grundsätzliche Fragen bleiben ungelöst und die notwendige Rechtssicherheit bleibt aus.
Wenn wir uns weiterhin in selektiven Betrachtungen verlieren, wenn weiterhin nationale Alleingänge von Verbraucherschützern, wie auch von Datenschutzaufsichtsbehörden auf der Tagesordnung stehen, führt dies zu einer Fragmentierung des EU-Binnenmarkts. Es fehlt somit an regulatorischer Kohärenz und Vorhersehbarkeit. Wir brauchen eine breitere, ideologiefreie Diskussion darüber, wie ein innovationsfreundlicher und grundrechtskonformer Rahmen für KI gestaltet werden kann. Es gilt sich nun ganzheitlich mit den regulatorischen Rahmenbedingungen auseinanderzusetzen.
David Pfau ist Geschäftsführer bei dem Beratungsunternehmen Conreri Digital Development GmbH in Hamburg. Zu seinen Kunden gehören kleine und mittlere Medien- und Digitalunternehmen. Conreri ist wie Meta Mitglied beim Bundesverband Digitale Wirtschaft (BVDW). Zwischen Januar und März 2024 war Pfau Interim Director Legal Affairs & Data Privacy des BVDW. Er ist im Herausgeberbeirat der Nomos-Zeitschrift für Europäisches Daten- und Informationsrecht (EuDIR).
Lernen Sie den Tagesspiegel Background kennen
Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.
Jetzt kostenfrei testen