Erweiterte Suche

Digitalisierung & KI

Standpunkte Industriepolitik unter dem Deckmantel der KI-Regulierung?

Dominik Rehse, Leiter der Nachwuchsforschungsgruppe „Design digitaler Märkte“ am ZEW
Dominik Rehse, Leiter der Nachwuchsforschungsgruppe „Design digitaler Märkte“ am ZEW Foto: ZEW

Mit dem AI Act will die EU KI-Anwendungen sicherer machen. Offenbar werden mit der Verordnung aber auch industriepolitische Ziele verfolgt, meint Dominik Rehse vom ZEW mit Blick auf die Trilog-Einigung vom Wochenende.

von Dominik Rehse

veröffentlicht am 13.12.2023

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Ein Hauptstreitpunkt der jüngsten Trilog-Verhandlungen zur EU-KI-Verordnung war der Umgang mit sogenannten Basismodellen. Darunter versteht man meist generative KI-Modelle, die für viele verschiedene Anwendungszwecke angepasst werden können. Die technischen Aspekte solcher Modelle lassen die regulatorische Bewertung schnell unübersichtlich werden. Das betrifft auch die Vereinbarungen, die nun im Trilog getroffen wurden. Es zeichnet sich ab, dass hinter einigen der technisch anmutenden Vereinbarungen handfeste industriepolitische Motive stecken könnten.

Grenzwerte kommen europäischen Modellanbietern entgegen

Die erste Vereinbarung mit möglichen industriepolitischen Motiven betrifft die Maßgabe, dass Basismodelle, die mehr als 10~25 FLOPs („Floating Point Operations per Second“/Gleitkommaoperationen pro Sekunde) Rechenleistung für die Kalibrierung benötigen, besonders strengen Regulierungsmaßgaben unterliegen sollen. Der Rechenleistungsgrenzwert scheint auf den ersten Blick ein Maß für die Kontrolle der Leistungsfähigkeit von KI-Systemen zu sein. Von besonders leistungsfähigen Modelle könnte eine größere Gefahr ausgehen, was durchaus glaubhaft ist. Allerdings ist die Rechenleistung nur einer von mehreren Faktoren, die die Leistungsfähigkeit von Algorithmen des maschinellen Lernens bestimmen. Die zur Kalibrierung genutzten Daten und die Modellarchitektur spielen ebenfalls eine wesentliche Rolle.

Es gibt Hinweise, dass sie zumindest teilweise als Substitute für Rechenleistung verstanden werden können. Dies würde bedeuten, dass ein reiner Fokus auf die Rechenleistung möglicherweise kein umfassendes Kriterium für die Beurteilung der Leistungsfähigkeit von Basismodellen darstellt. Vielmehr könnten Anbieter von Basismodellen das Überschreiten des Rechenleistungsgrenzwerts umgehen, indem sie mehr in das Kuratieren von Daten und die Verbesserung der Modellarchitektur investieren. Ohne solches Ausweichverhalten zu antizipieren, hat der Rechenleistungsgrenzwert vermutlich nur eine begrenzte Wirkung. Eine Möglichkeit zur Eingrenzung solcher Ausweichbewegungen wäre, dass das neu bei der EU-Kommission einzurichtende „AI Office“ zusätzlich zum Rechenleistungsgrenzwert neue Grenzwerte mit Blick auf Daten und Modellarchitektur erlässt. Die Einrichtung der neuen Behörde dürfte jedoch noch einige Zeit erfordern. Zudem wird die KI-Verordnung erst mit Zeitverzug wirksam. In der schnelllebigen KI-Welt ist das eine halbe Ewigkeit.

Naheliegender scheint ein industriepolitisches Motiv für die Einführung eines Rechenleistungsgrenzwerts. Aktuell operieren europäische Anbieter von Basismodellen wie Aleph Alpha vermutlich vollständig unterhalb des nun vereinbarten Schwellenwerts. Häufig dürfte die notwendige Rechenleistung gar nicht technisch verfügbar oder nicht finanzierbar sein. Demgegenüber haben außereuropäische Anbieter von Basismodellen wie Open AI aus den Vereinigten Staaten derartige Beschränkungen nicht und bieten daher auch Modelle in der Nähe des vereinbarten Schwellenwerts an. Sie dürften sich also mit dem Wirksamwerden der KI-Verordnung mit höheren Compliance-Kosten konfrontiert sehen. Ökonomisch wirken diese dann wie ein Einfuhrzoll, der europäischen Anbietern von Basismodellen einen Wettbewerbsvorteil verschaffen könnte.

Sonderbehandlung für Open-Source-Modelle

Die zweite in den jüngsten Trilog-Verhandlungen getroffene Vereinbarung mit industriepolitischem Charakter betrifft die Freistellung von sogenannten Open-Source-Basismodellen. Diese könnte auf der Annahme beruhen, dass die Sicherheit von Basismodellen durch eine größere öffentliche Beteiligung und Transparenz erhöht wird. In der Welt der konventionellen Open-Source-Software gibt es Belege dafür, dass solche Systeme in Bezug auf IT-Sicherheit Vorteile bieten können, da der offene Quellcode das Erkennen und Beheben von Sicherheitslücken beschleunigen kann.

Im Gegensatz dazu sind KI-Basismodelle oft „Black Boxes“, deren Funktionsweise nicht so transparent und direkt nachvollziehbar ist. Sicherheitsverbesserungen erfordern hier komplexere Ansätze wie das relativ aufwendige Verfahren zur Feinjustierung und umfangreiche Validierung. Dies macht den Verbesserungsprozess weitaus nuancierter und herausfordernder. Zudem könnte die leichtere Verfügbarkeit von Open-Source-Basismodellen auch deren missbräuchliche Verwendung vereinfachen, indem sie beispielsweise für unlautere oder schädliche Zwecke eingesetzt werden. Daher wäre das Motiv einer größeren Sicherheit zumindest kritisch zu hinterfragen.

Glaubhafter erscheint erneut eine industriepolitische Motivation. Während die EU im Bereich der Closed-Source-Basismodelle momentan als weniger wettbewerbsfähig gilt, könnte die Förderung von Open-Source-Basismodellen als Chance für eine stärkere Positionierung in diesem Sektor gesehen werden. Bevorteilt würden dabei zwar auch außereuropäische Anbieter von Open-Source-Basismodellen. Jedoch scheint insbesondere die französische KI-Szene stark in solche frei verfügbaren Modelle zu investieren. Dazu zählt beispielsweise das Unternehmen Mistral, das sehr populäre Open-Source-Basismodelle vertreibt. Auch wenn es sicherlich noch Diskussionen und gegebenenfalls auch Rechtsstreitigkeiten über die Einstufungen verschiedener Lizenzen für Open-Source-Basismodelle geben dürfte, so sollten solche Unternehmen von der Freistellung stärkerer regulatorischer Vorgaben erst einmal profitieren.

Insgesamt zeichnet sich das Bild ab, dass die EU-KI-Verordnung mehr als nur ein Instrument zur Gewährleistung von KI-Sicherheit oder der Wahrung von Grundrechten sein dürfte. Stattdessen scheint sie auch industriepolitische Züge zu tragen, die darauf abzielen, europäische Anbieter von Basismodellen zu stärken. Den Blick darauf sollte der technische Jargon nicht verstellen.

Dominik Rehse leitet die Nachwuchsforschungsgruppe „Design digitaler Märkte“ und ist stellvertretender Leiter des Forschungsbereichs „Digitale Ökonomie“ am ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung in Mannheim.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen