Erweiterte Suche

Digitalisierung & KI

Standpunkt

Warum es eine schlechte Idee ist, quelloffene KI zu regulieren

Alex C. Engler ist Fellow der Brookings Institution
Alex C. Engler ist Fellow der Brookings Institution Foto: Brookings Institution

Der Rat der Europäischen Union hat vorgeschlagen, quelloffene Mehrzweck-KI im Rahmen des AI Acts zu regulieren. Dieser Schritt könnte allerdings vor allem Entwickler derartiger Systeme verunsichern und nach hinten losgehen, schreibt Governance-Forscher Alex C. Engler.

von Alex C. Engler

veröffentlicht am 14.09.2022

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Auf europäischer Ebene gibt es gerade den Versuch, sogenannte Mehrzweck-KI (general purpose AI) im Rahmen des Entwurfs einer EU-Verordnung über Künstliche Intelligenz – dem AI Act – zu regulieren. Ein Änderungsvorschlag vom Rat der Europäischen Union (EU) zu dem ursprünglichen Entwurf der EU-Kommission würde den ungewöhnlichen und schädlichen Schritt wagen, quelloffene Mehrzweck-KI zu regulieren.

Der Vorschlag würde eine rechtliche Haftung für Open-Source-Modelle von Mehrzweck-KI schaffen und deren Entwicklung untergraben. Dies könnte die Macht über die Zukunft der KI weiter bei großen Technologieunternehmen konzentrieren, europäischen Unternehmen unnötig schaden und Forschung verhindern, die für das Verständnis der Öffentlichkeit von KI entscheidend ist.

Der Ansatz des Rates würde einige KI-Modelle als „für allgemeine Zwecke“ geeignet definieren. Gemeint ist nicht die berüchtigte „allgemeine KI“ der fernen Zukunft. Genauer gesagt ist „general purpose AI“ gleichbedeutend mit KI, die viele verschiedene Aufgaben erledigen kann. Die meisten KI-Experten würden zustimmen, dass es sich bei Mehrzweck-KI vor allem um große Modelle handelt, die auf der Grundlage vieler Daten und mit relativ viel Rechenleistung entwickelt werden. Sie können auch mehr Aufgaben als herkömmliche Algorithmen erledigen: beispielsweise Bilder erzeugen, Sprachen übersetzen, einen Roboterarm bewegen oder Videospiele spielen. Was sich der Rat nun vorzustellen scheint, sind neue technische Anforderungen an diese Modelle.

Wenig zu gewinnen bei Miteinbezug von Open-Source-KI

Es gibt tatsächlich einige Gründe, eine Regulierung solcher Systeme in Betracht zu ziehen. Es ist jedoch ein Fehler, quelloffene Modelle in der Phase vor einer kommerziellen Anwendung in diese Regulierung miteinzubeziehen.Mehrzweck-KI, die Open Source ist, ist für jedermann frei verfügbar und wird nicht verkauft, obwohl Unternehmen sie als Teil einiger Geschäftsmodelle verwenden. Der vorgeschlagene AI Act wird gesetzliche Verantwortlichkeiten schaffen und dadurch rechtliche Risiken und Kosten verursachen. Das ist ein Problem, denn viele Open-Source-Entwickler und -Forscher verfügen oft nicht über die gleichen rechtlichen Ressourcen wie große Unternehmen.

Die Regulierung der Open-Source-Veröffentlichung von Mehrzweck-KI ist unnötig, da sie wie alle anderen Modelle bereits durch das KI-Gesetz reguliert würden, wenn sie für abgedeckte Einsatzzwecke verwendet werden, zum Beispiel bei der Personaleinstellung oder in gefährlichen Produkten. Da sich die Verordnung nicht auf außerhalb der EU veröffentlichte Modelle auswirken würde, würde sie auch nicht die Verbreitung und den möglichen Missbrauch von Open-Source-Modellen verhindern.

Die vielen Beiträge von Open-Source-Mehrzweck-KI

Durch Open-Source-KI verbreitet sich die Macht darüber zu bestimmen, in welche Richtung sich die KI entwickelt, weg von finanzstarken Technologieunternehmen wie Google und Open AI hin zu vielfältigeren Interessengruppen. Am vielversprechendsten ist die jüngste Veröffentlichung von Bloom, einem großen Sprachmodell, das in einer breiten Zusammenarbeit von mehr als 900 Open-Science-Forschern entwickelt und von der Firma Hugging Face organisiert wird. Bloom unterstützt 46 menschliche Sprachen, was seinen vielfältigen Hintergrund widerspiegelt. Die KI wurde mit Hilfe eines Supercomputers der französischen Regierung entwickelt und ist daher möglicherweise stärker von der neuen EU-Verordnung betroffen.

Andere aufkommende europäische Bemühungen könnten ebenfalls betroffen sein. Das Projekt Large European AI Models (LEAM) zum Beispiel, das vom KI-Bundesverband ins Leben gerufen und von Bosch, SAP und anderen in der EU ansässigen Unternehmen unterstützt wird, zielt darauf ab, zu den großen KI-Modellen amerikanischer und chinesischer Technologieunternehmen aufzuschließen. Die ersten Modelle von LEAM müssten ziemlich sicher die neuen Anforderungen erfüllen.

Mehrzweck-KI kann dazu beitragen, Lösungen voranzutreiben

Das deutsche Unternehmen Deepset erstellt Software mit quelloffenen Modellen, die als Mehrzweck-KI gelten könnten. Die Software von Deepset, genannt Haystack, verwendet die Modelle für Dokumentensuche und Fragebeantwortung. Dies ist eindeutig kein hohes Risiko – warum gelten also die neuen Vorschriften trotzdem? Im Moment könnte sich die Firma möglicherweise für eine angedachte Ausnahme für kleine Unternehmen qualifizieren. Sobald sie aber wächst, müsste sie die Anforderungen des AI Acts dennoch erfüllen.

Ein EU-Bericht zeigt, dass Open-Source-Software insgesamt zwischen 65 und 95 Milliarden Euro zum Bruttoinlandsprodukt der EU beiträgt. Zusammenfassend beschleunigt Open-Source-KI-Software die Einführung von KI und ermöglicht fairere und vertrauenswürdigere Systeme – dies gilt weitgehend auch für Mehrzweck-KI, Open-Source sind.

Darüber hinaus wird die öffentliche Verfügbarkeit von Mehrzweck-KI-Modellen dazu beitragen, Probleme zu identifizieren und Lösungen im gesellschaftlichen Interesse voranzutreiben. Beispielsweise haben große Open-Source-Sprachmodelle bewiesen, wie sich Vorurteile in den Anwendungen des Modells manifestieren. Andere wissenschaftliche Arbeiten verwenden Open-Source-KI, um neue Benchmarks zu erstellen, mit denen sich ihr Sprachverständnis oder die CO2-Kosten der KI-Entwicklung messen lassen. Mit der zunehmenden Verbreitung solcher Modelle – von Suchmaschinen bis hin zu Fabriken – wird es von größter Bedeutung sein, ihre Grenzen zu verstehen.

Open Source verdient eine klare Ausnahme

Es gibt zwei Ausnahmen, die unter Umständen für Mehrzweck-KI, die Open Source ist, gelten. Beide haben allerdings ernsthafte Grenzen. Eine Ausnahme gilt für Modelle, die nur zu Forschungszwecken dienen. Aber Open-Source-Entwickler sind motiviert, KI-Tools so zu bauen, dass sie in der realen Welt verwendet werden können. Die andere Ausnahme gilt, wenn Entwickler Missbrauch verhindern, was weitgehend unmöglich ist. Diese Ausnahmen entlasten Entwickler nicht von regulatorischen Verantwortlichkeiten oder rechtlicher Haftung. Entwickler wären daher zu Recht besorgt, wie zukünftige EU-Regulierungsbehörden den AI Act interpretieren werden.

Letztendlich könnte der Versuch des Rates, Open-Source-KI zu regulieren, zu einer verworrenen Reihe von Anforderungen führen, die Beitragende verunsichern. All dies wahrscheinlich, ohne die Nutzung solcher Modelle zu verbessern.

Open-Source-Modelle leisten einen enormen gesellschaftlichen Beitrag, indem sie die Dominanz von großen Technologieunternehmen bei KI herausfordern und öffentliches Wissen über die Funktion von KI generieren. Die ursprünglich vorgeschlagene EU-Verordnung wollte Open-Source-KI so lange ausschließen, bis sie für Anwendungen mit hohem Risiko zum Einsatz kommt. Alternativ würde ein am Dienstag vom Rechtsausschuss (JURI) eingebrachter Änderungsantrag eine entsprechende Ausnahme für Open-Source-KI hinzufügen. Dies würde der KI-Entwicklung einen weitaus besseren Dienst leisten.

Alex C. Engler untersucht bei der Brookings Institution die gesellschaftlichen Auswirkungen von KI. Zuvor war er zehn Jahre lang als Data Scientist in verschiedenen Organisationen tätig, zwischen Oktober 2021 und März 2022 forschte er außerdem als Senior Fellow der Stiftung Mercator zur Rolle Europas und Deutschlands bei der Entwicklung von KI-Governance. Alex Engler ist außerdem außerordentlicher Professor und assoziierter Wissenschaftler an der McCourt School of Public Policy. Dieser Beitrag ist zuerst in englischer Sprache auf brookings.edu erschienen. 

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen