Standpunkt KI-Zertifizierung: Offene Fragen jetzt klären

Die Politik habe erkannt, dass eine Zertifizierung von künstlich intelligenten Systemen braucht, um KI made in Europe zum Erfolg zu führen. Warum das der richtige Weg ist und welche Fragen dringend geklärt werden müssen, schreibt Jessica Heesen im Standpunkt.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? hier einloggen

Mit der Regulierung von Innovationen ist es eine vertrackte Sache: Ist die Regulierung nicht passgenau oder ein bürokratisches Monster kann sie gute Ideen ersticken und den Erfindergeist erst gar nicht aus der Flasche lassen. Kommt die Regulierung jedoch rechtzeitig und effizient, dann fördert sie neue und vielfältige Anwendungen und Geschäftsideen, die gerade deshalb erfolgreich sind, weil sie gesellschaftlich willkommen sind und gerne angenommen werden.

Zertifizierung als Schlüssel zur Akzeptanz?

So kann Zertifizierung für eine Vielzahl von Systemen der Künstlichen Intelligenz (KI) in deutschen Wirtschaftsunternehmen, aber auch in sensiblen Bereichen, wie etwa der Gesundheitsversorgung, dazu beitragen, dass ihr gesellschaftliches Nutzenpotential sicher und gemeinwohlorientiert ausgeschöpft werden kann. Der Einsatz von KI-Systemen verspricht einen hohen gesellschaftlichen und ökonomischen Nutzen. Die Zertifizierung von Lernenden Systemen und KI gilt als eine mögliche Schlüsselvoraussetzung, um den Einsatz von KI-Systemen in verschiedenen Wirtschafts- und Lebensbereichen voranzutreiben. Das ist auch daran erkennbar, dass die Forderung nach der Etablierung einer Zertifizierung von KI-Systemen in vielen Strategiekonzepten zu finden ist, wie beispielsweise der KI-Strategie der Bundesregierung oder dem Weißbuch der Europäischen Kommission zur Künstlichen Intelligenz.

Die Notwendigkeit einer eigenen Zertifizierung von KI-Systemen ist insbesondere durch ihre Eigenarten und Dynamik  begründet: Sie sind  keine klassischen festgelegten Systeme, sondern können ihr Verhalten im Prozess verändern und anpassen – man spricht von der „Autonomie“ der Systeme, auch wenn es sich hier nur um einen sehr begrenzten Begriff von Autonomie handelt. Hinzu kommt, dass die von KI-Systemen ausgegebenen Ergebnisse in der Regel auf Korrelationen und nicht auf Kausalitäten beruhen und deshalb schwer nachvollziehbar sind (Black-Box-Problem).

Drei Wirkungsweisen von Zertifizierung

Eine Zertifizierung von KI muss auf diese Spezifika der Systeme geeignete Antworten finden. Gelingt dies, dann kann Zertifizierung ein wichtiger Impuls für die Erreichung ökonomischer und gesellschaftlicher Ziele sein. Dies geschieht über drei Effekte: Über Zertifizierung und die damit verbundene Bindung der Entwicklung von KI an anerkannte Werte wie Diskriminierungsfreiheit, Datenschutz oder Transparenz wird erstens der Einsatz von KI-Systemen in Hinsicht auf gesellschaftliche und politische Konsequenzen betrachtet. Die Betrachtung dieser Effekte scheint in Bezug auf kurzfristige ökonomische Ziele oft uninteressant – ist aber langfristig und demokratisch unabdingbar, und die Zertifizierung bietet hierfür das Handwerkszeug.

Zweitens wird Zertifizierung in Zukunft insbesondere in sensiblen Bereichen wie Gesundheitswesen, Mobilität oder Wohlfahrtssystemen zur Zugangsvoraussetzung werden – oder ist es heute bereits –, um Risiken zu minimieren. Drittens, damit Nutzerinnen und Nutzer KI-Systeme anwenden wollen, müssen sie den Systemen und den zugrunde liegenden Akteuren und Prozessen vertrauen. Eine Zertifizierung, welche einen gewissen Standard garantiert, hilft dabei, das Vertrauen in diese Systeme zu stärken.

Das gerade angesprochene Vertrauen ist in unseren Augen auch der größte gesellschaftliche Gewinn einer Zertifizierung von KI-Systemen: So garantiert eine Zertifizierung, dass KI-Anwendungen und KI-Produkte bestimmte gesellschaftliche und ökonomische Kriterien erfüllen. Dies wiederum bietet Orientierung für eine Vielzahl von Akteuren, wie beispielsweise Entwicklerinnen, Start-ups, öffentliche Einrichtungen, Plattformbetreiber oder Verbraucherinnen. Dieses Vertrauen in die Zertifizierung kann wiederum dazu führen, dass eine vertrauenswürdige Marke „KI made in Europe“ einen Wettbewerbsvorteil am Markt darstellt. 

Viele Schritte in die richtige Richtung wurden bereits gemacht

Damit die Potentiale der Zertifizierung von KI-Systemen ausgeschöpft werden können, ist es entscheidend, dass eine Form von Zertifizierung gefunden wird, die Überregulierung vermeidet, Innovation ermöglicht und bestenfalls selbst zum Auslöser neuer Entwicklungen für einen europäischen Weg in der KI-Anwendung wird. Die Herausforderungen liegen hierbei in der Komplexität und Dynamik der KI-Systeme selbst, aber auch darin, das richtige Maß bei der Zertifizierung zu finden. Darüber hinaus müssen wir beachten, dass die Zertifizierung von KI-Systemen keinesfalls auf einer „grünen Wiese“ erfolgen sollte – im Gegenteil: Es ist wichtig, die Lücke zu bereits etablierten Prüfverfahren und bereits existierenden Normen und Standards zu schließen. Hinzu kommen zahlreiche, bereits existierende Projekte und Initiativen, die sich mit der Zertifizierung von KI-Systemen und Kriterien für diese beschäftigen, wie zum Beispiel die KI-Normungsroadmap, das Projekt Certified AI oder das Projekt der AI Ethics Impact Group. In der AI Ethics Impact Group haben wir im April dieses Jahres etwa ein Ethics-Rating für KI-Systeme entwickelt, um Werte messbar zu machen.

All diese Initiativen und Ansätze haben eines gemeinsam: Sie sind ein Schritt in die richtige Richtung. Dennoch sind noch viele Fragen offen, wenn es darum geht, eine Zertifizierung für KI-Systeme zu entwickeln. Welche KI-Systeme sollen überhaupt reguliert werden? Nicht jedes KI-Empfehlungssystem ist kritisch und muss zertifiziert werden. Wer soll für Zertifizierungen verantwortlich sein? An welcher Stelle und zu welcher Zeit des Entwicklungsprozesses setzt die Zertifizierung ein? 

In der Plattform Lernende Systeme möchten wir hier ansetzen und ausgehend von interdisziplinären Diskussionen einen Beitrag für die gesellschaftliche Debatte zum Einsatz von KI leisten. Gemeinsam mit Jörn Müller-Quade, Stefan Wrobel und Maximilian Poretschkin sowie weiteren Expertinnen und Experten aus der Plattform Lernende Systeme geben wir in einem neuen Impulspapier einen Überblick über die Notwendigkeit und den Nutzen einer Zertifizierung von KI-Systemen, zeigen Hürden und Forschungsbedarf und stellen verschiedene Zertifizierungsinitiativen vor. 

Jessica Heesen leitet am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen den Forschungsschwerpunkt Medienethik und Informationstechnik. Sie leitet auch die Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme. Gemeinsam mit anderen Autoren hat sie ein Impulspapier zur Zertifizierung von KI-Systemen verfasst, das heute an dieser Stelle von der Plattform Lernende Systeme veröffentlicht wird. 

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? hier einloggen