Standpunkt Ethik-Waschmaschinen made in Europe

Heute stellt die EU Ethikrichtlinien im Umgang mit Künstlicher Intelligenz vor. Thomas Metzinger, Mitglied der Expertengruppe, die die Richtlinien ausarbeitete, ist enttäuscht vom Ergebnis. Industrieinteressen haben sich durchgesetzt, erklärt der Philosoph.

Lernen Sie Tagesspiegel Background kennen

Jetzt kostenlos lesen
Sie sind Background-Kunde und haben noch kein Passwort? Wenden Sie sich an unseren Support oder hier einloggen

Es sind wirklich gute Nachrichten: Europa hat gerade die geistige Führung in der heiß umkämpften globalen Debatte um den ethisch richtigen Umgang mit der Künstlichen Intelligenz (KI) übernommen. Heute stellt die 52-köpfige High-Level Expert Group on Artificial Intelligence (HLEG AI) in Brüssel ihre Ethics Guidelines for Trustworthy AI vor. Neun Monate hat die internationale Expertengruppe, der auch ich angehöre, im Auftrag der EU-Kommission an dem Text gearbeitet. Herausgekommen ist ein Kompromiss, auf den ich nicht stolz bin – und gleichzeitig das Beste, was es weltweit zum Thema gibt. Die USA oder China haben nichts Vergleichbares. Wie passt das zusammen?

KI kann nicht vertrauenswürdig sein

Der zugrundeliegende Leitgedanke einer „vertrauenswürdigen KI“ ist natürlich zunächst begrifflicher Unsinn. Maschinen sind nicht vertrauenswürdig, nur Menschen können vertrauenswürdig sein – oder eben auch nicht. Wenn ein nicht vertrauenswürdiger Konzern oder eine nicht vertrauenswürdige Regierung sich unethisch verhält und in Zukunft eine gute, robuste KI-Technologie besitzt, dann kann er oder sie sich noch besser unethisch verhalten.

Die Geschichte von der Trustworthy AI ist ein von der Industrie erdachtes Marketing-Narrativ, eine Gute-Nacht-Geschichte für die Kunden von morgen. In Wirklichkeit geht es darum, Zukunftsmärkte zu entwickeln und Ethikdebatten als elegante öffentliche Dekoration für eine groß angelegte Investitionsstrategie zu benutzen. Das ist zumindest der Eindruck, der sich mir nach neun Monaten Arbeit an den Richtlinien sehr stark aufdrängt.

Kaum Ethiker involviert

Die Zusammensetzung der Gruppe, die sie erarbeitet hat, ist Teil des Problems: Sie bestand aus vier Ethikern und 48 Nicht-Ethikern. Das ist so, als würden Sie mit 48 Philosophen, einem Hacker und drei Informatikern (von denen zwei immer gerade in Urlaub sind) einen topmodernen, zukunftssicheren KI-Großrechner zur Politikberatung bauen.

Von den Nicht-Ethikern waren die meisten Vertreter der Industrie. Wer immer für die extreme Industrielastigkeit der Gruppe verantwortlich war, hatte aber in mindestens einem Punkt Recht. Wenn man will, dass die europäische KI-Industrie sich an ethische Regeln hält, dann muss man ihr auch wirklich zuhören und sie von Anfang an mit ins Boot holen. Es gibt viele kluge Leute dort.

Rote Linien wurden verwischt

Warum ist das trotzdem problematisch? Als Mitglied bin ich insgesamt sehr enttäuscht von dem Ergebnis. Die Richtlinien sind lauwarm, kurzsichtig und vorsätzlich vage. Sie übertünchen schwierige Probleme („explainability“) durch Rhetorik, verletzen elementare Rationalitätsprinzipien und sie geben vor, Dinge zu wissen, die in Wirklichkeit einfach niemand weiß.

Zusammen mit dem ausgezeichneten Berliner Machine-Learning-Experten Urs Bergmann (Zalando) war es meine Aufgabe, in monatelangen Gesprächen die „Red Lines“ zu erarbeiten – also nicht-verhandelbare ethische Prinzipien, die festlegen, was in Europa mit KI nicht gemacht werden darf. Der Einsatz von tödlichen autonomen Waffensystemen war ein naheliegender Punkt auf unserer Liste, ebenfalls die KI-gestützte Bewertung von Bürgern durch den Staat (Social Scoring) und grundsätzlich der Einsatz von KI, die Menschen nicht mehr verstehen und kontrollieren können. 

Dass all dies gar nicht wirklich erwünscht war, habe ich erst verstanden, als mich unser freundlicher finnischer Präsident Pekka Ala-Pietilä ruhig und mit sanfter Stimme gefragt hat, ob wir die Formulierung „nicht verhandelbar“ nicht doch aus dem Dokument streichen könnten? Im nächsten Schritt haben viele Industrievertreter und an einer „positiven Vision“ interessierte Gruppenmitglieder vehement darauf bestanden, dass wir auf Verweise auf „Red Lines“ gänzlich verzichten – obwohl ja genau diese unser Arbeitsauftrag waren. Wenn Sie sich das Dokument nach der heutigen Veröffentlichung anschauen, werden Sie keine roten Linien mehr finden. Drei wurden komplett gelöscht, der Rest wurde verwässert und stattdessen ist nur noch die Rede von „critical concerns“. Das passt ins Bild.

Von Fake News zu Fake Ethik

Ich beobachte derzeit ein Phänomen, das man als „ethics washing“ bezeichnen kann. Das bedeutet, dass die Industrie ethische Debatten organisiert und kultiviert um sich Zeit zu kaufen – um die Öffentlichkeit abzulenken, um wirksame Regulation und echte Politikgestaltung zu unterbinden oder zumindest zu verschleppen. Auch Politiker setzen gerne Ethik-Kommissionen ein, weil sie selbst einfach nicht weiterwissen – und das ist ja auch nur menschlich und ganz und gar nachzuvollziehen. Die Industrie baut aber gleichzeitig eine „Ethik-Waschmaschine“ nach der anderen: Facebook hat in die TU München investiert – in ein Institut, das KI-Ethiker ausbilden soll.

Google hatte die Philosophen Joanna Bryson und Luciano Floridi für ein „Ethics Panel“ engagiert – das Ende vergangener Woche überraschend eingestellt wurde. Wäre das nicht so gekommen, hätte Google über Floridi – der auch Mitglied der HLEG AI ist – direkten Zugriff auf den Prozess bekommen, in dem die Gruppe ab diesem Monat die politischen und die Investitionsempfehlungen für die Europäische Union erarbeitet. Das wäre ein strategischer Triumph des amerikanischen Großkonzerns gewesen.

Weil die Industrie viel schneller und effizienter ist als die Politik oder die Wissenschaft, besteht das Risiko, dass wir nach „Fake News“ jetzt auch ein Problem mit Fake-Ethik bekommen. Inklusive jeder Menge Nebelkerzen, hochbezahlter Industriephilosophen, selbsterfundener Gütesiegel und nicht-validierter Zertifikate für „Ethical AI made in Europe“.

Nehmt der Industrie die Ethikdebatte wieder weg!

Fest steht: Wir können es uns nicht leisten, diese Technologie politisch auszubremsen oder nicht weiter zu entwickeln. Weil gute KI aber ethische KI ist, haben wir jetzt auch eine moralische Verpflichtung, die Guidelines der High-Level Group selbst aktiv weiterzuentwickeln. Bei aller Kritik an ihrer Entstehung – die Ethik-Leitlinien, die wir uns in Europa gerade erarbeiten, sind trotzdem die beste Plattform für die nächste Phase der Diskussion, die wir je hatten. China und die USA werden sie genau studieren. 

Ihre juristische Verankerung in europäischen Grundwerten ist ausgezeichnet. Die erste Auswahl der abstrakten ethischen Prinzipien ist zumindest passabel, nur die echte normative Substanz auf der Ebene von Langzeitrisiken, konkreter Anwendungen und Fallbeispiele wurde zerstört. Der erste Schritt war gut. Aber es ist höchste Zeit, dass die Universitäten und die Zivilgesellschaft sich den Prozess zurückerobern und der Industrie die selbst-organisierte Diskussion wieder aus der Hand nehmen.

Alle spüren es: Wir befinden uns in einem rasanten historischen Übergang, der auf vielen Ebenen gleichzeitig stattfindet. Das Zeitfenster, innerhalb dessen wir ihn zumindest teilweise kontrollieren und die philosophisch-ethischen Grundlagen der europäischen Kultur noch wirksam verteidigen können, wird sich in wenigen Jahren schließen.  

Thomas Metzinger ist Professor für Theoretische Philosophie am Philosophischen Seminar der Johannes Gutenberg-Universität Mainz. Er wurde in die „High Level Expert Group on Artificial Intelligence“ (HLEG AI) als Vertreter der Europäischen Universitätsvereinigung („European University Association“) berufen, die die Interessen von rund 800 Universitäten und die Rektorenkonferenzen in 48 Ländern vertritt.

Lernen Sie Tagesspiegel Background kennen

Jetzt kostenlos lesen
Sie sind Background-Kunde und haben noch kein Passwort? Wenden Sie sich an unseren Support oder hier einloggen