Die europäische High Level Expert Group on Artificial Intelligence (AI HLEG) hat am Montag ethische Richtlinien für Künstliche Intelligenz vorgelegt. Von einigen Mitgliedern (etwa Thomas Metzinger) werden diese Richtlinien nun kritisiert, weil sie zu industrienah seien und „Ethics Washing“ betrieben. Die Industrie würde regelrechte „Ethik-Waschmaschinen“ aufstellen. Ich halte diese Kritik für vorschnell und nicht fair.
Ich war selbst nicht Teil der AI HLEG, wohl aber der (deutlich kleineren) europäischen Expertengruppe AI4People, die bereits im vergangenen November im EU-Parlament entsprechende Richtlinien präsentierte, deren fünf ethische Kernprinzipien (etwa das der „Erklärbarkeit“ von KI) von der AI HLEG übernommen wurden.
Was soll der Begriff „Ethics Washing“ überhaupt ausdrücken? Gemeint ist offenbar, dass eine Maßnahme, die ethisch sein soll, es eigentlich nicht ist. Das kann in zweierlei Hinsicht gemeint sein, und zwar je nachdem, welche Sicht von Ethik man vertritt: Geht es einem um die Folgen einer Handlung oder um die Motivation der Handlung?
Ethisches Handeln ohne richtige Gesinnung nicht möglich?
Meistens geht es den Kritikern um
die Motivation: ein Unternehmen tue zwar etwas, verfüge aber nicht über die
richtige Gesinnung. Damit können Aktionen von Unternehmen, die positive Folgen
für die Umwelt, für benachteilige Gruppen, für Menschenrechte etc. haben,
jederzeit denunziert werden, weil sie nicht aus der „richtigen“ Motivation
heraus erfolgten. Im Grunde darf dann nichts getan werden – solange nicht die
Gesinnung stimmt. Im Fall der Silicon-Valley-Unternehmen heißt es oft, diese
Unternehmen hätten eine bestimmte Motivation und deswegen könne mit ihnen im
Bereich Ethik von vornherein nicht zusammengearbeitet werden. Ein Teufelskreis,
der niemandem hilft und keine Verbesserungen bewirkt. Gerade im Bereich KI muss
es aber darum gehen, dass sich etwas für die Nutzer verbessert – und zwar
unabhängig von vermeintlichen Motivationen.
Wenn es einem um die Folgen der
Handlung geht, dann könnte man es als Ethics Washing bezeichnen, wenn keine
positiven Folgen entstehen. Meinen das die Kritiker? Sind sie der Ansicht, dass
eine Zusammenarbeit mit diesen Unternehmen keine positiven Folgen haben wird?
Diesen Vorwurf kann ich schon gar nicht nachvollziehen. Wie will man denn sonst
positive Folgen erreichen, für Nutzer oder für die Gesellschaft insgesamt – ohne
die Unternehmen, in denen die Kompetenz für die Umsetzung sitzt? Wie will man
etwas ethisch verbessern, wenn man sich nicht auf diejenigen einlässt, die das
Ganze umsetzen werden?
Natürlich muss eins dabei klar sein: Unternehmen dürfen bei Forschung, die sie unterstützen, gerade auch bei Ethik-Forschung, keinen Durchgriff etwa auf Ergebnisse oder Veröffentlichungsrechte haben. Aber das lässt sich alles klären und vereinbaren. Bei unserem neuen Institut für Ethik in der KI an der TU München etwa bestehen gegenüber dem Geldgeber Facebook keinerlei Auflagen oder Vorgaben. Es gibt keine vertraglichen Verpflichtungen, da nicht einmal ein Vertrag existiert: Das Geld ist ein Geschenk des Unternehmens für die Forschung.
Menschen müssen Technologie vertrauen
Was wollen wir – an unserem Institut wie auch mit den Richtlinien der AI HLEG – erreichen? Wir wollen, dass Menschen KI-Systemen vertrauen können. Vielen Programmen und Technologien vertrauen Menschen bereits jetzt, schon etwa dann, wenn sie in einen Fahrstuhl steigen. Und manchmal vertraut man zu Unrecht, wie aktuell im Fall der vermutlich fehlerhaften Software der Boeing 737 Max 8. Dann müssen die Systeme verbessert werden.
Kritiker Metzinger wendet ein, vertrauenswürdige KI könne es nicht geben, nur Menschen könnten vertrauenswürdig sein. Das halte ich für reine Begriffsklauberei: Ethik in Zeiten digitaler Systeme und KI kann nicht nur auf Personen setzen, dazu ist die Komplexität einfach zu hoch geworden. Individuelle Tugenden reichen nicht aus. Ethik muss hier auf Systeme, auf Programme und Software setzen. So machen es Unternehmen im Bereich der Wirtschaftsethik, wenn sie Maßnahmen zu Integrität oder Compliance einrichten. Und diese bewirken einiges, und zwar auch dann, wenn die relevanten Akteure weiter eigeninteressiert handeln.
Philosophen sollten nicht unter sich bleiben
Dass, wie ebenfalls kritisiert wurde, in der AI HLEG 4 Ethiker und 48 Nicht-Ethiker saßen, halte ich im Übrigen für einen Vorteil: Die Philosophen sollten gerade nicht unter sich bleiben, sondern sich mit den anderen Akteuren auseinandersetzen. Ethiker sollten nicht unterrepräsentiert sein, ja, aber über Ethik-Richtlinien können auch nicht nur Ethiker entscheiden, denn solche Richtlinien existieren nicht im luftleeren Raum. Das wäre eine völlig verfehlte Sicht auf Ethik. In diesem Raum tummeln sich statt dessen die Akteure von Politik, Zivilgesellschaft, Wissenschaft und natürlich auch Wirtschaft – und deren Rolle muss man berücksichtigen, jedenfalls dann, wenn man will, dass am grünen Tisch formulierte Regeln auch Anwendung finden. Hier hat die High Level Expert Group einen guten Beitrag geleistet, dem sicherlich weitere folgen werden.
Christoph Lütge ist Direktor des neuen Institute for Ethics in Artificial Intelligence an der TU München und hat seit 2010 den Peter Löscher-Stiftungslehrstuhl für Wirtschaftsethik an der TUM inne.