Erweiterte Suche

Digitalisierung & KI

Standpunkte Eine KI mit europäischen Werten

Foto: promo (Roy Uhlmann)

Mit KI-Anwendungen „Made in Europe” könne unser Wertesysteme exportiert und zum weltweiten Standard werden, argumentiert Roy Uhlmann, Vorstandsmitglied im Bundesverband Deutscher Start-ups. Unterschiedliche Rechtssysteme spielen dabei eine große Rolle.

von Roy Uhlmann

veröffentlicht am 03.09.2019

aktualisiert am 06.01.2023

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Unter dem Stichwort „KI made in Europe“ fordern Politiker regelmäßig, die Entwicklung der Künstlichen Intelligenz (KI) dahingehend zu steuern, dass ihr Einsatz mit unserem europäischen Wertesystem im Einklang steht. Was aber bedeutet das konkret? Welche Rahmenbedingungen müssen wir schaffen, damit das passiert? Was müssen wir verhindern? Auf welche Technologien müssen wir setzen, welche sind eher nicht geeignet, unsere Werte zu schützen? Und was hat das alles mit dem Unterschied zwischen dem angelsächsischen und dem deutschen Rechtssystem zu tun? Darauf versuche ich, im Folgenden eine Antwort zu geben.

KI-Anwendungen fußen auf Wertesystemen

KI-Anwendungen sind, wenn man es herunterbricht, autonome Entscheidungssysteme. Diese Entscheidungssysteme fußen auf einem Wertesystem. Daher spielt es eine zentrale Rolle für das Zustandekommen einer Entscheidung dieser KI-Anwendungen, innerhalb welchen Wertesystems sie entwickelt wurden. Stellt man eine innerhalb des US-amerikanischen Wertesystems entwickelte, eine chinesische und eine europäische KI-Anwendung vor eine Vielzahl komplexer Probleme, nehmen diese Anwendungen mitunter andere Abzweigungen und kommen im Ergebnis zu anderen Entscheidungen, die ihren jeweiligen Wertesystemen entsprechen. Die Frage, die wir uns also stellen müssen, lautet, ob wir es hinnehmen wollen, Entscheidungssysteme zu importieren, die auf US-amerikanischen oder chinesischen Wertesystemen basieren. Wenn wir diese Frage mit Nein beantworten, müssen wir einige Konsequenzen aus diesem Nein ziehen. Etwas weitergedacht: Wir können KI-Anwendungen „Made in Germany“ oder „Made in Europe“ sogar als Werkzeug nutzen, um unsere Wertesysteme zu exportieren und sie dadurch zum weltweiten Standard zu machen.

Import oder Export von Wertesystemen?

Doch warum könnte man überhaupt zu dem Schluss kommen, dass es keine gute Idee ist, beispielsweise US-amerikanische autonome Entscheidungssysteme zu importieren? Die meisten denken vermutlich an die Unterschiede in den jeweils herrschenden Moralvorstellungen. Die deutsche Ethik, wenn es so etwas überhaupt gibt, fußt zum Teil auf anderen Grundüberzeugungen als die US-amerikanische. Doch Ethik und Moral sind sehr komplexe und unscharfe Instrumente. Sie eignen sich nur bedingt für eine Ablehnung oder Akzeptanz eines spezifischen autonomen Entscheidungssystems. Den vielen Gremien, die die Bundesregierung eingesetzt hat, um sich mit Ethik und Moral in der KI zu befassen, fällt es genau aus diesem Grund schwer, ihren Auftraggebern konkrete und handfeste Instrumentarien an die Hand zu geben. Dabei haben wir bereits ein sehr konkretes und handfestes Instrument, welches uns die grundlegende Richtung für deutsche KI-Anwendungen weisen kann: das deutsche kodifizierte Rechtssystem.

Kodifiziertes Rechtssystem vs. Case Law

Im Unterschied zu unserem kodifizierten Rechtssystem wird im anglo-amerikanischen Raum Case Law angewandt. Das heißt, dass sich das dortige Rechtssystem von entschiedenen Gerichtsfall zu Gerichtsfall weiterentwickelt. Das Rechtssystem lernt also quasi jeden Tag dazu. Mit jedem weiteren Fall wird das Rechtsystem besser, passt sich an die aktuell vorherrschenden Rahmenbedingungen an und wird dadurch robuster. Diesem Prinzip der stetigen Weiterentwicklung folgen auch konventionelle KI-Anwendungen, sogenannte trainierte Modelle, die auf einer möglichst hohen Datenmenge basieren. Jedes neu hinzugefügte Datum verbessert das Modell und macht es robuster. Die allermeisten amerikanischen KI-Anwendungen sind nach diesem Prinzip gebaut, insbesondere solche Anwendungen, die für autonomes Fahren verwendet werden. Diese Entscheidungssysteme haben jedoch den Nachteil, dass sie in ihrer Entscheidungsfindung nicht nachvollziehbar sind. Trainierte Modelle lassen eine Blackbox entstehen. Diese Blackbox ist nicht vereinbar mit unserem kodifiziertem Rechtssystem, welches auf klar definierten Regeln fußt, die für alle potentiell auftretenden Fälle gleichermaßen gelten müssen. Das Rechtssystem entwickelt sich nicht im selben Maße organisch weiter wie Case Law, ist dafür aber auch verbindlicher und berechenbarer. Trainierte Modelle entsprechen also nicht unserem Rechtssystem.

Deterministische Modelle entsprechen unserem Rechtssystem

Doch auch unser kodifiziertes Rechtssystem hat seine Entsprechung in der KI-Technologie: deterministische Entscheidungssysteme. Diese Systeme werden nicht auf möglichst großen Datenmengen trainiert, sondern sind so angelegt, dass sie mögliche Probleme intrinsisch lösen können, auf Basis bestehender Regeln. Solche deterministischen Modelle entwickeln sich zwar auch weiter, sind jedoch in ihrer Grundstruktur berechenbarer und verbindlicher. Solche Modelle sind die natürliche Entsprechung unseres kodifizierten Rechtssystems und daher leichter zertifizierbar unter unserem geltendem deutschem Recht. Wenn man also konsequent Entscheidungssysteme entwickeln und anwenden möchte, die unserem Wertesystem entsprechen, sollten deterministische Modelle immer Vorrang gegenüber trainierten Modellen genießen.

Vom KI-Airbus zum europäischen Waymo

Unlängst hat Wirtschaftsminister Peter Altmaier die Idee formuliert, dass man eine Art KI-Airbus gründen müsste. Vieles spricht dafür. Wir brauchen ein europäisches privatwirtschaftliches KI-Unternehmen auf international wettbewerbsfähigem Niveau und mit entsprechender Größe. Was liegt da näher als diesen KI-Airbus auf dem konkreten Feld des autonomen Fahrens zu errichten, in dem es in Deutschland und Europa ein unvergleichliches Cluster und Know-How gibt – zumindest was die physischen Devices, also die Autos, angeht? So ein KI-Airbus wäre also eine Art europäisches Waymo – wie sich Googles Mobilitätsprojekt nennt. Ein europäisches Waymo, dessen Entscheidungssysteme auf unseren Wertesystemen und somit auf unserem kodifiziertem Rechtssystem fußt.

Den Plattform-Fehler nicht wiederholen

Das große Rennen um die Vorherrschaft in der Plattformökonomie haben wir schon verloren. Präziser: Wir haben nicht einmal daran teilgenommen. GAFA in den USA und BAT (Baidu, Alibaba und Tencent) in China. Nichts in Europa. Der Startschuss im internationalen KI-Rennen ist gerade gefallen und wenn wir nicht schleunigst ein europäisches Waymo ins Rennen schicken, werden wir auch hier nur am Rande stehen und zugucken, wie etablierte und aufstrebende Volkswirtschaften aus Ost und West den Kuchen unter sich aufteilen. Deswegen mein eindringlicher Weckruf an die deutschen und europäischen Entscheidungsträger: Stärkt unser Wertesystem. Stärkt auf diesem Wertesystem aufbauende Entscheidungssysteme und KI-Anwendungen und tut alles, um die bestehenden KI-Start-ups zu einem europäischen Waymo aufzubauen.

Roy Uhlmann ist Vorstandsmitglied im Bundesverband Deutscher Start-ups und Sprecher der Plattform Künstliche Intelligenz. Uhlmann studierte Jura, bis er 2007 sein erstes Unternehmen gründete. Heute arbeitet er als Gründer und Geschäftsführer von Motor AI an Lösungen zum Autonomen Fahren. 

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen