Auch in Zeiten von Corona dreht sich das Rad der Technik weiter. Hierbei spielen Technologien auf Basis Künstlicher Intelligenz (KI) eine zentrale Rolle. Die KI-basierte Unterstützung bestehender Produkte und noch viel mehr der Ersatz von menschgeführten Aktivitäten stellen den nächsten Effizienzsprung dar. Jedoch kann man bereits heute festhalten, dass eine vollständig autonome Künstliche Intelligenz – wie in vielen Science-Fiction-Filmen gezeigt – derzeit selbst bei Marktführern mittelfristig nicht zu erwarten ist.
Schwache KI prägt unseren Alltag schon heute
Die sogenannte „schwache“ KI dagegen ist bereits heute vorhanden und in unseren Alltag bestens integriert: Ob wir die Vorschlagsliste bei Amazon aufgrund ihrer Treffsicherheit – oder dem totalen Fehlgang – bewundern oder Assistenzsysteme neuer Fahrzeuge Bremssituationen erkennen, bevor der Fahrer an das Bremspedal überhaupt denkt. In vielen Bereichen zeichnet sich bereits heute der fortschreitende Einsatz von KI ab, der in den Produkten der nächsten Generationen deutlich sichtbar werden wird.
Wir haben immer dann mit der Produktentwicklung zu tun, wenn die Hersteller sich die Frage nach dem rechtlichen Rahmen für die mit KI ausgestatteten Produkte stellen. Um eines vorweg klarzustellen: Niemand interessiert sich für den Fall, dass der Kühlschrank zu viel Milch bestellt. Viele Unternehmen wollen jedoch wissen, welche rechtlichen Anforderungen für das Preventive-Management-System etwa eines Schienenfahrzeuges, die Personenerkennung eines Roboters, die Telematikeinrichtung einer Straßenbaumaschine oder auch die sprechende Kinderpuppe gelten.
Wilder Westen: Keine Regelungen in Deutschland und der EU
An dieser Stelle wird die Antwort nicht mehr in einem Satz möglich sein. Es gibt schlicht in der Europäischen Union und auch in Deutschland keine Regelung, die die Herstellung und Nutzung von KI regelt. Nichts. Kein Gesetz, keine Verordnung, keine Normen, keine Standards. Wer sich das auf der Zunge zergehen lässt, erkennt im Übrigen auch recht schnell, welchen Wirkungsgrad eine Einrichtung wie das am Bundesministerium für Arbeit und Soziales (BMAS) angesiedelte KI-Observatorium in Bezug auf die Überwachung und Sozialprognose rechtlicher Rahmenbedingungen für einen europäischen Binnenmarkt haben kann.
Es existieren also keine besonderen Regelungen, nicht einmal solche, die die Haftung für Schäden durch KI regeln. Das heißt alle oben dargestellten Fragestellungen müssen im Rahmen geltender Regelungen ebenso beantwortet werden können, wie es bisher für ein analoges Produkt auch möglich gewesen sein musste. Dabei ziehen wir als Juristen verschiedene Standards heran, die man an KI anlegen kann, obwohl diese nicht speziell dafür entwickelt wurden. Logiken aus der funktionalen Sicherheit können helfen, ebenso Regelungen wie etwa die „Common Criteria“, die in verschiedenen Software-Bereichen eine Art „State of the Art“ darstellen. Und für bestimmte Aspekte, etwa der IT-Sicherheit eines Produktes – KI ist in fast allen Fällen vernetzt – gibt es Normen und Standards, die bei der Entwicklung von KI helfen können. Dies gilt auch für „Embedded Products“, also in technische Kontexte eingebundene Produkte.
Produkthaftung liegt nach wie vor beim Hersteller
Ist damit die Frage der Haftung für KI also offen? Nein, die Frage ist mit allen existierenden Haftungsregelungen ausreichend geklärt. Der Hersteller haftet für sein unsicheres Produkt, analog wie digital. Die Diskussion um die Haftung für reine Software wird in Deutschland mit Blick auf die nationalen Regelungen nicht mehr geführt, in der EU wird das Thema mit der Revision der Produkthaftungsrichtlinie von 1986 erledigt werden.
Dennoch zeichnet sich am Horizont eine europaweite Regelung zur Haftung für KI ab, die jetzt in einem Weißbuch der EU-Kommission, aber auch in einem Report des Europa-Abgeordneten Axel Voss nachzulesen sind. Bis hier gesetzliche Regelungen aus den abstrakten Ausführungen entstehen werden, wird man sich noch einige Jahre gedulden müssen. Aber die Zielrichtung beider Dokumente ist für die Industrie und für Hersteller und Nutzer von KI sehr interessant.
Herstellerhaftung schon jetzt mitdenken
Im Kern sind zwei Überlegungen aus Weißbuch und Voss-Report hervorzuheben: Zum einen wird es eine risikobasierte Herstellerverpflichtung für KI geben. Je gefährlicher also die KI sein kann, desto mehr Risikominimierung und Nachweispflichten werden den Hersteller treffen. Der Hauptpunkt des Voss-Berichts fordert zudem eine Gefährdungshaftung für Betreiber gefährlicher KI-Produkte, in seinem Beispiel selbstfahrende Autos oder Paketlieferdrohnen. Zusammengenommen führen beide Regelungen wohl dazu, dass sowohl Hersteller als auch Betreiber ein hohes Interesse daran haben werden, KI zu klassifizieren und mit einem Satz an definierten Risikominimierungsmaßnahmen auszustatten; anders wird nämlich weder für den Hersteller noch für den Betreiber eine Haftung begrenzbar sein.
Schlusspunkt dieser Überlegungen kann also nur sein: Hersteller und Betreiber sind aufgefordert, die Regeln vorwegzunehmen und die Entwicklung von KI bereits jetzt so transparent und nachvollziehbar wie möglich zu machen, um die zukünftigen Fragen der Gesetzgebung bestmöglich beantworten zu können.
Philipp Reusch ist Rechtsanwalt, Founding Partner und Teamleader Regulatory Affairs & Marktmaßnahmen bei reuschlaw Legal Consultants. Er ist außerdem Lehrbeauftragter für Produkthaftung und Produktsicherheit an der RWTH Aachen. Der rechtliche Kommentar zum Thema „KI und Produkthaftung“, auf dem dieser Beitrag basiert, ist gestern im „Rechtshandbuch Artificial Intelligence und Machine Learning“ von Kaulartz/Braegelmann (2020) im C.H. Beck-Verlag erschienen.