Erweiterte Suche

Cybersecurity

Standpunkt

Können autonome Waffensysteme humanitäres Völkerrecht anwenden?

Tom van Engers, Universität Amsterdam
Tom van Engers, Universität Amsterdam Foto: Privat

In einer aktuellen Forschungsarbeit hat Tom van Engers von der Universität Amsterdam untersucht, ob militärische Maschinen lernen könnnen, Entscheidungen beim Zielen oder Schießen mit dem internationalen Kriegsrecht abzugleichen. Warum sich der Experte für Künstliche Intelligenz und Recht eine rationalere und wissenschaftlichere Debatte wünscht, schreibt er heute in seinem Gastbeitrag.

von Tom van Engers

veröffentlicht am 20.12.2022

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Die Debatte um Autonome Waffensysteme (AWS) wurde erst kürzlich durch eine umstrittene Maßnahme in den USA angeheizt. Dort hatte die Stadt San Francisco der Polizei per Beschluss erlaubt, Roboter einzusetzen, die in Extremsituationen auch tödliche Gewalt anwenden dürfen. Nach Protesten soll diese Richtlinie nun zunächst überarbeitet werden.

Einsatz von AWS: Eine schwierige moralische und rechtliche Frage

Klar ist: Diese Roboter sind keine Science-Fiction mehr, und obwohl es noch keine völlig autonomen Geräte gibt, werden sie aufgrund der rasanten Entwicklung der Künstlichen Intelligenz (KI) eher früher als später zum Einsatz kommen. Gegner selbstständig agierender Maschinen bezeichnen diese als Killerroboter und bringen ihre Empörung darüber zum Ausdruck, dass diese möglicherweise Menschenleben nehmen können. Sie argumentieren, dass solche Geräte die Hemmschwelle für Gewalt senken würden. Befürworter wiederum behaupten, insbesondere die an der Entwicklung von autonomen Waffensystemen beteiligte Industrie, dass solche Roboter potenziell Leben retten können.

Bevor wir jedoch ein Urteil fällen, sollten wir die moralischen und rechtlichen Aspekte verstehen, die der Funktionsweise von autonomen Waffensystemen zugrunde liegen. In einer aktuellen Forschungsarbeit haben Tomasz Zurek , Jonathan Kwik, Mostafa Mohajeriparizi und ich uns dem Thema aus wissenschaftlicher Perspektive angenähert.

Kann eine Maschine humanitäres Völkerrecht anwenden und in einer Krisensituation ähnlich präzise entscheiden, wie ein menschlicher Kommandant? Oder lassen sich wissenschaftliche Argumente finden, die die Grenzen der KI-Entscheidungsfindung aufzeigen? Unsere Forschungsarbeit haben wir am vergangenen Freitag auf der Jurix 2022 in Saarbrücken vorgestellt. Dabei haben wir uns mit einem gemeinsamen Strang von Argumenten gegen AWS auseinandergesetzt.

Für eine pauschale Ablehnung von AWS ist es zu früh

Alle Waffen unterliegen den Grundsätzen des humanitären Völkerrechts (HVR). Traditionell sind es menschliche Befehlshaber, die die internationalen Regeln militärischer Konflikte umsetzen – und bei Nichtbeachtung vor den internationalen Strafgerichtshof in Den Haag gebracht werden können.

Viele sind der Ansicht, dass KI von Natur aus nicht in der Lage sei, die Grundsätze des humanitären Völkerrechts umzusetzen, ganz gleich, wie weit sie sich entwickelt. Vertreter dieser Position ziehen es daher vor, KI frühzeitig durch Verbote zu verhindern: Man sollte die Entwicklung der Technologie gar nicht erst in Erwägung ziehen, denn wenn sie erst einmal frei ist, ist es zu spät, so die Argumentation.

Wir sind der gegenteiligen Ansicht, die auch von vielen geteilt wird, und halten eine solch pauschale Reaktion für verfrüht. Ein pauschales Verbot würde auch jeden Nutzen zunichte machen, den die Technologie für die Verbesserung des Schutzes der Zivilbevölkerung und die Achtung des Rechts auf dem Schlachtfeld bieten kann.

Maschinen zur Einhaltung von Recht zwingen

In unserer kürzlich veröffentlichten Studie haben wir uns mit der Frage befasst, ob es möglich ist, die Regeln des humanitären Völkerrechts so darzustellen, dass ein autonomes Gerät zur Einhaltung des Rechts gezwungen wird. In der Studie haben wir ein Modell eingeführt, das Regeln für das Zielen enthält, und eine experimentelle Implementierung eines Rechtsberaters geschaffen, mit dem die Einhaltung des humanitären Völkerrechts getestet werden kann. Wir konzentrierten uns auf die von Gegnern oft als die schwierigsten Aufgaben für ein autonomes System bezeichneten Aspekte wie Verhältnismäßigkeit und Vorsichtsmaßnahmen bei Angriffen. Was diese Tests gemeinsam haben, ist die Abwägung zwischen militärischem Vorteil (MA) und zufälligem Schaden (IH). Daher konzentriert sich unser Modell auf diese Variablen.

Obwohl auf maschinellem Lernen basierende Ansätze derzeit in der KI dominieren, vertreten wir den Standpunkt, dass wir aufgrund der Anforderungen an Transparenz und Erklärbarkeit für diese Geräte dem wissensbasierten Paradigma folgen sollten. Nach diesem Paradigma werden rechtliche Regeln explizit dargestellt (programmiert), und die vom Gerät getroffenen Entscheidungen müssen transparent und erklärbar sein.

Wann kann ein Schussbefehl erlaubt sein und wann nicht?

Daraufhin haben wir eine mathematische Darstellung der schwierigsten Regeln für das Zielen eingeführt: die Pflicht, Kollateralschäden bei Angriffen so weit wie möglich zu minimieren (ohne den militärischen Zweck zu gefährden) und die Pflicht, Angriffe abzubrechen, wenn die Kollateralschäden so erheblich sind, dass sie den angestrebten militärischen Nutzen nicht rechtfertigen. Der schwierige Aspekt dieser Regeln besteht darin, dass der erwartete militärische Vorteil gegen den zufälligen Schaden, den eine bestimmte Entscheidung verursachen kann, abgewogen werden muss.

Wir haben die oben genannten Regeln modelliert und eine experimentelle Implementierung erstellt, die wir anhand hypothetischer militärischer Szenarien überprüft haben. Die Ergebnisse des Experiments zeigten, dass unser Modell ein rechtlich korrektes Verhalten zeigt.

Das entscheidende Element bei der Prüfung der Einhaltung des humanitären Völkerrechts ist die Bewertung der verfügbaren Entscheidungsoptionen im Lichte dieser MA- und IH-Variablen und nicht die rechtlichen Regeln und der Abwägungsvorgang selbst. MA und IH haben jedoch einen sehr abstrakten Charakter und sind in hohem Maße kontextabhängig, kultursensibel und subjektiv.

Entscheidungsprozesse transparent machen, Debatte versachlichen

Obwohl dies als ein kontroverser Punkt angesehen werden kann, glauben wir, dass unsere Forschung den Bewertungsprozess objektiver machen kann, da er einem gut strukturierten Abwägungsprozess folgt, der durch das Modell bereitgestellt wird. Diese gesteigerte Objektivität und Transparenz wäre sowohl für die derzeitigen Entscheidungsträger als auch für künftige KI-Entwickler von Vorteil. Aus technischer Sicht würde die Erlangung dieser Bewertungen eine relativ unkomplizierte Klassifizierungs- oder Regressionsaufgabe erfordern, und wir planen, diese Frage in zukünftigen Forschungsarbeiten zu behandeln.

Mit unserer Forschung wollen wir einen Beitrag zu einer rationalen Debatte über die Zulässigkeit von autonomen Waffensystemen leisten. Diese Debatte sollte sich auf Argumente stützen, die durch wissenschaftliche Forschung gestützt werden, und nicht auf Emotionen. Wir hoffen, dass wir mit unserer Forschung Kriterien und Tests liefern können, die eine solche rationale Debatte ermöglichen.

Tom van Engers ist Professor für Legal Knowledge Management an der Universität Amsterdam und assoziiert mit dem dortigen Leibniz Institute. Die Forschung des Leibnitz Institute konzentriert sich auf die Schnittstellen von Künstlicher Intelligenz und der Anwendung von Recht. Van Engers und die Autoren der Untersuchung arbeiten im Rahmen des DILEMA-Projekts, Designing International Law and Ethics intoMilitary Artificial Intelligence

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen