Mit dem Terminator ist das so eine Sache. Die Filmreihe bot für eine Weile durchaus gute Unterhaltung. Nebenbei sensibilisierte sie für die Risiken außer Kontrolle geratener Kriegsmaschinen. Die Assoziation kommt dem popkulturell gebildeten Menschen der Gegenwart folglich schnell in den Sinn, wenn von Autonomie in Waffensystemen – dem Thema dieser Kolumne – die Rede ist.
Trotzdem hat der humanoide Hollywood-Killerroboter so gut wie nichts mit der Sache zu tun – leider ist das allerdings immer noch nicht so wirklich durchgedrungen. So war es in den vergangenen fünfzehn Jahren etwa eine konstante Herausforderung, Journalist:innen vom Legen irreführender Science-Fiction-Fährten abzuhalten, also ihre Artikel nicht mit dem berühmt-berüchtigten grinsenden Metallschädel zu bebildern. Mal sehen, wie sich der Tagesspiegel schlägt.
Worum geht es dann aber stattdessen, wenn von Autonomie in Waffensystemen – kurz AWS – die Rede ist? Wieso ist diese Entwicklung vermehrt in militärischen Systemen zu beobachten, und was sind die damit verbundenen Chancen, wo liegen die Risiken? Was wird durch Regulierung getan, um eine verantwortungsvolle Nutzung von Waffensystemautonomie sicherzustellen, die Chancen zu nutzen erlaubt und Risiken zu meiden hilft? Darum soll es in dieser dreiteiligen Kolumne gehen.
Beginnen wir mit der Sprachverwirrung, für die die Diskussion um AWS selbst in Fachkreisen berühmt-berüchtigt ist. Es wird nämlich über die Unterschiede zwischen „automatisch“, „automatisiert“ und „autonom“ schon seit Jahren ebenso intensiv gestritten wie über Sinn und Unsinn des polarisierenden Begriffs „Killerroboter“.
Vor allem aber über das im VN-Rahmen gebräuchliche Akronym LAWS – kurz für „Lethal Autonomous Weapons Systems“ – ist bereits viel Tinte vergossen worden, dito über die vermeintlich zwingende Notwendigkeit einer international anerkannten einheitlichen Definition für selbige. All das sind jedoch bestenfalls Nebenkriegsschauplätze.
Gegen die Begriffsverwirrung
Von Autonomie in Waffensystemen sollte man einfach dann sprechen, wenn ein Waffensystem (oder ein System aus Systemen) Funktionen ohne menschliches Zutun ausführt. Das kann zum Beispiel das Navigieren von einem Wegpunkt zum nächsten sein. Das ist technisch eine überschaubare Herausforderung, entlastet menschliche Bediener und wirft kaum nennenswerte Risiken auf. So weit, so wenig aufregend.
Die Maschine übernimmt hier – aus militärischer Sicht – die ersten Stationen des targeting cycle, also desjenigen Entscheidungszyklus‘, der mit dem Finden, Fixieren und Verfolgen von Zielen beginnt und mit ihrer Bekämpfung endet. Womit wir beim eigentlichen Kern der Diskussion wären. Denn diese dreht sich um die sogenannten „kritischen Funktionen“ am Ende des targeting cycle. Ist ein Waffensystem (auch) in diesen autonom, dann bedeutet das, dass es nach dem Finden, Fixieren und Verfolgen seine Ziele ohne menschliches Zutun auswählt und bekämpft. Und da wird es interessant – und brisant.
In der seriösen Regulierungsdiskussion gelten Versuche, eine feste Waffenkategorie zu definieren, etwa mittels eines Katalogs aus Kriterien wie Letalität, Entscheidungs- und Lernfähigkeit oder durch Abgrenzungsbemühungen zwischen vermeintlich „nur“ (schon existierenden) automatischen oder automatisierten Systemen zu (zukünftigen) autonomen als nicht mehr zeitgemäß. Sie waren auch nie wirklich zielführend, weil solche Konzepte in der regulatorischen Praxis nicht operationalisierbar sind. Denn bei näherer Betrachtung ist der Regulierungsgegenstand eben keine neue, eindeutig fixierbare Klasse von Waffensystemen, sondern das Verhältnis zwischen Mensch und Maschine. Warum?
Der Terminator? Nirgends zu sehen
Erstens existieren bereits seit Jahrzehnten Waffensysteme mit Autonomie in den kritischen Funktionen des targeting cycle – dass Waffensysteme unter gewissen Umständen Ziele selbständig auswählen und auch bekämpfen ist also schon lange gängige Praxis, vor allem bei der Abwehr von anfliegender Munition wie beispielsweise Raketen, Artillerie- oder Mörsergranaten. Es geht also nicht um Science-Fiction-Waffen.
Kein Terminator, nirgends. Diskutiert wird Waffensystemautonomie inzwischen deswegen vermehrt, weil die jüngsten Durchbrüche in der Künstlichen Intelligenz (KI), insbesondere bei der Objekterkennung, dafür sorgen, dass die maschinelle Funktionsübernahme nunmehr in zahlreichen weiteren Operationskontexten Einzug hält.
Etwas zugespitzt formuliert ist daher, zweitens, zu erwarten, dass zukünftig beinahe jedes Waffensystem in den kritischen Funktionen autonom funktionieren könnte – und zwar nahezu beliebig, je nach Situation und auf Knopfdruck. Drittens muss Autonomie dabei nicht an eine einzelne Waffenplattform gebunden, sondern kann in einem System aus Systemen, aus Sensoren und „Wirkmitteln“, die die eigentliche Waffengewalt verursachen, verteilt abgebildet werden. Man wird also einem einzelnen Waffensystem von außen nicht ansehen können, welche Funktionen es dem Menschen potenziell abnehmen kann. Schon das lässt übrigens gängige rüstungskontrollpolitische Zugriffe ins Leere laufen, weil sie in aller Regel quantitativ, also über das Zählen, Wiegen und Messen einer bestimmten Klasse klar definierter Hardware, funktionieren.
Aus all diesen Gründen ist, so spitzfindig das zunächst auch wirken mag, „Autonomie in Waffensystemen“ tatsächlich die präziseste sprachliche Fassung des Sachverhalts. Und deswegen lautet die zentrale Frage nicht: Wie definiert man kategorial, was „letale autonome Waffensysteme“ (LAWS) sind? Die zentrale Frage lautet vielmehr mit Blick auf das Ausführen der kritischen Funktionen: Wer oder was – Mensch oder Maschine – übernimmt was wann und wo?
Funktional statt kategorial
Diese – funktionale statt kategoriale – Sichtweise hat zwei entscheidende Vorteile. Erstens werden semantische Verrenkungen überflüssig. Ob man das Funktionieren der Maschine nun als automatisch, automatisiert, autonom, semi- oder vollautonom charakterisiert, ist für den brisanten Teil der Debatte ziemlich egal. Entscheidend ist dafür, salopp gesagt, wer (oder was) bei den kritischen Funktionen am Drücker ist.
Zweitens lässt sich an diesen Zugriff viel leichter Regulierung knüpfen. Denn ist der Fokus erstmal weg von den aktuellen oder zukünftigen Potenzialen der Waffentechnik und stattdessen bei der Rolle des Menschen angekommen, dann lässt sich endlich eine Antwort finden auf die eigentliche Frage danach, wann der Mensch guten Gewissens Funktionen an die Maschine delegieren darf oder sogar sollte – und wann besser nicht. Deswegen dreht sich die Diskussion in der Wissenschaft wie auch auf dem diplomatischen Parkett bei den Vereinten Nationen bereits seit Jahren um „das menschliche Element“ im Allgemeinen und die Formel der „wirksamen menschlichen Kontrolle“ (meaningful human control) im Besonderen.
Im Grunde unterscheidet sich die Herausforderung in Sachen Autonomie in Waffensystemen damit nicht fundamental von anderen Zusammenhängen des modernen Lebens, in denen KI uns vor die Herausforderung stellt, das Verhältnis von Mensch und Maschine neu auszutarieren. Nur eine Besonderheit bleibt natürlich: Es geht im Falle der militärischen Domäne eben wortwörtlich um Leben und Tod. Und deswegen sind Umsicht und Vorsicht hier in besonderem Maße geboten – definitiv mehr als etwa bei der Bildersortierung im Smartphone, die wir ja auch an die KI abgegeben haben, bei der aber weniger auf dem Spiel steht.
Autonomie in Waffensystemen ist also weder wirklich neu noch notwendigerweise problematisch. Zur Abwehr von anfliegenden Raketen kann sie zum Beispiel unabdingbar sein. Dazu reicht ein Blick auf Israels Iron Dome oder in die Ukraine. Warum aber Militärs die Vorteile von Autonomie längst auch in anderen Einsatzkontexten suchen und welche Risiken damit verbunden sind, das wird der zweite Teil dieser Kolumne beleuchten.
Diese Kolumne ist der erste Teil der dreiteiligen Kolumnenserie „Autonomie in Waffensystemen – von Mythen und Möglichkeiten“, der zweite Teil erscheint am 21.11.
Frank Sauer lehrt und forscht an der Universität der Bundeswehr München. Er publiziert zu Fragen der internationalen Sicherheit und ist einer der Co-Hosts von „Sicherheitshalber“, dem deutschsprachigen Podcast zur sicherheitspolitischen Lage in Deutschland, Europa und der Welt. Frank Sauer ist auf Twitter @drfranksauer und Mastodon @drfranksauer@mastodontech.de