John K. Hawley saß 2004 in seinem Büro auf dem Gelände des Aberdeen Proving Ground der US Army in Maryland als eine E-Mail seines Vorgesetzten mit dem Betreff „???“ in seinen Posteingang fiel. Es handelte sich dabei um die Weiterleitung einer Nachforschung von noch weiter oben in der Hierarchie. Major General Michael Vane fragte: „Wie stellt man Aufmerksamkeit sicher, wenn 23 Stunden und 59 Minuten purer Langeweile von einer Minute blanker Panik abgelöst werden“?
Was war geschehen? Im Rahmen der Operation „Iraqi Freedom“ waren sowohl ein britischer Tornado als auch eine F-18 der US Navy vom US-Raketenabwehrsystem Patriot irrtümlicherweise abgeschossen worden. Hawley, ein Spezialist für Patriot, der das System seit der Entwicklung in den späten 1970er Jahren begleitet hatte, war wenig überrascht. Aus seiner Sicht war das, was im Militärjargon fratricide genannt wird, vorprogrammiert gewesen. Die US Army hatte Patriot nach den Erfolgen gegen irakische Scud-Raketen im ersten Golfkrieg in den 1990ern begeistert weiter eingesetzt, aber aus Sicht des Spezialisten Hawley nie die notwendigen Trainings, um die menschliche Crew an die Bedienung der neuen Funktionen des Systems – insbesondere die Aufsicht über den Automatikmodus – anzupassen. Das Versäumnis kostete die Royal Air Force zwei und die US Navy ein Menschenleben.
Im ersten Teil dieser dreiteiligen Kolumne stand die Klärung des Sachverhalts im Zentrum. Was unter Autonomie in Waffensystemen vorrangig diskutiert wird, ist das Delegieren der sogenannten „kritischen Funktionen“ der Zielauswahl und -bekämpfung vom Menschen an die Maschine – also das, was Patriot bereits seit den 1980er Jahren kann. Und dass mit dem Delegieren der Zielbekämpfungsentscheidung Risiken verbunden sein können, verdeutlicht die Patriot-Geschichte eindrücklich.
Aber zunächst ein Schritt zurück. Wieso ist seit ungefähr fünfzehn Jahren die Entwicklung hin zu mehr Autonomie in militärischen Systemen überhaupt vermehrt zu beobachten, auch jenseits von Patriot und Co. – was sind die damit verbundenen Chancen?
Die Chancen der Autonomie: Kostenersparnis?
Ein erstes Argument für Autonomie in Waffensystemen ist das Hoffen auf Kostenersparnis. Weniger menschliche Crews bedeutet weniger Ausbildungskosten, weniger Sold, weniger Pensionen. Allerdings zeigt sich, dass moderne Hochtechnologie im Rüstungsbereich alles andere als günstig ist. Ganz im Gegenteil: Kein militärisches Großgerät im Westen, dass nicht viel zu spät und deutlicher teurer als geplant fertig wird. In Fachkreisen kursiert deswegen schon länger der Witz, dass diese nur in geringen Stückzahlen erschwinglichen Boutique-Waffensysteme viel zu exquisit und kostbar sind, um sie wirklich im Krieg einzusetzen.
Tragfähig ist das Argument vielleicht eher, wenn man es auf militärische „Wegwerfware“ anwendet, die neuerdings eine wichtigere Rolle auf dem Gefechtsfeld einzunehmen beginnt. In aller Regel sind hier loitering munitions gemeint – ein gutes Beispiel dafür sind die massenhaft gegen die Ukraine von Russland eingesetzten Shahed-136 Kamikazedrohnen iranischer Herkunft. Zwar ist dieser Typ so simpel, dass von Autonomie hier schon deswegen nicht die Rede sein kann, weil das System zu einer Zielauswahl technisch gar nicht in der Lage ist. Aber andere Hersteller haben ähnliche Waffensysteme mit Sensoren und Software zur Objekterkennung ausgerüstet – kurz: Drohnen, die im Luftraum „herumhängen“ und auf geeignete Ziele mit Sensorik anhand bestimmter Zielprofile lauern, um diese dann direkt nach dem Erkennen eigenständig zu bekämpfen.
Hier kommt das Argument der Kostenersparnis zum Tragen, denn loitering munitions sind vergleichsweise günstig. Ihr Fähigkeitsspektrum ist allerdings begrenzt. Sie ersetzen existierende Plattformen nur teilweise. Und da wohl vorerst niemand Fregatten, Kampfpanzer und Kampfflugzeuge gänzlich abschaffen wird, bleibt der Kostenvorteil unter ferner liefen.
Die Chancen der Autonomie: Schutz?
Ein zweites weit verbreitetes Argument hebt auf den Schutz der eigenen Streitkräfte ab. Das Argument ist gut erforscht und insofern valide, als dass verbesserter Schutz tatsächlich ein extrem bedeutsames Kaufargument für Rüstungsgüter auf Seiten westlicher Streitkräfte ist. Das hat erstens etwas mit den Wertevorstellungen zu tun, die Streitkräften in demokratischen Staaten eingeschrieben sind. Hinzu kommt, zweitens, dass eigene Verluste in demokratischen Systemen politische Folgen erzeugen, die die nächste Wahl kosten können.
So besteht ein insgesamt politisch wirkmächtiger Anreiz, Zinksärge zu vermeiden. Abwehrsysteme gegen Munition, für die Patriot nur ein Beispiel unter vielen ist, untermauern das Schutzargument in Sachen Waffensystemautonomie zusätzlich. Allerdings stellt sich die Frage, warum ein Kampfpanzer oder eine Drohne zum Schutz der eigenen Streitkräfte unbedingt ohne menschliches Zutun Ziele auswählen und bekämpfen können muss. Die altbewährte Fernsteuerung tut es schließlich auch. Der Mensch, viele Kilometer entfernt in Sicherheit, stünde ja auch dann nicht selbst im Feuer. Auch das Schutzargument trägt also nur begrenzt, weil Autonomie in den kritischen Funktionen für Schutz nicht unbedingt notwendig ist.
Die Chancen der Autonomie: Beschleunigung!
Das dritte – und, Spoiler: ausschlaggebende – Argument ist die mit Autonomie einhergehend Beschleunigung von Abläufen. Geschwindigkeitssteigerung ist der Schlüssel. Hier ist aus militärischer Sicht die wesentliche Motivation zu suchen. Denn das Ausführen der kritischen Funktionen in Maschinengeschwindigkeit birgt großes militärisches Potenzial. Die bei der Abwehr von Munition schon lange unverzichtbare Beschleunigung des targeting cycle – wir erinnern uns an den ersten Teil der Kolumne: das ist der Entscheidungszyklus bis hin zur Bekämpfung des Ziels – kann jetzt dank Sensordatenfusion und Objekterkennung auch gegen vielen andere Ziele Anwendung finden.
Die Waffe wird aktiviert und komplettiert danach den gesamten Entscheidungszyklus selbst – es liegt auf der Hand, dass dies ohne eine Beteiligung des langsamen Menschen in jedem Fall sehr viel schneller geschieht, was im Zweifel das Gefecht entscheidet. Hinzu kommt, dass ein Wegfall der Kommunikations- und Fernsteuerverbindung fortgesetztes Operieren auch dann ermöglicht, wenn das elektromagnetische Spektrum umkämpft ist. Denn wo erst gar keine Kommunikationsverbindung ist, kann diese auch nicht gestört oder gehijacked werden. So viel zu den Chancen. Jetzt zu den Risiken.
Die Risiken der Autonomie: Verantwortungslücke?
Erstens könnte, aus Sicht zahlreicher Völkerrechtsexpertinnen und -experten, eine Verantwortungslücke entstehen. Es ist nämlich unklar, wer im Rahmen der Anwendung militärischer Gewalt durch ein autonom Ziele bekämpfendes Waffensystem eigentlich die Verantwortung trägt, sollte Zivilisten illegal Leid zugefügt werden. Harpy, eine ältere loitering munition des israelischen Herstellers IAI gibt hier ein gutes Beispiel ab. Harpy wurde entwickelt, um die gegnerische Flugabwehr zu unterdrücken. Sie verweilt im Luftraum und sucht nach bestimmten Radarsignaturen. Findet sie diese, stürzt sich die Kamikazedrohne ohne Umschweife ins Ziel. Das Problem: Weder Harpy noch fortgeschrittenere Systeme, die aufwendigeres „maschinelles Sehen“ anwenden, verstehen den Kontext auf dem Gefechtsfeld. Maschinen „sehen“ und „verstehen“ gar nichts; sie erkennen nur Muster wieder.
Parkt der Gegner also sein Flugabwehrradar auf dem Dach eines Waisenhauses, wird sich Harpy unbeirrt auch dann ins Ziels stürzen – und damit womöglich ein Kriegsverbrechen begehen. Deswegen wurde Harop, das Nachfolgesystem, so ausgelegt, dass vor der Zielbekämpfung ein Mensch um Zustimmung gebeten wird. Menschen sind nämlich, anders als Maschinen, extrem gut darin, komplexe neue Situationen auf die Schnelle zu begreifen – und im Zweifel den Angriff abzublasen. Das verlangsamt zwar den Gesamtprozess. Aber weniger statt mehr Autonomie hat sich im Falle von loitering munitions wie Harpy und Harop als der verantwortungsvolle Umgang mit autonomen Zielbekämpfungsfunktionen erwiesen.
Die Risiken der Autonomie: Maschinelles Töten?
Zweitens gilt ein genereller, über den Schutz von Zivilisten hinausgehender Einwand – nämlich der Verweis darauf, dass es die Würde des Menschen verletze, wenn Entscheidungen über Leben und Tod auf dem Schlachtfeld an Maschinen delegiert würden. Denn das Töten im Krieg derart auszulagern und auf breiter Front automatisch und ohne menschliches Zutun „abarbeiten“ zu lassen, degradiert Menschen zu Objekten – explizit auch Kombattanten, deren Tod unter Berücksichtigung kriegsvölkerrechtlicher Regeln bekanntlich durchaus bewirkt werden darf.
Für die Getöteten mag es vielleicht keinen Unterschied machen, ob ein Mensch oder ein Algorithmus ihren Tod bewirkt hat. Aber die Gesellschaft, die eine solche Praxis erlaubt und mit dem Töten im Krieg ihr kollektives menschliches Gewissen nicht mehr belastet, riskiert die Aufgabe grundlegender zivilisatorischer Werte und humanitärer Prinzipien. In Deutschland kommt diesem ethischen Risiko vor dem Hintergrund von Artikel 1 Absatz 1 des Grundgesetzes eine besondere Bedeutung zu.
Die Risiken der Autonomie: Krieg der Algorithmen?
Drittens drohen nichtintendierte Eskalationen, wenn Abläufe flächendeckend von Menschen an Maschinen übertragen werden. Von den Finanzmärkten sind die unvorhersehbaren Interaktionen zwischen Handelsalgorithmen längst bekannt, die bisweilen in sogenannten flash crashes münden. Äquivalent dazu wäre ein maschinell ausgelöster flash war ein reales Risiko, sollte die menschliche Verfügungsgewalt als Sicherungs- und Entschleunigungsinstanz zukünftig weitgehend entfallen und das Operationstempo auf dem Schlachtfeld dem menschlichen Kontrollvermögen davongaloppieren.
Die chinesische Delegation bei den Vereinten Nationen in Genf beschrieb das vor einigen Jahren als die „Schlachtfeldsingularität“ – der Punkt, ab dem die Prozesse auf dem Gefechtsfeld so schnell werden, dass kein Mensch sie mehr vorhersehen oder beeinflussen kann. Es sollte klar sein, dass weder in Peking noch in Washington oder gar Berlin irgendjemand erpicht darauf ist, diesen Kontrollverlust willentlich herbeizuführen. Es sprechen also ganz handfeste sicherheitspolitische Erwägungen dafür, Autonomie in Waffensystemen kontextspezifisch zu begrenzen und Menschen weiterhin in kritische Prozesse einzubinden. Denn Menschen machen zwar auch Fehler, aber sie machen eben nicht, wie Maschinen das tun, alle den gleichen Fehler in Lichtgeschwindigkeit.
Damit wären wir wieder beim schillernden Konzept der „wirksamen menschliche Kontrolle“, das uns schon im ersten Teil der Kolumne begegnet war. Der dritte und letzte Teil wird dieses näher beleuchten und erörtern, wie Regulierung für Autonomie in Waffensystemen aussehen kann.
Diese Kolumne ist der zweite Teil der dreiteiligen Kolumnenserie „Autonomie in Waffensystemen – von Mythen und Möglichkeiten“, der dritte Teil erscheint am 28.11. Bisher erschienen: Autonomie in Waffensystemen – Alles Terminator oder was?
Frank Sauer lehrt und forscht an der Universität der Bundeswehr München. Er publiziert zu Fragen der internationalen Sicherheit und ist einer der Co-Hosts von „Sicherheitshalber“, dem deutschsprachigen Podcast zur sicherheitspolitischen Lage in Deutschland, Europa und der Welt. Frank Sauer ist auf Twitter @drfranksauer und Mastodon @drfranksauer@mastodontech.de