Über Autonomie in Waffensystemen spricht (AWS) die internationale Gemeinschaft im Rahmen der sogenannten VN-Waffenkonvention in Genf bereits seit 2014. Man sollte es sich bei den Vereinten Nationen aber nicht zu glamourös vorstellen.
Es handelt sich, erstens, nur um unverbindliche Gespräche, keine Verhandlungen zu etwas Konkretem. Wenn dann, zweitens, am Ende einer Sitzungswoche um 18 Uhr trotzdem Hektik aufkommt und „die Uhr angehalten wird“, dann heißt das, dass die Simultanübersetzer:innen der VN nach Hause gehen, der offizielle Teil beendet ist und die gesamte Veranstaltung – Diplomat:innen, NGOs, akademische Beobachter – in einen kleineren, stickigeren Raum im Keller umziehen muss, um dort die Gespräche dicht gedrängt fortzusetzen in der Hoffnung, dass die Staaten sich am Ende wenigstens auf einen konsensual verabschiedeten Bericht einigen. Der Snackautomat im Flur ist dann schnell leer. Manchmal gelingt es, Pizza ins Gebäude liefern zu lassen.
Es dauert dann gerne mal bis zwei Uhr nachts, weil eine Delegation – in aller Regel war das in der Vergangenheit übrigens die russische – den Text doch nochmal Zeile für Zeile, Komma für Komma durchgehen will. Nachdem man dieses schmerzhafte Prozedere als akademischer Beobachter einmal freiwillig und masochistisch fasziniert mitgemacht hat, verlässt man beim nächsten Mal spätestens gegen 22 Uhr den Palast der Nationen. In der Nähe des Genfer Hauptbahnhofs (im Parfums de Beyrouth) gibt es wirklich gute Falafel und Schawarma.
Kein Konsens möglich
Mit anderen Worten: Es war zwar in den vergangenen Jahren viel die Rede von der Hoffnung auf ein Vorankommen des internationalen Prozesses, aber das Warten auf eine internationale Richtungsentscheidung in Sachen Regulierung von AWS ist inzwischen müßig geworden. Mit dem Erreichen des notwendigen Konsenses in Genf war schon vor dem russischen Angriffskrieg auf die Ukraine nicht mehr zu rechnen. Inzwischen gibt es Verlagerungstendenzen, etwa in die Generalversammlung nach New York.
Aber so wichtig der VN-Prozess insgesamt auch ist und so viel er auch zu konzeptioneller Klarheit und Konvergenz beigetragen hat, so unwahrscheinlich ist es doch, dass in absehbarer Zeit auf Ebene der Vereinten Nationen eine Einigung auf mehr oder weniger verbindliche Leitplanken für die Nutzung von Waffensystemautonomie erzielt werden kann – schon gar nicht eine, die auch von Schlüsselländern wie den ständigen Sicherheitsratsmitgliedern mitgetragen wird. Deutschland braucht hier nicht länger auf etwas zu warten, das in eigene nationale Regulierung umgesetzt werden könnte. Es gilt daher, den Spieß umzudrehen. Deutschland sollte im nächsten Schritt eine eigene nationale Regulierung entwickeln und implementieren, um dann auf internationale Ebene im zweiten Schritt noch glaubhafter für eine Übereinkunft werben zu können.
Möglichkeiten der Regulierung
In Teil 2 dieser Kolumne war zu lesen, dass Autonomie in Waffensystemen dann interessant und brisant wird, wenn die Maschine Ziele ohne menschliches Zutun auswählt und bekämpft. Das bringt Vorteile, vor allem weil es Prozesse beschleunigt, was die militärische Effektivität erhöht. Damit einher gehen aber auch rechtliche, ethische und sicherheitspolitische Fallstricke, unter anderem das Risiko des Kontrollverlusts, weswegen schon seit Jahren die Suche nach einem neuen Paradigma menschlicher Kontrolle über Waffensysteme den Regulierungsdiskurs bestimmt. Wie könnte Regulierung also konkret aussehen?
Zunächst gilt es festzuhalten, dass das Bedürfnis, menschliche Kontrolle über Waffensysteme zu bewahren, beileibe nicht neu ist. Historische Beispiele reichen vom Verbot unverankerter Seeminen zu Beginn des 20. bis hin zum Verbot von Clustermunition Anfang des 21. Jahrhunderts. Implizit existiert die Norm also längst – denn wer will schon unkontrollierbare Waffen, die sich im Zweifel gegen die eigenen Streitkräfte wenden, wie einst das Giftgas im Ersten Weltkrieg?
Autonomie in Waffensystem macht es nun aber erstmals erforderlich, dass diese Norm explizit ausbuchstabiert und rechtlich verankert wird – am besten völkerrechtlich auf Ebene der Staatengemeinschaft, zumindest aber in Form nationaler Regulierungen.
Menschliche Kontrolle wird dabei gerne mit dem Begriffen „wirksam“ qualifiziert, weil Kontrolle nicht bloß simuliert, der Mensch also nicht auf die Rolle eines quasimechanischen Knopfdrückautomaten reduziert werden soll. Gängige Operationalisierungskonzepte betonen daher, dass das Waffensystem qua Design und während der Nutzung menschliches Verständnis der Situation, menschliche Urteile und Kontrolle erlauben muss. Das wiederum bedeutet, dass der Mensch das Funktionieren der Waffe nach Aktivierung vorhersehen und sie bei Bedarf jederzeit administrieren können muss sowie, dass ihre Wirkung aus Gründen der ethischen und rechtlichen Zurechenbarkeit stets zu ihm zurückverfolgbar sein muss.
Um ein drohendes Missverständnis gleich auszuräumen: Das bedeutet explizit nicht eine Rückkehr zur dauerhaften Fernsteuerung. Das Waffensystem kann durchaus autonom operieren, solange die oben genannten abstrakten Kriterien erfüllt sind – aber für wie lange, wo und mit Blick auf welche möglichen Ziele, das hängt stark von den Gegebenheiten ab.
Autonomie ist nicht gleich Autonomie
Denn in der Praxis nimmt die menschliche Kontrolle natürlich in Abhängigkeit vom Operationskontext verschiedene Formen an. Das Mensch-Maschine-Verhältnis wird – und muss – im Falle einer Fregatte auf hoher See, die sich automatisch gegen anfliegende Hyperschall-Antischiffsraketen verteidigt, ein anderes sein als im Falle einer handtellergroßen Drohne, die von Infanterie im urbanen Gelände eingesetzt wird.
Während der Fall der Fregatte erneut zeigt, dass Autonomie in Waffensystemen weder per se neu noch zwangsläufig problematisch ist und der Mensch wirksame Kontrolle auch ausüben kann, ohne permanent direkt in den Entscheidungskreislauf einzugreifen, ist der Fall der handtellergroßen Drohne anders gelagert.
Er steht stellvertretend für einen Operationskontext, in dem unbedingt der Mensch schon aus ethischen und rechtlichen Gründen die kritischen Funktionen der Zielauswahl und -bekämpfung übernehmen muss. Die Erfahrungen aus der kommerziellen Welt legen im Übrigenden Verdacht nahe, dass die aktuellen Fortschritte in der KI zwar fortlaufend qualifizierte Erfolge liefern, gleichzeitig aber stets auch Grenzen sichtbar werden.
Die Ernüchterung im Bereich selbstfahrender Autos kann dafür als Schlüsselbeispiel gelten. Das Beispiel offenbart eine generelle – und voraussichtlich noch in absehbarer Zukunft für Künstliche Intelligenz (KI) charakteristisch bleibende – Unfähigkeit von Maschinen, mit Ungewissheit in neuen, komplexen Situationen umzugehen. Dies setzt im militärischen Kontext enge Grenzen mit Blick auf die Frage, wie viel Vertrauen Soldatinnen und Soldaten in KI-gestützte Waffensysteme werden setzen können. Zugespitzt formuliert: Nicht zuletzt die Notwendigkeit des Eigenschutzes könnte es etwa im oben angeführten Beispiel der loitering munition für die Infanterie in unübersichtlichen Situationen notwendig machen, Zielauswahl und -bekämpfung nicht der Maschine zu überlassen.
Verbote und Verpflichtungen
Im Abstrakten würde Regulierung deswegen, den Vorschlägen des Internationalen Komitees vom Roten Kreuz (IKRK) folgend, erstens Verbote und zweitens Verpflichtungen für bestimmte Anwendungsformen von Waffensystemautonomie setzen. Ersten sollten Systeme dann nicht genutzt werden, wenn sie aufgrund ihres Designs und im Rahmen ihrer Nutzung nicht sicherstellen können, dass wirksame menschliche Kontrolle – entlang der oben genannten drei Kriterien – gewahrt bleibt. Waffensysteme, die sich per Design gezielt gegen einzelne Menschen oder Gruppen richten, mittels autonomer Bekämpfung von Zielprofilen, die Gesichtszüge, Körpertemperatur, Gang oder andere biometrische menschliche Merkmale umfassen, sollten im gleichen Zuge ausgeschlossen werden – zumal Streitkräfte mit derartigen Anti-Personen-Terrorwaffen ohnehin wenig anfangen könnten. Zweitens sollte, im Umkehrschluss, für Streitkräfte die Beibehaltung wirksamer menschlicher Kontrolle beim Einsatz aller Waffensysteme mit autonomen Funktionen, auch in den kritischen Funktionen, vorgeschrieben sein.
Im Konkreten würde, wir erinnern uns an das Beispiel Patriot aus Teil 2 der Kolumne, das Entwickeln und Ausbilden mittels militärischer Trainings – tactics, techniques, procedures für den jeweiligen Einsatzkontext – sicherstellen, dass menschliche Kontrolle und Urteilskraft in die Nutzung des Systems einfließen und autonome Funktionen verantwortungsbewusst verwendet werden. So würde zunächst abstrakt gesetzte und dann konkret implementiere Regulierung die Chancen von Waffensystemautonomie zu nutzen und gleichzeitig die aufgeworfenen Risiken zu vermeiden erlauben: die rechtliche Zurechenbarkeitskette bei jeder Anwendung militärischer Gewalt bliebe intakt; die digitale Dehumanisierung im Krieg würde verhindert, weil Tötungsentscheidungen nicht flächendeckend an Maschinen delegiert werden; militärische Abläufe würden nicht durchweg auf Maschinengeschwindigkeit beschleunigt, so dass keine ungewollt und unkontrollierbaren Eskalationskaskaden drohen.
Deutschland fehlt eine Leitlinie
Dass in Deutschland nationaler Regulierungsbedarf besteht, lässt sich übrigens auch aus bestehenden politischen Vorgaben ableiten. Die letzten drei Koalitionsverträge enthielten bereits Absagen an Waffensysteme, die außerhalb der menschlichen Verfügungsgewalt operieren. In Deutschlands internationalem Engagement schlug sich das auch nieder. Deutsche Regierungen bemühen sich seit Jahren bei den VN in engem Schulterschluss mit Frankreich um ein internationales Vorankommen. Im Verteidigungsministerium ist das Thema gleichermaßen präsent. Es wird sogar vereinzelt in öffentlichen Papieren, etwa vom Amt für Heeresentwicklung, thematisiert. Das deutsch-französisch-spanische Rüstungsprojekt Future Combat Air System (FCAS) wird zudem ohne ein gerüttelt Maß an Autonomie nicht auskommen. Was fehlt, ist eine zeitgemäßes, verbindliches, offizielles Leitliniendokument für die Nutzung von AWS in der Bundeswehr.
Das Pentagon überarbeitet sein aus 2012 stammendes Doktrindokument 3000.09 zum Umgang mit Autonomie in Waffensystemen gegenwärtig bereits zum dritten Mal. Frankreich hat 2021 den Bericht einer eigens vom französischen Verteidigungsministerium in Sachen Waffenautonomie ins Leben gerufenen Ethikkommission, als Leitlinie übernommen. Auch andere europäische Länder wie etwa die Niederlande haben inzwischen entsprechende offizielle Dokumente. Deutschland hat nichts Vergleichbares. Das ist schlecht für die Kommunikation mit zivilgesellschaftlichen Akteuren, die sich teils gut begründete Sorgen um die in Teil 2 der Kolumne diskutierten Risiken machen. Es ist außerdem schlecht mit Blick auf Allianzpartner und die zukünftige Interoperabilität in der Nato. Es behindert zudem das gemeinsame Setzen von Standards und das Entwickeln, Testen, Zertifizieren, Beschaffen und Nutzen von zukünftigen Systemen wie etwa FCAS.
Als größtes europäisches Land mit steigenden Militärausgaben sollte das „Zeitenwende-Deutschland“ im Sinne der Mitgestaltung der regulatorischen Landschaft bei AWS aktiver und selbstbewusster werden. Ein Leitliniendokument, das wirksame menschliche Kontrolle über die Waffensysteme der Bundeswehr als politische Vorgabe setzt und von dem sich kontextspezifische militärische Praktiken ableiten lassen, würde – im Einklang mit dem Fortschritt der Technologie gegeben Falles konstant weiterentwickelt – AWS in dem rechtlichen und ethischen Rahmen nutzbar zu machen, der für die Bundesrepublik Deutschland handlungsleitend ist. Auch Deutschlands Einfluss in internationalen Foren wie der VN-Waffenkonvention sowie in EU und Nato würde von einer zeitgemäßen, offiziellen, klaren nationalen Positionierung profitieren.
Diese Kolumne ist der dritte Teil der dreiteiligen Kolumnenserie „Autonomie in Waffensystemen – von Mythen und Möglichkeiten“. Bisher erschienen: Autonomie in Waffensystemen – Alles Terminator oder was? und Autonomie in Waffensystemen –Von Chancen und Risiken
Frank Sauer lehrt und forscht an der Universität der Bundeswehr München. Er publiziert zu Fragen der internationalen Sicherheit und ist einer der Co-Hosts von „Sicherheitshalber“, dem deutschsprachigen Podcast zur sicherheitspolitischen Lage in Deutschland, Europa und der Welt. Frank Sauer ist auf Twitter @drfranksauer und Mastodon @drfranksauer@mastodontech.de