Standpunkt Autonome Kriegsführung ist keine Dystopie

Die SPD hat die Entscheidung zur Anschaffung bewaffneter Drohnen entgegen innerparteilicher Proteste vertagt und fordert eine breitere öffentliche Debatte. Der KI-Forscher Jakob Foerster will sich einbringen: Im Standpunkt warnt er vor der Entwicklung autonomer Waffensysteme und fordert, dass sich Deutschland für die internationale Abrüstung von Kampfdrohnen einsetzt.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? hier einloggen

Der geplante und schließlich vertagte Beschluss im Haushaltsausschuss des deutschen Bundestages zur Bewaffnung von Drohnen am 16. Dezember hätte den Weg für das Rüstungsprojekt „Future Combat Air System“ (FCAS) geebnet. Die Regierungen Frankreichs, Deutschlands und Spaniens wollen dadurch Europa zu einer der führenden Mächte in autonomer Kriegsführung entwickeln.

In der öffentlichen Debatte steht dabei als Motiv der Schutz der Soldaten im Vordergrund – eine Scheindebatte. Der vorläufige Stopp der Bewaffnung von Drohnen war wichtig, um einer weiteren Entwicklung in Richtung autonomer Waffensysteme vorzubeugen. Konsequenterweise sollte auch die von der großen Koalition geplante Entwicklung der bewaffnungsfähigen „Eurodrohne“ gestoppt werden. Denn das automatisierte Töten, ohne unmittelbare menschliche Entscheidung, wird technologisch möglich.

Deutsch-französisches Projekt strebt Automatisierung des Waffensystems an

Das FCAS – ein Prestigeprojekt insbesondere des französischen Präsidenten – ist konzipiert als neuartiges, bemanntes oder unbemanntes Kriegsflugzeug, das von (teil-)autonomen Drohnenschwärmen begleitet werden soll. Im vergangenen Juli veröffentlichte der zuständige Ausschuss des französischen Senats zum FCAS auf seiner Homepage einen Bericht, der bisher in der deutschen Öffentlichkeit weitestgehend unbekannte Details und technologische wie politische Zielsetzungen des Projekts offenbart. Zum Beispiel verdeutlicht das Dokument, dass Künstliche Intelligenz (KI) und eine weitgehende Automatisierung des Waffensystems den Kern des Projektes bilden. 

Frankreich hat auch in Deutschland Gespräche mit Vertretern der beteiligten Unternehmen und den politisch Verantwortlichen geführt. Unter deutscher Beteiligung wird federführend an zwei zentralen Bereichen gearbeitet: am sensiblen Bereich der Koordinierung aller Waffensysteme des Projekts, an der „Combat Cloud“, und an „remote carriers“ (gemeint sind Drohnen). Mehrere deutsche Unternehmen sind am Projekt beteiligt.

Autonome Kriegsführung ist keine Dystopie

Autonome Kriegsführung ist keine ferne Dystopie. KI und damit verbundene, bisher kaum vorstellbare technologische Möglichkeiten, entwickeln sich rasant. Aktuell erforscht und in absehbarer Zukunft möglich werden dabei auch vollautonome Kampfdrohnen. Einfach ersichtlich werden diese Möglichkeiten am Vergleich zum autonomen Fahren: Moderne Tesla-Autos sind aus Sicht der Hardware schon seit Jahren „Autonomy Ready“ und die Software-Entwicklung ist weit fortgeschritten – Updates erfolgen kontinuierlich. Dasselbe gilt für die Hardware moderner Drohnen. Ihre autonome Steuerung ist in vieler Hinsicht technisch sogar einfacher, da es beispielsweise keine Passanten im Luftraum gibt.

Auch die Koordination von Gruppen autonomer Agenten schreitet rasch voran: Trainingsalgorithmen für autonome Drohnenschwärme, die als Team beispielsweise einen Waldbrand löschen, sich aufeinander abstimmen und miteinander kommunizieren, sind heute vorhanden. Komplexer gestaltet sich die Koordination autonomer und menschlich gesteuerter Systemen, da der menschliche Kooperationsprozess schwerer durch KI-Algorithmen nachzubilden ist. Während man sich hier noch im Bereich der Grundlagenforschung befindet, ist eine weitere Beschleunigung des Erkenntnisgewinns und entsprechender Anwendungsmöglichkeiten abzusehen, wie es bereits in anderen Bereich der KI passiert ist. 

Unbemanntes System zur atomaren Abschreckung

Beispielsweise könnten solche Algorithmen zukünftig bewaffnete Drohnenschwärme steuern oder bemannte und unbemannte Waffensysteme koordinieren. Damit ist die Dystopie, dass die Entscheidung zum Töten durch KI-Algorithmen getroffen wird und dann diese Befehle von einer Hardware wie Drohnen oder Robotern ausgeführt werden, in greifbarer Zukunft realistisch. 

Mit dem FCAS würde diese Bedrohung näher rücken. So äußert der französische Senat die Intention, nach Möglichkeit auf ein komplett unbemanntes und weitgehend autonomes Waffensystem hinzuarbeiten, in dem auch das Kampfflugzeug im Mittelpunkt des „Schwarms“ unbemannt fliegen würde: „Wir dürfen nicht wie der weltbeste Schachspieler sein, der einen Computer nicht mehr schlagen kann!“ Die französische Regierung plant, das FCAS auch für die atomare Abschreckung zu nutzen und das Waffensystem entsprechend atomar zu bewaffnen. Auch aufgrund des hohen Investitionsvolumen – laut Handelsblatt geschätzte 500 Milliarden Euro – ist dies ein Versuch, irreversible Weichen für die langfristige sicherheitspolitische Ausrichtung Europas zu setzen. 

Völkerrecht sollte die Entwicklung autonomer Waffen untersagen

Dabei sollten eigentlich politische Beschlüsse und das Völkerrecht der Entwicklung neuartiger Waffen Grenzen setzen. 2018 hat das Europäische Parlament in einer Resolution das Verbot der Entwicklung von autonomen letalen Waffensystemen gefordert. Schon das Studium und die Entwicklung dieser Waffen sind zudem nicht durch das Völkerrecht gedeckt. Dem ist sich der französische Senat durchaus bewusst: „Artikel 36 des Ersten Protokolls der Genfer Konvention [sieht vor], dass Studium, Entwicklung, Erwerb oder Annahme einer neuen Waffe nur durchgeführt werden darf, nachdem festgestellt wurde, ob sie möglicherweise gegen das Protokoll oder gegen eine andere Regel des Völkerrechts verstößt.“ Allerdings hat die Finanzierung von FCAS bereits begonnen und 2040 wird als Termin zur Fertigstellung anvisiert. 

Im Bericht wird gar die demokratische Willensbildung auf deutscher Seite gefürchtet – wortwörtlich der „Wunsch des Bundestages, sich stärker in den Entscheidungsprozess einzubringen“. Zur Absicherung des Projekts soll daher bereits Anfang 2021 „eine neue Stufe begonnen werden, um das Programm irreversibel zu machen“. Für die Zementierung sollen auch Teile von Geldern zur wirtschaftlichen Erholung nach der Coronavirus-Zeit genutzt werden.

Globale Rüstungskontrolle muss auch Algorithmen einschließen

Kampfdrohnen zu stoppen, ist aus Sicht der aktuellen und zu erwartenden Technologie-Entwicklung geboten: Sobald die entsprechende Software verfügbar ist kann jede moderne ferngesteuerte bewaffnete Drohne über Software-Updates in eine vollautomatisierte Drohne umgewandelt werden und im Schwarm mit anderen Drohnen agieren. Diese Entwicklung in Richtung Autonomie ist technologisch absehbar und wird politisch forciert – und zwar entgegen vieler aktueller öffentlicher Stellungnahmen und ohne demokratischen Konsens. Die Bewaffnung von Drohnen würde damit zu einer kaum zu kontrollierenden und nicht aufzuhaltenden Automatisierung des Kriegs führen. 

Der vorläufige Stopp der Drohnenbewaffnung in Deutschland macht Hoffnung. Zudem weist der französische Senat darauf hin, dass die Tradition des deutschen Pazifismus wie auch die deutsche Kultur der militärischen Zurückhaltung das Projekt gefährde. Anstatt Ressourcen für eine Aufholjagd bei Kampfdrohnen und autonomen Waffensystemen zu verschwenden, sollte Deutschland ein Vorreiter für den Frieden, die globale Rüstungskontrolle – darunter fallen heute mehr denn je Software und Künstliche Intelligenz – und internationale Verständigung sein. Hierzu ist es unabdingbar, aus dem FCAS auszusteigen und nach Möglichkeiten zu suchen, das gesamte Projekt aufzuhalten. Dies wäre europaweit und global ein wichtiger Impuls für die gebotene Ächtung autonomer und in absehbarer Zeit autonomiefähiger Waffen wie Kampfdrohnen.

Jakob Foerster ist designierter Assistant Professor für Maschinelles Lernen an der Universität Toronto. Er promovierte in Oxford und forschte unter anderem bei DeepMind, Google Brain, Facebook AI Research und OpenAI.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? hier einloggen