Mi 05. Oktober 2022
Mit Künstlicher Intelligenz beginnt ein neues Zeitalter der Kriegführung. Doch spielt der Mensch darin überhaupt noch eine Rolle? Und welche moralischen und rechtlichen Folgen ergeben sich daraus?
Ende März 2020 ist es zum ersten Mal so weit: Eine autonome Militärdrohne greift flüchtende libysche Soldaten an, ohne vorher von einem Menschen dazu autorisiert zu werden. Die Drohne des Typs Kargu-2-Quadcopter des türkischen Waffenherstellers STM ist so programmiert, dass sie im Falle einer identifizierten Gefahr keine aktive Datenverbindung zu einem Bediener oder Bedienerin benötigt, um zum Angriff überzugehen. Das heißt, dass sie völlig unabhängig agiert – sie erteilt sich selbst den Auftrag, anzugreifen. Aus dem UN-Bericht, der den Vorfall dokumentiert, geht allerdings nicht hervor, wie viele Menschen attackiert, beziehungsweise ob sie verletzt oder getötet wurden.


Die Killer-Drohne vom Typ Kargu-2-Quadcopter war die erste, die völlig autonom und selbständig einen Angriff auf Menschen startete. Doch wozu führt uns automatisiertes, maschinelles Töten?: Die Killer-Drohne vom Typ Kargu-2-Quadcopter war die erste, die völlig autonom und selbständig einen Angriff auf Menschen startete. Doch wozu führt uns automatisiertes, maschinelles Töten?
Die Killer-Drohne vom Typ Kargu-2-Quadcopter war die erste, die völlig autonom und selbständig einen Angriff auf Menschen startete. Doch wozu führt uns automatisiertes, maschinelles Töten?
Intelligente Waffensysteme, die in steigendem Ausmaß selbstständig handeln können, verändern die Kriegführung im 21. Jahrhundert drastisch. Über die von der Unterhaltungsindustrie bemühten Killerroboter-Szenarien hinaus ist die technologische Vielfalt militärischer Anwendungen, die sich auf Künstliche Intelligenz stützen, groß und stellt vor allem in Form von autonomen Waffensystemen (AWS) die Rolle des Menschen in der Kriegführung infrage.

Grundlegend kann bei KI-gestützten Geräten und Maschinen zwischen teilweise und vollständig autonom unterschieden werden. Sind Erstere in Form von Raketensystemen, die zum Beispiel selbstständig nach möglichen Zielen, ergo Angreifern, suchen und dann mit einer Bestätigung durch einen Menschen angreifen, bereits seit langem Bestandteil kriegerischer Auseinandersetzungen, so ist es die vollständige Autonomie von Waffensystemen, die Gesellschaft, Regierungen und das EU-Parlament heute zu ethischen Überlegungen und jenen der bewusst gesetzten Grenzen der Technik bringt.

Eingesetzt werden Systeme oder Fahrzeuge ohne Besatzung („unmanned systems/vehicles“) – ob nun vom Menschen gesteuert oder nicht – generell in der Luft, am Land, im Weltraum und im Wasser, wobei die Masse der Flugkörper ohne Besatzung inzwischen Drohnen bilden. Auf der positiven Seite dieser Entwicklungen ist festzuhalten, dass diese Maschinen verwendet werden können, um Minen zu entdecken und zu entschärfen, Meeresböden oder gefährliche Gegenden zu erkunden, ohne dabei Menschenleben zu riskieren. Die Präzision von LAWS (Letale Autonome Waffensysteme) macht es möglich, exakt jene Personen zu eliminieren, die als Bedrohung angesehen werden, wodurch zivile Opfer vermieden werden können.

Auf der anderen Seite werden durch ferngesteuerte oder autonome Kampfmaschinen und -roboter die Grenzen zwischen Krieg und Frieden weiter aufgeweicht. Krieg ist nicht mehr an ein Schlachtfeld gebunden, sondern kann überall und jederzeit stattfinden. Auch die Erstarkung des Terrorismus trägt zu dieser Entwicklung bei bzw. nutzt sie. Die technologischen Neuerungen verstärken außerdem militärische Bündnistendenzen. Denn das Budget, dass einem Heer zur Verfügung steht, entscheidet zunehmend über die Kriegführungsfähigkeit einer Nation.

Vergleichbar sind die aktuellen Umwälzungen in der Kriegführung mit dem, was der britische Historiker Michael Roberts im Jahr 1967 als „militärische Revolution“ bezeichnete. Er bezog sich damit auf strukturelle und technologische Veränderungen, die zwischen 1560 und 1660 im europäischen Militär vonstattengingen, im Wesentlichen die Umstellung von Hieb- und Stichwaffen auf Schusswaffen, wie Musketen oder Kanonen, und die Etablierung der militärischen Unterteilung in Infanterie, Artillerie und Kavallerie. Der direkte Kampf Mann gegen Mann wurde entbehrlich, das Töten von weiterer Distanz und mehrerer Personen auf einen Schlag möglich. Ähnlich wie damals machen es nun intelligente Waffensysteme möglich, jederzeit über ganze Kontinente hinweg und mit gesteigerter Präzision zu töten. Dadurch ergeben sich nicht nur ethische und völkerrechtliche Fragen. Der Mensch gerät zunehmend in eine Abhängigkeit vom Funktionieren maschineller Systeme. Ein Beispiel hierfür ist auch das des Flugs 655.

 
Die USS Vincennes 2005 vor Hawaii. 1988 führte ein solcher Kreuzer einen folgenschweren Angriff auf ein iranisches Passagierflugzeug durch: Die USS Vincennes 2005 vor Hawaii. 1988 führte ein solcher Kreuzer einen folgenschweren Angriff auf ein iranisches Passagierflugzeug durch
Die USS Vincennes 2005 vor Hawaii. 1988 führte ein solcher Kreuzer einen folgenschweren Angriff auf ein iranisches Passagierflugzeug durch
Am 3. Juli 1988 befand sich ein Airbus A300 auf dem Flug von Teheran nach Dubai in der Luft. Es handelte sich um den Iran-Air-Flug 655, inklusive Besatzung sind 290 Personen an Bord, darunter 66 Kinder. Als sich das Flugzeug über dem Arabischen Golf befindet, wird es vom Abwehrsystem AEGIS des im Wasser befindlichen amerikanischen Kreuzers USS Vincennes registriert. AEGIS gleicht den Flieger mit einer Datenbank ab, identifiziert ihn als feindliches Kampfflugzeug und schlägt Alarm. Das teilautonome System kann – nach menschlicher Autorisierung – Abwehrraketen vom Typ „Standard Missile 2“ abfeuern. Der Kapitän der USS Vincennes entscheidet kurzerhand, das identifizierte Flugobjekt abschießen zu lassen. Beide Raketen treffen ihr Ziel, Flug 655 explodiert in der Luft. Keiner der Zivilisten an Bord überlebt den Absturz. Erst die spätere US-Untersuchung ergibt, dass AEGIS das iranische Flugzeug falsch kategorisiert hatte.

Bei teilautonomen Systemen ist heute zu beobachten, dass mit fortschreitender Leistungsfähigkeit von Maschinen und Programmen auch immer schneller Entscheidungen vom Menschen über Angriff oder Nicht-Angriff getroffen werden müssen.
Die Definition, was AWS genau umfasst, unterscheidet sich je nach Nation, doch es herrscht weitestgehend Konsens, dass internationales humanitäres Völkerrecht auf solche Systeme anwendbar ist. Auf UN-Ebene wird seit bald zehn Jahren über ein Verbot von gewissen Systemen verhandelt, und zwar im Rahmen der „Group of Governmental Experts on Lethal Autonomous Weapon Systems/GGE-LAWS“. 2019 einigte sich diese Gruppe zum Beispiel auf zehn unverbindliche Leitlinien, darunter das Prinzip, Entscheidungen über Leben und Tod in militärischen Auseinandersetzungen nicht einem Algorithmus zu überlassen. Allerdings ist man bei einem kompletten Verbot von AWS gespalten. Länder wie die USA, Kanada, Japan, Südkorea und Großbritannien sind für freiwillige Selbstverpflichtungen anstatt eines Verbots (z. B. nach Vorbild des Landminen-Verbots). Außerhalb der EU sind es beispielsweise Russland, Indien oder Israel, die gegen politisch bindende Regelungen auftreten. Auch die Angst vor einem digitalen Wettrüsten erhöht den Druck, eine Einigung zu finden. Einen möglichen Konsens könnte ein Verbot von vollautonomen und ein Verhaltenskodex in Bezug auf teil-autonome Systeme darstellen. NGOs wie „Stop Killer Robots“ treten seit Jahren für ein generelles Verbot von AWS ein.

 
Österreich gehört zu den Staaten, die sich dafür einsetzen, dass ein rechtlich bindendes Instrument eingeführt wird, das AWS ohne ausreichende und effektive menschliche Kontrolle verbietet. „Im Lichte des rasanten technologischen Fortschritts sowie der zunehmenden Integration autonomer Funktionen in Waffensysteme, bleibt der Erhalt der menschlichen Kontrolle über die Zielauswahl und Bekämpfung das Leitprinzip der österreichischen Position“, heißt es dazu in einem Antrag an die Bundesregierung vom November 2021 bezüglich der damals bevorstehenden 6. Überprüfungskonferenz der Konvention über bestimmte konventionelle Waffen (KWK). Darin betonte Österreich auch, dass man nach „fünf Jahren Diskussion nun mit Nachdruck für die Aufnahme von Verhandlungen eines völkerrechtlichen Instrumentes zu LAWS“ eintrete, „das insbesondere auf die ethischen, völkerrechtlichen sowie sicherheitspolitischen Aspekte abstellt“.
Der Einsatz von intelligenter Technologie wirft also grundlegende Fragen auf. Wer beziehungsweise welche Instanz trägt die moralische und rechtliche Verantwortung, wenn Militärroboter oder autonome Waffensysteme technisch versagen und zufällig, illegitim töten? Inwieweit wird durch diese Geräte stärker die Grenze zwischen Krieg und Frieden aufgelöst? Wie kann gewährleistet werden, dass terroristische Gruppen dadurch nicht noch mehr Macht erlangen? Wie wird es Kriege verändern, wenn Menschen nicht mehr die Last tragen, töten zu müssen? Auch mit Blick auf die Szenarien der Unterhaltungsindustrie bedarf es einer umfassenden Überprüfung und Debatte, bevor das Töten in die Hände von Maschinen gelegt wird, die kein Vergeben und kein Erbarmen kennen.
 
Literaturtipp:
Markus Reisner: Robotic Wars. Legitimatorische Grundlagen und Grenzen des Einsatzes von Military Unmanned Systems in modernen Konfliktszenarien. Berlin 2018.
 
Sarah Kleiner ist freie Journalistin in Wien.