Vom Auswärtigen Amt installierte Expertengruppe ignoriert zivilgesellschaftliche Verbotsforderung für autonome Waffensysteme

Zweites „Convention on Conventional Weapons informal meeting of experts on lethal autonomous weapons systems“ bei der UNO in Genf, April 2015 Bild: © Facing Finance

Das International Panel on the Regulation of Autonomous Weapons (iPRAW) wurde im März 2017 mit dem Mandat die “Group of Governmental Experts” im Rahmen der CCW-Verhandlungen der Vereinten Nationen beim Regulierungs- und Definitionsprozess von letalen autonomen Waffensystemen (LAWS) zu unterstützen, gegründet. Das Panel besteht aus unabhängigen Wissenschaftlern aus verschiedenen Wissenschaftsbereichen und wird von der Stiftung für Wissenschaft und Politik in Berlin koordiniert und vom Auswärtigen Amt finanziert. Im Rahmen des Projekts sollen sechs aufeinander aufbauende Berichte bis Dezember 2018 publiziert werden.1 Die Ergebnisse des kürzlich veröffentlichten ersten Reports werden kommenden Dienstag, den 30.08.2017 auf Antreiben der deutschen Delegation im Rahmen der informellen CCW-Gesprächsrunden in Genf vorgestellt.2 Obwohl ein solches Panel grundsätzlich zu begrüßen ist, bedarf es einer kritischen Analyse des Formats sowie eines inhaltlichen Diskurses.

Zu begrüßen ist der Vorschlag des im August veröffentlichten ersten iPRAW-Reports „The State of Technology and Military Operations (regarding LAWS)“, die gesamte Entscheidungskette („targeting cycle“) von der Zielfindung bis hin zum endgültigen Angriff und einer anschließenden Evaluation in den Bewertungsprozess von LAWS einfließen zu lassen. Dies ermöglicht eine Aufschlüsselung und Strukturierung der vielen rechtlichen, ethischen, technischen sowie operativen Fragestellungen entlang der Entscheidungskette eines autonom agierenden Systems.3 Ein solcher ganzheitlicherer Ansatz ist vor allem dahingehend positiv zu bewerten, dass autonome (Vor-)Entscheidungen grundsätzlich auch vor der Zielauswahl und der Entscheidung eines Angriffs entstehen können. Auch semi-autonome Systeme versorgen ihre menschlichen Operatoren bereits mit einer hoch vorselektierten Menge an Daten, auf deren Basis diese „ihre“ Entscheidungen treffen.

Im Rahmen der Anwendungsanalyse von LAWS greift der iPRAW-Report auf verschiedene Szenarien zurück. Hierbei ist insbesondere der Ansatz einer sogenannten „boxed autonomy“ für eine mögliche Regulierungsmaßnahme zu nennen, die jedoch kritisch betrachtet werden sollte. „Boxed autonomy“ bezeichnet eine meist zeitlich (z.B. 20 Minuten) oder geographisch (z.B. erster Stock eines Gebäudes) begrenzte Anwendungsmöglichkeit eines Einsatzes von LAWS, in dem das autonome System eine Zielauswahl treffen und gegebenenfalls ausschalten muss. Zu Recht weist der iPRAW-Report hierbei auf ein womöglich falsches Gefühl von Sicherheit und Vorhersehbarkeit des Systems hin.4 Dem ist unbedingt hinzuzufügen, dass im Falle von „Boxed Autonomy“ weiterhin mit einer erheblichen Grauzone gerechnet werden muss, die sich durch die operative Begrenzung des Einsatzes nicht vermindert. Auch hier bleiben die sogenannten kritischen Funktionen – die autonome Zielauswahl und die autonome Entscheidung über Leben und Tod – eines LAWS weiterhin Realität. „Boxed autonomy“ verspricht eine trügerische Kontrolle, die bei einem per Definition autonomen System jedoch nicht gegeben ist. Selbst bei einem vorprogrammierten Ziel kann eine Verletzung des humanitären Völkerrechts nicht ausgeschlossen werden. Wie etwa reagiert zudem das autonome System, wenn es zu einer Veränderung in der „begrenzten“ Umwelt seines Einsatzortes kommt? Tötet das autonome System zudem einen Gegner, der sich ergibt oder ein Kind oder einen flüchtenden Zivilisten, das (zufällig) in ein Schlachtfeld eindringt?

In ihrem Fazit empfehlen die Autoren in Bezug auf eine Definition und Regulierung von LAWS v.a. den Anwendungskontext zu beachten. Es wird jedoch zugleich daraufhin gewiesen, dass „operational boxes“ mit großer Vorsicht zu betrachten sind und unbedingt weitere Aspekte beachtet werden müssen. Dazu gehört etwa der Umgang mit begrenzten Kommunikationsmöglichkeiten, da ein Einsatz von LAWS aus militärischer Sicht in einem solchen Szenario von besonderem Interesse ist. Auch der Zeitfaktor ist bei einem Einsatz im Rahmen einer „boxed autonomy“ von Unsicherheiten geprägt. Ein Mensch kann sein Situationsbewusstsein mit mehr Zeit steigern – ganz im Gegensatz zu einem autonomen System. Je länger dessen Einsatzzeiten sind, desto unvorhersehbarer agiert dieses abseits jeglicher menschlicher Kontrolle. Die Autoren weisen schließlich auch daraufhin, dass eine Maschine womöglich nie eine rechtliche Bewertung einer Situation im Sinne des humanitären Völkerrechts abgeben kann. Abschließend plädiert der iPRAW-Report für eine Regulierung auf speziell aus sich herausentwickelnden Algorithmen („self-evolving systems“) im Rahmen einer militärischen Nutzung. Hierbei passen Algorithmen ihr Verhalten selbstständig an, was mit einem weiteren Verlust menschlicher Kontrolle und Verständnis einhergeht.5

Der Einsatz von LAWS im Rahmen des Konzeptes „boxed autonomy“ zu erlauben und gleichzeitig eine Regulierungsempfehlung speziell auf „self-evolving systems“ zu fokussieren birgt Gefahren, schafft Grauzonen und hinterlässt Fragen. Wie werden z.B. bereits existierende und/oder in der Entwicklung befindliche Waffen gehandelt, die über autonome Funktionen verfügen wie z.B. der Kampfroboter SGAR-A1 von Samsung oder das russische Panzerfahrzeug Uran-9, welches sowohl ferngesteuert wie auch autonom betrieben werden kann?

Bedauernswert ist zudem die undifferenzierte Darstellung der vorherrschenden Auffassungen gegenüber LAWS im Rahmen der CCW Debatte. Hierbei konzentrieren sich die Autoren des Berichts vollständig auf die Darstellungen der Regierungen. Das Engagement der Zivilgesellschaft und die Verbotsforderung der internationalen Kampagne gegen autonome Waffensysteme (International Campaign to Stop Killer Robots), welche den Verbotsprozess seit Beginn an begleiten und vorantreiben, finden keine Beachtung. Das Literaturverzeichnis bestätigt diesen Eindruck.  

Eine Definition mit zielführenderen Regulierungsempfehlungen für LAWS soll erst mit dem letzten iPRAW Bericht im Dezember 2018 vorgeschlagen werden. So steht zu befürchten, die kommenden Verhandlungen diesen November sowie jene in 2018 weitgehend ergebnislos bleiben. Eine Definition sowie Regulierungsempfehlungen von iPRAW könnten somit spätestens im Jahr 2019 in den Prozess einfließen, was den CCW-Regulierungsprozess noch einmal weiter verzögert, was dann sicherlich im Interesse derjenigen Staaten ist, die an der Verwendung von autonomen Waffensystemen interessiert sind. Ob Deutschland dazugehören will, wird sich zeigen.

  1. https://www.ipraw.org/wp-content/uploads/2017/08/2017-08-17_iPRAW_Focus-On-Report-1.pdf []
  2. http://www.genf.diplo.de/Vertretung/genf/de/__pr/Aktuel-dt-2017/2017-08-29-ccw-convention-einladung.html []
  3. https://www.ipraw.org/wp-content/uploads/2017/08/2017-08-17_iPRAW_Focus-On-Report-1.pdf []
  4. https://www.ipraw.org/wp-content/uploads/2017/08/2017-08-17_iPRAW_Focus-On-Report-1.pdf []
  5. https://www.ipraw.org/wp-content/uploads/2017/08/2017-08-17_iPRAW_Focus-On-Report-1.pdf []

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.