Offener Brief deutscher KI- und Robotikwissenschaftler*innen gegen autonome Waffensysteme

Als Mitglieder der Deutschen Forschungsgemeinschaft zu künstlicher Intelligenz (KI) und Robotik möchten wir der Bundesregierung und dem Bundestag für das Interesse an unserer Forschung danken. Gleichzeitig möchten wir unserer wachsenden Sorge bezüglich der Entwicklung autonomer Waffensysteme Ausdruck verleihen.

In der KI- und Robotikforschung wurden im letzten Jahrzehnt spektakuläre Fortschritte erzielt. In zahlreichen Bereichen, z.B. in der Medizin und dem Verkehr, kann der Einsatz dieser Technologien einen großen Beitrag zum Wohle unserer Gesellschaft leisten. Doch wie bei allen technologischen Entwicklungen gibt es positive und negative Applikationen von KI und Robotik. Daher erfordern diese Transformationen ein breiteres Verständnis sowie zunehmend unsere erhöhte moralische Aufmerksamkeit.

Vor diesem Hintergrund bringen wir als Wissenschaftler*innen und Forscher*innen von KI und Robotik unsere tiefe Besorgnis über die Entwicklung autonomer Waffensysteme zum Ausdruck. Diesen fehlt bedeutsame menschliche Kontrolle in den kritischen Funktionen von Waffensystemen, d.h. sie können ohne menschliche Intervention Ziele auswählen und bekämpfen. Eine Übertragung der Entscheidungsgewalt über Leben und Tod an Maschinen lehnen wir kategorisch ab.

Wir teilen unsere Sorge mit tausenden internationalen Kolleg*innen und zahlreichen Geschäftsführer*innen sowie mit Forscher*innen aus Australien, Kanada, Belgien und Norwegen, die zwischen 2015 und 2019 offene Briefe verfassten und ein völkerrechtlich verbindliches Verbot dieser Waffen forderten. Wir unterstützen dementsprechend die verbindliche Verbotsforderung für letale autonome Waffensysteme seitens des Bundesverbandes der Deutschen Industrie sowie der Gesellschaft für Informatik in Deutschland. Genau wie die meisten Chemiker*innen und Biolog*innen die Entwicklung chemischer oder biologischer Waffen ablehnen, lehnen wir die Entwicklung von autonomen Waffensystemen ab, die zudem das Vertrauen in unsere Forschung und Reputation erschüttern würden.

Autonome Waffensysteme drohen zur dritten Revolution der Kriegsführung zu werden. Die Entwicklung und der Einsatz dieser Waffensysteme wirft schwerwiegende Probleme mit der Vereinbarkeit des humanitären Völkerrechts auf, bedroht Menschenrechte sowie die in Artikel 1 des Deutschen Grundgesetzes fest verankerte Unantastbarkeit der Menschenwürde. Einmal entwickelt, werden diese Waffensysteme die Schwelle für die Beteiligung an bewaffneten Konflikten senken sowie gleichzeitig ermöglichen, dass bewaffnete Konflikte in bisher ungekanntem Ausmaß ausgetragen werden könnten.

Die Entwicklung dieser Waffensysteme wird zu einem teuren militärischen Wettrüsten führen und droht regionale wie globale Instabilitäten auszulösen. Autonome Waffen werden sich voraussichtlich rasch verbreiten und könnten Konflikte ungewollt auslösen oder zuspitzen. Darüber hinaus wirft die Entwicklung solcher Waffensysteme erhebliche Fragen hinsichtlich der Verantwortlichkeit auf. So ist es unklar, wer im Fall eines Fehlverhaltens zur Verantwortung gezogen werden könnte.

Es sind dringend Maßnahmen erforderlich, um diese Bedenken zu adressieren und eine Verbreitung solcher Waffensysteme zu verhindern. Sobald die Büchse der Pandora einmal geöffnet ist, wird es sehr schwer sein, diese wieder zu schließen. Daher fordern wir die Bundesregierung und den Bundestag auf, sich unmittelbar den aktuellen internationalen Bemühungen für ein präventives, völkerrechtlich verbindliches Verbot autonomer Waffensysteme anzuschließen sowie auf nationaler Ebene den Beschluss zu fassen, niemals solche Waffensysteme zu entwickeln, zu erwerben oder einzusetzen.

Autonomous Weapons: an open letter from German scientists

As members of the German artificial intelligence (AI) and robotics research community, we would like to thank the German government and parliament for their interest in our research. Concurrently, we would like to express our growing concern regarding the development of autonomous weapon systems.

AI and robotics research have made spectacular advances during the last decade. In numerous areas such as in medicine and infrastructure, the use of these technologies can make a major contribution to our society. But as with all technological developments, AI and robotics can have positive and negative applications. Therefore, these transformations demand our understanding and, increasingly, our heightened moral attention.

Against this background, as German scientists and researchers in robotics and AI, we express our deep concern about the development of autonomous weapon systems, which lack meaningful human control in the critical functions of weapon systems. This means, they are able to select and engage targets without human intervention. We fundamentally reject the transfer of decision-making power over life and death to machines.

We share our concern with thousands of international colleagues and numerous CEOs as well as with researchers from Australia, Canada, Belgium and Norway who wrote open letters between 2015 and 2019 calling for a legally binding ban on these weapons. Accordingly, we support the call for a legally binding ban on lethal autonomous weapons from the Federation of German Industries and the German Informatics Society. Just as most chemists and biologists reject the development of chemical or biological weapons, we reject the development of autonomous weapon systems that would also undermine confidence in our research and reputation.

Autonomous weapon systems threaten to become a third revolution in warfare. The development and use of such systems pose serious problems regarding conformity with international law, threatens human rights and the inviolability of human dignity, which is firmly anchored in Article 1 of the German Basic Law. Once developed, these weapon systems will lower the threshold to become involved in armed conflict, while allowing armed conflict to be fought at a scale greater than ever.

The development of these weapon systems will cause expensive military arms races and threatens to trigger regional and global instabilities. Autonomous weapons are likely to proliferate rapidly, and could initiate or escalate conflicts without human deliberation. Moreover, the development of such weapon systems raises significant accountability questions, as it is unclear who could be held accountable in the case of their misbehaviour.

Urgent action to address these concerns and prevent proliferation of such weapon systems is needed. Once this Pandora’s box is opened, it will be very hard to close again. We therefore call upon the German government and parliament to immediately join the current international efforts for a preventive and legally binding ban on autonomous weapons, and to resolve as a nation never to develop, acquire or deploy such weapon systems.

    Bitte füllen Sie die untenstehenden Felder nur aus, wenn Sie ein/e deutsche/r Wissenschaftler/in auf dem Gebiet der künstlichen Intelligenz, Robotik oder Informatik sind. Ihre Unterschrift repräsentiert Sie als Einzelperson und nicht Ihre Institution oder Ihren Arbeitgeber.

    *Erforderliche Angaben


    Wenn Sie auf den Senden-Button klicken, wird Ihnen zunächst eine E-Mail mit einem Bestätigungslink zugeschickt. Erst nach Bestätigung wird Ihre Unterschrift gezählt und - falls Sie dies wünschen - veröffentlicht. Ihre E-Mail-Adresse wird in keinem Fall veröffentlicht.

    0 Personen haben insgesamt bisher unterzeichnet.
    Öffentlich genannte Unterzeichner*innen / Previous signatories:

    Toby Walsh: 

    “Machines cannot & should not decide who lives and who dies. I therefore strongly support this call to regulate lethal autonomous weapons. As a guest professor at TU Berlin, I urge other AI & Robotics researchers in Germany to join this call. Autonomous weapons violate Article 1 of Germany’s Basic Law (Grundgesetz). It is essential therefore for Germany to take the lead in ensuring their regulation.”

    Kommentare sind geschlossen.