Menü
Hannoversche Allgemeine | Ihre Zeitung aus Hannover
Anmelden
Politik Algorithmen kennen keine Moral
Nachrichten Politik Algorithmen kennen keine Moral
Partner im Redaktionsnetzwerk Deutschland
20:16 25.05.2018
Autonome Waffensysteme sollen selbstständig nach Zielen suchen, sie auswählen und bekämpfen – ohne menschliche Aufsicht und Kontrolle. Entwicklung und Einsatz solcher Systeme sind derzeit heftig umstritten. Quelle: iStockphoto
München

Den Tisch im Restaurant reserviert der digitale Assistent in meinem Smartphone. Und falls ich ein Glas zu viel getrunken habe, ist’s halb so schlimm, dann chauffiert mich das selbstfahrende Auto nach Hause.

Ja, das anbrechende Zeitalter der künstlichen Intelligenz (KI) eröffnet verlockende Aussichten. Viele Lebensbereiche werden von Technologien verändert, die wir unter den breiten Sammelbegriff der KI fassen. Prozesse werden automatisiert, werden schneller, effektiver, präziser – aber der Mensch gibt auch ein gutes Stück Kontrolle an Maschinen ab. Das kann, wie die beiden Eingangsbeispiele zeigen, durchaus praktisch und entlastend sein.

Es wundert nicht, dass auch Streitkräfte auf der ganzen Welt längst damit begonnen haben, den Einsatz von KI für militärische Zwecke auszuloten. Teil dieses Prozesses ist die zunehmende Automatisierung in militärischen Systemen. Im Falle sogenannter autonomer Waffensysteme gipfelt diese Entwicklung darin, dass die Maschine selbstständig nach Zielen sucht, diese auswählt und bekämpft – ohne menschliche Aufsicht und Kontrolle. Entwicklung und Einsatz solcher Systeme sind derzeit heftig umstritten.

Autonome Waffen schaffen eine Verantwortungslücke

Dabei ist das selbstständige Erfassen und Bekämpfen von Zielen durch Waffensysteme weder gänzlich neu noch per se problematisch. Verteidigungssysteme mit dieser Fähigkeit sind seit Jahrzehnten weltweit im Einsatz. Fangen diese zum Schutz von Soldatinnen und Soldaten blitzschnell anfliegende Munition wie Mörsergranaten oder Raketen ab, feuern sie also auf unbelebte Ziele, dann bleiben sie eine hochwillkommene und gänzlich unwidersprochene Einsatzmöglichkeit für Autonomie in Waffensystemen.

Hält die gleiche Form von Waffenautonomie jedoch in mobilen Systemen Einzug, mit denen belebte Ziele oder Menschen direkt gesucht und attackiert werden, dann wirft das gravierende Probleme auf.

Aus kriegsvölkerrechtlicher Sicht erzeugen solche Systeme eine Verantwortungslücke. Denn es ist unklar, wer die Verantwortung trägt, wenn autonome Waffen Zivilisten ein dem militärischen Ziel unangemessenes, nicht rechtfertigbares und somit illegales Leid zufügen. Ein System, das zwar keinen Hass, aber genauso wenig Mitgefühl kennt, kann man schließlich kaum vors Kriegsgericht stellen.

Gefahr nicht intendierter Eskalationen

Auch setzt das weltweit stattfindende militärische Wettrennen um Autonomie starke Anreize zur Weiterverbreitung dieser Waffentechnologie. Das verschlingt eine Menge Geld, bedroht aber vor allem die globale militärische Stabilität und erhöht die Gefahr nicht intendierter Eskalationen. Von den Finanzmärkten kennen wir die unvorhersehbaren Interaktionen zwischen Algorithmen schon, die bisweilen in sogenannten flash crashes münden – was, wenn nicht nur unversehens Aktienkurse einbrechen, sondern wenn Waffensysteme schießen?

Schließlich stellt sich noch die vielleicht grundlegendste und wichtigste, moralische Frage – nämlich die, ob es nicht die Würde des Menschen verletzt, Entscheidungen über Leben und Tod auf dem Schlachtfeld an anonyme Algorithmen zu delegieren. Expertinnen und Experten auf der ganzen Welt warnen bereits seit Jahren öffentlichkeitswirksam vor den völkerrechtlichen, sicherheitspolitischen und ethischen Risiken, sollten Waffensysteme zukünftig außerhalb der menschlichen Verfügungsgewalt operieren.

Es warnen nicht nur viele namhafte Wissenschaftlerinnen und Wissenschaftler wie der jüngst verstorbene Stephen Hawking, sondern auch Größen der Technologiebranche wie Elon Musk oder Demis Hassabis und Mustafa Suleyman, die Gründer von Googles genialer KI-Schmiede DeepMind, deren Software AlphaGo kürzlich den Weltmeister Lee Sedol im altehrwürdigen Strategiespiel Go spektakulär bezwang.

Es braucht ein Bekenntnis von Regierung und Bundeswehr

Angeregt durch die Wissenschaft und die Zivilgesellschaft in Form der Campaign to Stop Killer Robots (Kampagne zum Stopp von Killerrobotern) diskutiert seit 2014 auch die Staatengemeinschaft bei den Vereinten Nationen in Genf das Thema. 26 Staaten fordern bereits ein völkerrechtlich bindendes Verbot von Waffen, die ohne menschliche Verfügungsgewalt operieren. Österreich etwa hat sich jüngst zu dieser Forderung bekannt. Überraschenderweise sendet sogar China Signale in dieser Richtung.

Auch die Bundesregierung erteilt in den Koalitionsverträgen von 2013 und 2018 autonomen Waffensystemen eine klare Absage – wie hochrangige Bundeswehrvertreter auch. Es stünde Deutschland aber nach innen wie außen gut zu Gesicht, wenn diese Überzeugung bald in einem offiziellen Leitliniendokument der Bundeswehr festgeschrieben würde.

Streitkräfte wollen von automatisierten, effektiveren und präziseren Prozessen profitieren. Sie sollen das auch. Die Frage ist also nicht ob, sondern wie KI militärisch genutzt wird.

Die Weichen werden heute gestellt

Die Weichen für Autonomie in Waffensystemen werden heute gestellt. Und anders als im Falle des autonomen Autos, das uns nach dem Dinner gern nach Hause fahren darf, wären wir gut beraten, die Kontrolle über unsere Waffen nicht gänzlich aus der Hand zu geben. Weil die langfristig drohenden Risiken die kurzfristig lockenden Vorteile überwiegen.

Und vor allem, weil mit dem Abtreten der Verfügungsgewalt an Algorithmen eine moralische Grenze überschritten wäre. Denn das Mindeste, das wir den im Krieg von uns getöteten Menschen schuldig sind, ist, mit ihrem Sterben unser menschliches Gewissen zu belasten.

Frank Sauer Quelle: privat

Zur Person: Frank Sauer lehrt und forscht als Politikwissenschaftler an der Universität der Bundeswehr München. Gemeinsam mit weiteren Autoren hat er kürzlich seine Studie “Autonomy in Weapon Systems: The Military Application of Artificial Intelligence as a Litmus Test for Germany’s New Foreign and Security Policy“ bei der Heinrich-Böll-Stiftung veröffentlicht.

Von Frank Sauer

Politik Gastbeitrag zur heimischen Rollenverteilung - Lasst uns Eltern so sein, wie wir sind

Die Rollen sind in deutschen Familien oft noch klassisch verteilt. Ganz anders in Schweden: Der Staat begegnet Eltern längst mit flexiblen Modellen. Es ist Zeit, sich daran ein Beispiel zu nehmen.

18.05.2018
Politik Gastbeitrag von Ninja LaGrande - Macht endlich die Fenster auf!

Seit rund sechs Wochen ist die neue Regierung im Amt. Es gibt ein neues Heimatministerium und einen Gesundheitsminister, der mit provokanten Sätzen auffällt. Und die meisten Posten sind von Männern besetzt. Ist das neue Kabinett wirklich im Jahr 2018 angekommen?

11.05.2018
Politik Gastbeitrag von Philosophin Manuela Lenzen - Daten sind das neue Gold

Der Handel mit Daten wird immer lukrativer. Es ist ein neuer milliardenschwerer Markt entstanden. Aber was macht personenbezogene Informationen eigentlich so wertvoll? Und wer interessiert sich für sie?

04.05.2018