Menü
Oberhessische Presse | Ihre Zeitung aus Oberhessen
Anmelden
Welt Algorithmen kennen keine Moral
Mehr Welt Algorithmen kennen keine Moral
Partner im Redaktionsnetzwerk Deutschland
14:02 26.05.2018
Autonome Waffensysteme sollen selbstständig nach Zielen suchen, sie auswählen und bekämpfen – ohne menschliche Aufsicht und Kontrolle. Entwicklung und Einsatz solcher Systeme sind derzeit heftig umstritten. Quelle: iStockphoto
München

Den Tisch im Restaurant reserviert der digitale Assistent in meinem Smartphone. Und falls ich ein Glas zu viel getrunken habe, ist’s halb so schlimm, dann chauffiert mich das selbstfahrende Auto nach Hause.

Ja, das anbrechende Zeitalter der künstlichen Intelligenz (KI) eröffnet verlockende Aussichten. Viele Lebensbereiche werden von Technologien verändert, die wir unter den breiten Sammelbegriff der KI fassen. Prozesse werden automatisiert, werden schneller, effektiver, präziser – aber der Mensch gibt auch ein gutes Stück Kontrolle an Maschinen ab. Das kann, wie die beiden Eingangsbeispiele zeigen, durchaus praktisch und entlastend sein.

Es wundert nicht, dass auch Streitkräfte auf der ganzen Welt längst damit begonnen haben, den Einsatz von KI für militärische Zwecke auszuloten. Teil dieses Prozesses ist die zunehmende Automatisierung in militärischen Systemen. Im Falle sogenannter autonomer Waffensysteme gipfelt diese Entwicklung darin, dass die Maschine selbstständig nach Zielen sucht, diese auswählt und bekämpft – ohne menschliche Aufsicht und Kontrolle. Entwicklung und Einsatz solcher Systeme sind derzeit heftig umstritten.

Autonome Waffen schaffen eine Verantwortungslücke

Dabei ist das selbstständige Erfassen und Bekämpfen von Zielen durch Waffensysteme weder gänzlich neu noch per se problematisch. Verteidigungssysteme mit dieser Fähigkeit sind seit Jahrzehnten weltweit im Einsatz. Fangen diese zum Schutz von Soldatinnen und Soldaten blitzschnell anfliegende Munition wie Mörsergranaten oder Raketen ab, feuern sie also auf unbelebte Ziele, dann bleiben sie eine hochwillkommene und gänzlich unwidersprochene Einsatzmöglichkeit für Autonomie in Waffensystemen.

Hält die gleiche Form von Waffenautonomie jedoch in mobilen Systemen Einzug, mit denen belebte Ziele oder Menschen direkt gesucht und attackiert werden, dann wirft das gravierende Probleme auf.

Aus kriegsvölkerrechtlicher Sicht erzeugen solche Systeme eine Verantwortungslücke. Denn es ist unklar, wer die Verantwortung trägt, wenn autonome Waffen Zivilisten ein dem militärischen Ziel unangemessenes, nicht rechtfertigbares und somit illegales Leid zufügen. Ein System, das zwar keinen Hass, aber genauso wenig Mitgefühl kennt, kann man schließlich kaum vors Kriegsgericht stellen.

Gefahr nicht intendierter Eskalationen

Auch setzt das weltweit stattfindende militärische Wettrennen um Autonomie starke Anreize zur Weiterverbreitung dieser Waffentechnologie. Das verschlingt eine Menge Geld, bedroht aber vor allem die globale militärische Stabilität und erhöht die Gefahr nicht intendierter Eskalationen. Von den Finanzmärkten kennen wir die unvorhersehbaren Interaktionen zwischen Algorithmen schon, die bisweilen in sogenannten flash crashes münden – was, wenn nicht nur unversehens Aktienkurse einbrechen, sondern wenn Waffensysteme schießen?

Schließlich stellt sich noch die vielleicht grundlegendste und wichtigste, moralische Frage – nämlich die, ob es nicht die Würde des Menschen verletzt, Entscheidungen über Leben und Tod auf dem Schlachtfeld an anonyme Algorithmen zu delegieren. Expertinnen und Experten auf der ganzen Welt warnen bereits seit Jahren öffentlichkeitswirksam vor den völkerrechtlichen, sicherheitspolitischen und ethischen Risiken, sollten Waffensysteme zukünftig außerhalb der menschlichen Verfügungsgewalt operieren.

Es warnen nicht nur viele namhafte Wissenschaftlerinnen und Wissenschaftler wie der jüngst verstorbene Stephen Hawking, sondern auch Größen der Technologiebranche wie Elon Musk oder Demis Hassabis und Mustafa Suleyman, die Gründer von Googles genialer KI-Schmiede DeepMind, deren Software AlphaGo kürzlich den Weltmeister Lee Sedol im altehrwürdigen Strategiespiel Go spektakulär bezwang.

Es braucht ein Bekenntnis von Regierung und Bundeswehr

Angeregt durch die Wissenschaft und die Zivilgesellschaft in Form der Campaign to Stop Killer Robots (Kampagne zum Stopp von Killerrobotern) diskutiert seit 2014 auch die Staatengemeinschaft bei den Vereinten Nationen in Genf das Thema. 26 Staaten fordern bereits ein völkerrechtlich bindendes Verbot von Waffen, die ohne menschliche Verfügungsgewalt operieren. Österreich etwa hat sich jüngst zu dieser Forderung bekannt. Überraschenderweise sendet sogar China Signale in dieser Richtung.

Auch die Bundesregierung erteilt in den Koalitionsverträgen von 2013 und 2018 autonomen Waffensystemen eine klare Absage – wie hochrangige Bundeswehrvertreter auch. Es stünde Deutschland aber nach innen wie außen gut zu Gesicht, wenn diese Überzeugung bald in einem offiziellen Leitliniendokument der Bundeswehr festgeschrieben würde.

Streitkräfte wollen von automatisierten, effektiveren und präziseren Prozessen profitieren. Sie sollen das auch. Die Frage ist also nicht ob, sondern wie KI militärisch genutzt wird.

Die Weichen werden heute gestellt

Die Weichen für Autonomie in Waffensystemen werden heute gestellt. Und anders als im Falle des autonomen Autos, das uns nach dem Dinner gern nach Hause fahren darf, wären wir gut beraten, die Kontrolle über unsere Waffen nicht gänzlich aus der Hand zu geben. Weil die langfristig drohenden Risiken die kurzfristig lockenden Vorteile überwiegen.

Und vor allem, weil mit dem Abtreten der Verfügungsgewalt an Algorithmen eine moralische Grenze überschritten wäre. Denn das Mindeste, das wir den im Krieg von uns getöteten Menschen schuldig sind, ist, mit ihrem Sterben unser menschliches Gewissen zu belasten.

Frank Sauer Quelle: privat

Zur Person: Frank Sauer lehrt und forscht als Politikwissenschaftler an der Universität der Bundeswehr München. Gemeinsam mit weiteren Autoren hat er kürzlich seine Studie “Autonomy in Weapon Systems: The Military Application of Artificial Intelligence as a Litmus Test for Germany’s New Foreign and Security Policy“ bei der Heinrich-Böll-Stiftung veröffentlicht.

Von Frank Sauer

Der nordkoreanische Machthaber Kim Jong Un hat sich überraschend ein zweites Mal mit dem südkoreanischen Präsidenten Moon Jae In getroffen. Die Ergebnisse des Gipfels sollen aber erst am Sonntag bekanntgegeben werden.

26.05.2018

Laut einem Bericht der „Bild“ erhebt der Bundesrechnungshof schwere Vorwürfe gegen das Verteidigungsministerium. Demnach sollen die Ausrüstungsmängel weitaus gravierender sein, als das Ministerium zugibt.

26.05.2018

Schwerer Unfall im Kreis Northeim: Zwei Personen wurden verletzt, als sie mit ihrem Auto von der Straße abkamen und gegen einen Baum prallten. Auslöser des Unfalls waren Getränkedosen, die beim Öffnen explodierten.

26.05.2018