flickr_-_israel_defense_forces_-_iron_dome_battery_deployed_near_ashkelon.jpg

Foto: Israel Defense Forces, via Wikimedia Commons

Autonome Waffen sind ethisch hochbrisant

Verbieten oder erlauben? Die Debatte um autonome Waffensysteme fördert komplizierte und wichtige ethische Fragen zu Tage. Und sie zeigt, dass wir Verantwortung übernehmen müssen.

«Autonome Waffensysteme gehören zu den alarmierendsten Militärtechnologien, die derzeit entwickelt werden.» Das meint ein Bericht, den Human Rights Watch zum Auftakt der diesjährigen UN-Verhandlungen zu autonomen Waffen publizierte. Die Debatte um ein allfälliges Verbot dreht sich um schwerwiegende ethische Herausforderungen, die solche Systeme mit sich bringen. Zeit, diese genauer unter die Lupe zu nehmen.

Sind Menschen noch am Steuer?

Bereits heute sind unterschiedliche teilautonome Waffensysteme im internationalen Einsatz. So wehrt in Israel der «Iron Dome» Raketen ab, schützt das amerikanische «Aegis»-System Kriegsschiffe und sollen «Mantis»-Geschütztürme deutsche Militärbasen sichern. Ein allfälliges Abfeuern liegt dabei aber immer noch unter der Kontrolle von Menschen. Solche Systeme gehören zur Kategorie «human-in-the-loop»: Hier sind Menschen ein Teil der Schleife und müssen aktiv eingreifen. So wird sichergestellt, dass letztendlich die Entscheidung über Leben und Tod von einem Menschen gefällt werden muss.

Von dort ist es ein kleiner Schritt zur nächsten Stufe der Autonomie. Menschen nehmen dort nur noch eine überwachende und eingreifende Rolle ein. In der Kategorie «human-on-the-loop» kann das System Ziele selbstständig identifizieren, verfolgen und abschiessen. Ein Eingriff von aussen erfolgt nur dann, wenn ein Fehler entdeckt wird.

Diesem potentiellen Nutzen stehen fundamentale ethische Herausforderungen gegenüber. Zentral ist dabei die Frage, ob wir die Entscheidung über Leben und Tod einem Algorithmus überlassen möchten.

Schliesslich sind auch Systeme möglich, die vollständig autonom agieren. Menschen geben allenfalls einen Auftrag vor und können die Waffen abschalten. Ein aktives Eingreifen während des Betriebs ist jedoch nicht mehr vorgesehen. Diese Systeme sind das Hauptziel der Kampagne für das Verbot von sogenannten Killerrobotern.

Mehr Probleme als Nutzen

Eines der Ziele der Entwicklung autonomer Waffen ist die Reduzierung des Menschen als Unsicherheitsfaktor. Dabei verweisen die BefürworterInnen auf Szenarien wie den Abschuss eines Passagierflugzeugs im Jahr 1988. Obwohl damals das «Aegis»-System eines amerikanischen Kriegsschiff korrekt keine Gefahr signalisierte, wurde von der Crew ein Abschuss ausgelöst. Auch in Situationen, die eine übermenschlich schnelle Reaktionszeit verlangen, könnten autonome Waffen wirksamer sein als Menschen.

Diesem potentiellen Nutzen stehen fundamentale ethische Herausforderungen gegenüber. Zentral ist dabei die Frage, ob wir die Entscheidung über Leben und Tod einem Algorithmus überlassen möchten. So schreibt das Internationale Komitee vom Roten Kreuz in einem Bericht: «Die grundlegende ethische Frage ist, ob die Prinzipien der Menschlichkeit und das Diktat des öffentlichen Gewissens es erlauben, menschliche Entscheidungen über die Anwendung von Gewalt effektiv durch computergesteuerte Prozesse zu ersetzen und Entscheidungen über Leben und Tod an Maschinen abzutreten.»

Die Frage der Verantwortung ist eng mit diesem Problem verbunden. Wer kann für die Entscheidungen und Handlungen eines autonomen Systems moralisch zur Rechenschaft gezogen werden? Sobald Waffensysteme vollständig autonom sind oder so schnell agieren, dass ein menschliches Eingreifen nicht mehr möglich ist, müssen wir darauf vertrauen, dass sie grundsätzlich ethisch vertretbare Entscheidungen fällen. Ansonsten drohen solche Systeme ausser Kontrolle zu geraten.

Ein ähnlicher Kontrollverlust löst bei renommierten ForscherInnen, die sich mit Künstlicher Intelligenz (KI) befassen, Angst aus: Diese warnten in einem offenen Brief davor, dass Waffen mit künstlicher Intelligenz die Schwelle der Gewalt nach unten verschieben und ein globales Wettrüsten auslösen könnten. Dieser Perspektive pflichtet der Wissenschaftsjournalist Jacob Ward in einem Artikel bei: «Es ist ein furchtbar bequemes System, das Krieg logistisch, moralisch und politisch einfacher macht als je zuvor.»

Die Verantwortung von Unternehmen

Die Möglichkeit autonomer Waffen stellt jedoch auch Hersteller ziviler Technologien vor ethische Herausforderungen. Denn Drohnen, selbstfahrende Fahrzeuge, künstliche Intelligenz oder Maschinelles Lernen sind wichtige Bausteine für autonome Waffen. Diese können für den militärischen Einsatz umgerüstet oder weiterentwickelt werden. Eine Drohne, die selbstständig ein Gebiet kartografieren und Objekte markieren und verfolgen kann, könnte zum Beispiel auch als Basis für eine vollkommen autonome bewaffnete Drohne verwendet werden.

Entsprechend spüren bereits erste grosse Unternehmen den Druck von Mitarbeiterinnen und Mitarbeitern, sich nicht auf die Zusammenarbeit mit Rüstungsfirmen einzulassen. So stellte Google die Zusammenarbeit mit dem Verteidigungsministerium der Vereinigten Staaten ein, nachdem tausende Mitarbeitende in einer Petition ihren Unmut geäussert hatten.

Dies zeigt, dass Unternehmen Verantwortung übernehmen müssen. Die weitreichenden Fragen rund um die Dual-Use-Problematik verlangt eine Positionierung. Insbesondere, weil die zivile Forschung momentan die treibende Kraft hinter der Entwicklung von autonomen System ist, wie ein Bericht des  Stockholmer internationalen Friedensforschungsinstituts zeigt. Entsprechend wichtig ist also eine ernste Auseinandersetzung mit den ethischen Herausforderungen, die autonome Waffen mit sich bringen. Erste Ansätze dazu bietet die Vision «Ethically Aligned Design» des Institute of Electrical and Electronics Engineers (IEEE). Doch konkrete Prinzipien fehlen noch.