Wenn der Algorithmus tötet

Autonome Waffensysteme werden die Kriegsführung der Zukunft radikal verändern. Angesichts der zahlreichen ethischen und völkerrechtlichen Probleme formiert sich Widerstand. Der Bundesrat hält sich derweil bedeckt.

19. September 2018 in einem abgelegenen Tal in der Nähe von Unteriberg, Kanton Schwyz. Neben einem opulenten Golfplatz stehen Panzer und Geschütztürme in Reih und Glied, und ein interessiertes Publikum mustert das ausgestellte Kriegsgerät. Die Rheinmetall Air Defence hat zu den «Air Defence Days» geladen. Hier führt die aus der Schweizer Oerlikon Contraves hervorgegangene Rüstungsfirma mit Sitz in Zürich ihre neusten Waffensysteme vor.

In einem PR-Video über die Show spricht Vizepräsident Fabian Ochsner von einer «heissen Woche» für bodengestützte Luftabwehr. Dabei posiert er entspannt vor der diesjährigen Hauptattraktion: der Oerlikon Revolver Gun Mk3. Dank verschiedener autonomer Systeme soll dieser Geschützturm unter anderem Drohnen vom Himmel schiessen können. Integrierte Sensoren und ein Feuerleitcomputer erlauben gemäss einer Medienmitteilung «ein rasches, autonomes Angreifen von extern zugewiesenen Zielen». Ist das der erste Schritt zum Schweizer Killerroboter?

Wer trägt die Verantwortung?

Die Rheinmetall Air Defence – eine Tochter der deutschen Rheinmetall AG – ist nicht die einzige Schweizer Rüstungsfirma, die an der Entwicklung autonomer Waffensysteme tüftelt. Auch die Ruag verspricht in einer Broschüre, jedes ihrer Fahrzeuge semiautonom machen zu können. Damit beteiligt sich die Schweizer Industrie am globalen Wettrüsten mit autonomen Waffen. Die Entwicklung eines vollkommen autonomen Killerroboters ist zwar noch nicht in Sichtweite, doch mit Boeing und Raytheon in den USA, BAE Systems in Grossbritannien, Thales in Frankreich, Hanwha in Korea oder Rafael in Israel sind Giganten der Rüstungsindustrie am Start.

Dabei stellen sich schwerwiegende ethische und völkerrechtliche Probleme. Wer trägt die Verantwortung für die Entscheidungen eines autonomen Waffensystems? Bleibt in solchen Systemen überhaupt noch Platz für menschliche Kontrolle?

«Es ist völlig unklar, inwiefern Menschen für die Entscheidungen von autonomen Waffensystemen verantwortlich gemacht werden können», schreibt der Rechtswissenschaftler Christof Heyns in einem Bericht des Internationalen Komitees vom Roten Kreuz (IKRK). Denn Maschinen entscheiden aufgrund undurchsichtiger Algorithmen, welche Ziele wie und wann angegriffen werden (siehe WOZ Nr. 42/2018) – und könnten in Zukunft auch selbst auf den Abzug drücken. Für Heyns setzt Verantwortung das Wissen über die vorliegenden Fakten voraus. Das sei bei autonomen Waffensystemen nicht der Fall, denn es sei oftmals gar nicht nachvollziehbar, wie ein Algorithmus zu einer spezifischen Entscheidung gelange.

Internationale Regulierungen könnten hier Abhilfe schaffen. Seit 2014 finden deshalb bei der Uno in Genf jährlich Gespräche im Rahmen der Konvention über konventionelle Waffen (CCW) statt. Auch dieses Jahr haben sich im April und August wieder Diplomatinnen, Experten und Vertreterinnen der Zivilgesellschaft getroffen, um über den Umgang mit autonomen Waffen zu diskutieren (vgl. «Noch zu stoppen?» im Anschluss an diesen Text). Dabei herrscht Einigkeit, dass auch der Einsatz von autonomen Waffen der Zukunft dem Völkerrecht unterstehen muss. Das bedeutet zum Beispiel, dass solche Systeme KämpferInnen und unbeteiligte Personen auseinanderhalten können müssen.

«Es gibt grosse Zweifel, ob autonome Waffensysteme zuverlässig zwischen legitimen Zielen und Menschen, die vor militärischer Gewalt geschützt werden müssen, unterscheiden können», erklärt Maya Brehm. Sie ist Beraterin der Abrüstungsorganisation Article 36, die sich ebenfalls an der Debatte in Genf beteiligte. Autonome Waffen würden in den heutigen komplexen Konfliktsituationen ZivilistInnen in Gefahr bringen. «Eine Maschine rechnet. Sie fällt keine moralischen oder rechtlichen Urteile.» BefürworterInnen halten dagegen, dass das rationale Kalkül des Algorithmus zu weniger Kollateralschäden führen könnte.

GSoA-Sekretär Michael Christen glaubt, «dass autonome Waffen die Hemmschwelle senken, militärische Gewalt einzusetzen, weil die eigenen Soldaten weniger Risiken ausgesetzt sind. Dieses Phänomen beobachtet man bereits heute bei Drohnen.» Auch Brehm hat grosse Bedenken: «Führen solche Systeme womöglich dazu, dass Angriffe höher gewichtet und damit Eskalationen gefördert werden?»

Unvereinbar mit der Menschenwürde

Der Ruf nach einem vollständigen Verbot autonomer Waffen ist dementsprechend laut. Die Technologie sei schlichtweg zu gefährlich und weder mit dem Völkerrecht noch mit ethischen Prinzipien vereinbar. An vorderster Front kämpft die Campaign to Stop Killer Robots für ein wirksames Moratorium. In der Kampagne vereinen sich nebst Article 36 auch Amnesty International, Human Rights Watch sowie zahlreiche andere NGOs. Einige Staaten und Tausende WissenschaftlerInnen aus dem Bereich künstliche Intelligenz sind ebenfalls Teil der Aktion.

Rückenwind erhielt der Widerstand letzte Woche von Uno-Generalsekretär António Guterres. Im Rahmen der Eröffnung des Pariser Friedensforums forderte er ein Verbot autonomer Waffen: «Führen Sie sich die Auswirkungen eines autonomen Systems mit der Fähigkeit, selbstständig Menschen anzugreifen, vor Augen. Ich fordere alle Staatsoberhäupter auf, diese moralisch verwerflichen Waffen zu verbieten.»

«Wir müssen uns fragen: Wollen wir wirklich in einer Welt leben, in der wir allein aufgrund eines algorithmischen Prozesses zum Ziel eines Angriffs werden können?», fragt Brehm. Auch das Argument der Effizienz und Zielsicherheit lässt sie nicht gelten. «Was bedeutet es für die Würde der Menschen, wenn wir schnelleres und effizienteres Töten höher gewichten als menschliches moralisches Urteilen und Abwägen, bevor eine fatale Entscheidung gefällt wird?»

Die Unvereinbarkeit autonomer Waffen mit der menschlichen Würde ist ein Schlüsselargument der GegnerInnen. So schreibt das IKRK im April 2018 in einem Bericht zur Debatte in der Uno: «Die fundamentale ethische Frage ist, ob die Prinzipien der Menschlichkeit es erlauben, Entscheidungen über Leben und Tod an Maschinen zu delegieren.» Es sei durchaus relevant, wie ein Mensch getötet oder verletzt werde. Und dazu gehöre auch der Entscheidungsprozess.

Aus diesen Gründen spricht sich auch die GSoA für ein Verbot aus. Zwar ist sie bisher noch nicht Teil der Kampagne gegen Killerroboter. «Doch wir stehen sicherlich ideologisch dahinter», erklärt Christen. Wichtig sei vor allem auch, dass die Bevölkerung transparent über das Thema informiert werde. «Es braucht eine Sensibilisierungskampagne, dann dürfte es automatisch mehr Widerstand geben.»

Fehlende Transparenz

Rüstungsfirmen halten sich in der Regel mit Informationen über die Entwicklung und Funktionsweise autonomer Waffen bedeckt. So bleibt auch der genaue Autonomiegrad der Oerlikon Revolver Gun Mk3 unklar. Welche Entscheidungen können vom System selbstständig gefällt werden? Gibt es einen Mechanismus, der autonomes Abfeuern ermöglicht? Wie wird menschliche Kontrolle sichergestellt? Eine Anfrage der WOZ über die genaue Funktionsweise des Geschützturms blieb unbeantwortet.

Ganz ähnlich liegt der Fall beim geplanten Luftverteidigungspaket Air 2030 der Schweizer Armee, in dessen Rahmen neue Kampfflugzeuge und bodengestützte Luftabwehrsysteme beschafft werden sollen. In einer Interpellation im Juni wollte SP-Nationalrätin Chantal Galladé wissen, ob diese über autonome Waffensysteme verfügten. Der Bundesrat antwortete ausweichend, dass die Frage zum aktuellen Zeitpunkt nicht beantwortet werden könne. Erst müssten die zu beschaffenden Waffen geprüft werden. Es müsse jedoch «die Möglichkeit vorhanden sein, allfällig vorhandene autonome Feuermodi abzuschalten und das Feuer manuell auszulösen, um eine genügende menschliche Kontrolle sicherzustellen».

Ohnehin hält sich die offizielle Schweiz in ihrer Position bedeckt. An den Uno-Gesprächen trat sie nicht für ein Verbot autonomer Waffen ein. Und im Abrüstungsbericht von 2017 schreibt der Bundesrat, man stehe einem präventiven Verbot zum gegenwärtigen Zeitpunkt zurückhaltend gegenüber. «Aus Schweizer Sicht ist zunehmende Autonomie in Waffensystemen an sich weder zu stigmatisieren, noch kann sie abgewendet werden.» Auch auf eine Motion von Galladé, die ein völkerrechtliches Verbot autonomer Waffen forderte, antwortete der Bundesrat, dass es nicht auszuschliessen sei, «dass eine gewisse Autonomie je nach Umständen und Einsatzkontext dazu beitragen könnte, dass die Zivilbevölkerung, Zivilpersonen und zivile Objekte verschont bleiben».

Für Christen nimmt der Bundesrat eine fragwürdige Rolle ein. «Die Schweizer Regierung sollte sich proaktiv für eine Ächtung von autonomen Waffensystemen einsetzen.» Angesichts der Machtverhältnisse und der wirtschaftlichen Interessen der globalen Rüstungsindustrie liegt dieses Ziel jedoch in weiter Ferne. «Verschiedene Staaten haben die Autonomie ihrer Waffensysteme bereits erhöht», erklärt Brehm. «Diese Staaten glauben, dadurch ihre Sicherheit zu erhöhen. Deshalb möchten sie auch keine Einschränkung der Forschung und Entwicklung.»

So war es auch schwierig, zum Abschluss der ExpertInnensitzung vom August eine Einigung zu erzielen. Am Ende verständigte man sich auf eine Reihe von Leitprinzipien, die den Einsatz von autonomen Waffen regeln könnten. «Manche dieser Prinzipien sind nicht kontrovers und ändern wenig am Status quo», meint Brehm. «Andere haben durchaus das Potenzial, die Debatte zu vereinfachen und eine gemeinsame Basis zu liefern.» Dazu gehöre auch die Forderung, dass die menschliche Verantwortung für die Entscheidungen über den Einsatz von Waffensystemen erhalten bleiben muss.

Dieser Artikel wurde in der WOZ 18/47 veröffentlicht. Das Bild stammt von Rock’n Roll Monkey.