01.09.2018 / Inland / Seite 1 (Beilage)

Unsicherheitsfaktor Mensch

Die Mehrheit lehnt Atomwaffen und Rüstungsexporte in Krisengebiete ab. »Künstliche Intelligenz« soll in Kriegen der Zukunft Verstand ersetzen

Claudia Wangerin

Wären friedenspolitische Themen die entscheidenden Wahlprüfsteine, hätten die Regierungsparteien CDU, CSU und SPD schlechte Chancen. Im Umfragen sprechen sich deutliche Mehrheiten gegen Rüstungsexporte aus. Vor allem die lange Tradition der Waffenhilfe für das NATO-Partnerland Türkei, das Anfang des Jahres mit dschihadistischen Hilfstruppen in Nordsyrien einmarschierte, stößt auf Unverständnis – laut einer Umfrage des Meinungsforschungsinstituts Yougov im Mai bei 83 Prozent.

Für den Beitritt Deutschlands zum ­Atomwaffenverbotsvertrag der Vereinten Nationen sprachen sich kurz vor der letzten Bundestagswahl im September 2017 mehr als zwei Drittel der Befragten aus. Die Entscheidungsträger ignorierten das bisher ebenso so souverän wie die Verleihung des Friedensnobelpreises an die Kampagne ICAN, die für den Verbotsvertrag geworben und die Umfrage in Auftrag gegeben hatte.

Auch die Auslandseinsätze der Bundeswehr finden in der breiten Masse keine Unterstützung – auch wenn sich der Widerstand in Grenzen hält und im Zweifel doch wieder die genannten Parteien gewählt werden. Friedensbewegte sind dennoch optimistisch: So rechnen zum Beispiel die Organisatoren der Kampagne »Rheinmetall entwaffnen« am 2. September mit der bisher größten Demonstration vor dem Werkstor des Konzerns. Im Rahmen eines Friedenscamps soll es dort Aktionen des zivilen Ungehorsams geben.

Im Juli waren bereits christliche Friedensaktivistinnen auf das Gelände des Fliegerhorstes Büchel vorgedrungen – aus Verzweiflung, weil sie stören wollten, nachdem sie schon viele Protestformen ohne Wirkung ausprobiert hatten.

Keine Frage: Der Mensch ist ein Unsicherheitsfaktor. Kriege können aber bislang nicht durch Roboter gewonnen werden – ob sie so aussehen würden wie Arnold Schwarzenegger in der Hollywood-Reihe »Terminator«, ist zweifelhaft, aber »autonome Waffensysteme«, die Ziele identifizieren und »Entscheidungen« treffen, sind längst keine realitätsferne Science-Fiction mehr. Über deren Einsatzmöglichkeiten, die Gefahren und ein völkerrechtliches Verbot wird bereits diskutiert. Letzteres will die Bundesregierung allerdings nicht – sie setzt auf »freiwillige, unverbindliche Maßnahmen« und beteiligt sich in diesem Bereich schon am Wettrüsten. Im Dezember will sie einen »Masterplan künstliche Intelligenz« vorlegen, weil Deutschland angeblich der Entwicklung hinterherhinkt. Diese Behauptung jedenfalls hat sich im aktuellen Koalitionsvertrag niedergeschlagen und bedeutet für entsprechende Forschungseinrichtungen einen wahren Geldregen.

Die Bundeswehr ist aber zur Zeit noch nicht Hightech-Armee genug, um auf blutjunges Biokanonenfutter zu verzichten: Sie wirbt auf Computerspielmessen um Nachwuchs, vergleicht auf Plakaten Militäreinsätze mit Ballerspielen – und rekrutiert 17jährige, die dann dem Deutschlandfunk sagen: »Vor zwei Jahren hab’ ich noch mehr mit Playmobil gespielt, und das ist für meine Mutter auch sicherlich schwierig, dass der kleine Junge jetzt da auf einmal Soldat werden möchte.« Wie neulich für eine Reportage, die am 23. August gesendet wurde. Solche Rekruten hätten »zunächst einmal kindliche Vorstellungen«, räumte eine militärische Planerin gegenüber dem Sender ein. Sie würden aber »im Laufe der Zeit hier bei der Bundeswehr« reifen. Immerhin: In den Auslandseinsatz dürfen sie erst mit 18 Jahren geschickt werden. Auch bis dahin dürften aber die wenigsten wissen, was sie zum Beispiel in Afghanistan oder Mali erwartet und warum diese Länder überhaupt am Abgrund zum »Failed State« stehen.

https://www.jungewelt.de/beilage/art/338681