Aus: Ausgabe vom 22.11.2017, Seite 3 / Schwerpunkt

Wer stoppt die Killerroboter?

Die Vereinten Nationen können sich nicht auf ein Verbot von autonomen Waffensystemen einigen

Von Thomas Wagner
Testing_for_the_future.jpg
Tödlich: Ein Militärroboter der US-Marines, der im Juli 2016 auf der Basis Pendleton, Kalifornien, vorgeführt wird

Nach wie vor gibt es kein Verbot von intelligenten Mordmaschinen. Entsprechende Beratungen der Vereinten Nationen in der vergangenen Woche blieben vorerst ergebnislos. Von Montag bis Freitag hatten in Genf Regierungsvertreter aus 100 Staaten über die Ächtung autonomer Waffensysteme debattiert. Am Ende einigten sie sich nur darauf, im nächsten Jahr weiter verhandeln zu wollen.

Gemeint sind Waffen, die ihre Ziele selbsttätig wählen und so, ohne dass ein Mensch in den Prozess eingreift, über Leben und Tod entscheiden. Auf diesem Feld droht eine neue Rüstungsspirale. Der bundesdeutsche Vertreter bei der 1979 ins Leben gerufenen Abrüstungskonferenz in Genf, Michael Biontino, sagte dpa: »Die Linie der Bundesrepublik ist klar: Für uns kann die Entscheidung über Leben und Tod nicht einer Maschine übertragen werden«. Doch eine unverbindliche politische Erklärung könne ein völkerrechtlich verbindliches Verbot nicht ersetzen, meinte hingegen Thomas Küchenmeister von der Berliner NGO Facing Finance. Dieser gemeinnützige Verein möchte die »Finanzmärkte ins Visier« nehmen und hat beispielsweise 2016 die Broschüre »Die Waffen meiner Bank« mit herausgegegeben. Die Gruppe hat sich der internationalen Kampagne zur Ächtung von Killerrobotern angeschlossen.

Deren Anschaffung ist für viele Regierungen aber attraktiv, da sie vergleichsweise kostengünstig sind und sie sich so weniger Tote und Verletzte unter den eigenen Soldaten im Gefecht versprechen. Die Vermeidung eigener Verluste gehört in westlichen Staaten zur Militärdoktrin. So glaubt man, Kampfeinsätze vor einer überwiegend kriegsskeptischen Bevölkerung rechtfertigen zu können. Die Verwendung von Killerrobotern, ist zu befürchten, senkt die Hemmschwelle zum staatlichen Mord noch weiter.

Die Zeit drängt, denn mit solchen Waffen wird schon Krieg geführt. So setzte die Armee von Aserbaidschan im Grenzkonflikt mit Armenien in Nagorny Karabach eine Drohne ein, die von einer israelischen Rüstungsfirma entwickelt wurde, um feindliche Luftabwehrsysteme auszuschalten. Sie wird als ideale Waffe für Armeen, die sich keine schlagkräftigen Luftstreitkräfte leisten könnten, beworben. »Sie sieht aus wie ein Düsenflugzeug in Miniaturformat und kann, einmal gestartet, stundenlang über dem Gefechtsfeld kreisen«, beschrieb die FAZ (16.11.2017) diese sogenannte Kamikazedrohne. Sie fange Radiowellen ab und suche ihr Ziel selbsttätig. »Hat sie ein lohnenswertes gefunden, stürzt sich die Drohne darauf. Findet sie keines, kehrt sie von selbst zur Basis zurück. All das geschieht mit Hilfe von Algorithmen, die denen selbstfahrender Autos gleichen«, so die FAZ.

Sind diese Waffen erst einmal erprobt, stehen sie nicht nur Großmächten zur Verfügung, sondern könnten auch von kleinen Staaten oder Terroristen verwendet werden. Der Politikwissenschaftler Frank Sauer von der Universität der Bundeswehr in München sieht in ihnen daher eine ernstzunehmende Gefahr. Katharina Zweig, eine Informatikerin von der TU Kaiserslautern, sagte im Gespräch mit dem Deutschlandfunk (18.11.2017), man sollte diese Systeme nicht sich selbst überlassen, bevor sie nicht hundertprozentig perfekt sind: »Die Technik selbst kann man an der Stelle nicht ethisch machen.« Ethisches Handeln, ließe sich an dieser Stelle ergänzen, setzt ein Subjekt voraus, das in der Lage ist, seine Entscheidungen nach der Maßgabe ethischer Kriterien abzuwägen. Dazu braucht es ein Ichbewusstsein und emotionale Lernerfahrungen. Die Entwicklung einer Maschine, die nicht nur rechnen, sondern darüber hinaus über ihr eigenes In-der-Welt-sein reflektieren und Empathie empfinden könnte, ist aber nach wie vor nicht in Sicht.

Für ein Verbot von Killerrobotern macht sich seit Jahren ein sehr heterogenes Bündnis aus Friedensaktivisten, Staaten und Experten für künstliche Intelligenz (KI) stark, das von Milliardären aus dem Silicon Valley unterstützt wird. Im Sommer 2017 hatten Intellektuelle wie der Physiker Stephen Hawking, der Linguist und US-Regierungskritiker Noam Chomsky und der Philosoph Daniel C. Dennett gemeinsam mit mehr als 1.000 Forschern einen offenen Brief unterschrieben, der vor der Entwicklung von Waffensystemen, die autonome Entscheidungen fällen können, warnte. Mit dabei waren eine Reihe von Silicon-Valley-Größen wie der Apple-Mitgründer Stephan Wozniak sowie der Chef des von Google aufgekauften KI-Unternehmens Deepmind, Demis Hassabis. Initiiert worden war das Ganze vom Tesla-Gründer und Raumfahrtunternehmer Elon Musk. Die Unterzeichner zusammengetrommelt hatte das private Fu­ture of Life Institute, das 2015 schon einmal einen offenen Brief, der vor den Risiken der künstlichen Intelligenz warnte, auf den Weg gebracht hatte. Eine solche Zusammenarbeit von Friedensbewegung und Milliardären für einen guten Zweck scheint auf den ersten Blick erfreulich, ist aber hochproblematisch. Denn Leute wie Musk unterstützen eine private Risikoforschung, die transhumanistischen Ideen verhaftet ist, das heißt sie glauben an die technologische Entwicklung übermenschlicher Fähigkeiten (siehe die Spalte auf dieser Seite).

Der Vorsitzende der Genfer Verhandlungsrunde in der vergangenen Woche war der indische Botschafter Amandeep Gill. Er versuchte den Kritikern am Ende der Beratungen den Wind aus den Segeln zu nehmen: »Man sollte die Sache nicht dramatisieren. Roboter werden nicht die Welt übernehmen.« Tatsächlich besteht die eigentliche Gefahr in der Verselbständigung von Prozessen, in Kettenreaktionen mit tödlichem Ausgang, die durch menschliches Eingreifen nicht mehr gestoppt werden könnten.

Hintergrund

Transhumanistischer Einfluss

Die Hauptaufgabe des 2014 in Cambridge (USA) mit privaten Geldern gegründeten und von dem Physiker Max Tegmark geleiteten Future of Life Institute ist die Technikfolgenabschätzung. Im Mittelpunkt stehen Technologien, deren Entwicklung mit »existentiellen Risiken« für die Menschheit verbunden sind, sprich: ihr Überleben als Gattung bedrohen können. Geprägt wurde der Ausdruck von dem schwedischen Philosophen Nick Bostrom, der in seinem 2014 veröffentlichten Sachbuch »Superintelligenz. Szenarien einer kommenden Revolution« verschiedene Entwicklungen ausmalt, in denen Maschinenwesen die Macht an sich reißen und menschliches Leben bis zum Ende dieses Jahrhunderts komplett vernichten könnten.

Der Politikberater gehört dem wissenschaftlichen Beirat des Future of Life Institute an und ist Mitgründer der Vereinigung »Humanity +«. So nennt sich der internationale Dachverband der Transhumanisten. Viele Anhänger dieser Richtung hoffen, mit Hilfe der technologischen Entwicklung übermenschliche Fähigkeiten entwickeln und unsterblich werden zu können. Bostrom leitet außerdem das Future of Humanity Institute (FHI) an der Universität Oxford und jettet als gefragter Politikberater in Technologiefragen seit Jahren um die Welt.

Eine weitere Partnerorganisation des von Tegmark geleiteten Thinktanks ist das dem Gedanken der »technologischen Singularität« verpflichtete Machine Intelligence Research Institute (MIRI). Der von dem Erfinder, Bestsellerautor und Google-Technikdirektor Raymond »Ray« Kurzweil popularisierte Ausdruck bezeichnet jenen Moment in der Zukunft, in der die Menschheit den von ihr geschaffenen superintelligenten Maschinen freiwillig oder unfreiwillig das Heft des Handelns überlässt.

Die genannten Institute gehen der Frage nach, wie diesen Robotern, die in naher oder ferner Zukunft das Erbe der Menschheit antreten sollen, humane Werte vermittelt werden können. Wir müssen, sagte Tegmark während der Genfer Abrüstungskonferenz in Genf der dpa, »der KI beibringen, diese Ziel zu adaptieren und auch dann beizubehalten, wenn sie selbst immer schlauer wird«. Aus seiner Sicht ist Intelligenz nur eine bestimmte Art der Informationsverarbeitung. Er erwartet schon für die nächsten Jahrzehnte die Entwicklung einer KI, die übermenschliche Qualitäten annimmt. »Wir müssen das Rennen gewinnen zwischen der wachsenden Macht der künstlichen Intelligenz und unserem wachsenden Wissen, KI zu managen. Und wir sollten dabei nicht versuchen, erst aus Fehlern zu lernen – das könnte fatal werden.« (thw)


Debatte

Bewerte diesen Artikel:

  • Beitrag von Horst Horstmannskötter aus (22. November 2017 um 12:23 Uhr)

    Solche Texte zu lesen macht mir Angst!

    • Beitrag von Horst Horstmannskötter aus (22. November 2017 um 12:27 Uhr)

      Ist zu erwarten, dass die UN Sanktionen gegen die Staaten ausspricht, die Killerroboter einsetzen?

      • Beitrag von Lieschen Müller aus Berlin (22. November 2017 um 12:28 Uhr)

        Nein. Nur gegen die, die KEINE einsetzen!

  • Beitrag von Bert Beispiel aus (22. November 2017 um 14:11 Uhr)

    Killerroboter können nur durch andere Killerroboter gestoppt werden.

    • Beitrag von Lieschen Müller aus Berlin (22. November 2017 um 14:17 Uhr)

      Und wer stoppt dann die Killerroboter, die die ersten Killerroboter gestoppt haben?

      • Beitrag von Horst Horstmannskötter aus (22. November 2017 um 14:20 Uhr)

        Drohnen ;-P

        • Beitrag von Lieschen Müller aus Berlin (22. November 2017 um 14:24 Uhr)

          Wohl KILLERdrohnen, was?!