Berlin. Weltweit werden autonome Waffen entwickelt. Sollten sie verboten werden? Die Bundesregierung hat dazu bislang keine klare Meinung.
Er ist der ideale Wachposten. Schläft nicht, kränkelt nicht, braucht weder Rast noch Lob, kennt keine Angst, Übermut, Konkurrenzdruck. Der Samsung SGR-A1 war der erste Kampfroboter der Geschichte.
Er betrachtet die Welt über eine Kamera, nachts über eine Infrarotkamera, und verfügt über ein Maschinengewehr. SGR-A1 ist keine Science-Fiction. Die südkoreanische Armee erprobte ihn vor mehr als zehn Jahren zur Bewachung ihrer Militärbasen im Irak.
Abrüstungskonferenz im Auswärtigen Amt
Die rasante Entwicklung der künstlichen Intelligenz (KI) führt dazu, dass Waffen autonomer werden und der Mensch das Töten an Maschinen delegieren könnte. „Eine gruselige Entwicklung“, warnt Noel Sharkey, Professor für KI an der englischen Universität Sheffield. Er redet an diesem Abend in Berlin vor einem dankbaren Publikum in der Heinrich-Böll-Stiftung.
Weltweit formiert sich Widerstand, da es für Killerroboter bisher „fast keine internationalen Regeln“ gibt, wie Außenminister Heiko Maas (SPD) sagt.
Auch interessant
im Auswärtigen Amt ein. Berlin avanciert zum Zentrum des Protests.
Doppeltes Spiel der Bundesregierung?
Am 21. März folgt hier ein weltweites Strategietreffen der Nicht-Regierungsorganisationen, die ein Verbot fordern. Ende desselben Monats steht bei der UN in Genf die nächste Verhandlungsrunde von fast 80 Staaten an, die um Regeln für tödliche autonome Waffen ringen.
Niemand erwartet eine Einigung – die Gespräche stocken seit fünf Jahren. In weiser Voraussicht ist die nächste Runde für August terminiert.
Auch interessant
. Sie verurteilt zwar tödliche autonome Waffen, aber bleibt unverbindlich.
Die Maschine soll nicht über Tod und Leben befinden
An einem pauschalen Verbot hat die Bundeswehr kein Interesse. Sie forciert die Entwicklung nicht, verfolgt sie aber genau. Für die strategische Fähigkeitsplanung ist Brigadegeneral Gerald Funke zuständig, Unterabteilungsleiter im Verteidigungsministerium, ein freundlicher und eloquenter Mann, den wir im Bendlerblock treffen.
„Wir wollen diese tödlichen autonomen Waffensysteme nicht“, beteuert er. Die Bundeswehr wolle keine Systeme, die ein Ziel selbstständig erkennen, analysieren und bekämpfen, ohne dass ein Mensch sie autorisiert. Funke: „Das ist die rote Linie.“
Maschinen sind Menschen in vielem voraus
Man muss zwischen automatisierten und autonomen Waffen unterscheiden. Automatisierten Systemen können Militärs vieles abgewinnen. Maschinen können mehr Daten erfassen und sie schneller analysieren als ein Mensch. Sie geben dem Soldaten Handlungssicherheit, verhelfen ihm im Nebel des Gefechts zu einem klareren Lagebild.
Der schlimmste Kollateralschaden, den die Bundeswehr in Afghanistan zu verantworten hat, ein Bombardement in Kundus mit mehr als 100 zivilen Opfern, wäre vielleicht vermeidbar gewesen, wenn der Oberbefehlshaber ein besseres Lagebild gehabt hätte. Viele Abwehrsysteme gegen Raketen, Marschflugkörper, Artilleriegranaten agieren automatisch; was bei extrem kurzen Reaktionszeiten hilfreich ist.
Maschinen haben keine Moralvorstellung
Den nächsten Schritt gehen die Israelis mit der Drohne Harpy. Sie fliegt autonom, erkennt feindliche Radarinstallationen, zerstört sie. Da ist kein Operator, der die Entscheidung trifft. Wenn Menschen nicht getötet werden und bloß Sachschaden entsteht, haben Militärs oft keine ethischen Bedenken.
Auch interessant
, ebenso wenig Instinkte oder ein „Bauchgefühl“. Sie können nicht beurteilen, was verhältnismäßig ist, keinen Soldaten von einem Zivilisten unterscheiden – eine der wichtigsten Regeln im Völkerrecht – oder erfassen, ob ein Ziel erkrankt, verwundert, geistig verwirrt ist oder sich ergeben will, ob es Kombattant oder Kriegsgefangener ist.
Weltweite Forschung an autonomen Waffen
Wen sollte man für Fehler zur Rechenschaft ziehen? Den Kommandanten, das Beschaffungsamt, den Hersteller, den Programmierer? „Das Völkerrecht hat hierauf bislang kaum Antworten parat“, heißt es in einem Positionspapier der SPD-Fraktion. KI-Forscher Sharkey empfiehlt sarkastisch: „Den Politiker.“
An autonomen Waffen wird weltweit geforscht. Unternehmen wie Rheinmetall oder die deutsch-französische Firma KNDS entwickeln unbemannte bewaffnete Roboterfahrzeuge, wie Thomas Küchenmeister, Vorstand der Nicht-Regierungsorganisation „Facing Finance“ und deutscher Sektionschef der Initiative „Stopp Killer Robots“, auf vielen Waffenmessen beobachten konnte. Die breite Öffentlichkeit nimmt die Entwicklung kaum wahr.
Extremere Manöver möglich ohne Pilot
„Der Aha-Effekt“, sagt der Grünen-Abgeordnete Tobias Lindner voraus, käme, wenn erstmals unbemannte Kampfflugzeuge eingeführt werden. In solchen Flugzeugen sei der Pilot der „limitierende Faktor“. Unbemannte Jets könnten extremere Manöver fliegen, ohne Rücksicht auf Fliehkräfte, die jeden Menschen im Cockpit umbringen würden.
Der Grünen-Wehrpolitiker saß mal in einem Simulator einer F-35. Im Kampfjet von Lockheed Martin erkennt der Computer ein Radar, ein Algorithmus errechnet in Prozentzahlen die Wahrscheinlichkeit, ob es sich um Feind oder Freund handelt.
Der Mensch sieht nichts, hat aber eine Entscheidungshilfe. Im nächsten Schritt trifft die Maschine die Entscheidung. Die Entwicklung von automatisierten zu autonomen Systemen ist fließend.
Irgendwann wird der Mensch überflüssig
Die Männer, die Killerdrohnen steuern, sitzen in Containern oft Tausende Kilometer vom Schlachtfeld entfernt. Der Fernsehjournalist Jay Tuck hat sie für sein Buch „Evolution ohne uns“ an ihrem Arbeitsplatz in den Sandwüsten unweit von Las Vegas besucht. „An einem typischen Arbeitstag“, schreibt er, „frühstücken die Piloten im Pancake House am Highway 95, töten tagsüber Taliban vom Container aus und helfen ihren Kindern abends bei den Schularbeiten“.
In der nächsten Stufe greift der Operator, der „man on the loop“, als Bediener nur noch ins Geschehen ein, wenn das System eine falsche Entscheidung trifft. Dann ist er weniger Pilot, mehr Aufseher oder Babysitter. Irgendwann wird er überflüssig.
Wie werden autonome Waffen den Krieg verändern?
„Wir fangen gerade an, die militärischen Potenziale von KI zu erschließen“, erzählt General Funke. Wird es einfacher sein, Krieg zu führen, billiger auch? Wird man weniger Soldaten aufstellen und sie geringeren Gefahren aussetzen müssen? Wie wird sich das Kampfgeschehen im KI-Zeitalter ändern? Wann ist es so weit, wann trifft KI die „Kill-Entscheidung“?
Tuck stellt an den Anfang seines Buches ein Zitat des Astrophysikers Stephen Hawking: „KI kann die großartigeste Errungenschaft der Menschheit werden. Bedauerlicherweise kann sie auch die letzte sein.“ Was passiert, wenn auf beiden Seiten Maschinen das Geschehen bestimmen? Kommt es zu ungewollten Eskalationen? Auf den Finanzmärkten kam es längst zu unvorhersehbaren Interaktionen zwischen Algorithmen.
USA und Russland lehnen Regulierung strikt ab
Dessen ungeachtet investieren die USA, Russland, China oder Großbritannien in die militärische Nutzung von KI. Gerade Amerikaner und Russen lehnen jede Regulierung strikt ab. China will den Einsatz solcher Waffen verbieten, nicht aber Entwicklung und Produktion. 28 Staaten sprachen sich für eine Ächtung aus. Die große Koalition ist auch dafür.
Aber: Die Bundesregierung verfolgt mit Frankreich einen Mittelweg. Sie schlägt eine politische Erklärung vor, der ein militärischer Verhaltenskodex und im letzten Schritt ein Verbot folgen sollen. Heiko Maas’ Partei, die SPD, wünscht sich eine „nationale Doktrin“. Aktivist Küchenmeister ist das zu „unverbindlich“. Auch sei ein Verbot nur in ferner Zukunft „absolut unzureichend“.
Auffällig ist das Nord-Süd-Gefälle. Hier die Staaten, die bei KI führen, dort die Länder, die technisch zurückfallen. Pakistan, oft Operationsfeld für US-Drohnen, gehört zu den 28 Staaten, die ein Verbot fordern. Die Pakistaner waren Erstunterzeichner.