Essen. Namhafte Experten warnen vor der Entwicklung künstlicher Intelligenz zu militärischen Zwecken. Teilautonome Waffen-Systeme sind bereits im Einsatz.
Vor Kurzem startete die fünfte Auflage eines Hollywood-Klassikers in den Kinos. Arnold Schwarzenegger gibt darin eine Mensch-Maschine, die unermesslich stark ist, alle möglichen Waffen beherrscht und eigentlich nur für einen Zweck entwickelt wurde: alles Leben zu vernichten. Einen solchen Roboter gibt es – zum Glück – bislang noch nicht. Die Rüstungsindustrie ist aber nicht mehr weit davon entfernt, Waffensysteme zu entwickeln, die eigenständig über Leben und Tod entscheiden. Sagen zumindest zahlreiche namhafte Wissenschaftler und Unternehmensgründer. In einem offenen Brief warnen sie vor dieser Entwicklung und fordern ein generelles Verbot solcher Systeme. Doch was ist heute schon technisch möglich? Ein Überblick.
Auch interessant
Der berühmte Astrophysiker Stephen Hawking, Apple-Mitgründer Steve Wozniak, Sprachwissenschaftler Noam Chomsky und Silicon-Valley-Star Elon Musk, der unter anderem mit seiner Firma Tesla Elektroautos entwickelt, eint die Angst vor Systemen, die ohne menschliches Dazutun über Leben und Tod entscheiden. „Künstliche Intelligenz ist an einem Punkt angelangt, an dem der Einsatz solcher Systeme innerhalb weniger Jahre, nicht Jahrzehnte, möglich sein wird“, schrieben die Forscher in ihrem offenen Brief anlässlich der International Joint Conferences on Artificial Intelligence (IJCAI) in Buenos Aires, einem Treffen, auf dem sich Experten über künstliche Intelligenz austauschen.
Ihre Bedenken sind nicht unberechtigt. Schon jetzt wird in den Waffenlaboren der Rüstungsindustrie und an Universitäten, die von Militärs gesponsert werden, an Systemen getüftelt, die künftig eigenständig entscheiden, wann sie losschlagen und wann nicht.
- Beispiel Deutschland: Der Düsseldorfer Rüstungskonzern Rheinmetall entwickelt mit „Mantis“ ein Waffensystem, das nicht nur Flugzeuge und Helikopter beschießen kann, sondern auch Raketen, Artilleriegeschosse und Granaten abfangen soll. Mantis erfasst und beschießt Ziele vollautomatisch.
- Beispiel Israel: Die Armee des Landes erprobt bereits seit 2008 ein Roboterfahrzeug, das unter anderem Flughäfen und Militäreinrichtungen bewachen, aber auch an der Grenze zum Gazastreifen patrouillieren soll. „Guardium“, so der Name des Vehikels, soll künftig auch „autonom reagieren“ können und „verschiedene gewaltsame Methoden anwenden, um die Bedrohung zu eliminieren“.
- Beispiel Südkorea: Der „Security Guard Robot 1“, kurz SGR-1, ist ein vollautomatischer Geschützturm, der mit einem Maschinengewehr bestückt ist. Er kann Ziele erkennen und notfalls auch ausschalten. Am Ende, so heißt es, soll aber immer ein Mensch darüber entscheiden, ob der Roboter schießt oder nicht. SGR-1 kommt bereits an der Grenze zu Nordkorea zum Einsatz.
- Beispiel USA: Die MQ-1 Predator-Drohne ist schon lange keine Zukunftsmusik mehr, sondern Teil der US-Militärstrategie, vor allem in Afghanistan, Pakistan und im Nahen Osten. Das Roboter-Flugzeug ist mit Raketen bestückt und kann aus großer Höhe Ziele erfassen und ausschalten. Bedient werden die Drohnen zurzeit noch von Piloten, die in den Vereinigten Staaten sitzen und die Fluggeräte – einem Videospiel gleich – steuern. Denkbar ist aber ein System, wie es bereits in Israel getestet wird. Die Drohne vom Typ „UCAV Harop“ soll im Luftraum über einem Zielgebiet „herumhängen“ und sich dann auf Kommando auf ihr Ziel stürzen. Auch dieses System soll Bedrohungen selbstständig erkennen und angreifen können. Menschen sollen den Angriff nur noch überwachen und diesen bei Bedarf jederzeit abbrechen können, „um Kollateralschäden zu vermeiden“, wie der Hersteller IAI sagt.
Auch interessant
Die Kritik der Wissenschaftler an (teil-)autonomen Waffensystemen ist nicht neu. Bereits im Jahr 2012 warnte die Organisation Human Rights Watch in einem Bericht vor Waffensystemen, die eigenständig Entscheidungen treffen können. „Diese Waffensysteme besitzen einen hohen Grad von Autonomie, weil sie mit minimalem menschlichem Input Ziele erkennen und angreifen können“, hieß es dort. Seit April 2013 existiert eine Initiative, die sich für ein Verbot autonomer Waffensysteme einsetzt. Auf der Webseite des „Campaign to Stop Killer Robots“ heißt es: „In den letzten zehn Jahren hat die Nutzung von unbemannten Waffensystemen die Kriegsführung dramatisch verändert. Das stellt uns vor neue humanitäre und rechtliche Herausforderungen.“