Wer drückt bei den neuen ferngelenkten Waffensystemen eigentlich ab? Mensch oder Maschine? Um die Verluste in den eigenen Reihen zu reduzieren, hat sich die Waffenindustrie überlegt, in Zukunft ohne Soldaten in den Krieg zu ziehen. Stattdessen sollen Maschinen die Schlachten schlagen. Drohnen und Roboter sollen also vermehrt in der Zukunft in Kriegen eingesetzt werden. Doch Ethik lässt sich nicht programmieren.
Im neuen "RoboCop"-Film, der gerade in den Kinos läuft, patroullieren Kriegsroboter durch Teheran. Soldatenmaschinen suchen nach Widerstandskämpfern. Autonome Drohnen erledigen den Rest. Aber die Maschinen sind noch nicht perfekt. "Wir müssen unseren Bürgern ein Produkt geben, das sie lieben. Etwas mit Vorbildfunktion", fordert der RoboCop-Produzent im Film. "Vergessen Sie Maschinen. Die wollen etwas mit einem Gewissen. Etwas, das weiß, wie es sich anfühlt menschlich zu sein. Wir vereinen Mensch und Maschine."
Kontrolle? Nur scheinbar
"RoboCop" hat ein menschliches Gehirn. Aber es wird programmiert wie ein Computer. "RoboCop" glaubt zwar, er entscheidet selbst, wann er abdrückt. Aber in Wirklichkeit ist es die Software. Tatsächlich erleben wir gerade einen Quantensprung in der Kriegstechnik, der fundamentale ethische Konsequenzen für unser Menschenbild hat. Weitgehend autonome Drohnen kreisen rund um die Uhr über Ländern wie Pakistan, Somalia oder Jemen, auf der Suche nach islamistischen Kämpfern. Den tödlichen Abschuss führen Soldaten am Joystick aus. 10.000 Kilometer entfernt irgendwo in Arizona. Noch gibt es den sogenannten "Man in the Loop", der den Knopf drückt. Aber heute schon entscheidet er weitgehend aufgrund der Daten, die ihm die Drohne liefert. Der Mensch hat zwar das Gefühl, er hat die Kontrolle. Aber tatsächlich gibt die Maschine die Entscheidung vor.
Constanze Kurz, Hochschule für Technik und Wirtschaft Berlin
Die amerikanische Kriegsstrategie der Zukunft setzt nicht mehr auf Bodentruppen wie in Afghanistan. Denn je mehr Särge mit toten amerikanischen Soldaten nach Hause kamen, desto mehr Kritik gab es an dem Einsatz. In Zukunft sollen vor allem Drohnen und autonome Kriegsroboter eingesetzt werden, um die Opferzahlen in einem asymmetrischen Krieg gegen Islamisten und Guerillas zu reduzieren. Allerdings nur auf Seiten der US-Truppen.
Drohnen-Einsätze mit schweren Folgen
Denn die Opfer dieser neuen Kriegswaffen nehmen wir kaum wahr. Bei diesen angeblich gezielten, klinisch präzisen Drohnenangriffen sind die Kollateralschäden höher, sterben vermutlich mehr Zivilisten als durch herkömmliche Waffen. Wie im al-Majalah in Jemen vor drei Jahren, als eine US-Drohne ein angebliches al-Qaida-Trainingscamp traf. 21 Kinder und 14 Frauen wurden dabei getötet. Wie steht es also mit unserer ethischen Verantwortung für Freiheit und Menschenrechte?
Der Krieg wird delegiert
Trotzdem wird massiv an der Entwicklung von Kampfrobotern gearbeitet. Die neuen Robocops sehen manchmal noch etwas unbeholfen aus. Aber in wenigen Jahren werden sie die menschlichen Soldaten in vielen Konflikten ablösen. Wir delegieren den Krieg immer mehr an Maschinen. Und damit auch die Entscheidung über Leben und Tod. Das wird gravierende Folgen haben für unser Bild vom Menschen als einem Wesen, das freie Entscheidungen trifft und Verantwortung für sein Tun übernimmt.
Wer drückt bei den neuen ferngelenkten Waffensystemen eigentlich ab? Mensch oder Maschine? Drohnen und Roboter sollen vermehrt in der Zukunft in Kriegen eingesetzt werden. Doch Ethik lässt sich nicht programmieren. Autor: Joachim Gaertner, Bayerisches Fernsehen
Besser als die Flugzeugträger aus den USA: 2-fache Geschwindigkeit, 2-fache Kapazität, 2x stabiler, größere Reichweite & Atom-Uboote zwischen den Schwimmkörpern.