Wer drückt bei den neuen ferngelenkten Waffensystemen eigentlich ab? Mensch oder Maschine? Um die Verluste in den eigenen Reihen zu reduzieren, hat sich die Waffenindustrie überlegt, in Zukunft ohne Soldaten in den Krieg zu ziehen. Stattdessen sollen Maschinen die Schlachten schlagen. Drohnen und Roboter sollen also vermehrt in der Zukunft in Kriegen eingesetzt werden. Doch Ethik lässt sich nicht programmieren.

Im neuen "RoboCop"-Film, der gerade in den Kinos läuft, patroullieren Kriegsroboter durch Teheran. Soldatenmaschinen suchen nach Widerstandskämpfern. Autonome Drohnen erledigen den Rest. Aber die Maschinen sind noch nicht perfekt. "Wir müssen unseren Bürgern ein Produkt geben, das sie lieben. Etwas mit Vorbildfunktion", fordert der RoboCop-Produzent im Film. "Vergessen Sie Maschinen. Die wollen etwas mit einem Gewissen. Etwas, das weiß, wie es sich anfühlt menschlich zu sein. Wir vereinen Mensch und Maschine."

Kontrolle? Nur scheinbar

Robocop richtet seine Waffe auf einen Gegner | Bild: Studiocanal

Die Software drückt ab: Szene aus "RoboCop"

"RoboCop" hat ein menschliches Gehirn. Aber es wird programmiert wie ein Computer. "RoboCop" glaubt zwar, er entscheidet selbst, wann er abdrückt. Aber in Wirklichkeit ist es die Software. Tatsächlich erleben wir gerade einen Quantensprung in der Kriegstechnik, der fundamentale ethische Konsequenzen für unser Menschenbild hat. Weitgehend autonome Drohnen kreisen rund um die Uhr über Ländern wie Pakistan, Somalia oder Jemen, auf der Suche nach islamistischen Kämpfern. Den tödlichen Abschuss führen Soldaten am Joystick aus. 10.000 Kilometer entfernt irgendwo in Arizona. Noch gibt es den sogenannten "Man in the Loop", der den Knopf drückt. Aber heute schon entscheidet er weitgehend aufgrund der Daten, die ihm die Drohne liefert. Der Mensch hat zwar das Gefühl, er hat die Kontrolle. Aber tatsächlich gibt die Maschine die Entscheidung vor.

"Aus meiner Sicht läuft selbstverständlich die Entwicklung dahin, dass man diesen Menschen, der entscheidet, aus diesem Entscheidungskreislauf entfernt. Weil die große Anzahl von Daten, insbesondere Sensordaten, die man sammeln kann, von einem Menschen nicht mehr zeiteffizient, schon gar nicht in Echtzeit verarbeitet werden kann. Und wenn man sich vorstellt, dass man eben nicht auf einen Autokonvoi und ein Haus zielt, sondern auf eine andere Drohne oder möglicherweise ein sehr bewegtes Ziel, das auch zurückschießt, dann wird der Mensch natürlich zum Risiko, weil er kognitiv und von der Geschwindigkeit der Entscheidung nicht mithalten kann."

Constanze Kurz, Hochschule für Technik und Wirtschaft Berlin

Constanze Kurz, aufgenommen am 08.04.2010 während der ZDF-Talksendung "Maybrit Illner" | Bild: dpa/picture-alliance

Constanze Kurz: Sie meint, dass bald die Maschine im Krieg die Entscheidungen trifft

Die amerikanische Kriegsstrategie der Zukunft setzt nicht mehr auf Bodentruppen wie in Afghanistan. Denn je mehr Särge mit toten amerikanischen Soldaten nach Hause kamen, desto mehr Kritik gab es an dem Einsatz. In Zukunft sollen vor allem Drohnen und autonome Kriegsroboter eingesetzt werden, um die Opferzahlen in einem asymmetrischen Krieg gegen Islamisten und Guerillas zu reduzieren. Allerdings nur auf Seiten der US-Truppen.

Drohnen-Einsätze mit schweren Folgen

Denn die Opfer dieser neuen Kriegswaffen nehmen wir kaum wahr. Bei diesen angeblich gezielten, klinisch präzisen Drohnenangriffen sind die Kollateralschäden höher, sterben vermutlich mehr Zivilisten als durch herkömmliche Waffen. Wie im al-Majalah in Jemen vor drei Jahren, als eine US-Drohne ein angebliches al-Qaida-Trainingscamp traf. 21 Kinder und 14 Frauen wurden dabei getötet. Wie steht es also mit unserer ethischen Verantwortung für Freiheit und Menschenrechte?

"Die Annahme dahinter ist ja, dass man einer Maschine per Programm eine gewisse Ethik beibringen könnte. Man hat eine Software, die ethische Normen, wie wir sie kennen, in eine Maschine hineinbringt. Ob ein Mensch, der durch die Sensoren wahrgenommen wird, ein feindlicher Kämpfer ist, ob dieser feindliche Kämpfer möglicherweise am Boden liegt, verwundet ist oder dergleichen. Das wird für eine Maschine nicht so einfach zu beurteilen sein. Letztlich kann nur ein Mensch Verantwortung in dem Sinne, wie wir heute ethisch Verantwortung definieren, übernehmen. Und nicht eine Maschine."
Constanze Kurz, Hochschule für Technik und Wirtschaft Berlin

Der Krieg wird delegiert

Der vierbeinige Roboter "BigDog" soll wie ein treuer Lastesel über Stock und Stein hinter seinem Herrchen herlaufen, dabei 180 Kilogramm schleppen und dafür Kraftreserven für 24 Stunden an Bord haben | Bild: picture-alliance/dpa

Der"BigDog" von Boston Dynamics. Ein Lastenroboter für den Kriegseinsatz.

Trotzdem wird massiv an der Entwicklung von Kampfrobotern gearbeitet. Die neuen Robocops sehen manchmal noch etwas unbeholfen aus. Aber in wenigen Jahren werden sie die menschlichen Soldaten in vielen Konflikten ablösen. Wir delegieren den Krieg immer mehr an Maschinen. Und damit auch die Entscheidung über Leben und Tod. Das wird gravierende Folgen haben für unser Bild vom Menschen als einem Wesen, das freie Entscheidungen trifft und Verantwortung für sein Tun übernimmt.

Wer drückt bei den neuen ferngelenkten Waffensystemen eigentlich ab? Mensch oder Maschine? Drohnen und Roboter sollen vermehrt in der Zukunft in Kriegen eingesetzt werden. Doch Ethik lässt sich nicht programmieren. Autor: Joachim Gaertner, Bayerisches Fernsehen

Besser als die Flugzeugträger aus den USA: 2-fache Geschwindigkeit, 2-fache Kapazität, 2x stabiler, größere Reichweite & Atom-Uboote zwischen den Schwimmkörpern.

30.11.2014 | 27172 Aufrufe

Kommentare

Avatar
Sicherheitscode