Bereits in wenigen Jahren könnten autonome Kampfmaschinen einsatzbereit sein, warnen Experten. Groß ist die Gefahr, dass wir die Kontrolle über sie verlieren. Ein Kommentar.

Das Haus sieht unbewohnt aus, aber hier drin müssen sie sein. Sie bevorzugen unübersichtliche Gebäude inmitten menschlicher Siedlungen. Nach allem, was man weiß, sichern sie Zugänge oft mit Sprengfallen. Soll die Regierung Spezialkräfte hineinschicken, um die Terroristen dingfest zu machen – trotz der großen Gefahr, in die sie ihre Leute begibt? Sie könnte auch Drohnen schicken, die ihren Weg selbst finden, die Zielpersonen erkennen, eigenständig über Tod und Leben entscheiden. Und schießen.

Angriff der Killermaschinen. Szenarien, in denen sich Roboter gegen die Menschheit auflehnen, wie im Film „Terminator 3“ halten Forscher für unwahrscheinlich. Doch der Einsatz von... - Foto: IMAGO

Noch ist dieses Szenario eine Fiktion. Doch es könnte schon bald Realität werden, nicht in einigen Jahrzehnten, sondern binnen weniger Jahre. Das meint Stuart Russell, Experte für Künstliche Intelligenz (KI) an der Universität von Kalifornien in Berkeley. Die Fortschritte auf diesem Gebiet seien gewaltig. Man denke nur an die Tests fahrerloser Autos oder Googles KI-Projekt „DeepMine“, das selbstständig Taktiken für Computerspiele erlernt. „Die Komponenten sind bereits vorhanden, man muss sie nur zusammenbringen“, warnt Russell seit Monaten.

Die dritte Revolution der Kriegführung - nach Schießpulver und der Atombombe

Das sehen viele Experten ähnlich. In einem offenen Brief fordern sie jetzt eine Ächtung „autonomer Waffensysteme, die ohne eine bedeutende menschliche Kontrolle agieren“. Hunderte KI-Wissenschaftler haben das Dokument unterzeichnet, ebenso zahlreiche Unterstützer wie Stephen Hawking, Elon Musk (Gründer von SpaceX und Tesla), Apple-Mitbegründer Steve Wozniak und die Harvard-Physikerin Lisa Randall.

Sie argumentieren, dass eigenständige Waffen als dritte Revolution in der Kriegführung gelten, nach der Erfindung des Schießpulvers und der Atombombe. Tatsächlich hat diese Zeitenwende längst begonnen. Länder wie Großbritannien, Israel und Südkorea entwickeln schon länger teilautomatisierte Waffentechnik, etwa den stationären Kampfroboter Samsung SGR-A1, der zur Sicherung der Grenze oder von Militärstützpunkten dienen soll. Auch in den USA gibt es entsprechende Projekte, zum Beispiel „Code“ (Collaborative Operations in Denied Environment). Dort sollen Flugkörper eigenständig Ziele aufspüren, auch wenn die Kommunikation mit Piloten am Boden durch Störsignale verhindert wird.

Auf den ersten Blick erscheinen Roboter als die moralisch besseren Kämpfer

Das erklärt, warum es bisher keine internationale Einigung zum Umgang mit autonomen Waffen gibt. Die Vereinten Nationen haben mehrere Treffen organisiert, um einen Kurs zu finden; zuletzt im April. Deutschland zum Beispiel argumentiert, dass die Entscheidung über Tod und Leben nicht allein von Computern getroffen werden dürfe. Die USA, Großbritannien und Israel halten ein Verbot für überflüssig. Ihre internen Vorschriften seien so gestaltet, dass sie internationalem Recht entsprächen.

Auf den ersten Blick erscheinen Roboter als die moralisch besseren Kämpfer. Theoretisch verfolgen sie klar definierte Ziele, verschonen also das Leben Unbeteiligter. Gefühle wie Rache, Aggressivität und die Lust an erzwungener Unterwerfung, die menschgeführte Kriege so unmenschlich macht, ist den Maschinen fremd. Sie führen einen „sauberen“ Krieg ohne Folter, Plünderungen, Vergewaltigungen, sagen Fürsprecher.

Wahrscheinlich würden solche Roboter bald in falsche Hände geraten

Das ist eine Illusion. Noch lange Zeit werden sie nur schlecht zwischen Freund und Feind unterscheiden können, wenn diese durch Masken oder Schmutz verfremdet sind. Vor allem aber kann keiner sagen, wie sich die Künstliche Intelligenz entwickeln wird. Je weniger Roboter auf Menschen angewiesen sind, umso mehr benötigen sie ethische Standards für ihr Handeln. Kampfeinsätze sind derart komplex, dass es unmöglich ist, alle Eventualitäten vorab zu programmieren. KI-Systeme sind lernfähig, das macht sie aus. Was geschieht, wenn sich beim Einsatz herausstellt, dass sie die „falsche“ Moral entwickelt haben?

Ganz zu schweigen von der Möglichkeit, dass Terroristen und Warlords solche Maschinenkämpfer so programmieren könnten, dass sie möglichst viele Menschen beziehungsweise bestimmte Ethnien töten. Ein Blick in die Geschichte legt nahe, dass es nicht lange dauern wird, bis solche Kampfroboter aus staatlichen Arsenalen in die Hände von Verbrechern gelangen. Er legt auch nahe, dass diese Entwicklung womöglich nicht mehr zu stoppen ist.

Aber versuchen sollten wir es wenigstens: Mit einem unmissverständlichen Votum aller Nationen, die Herrschaft über tödliche Waffen niemals aus unseren Händen zu geben.

Source:

Von

http://www.tagesspiegel.de/wissen/kuenstliche-intelligenz-die-weltgemeinschaft-sollte-kampfroboter-aechten/12115826.html

12.08.2015 | 710 Aufrufe

Kommentare

Avatar
Sicherheitscode