Internationale Politik NDR Radio
Im modernen Krieg ersetzen immer mehr Maschinen die Soldaten. In der Luft werden Drohnen eingesetzt, am Boden übernehmen Roboter die gefährlichen Aufträge, entschärfen Minen, werden für Grenzpatrouillen oder womöglich bald auch für Kampfhandlungen eingesetzt. Das blutige Geschäft übernehmen Maschinen, niemand muss sich mehr die Hände schmutzig machen. Oder sein Leben riskieren.
Dafür werden die Roboter ständig weiterentwickelt. Eines vielleicht gar nicht mehr so fernen Tages sollen sie auch voll autonom agieren können. Im Krieg heißt das, selbstständig über Leben und Tod zu entscheiden. Diese Entwicklung wirft aber ein moralisches Problem auf. Darf man Robotern eine so weitreichende Entscheidung übertragen? Dürfen sie über das Leben von Menschen entscheiden? Die Menschenrechtsorganisation Human Rights Watch beantwortet diese Frage mit einem klaren Nein. Sie hat eine Kampagne initiiert, um den Killer-Robotern, wie die Maschinen von der Menschenrechtsorganisation genannt werden „den Saft abzudrehen“, bevor es zu spät sei.
Human Rights Watch und auch die Wissenschaftler-Initiative International Committee for Robot Arms Control – kurz ICRAC – fordern ein internationales Verbot von Kampfrobotern. Einer ihrer Mitbegründer, der deutsche Physiker Jürgen Altmann, argumentiert, dass autonome Kampfroboter gegen das geltende Kriegsvölkerrecht verstoßen. Demnach dürfen nur Soldaten angegriffen werden, Zivilisten müssen, wenn möglich, geschont werden. Und beim Angriff müssen militärischer Nutzen und Schaden in einem angemessenen Verhältnis stehen. Zu solchen Entscheidungen seien Maschinen aber auf absehbare Zeit nicht in der Lage, sagt Altmann:
O-Ton Altmann
„Die Beurteilung einer komplexen Situation, auf der Höhe dessen, was eine menschliche Intelligenz mit sozialem Verständnis und Erfahrungen leisten kann, davon sind wir also noch Jahrzehnte entfernt. Und von daher ist es eigentlich schon vom Kriegsvölkerrecht her verboten, autonome Entscheidungen von Maschinen über das, was man angreift, zuzulassen.“
Human Rights Watch fürchtet, dass Kampfroboter nicht in der Lage sein werden, zwischen Zivilisten und Soldaten, also zwischen Nicht-Kombattanten und Kombattanten, zu unterscheiden. Tödliche Fehlentscheidungen seien damit programmiert. Außerdem sei die Frage der Verantwortlichkeit unklar, wenn Roboter töten. Wer wäre wegen eines Massakers zu bestrafen – der Roboter, der Auftraggeber, der Software-Programmierer?
Andererseits sollte man aber auch nicht so tun, als ob Menschen immer bessere Entscheidungen treffen. Man denke nur an die Völkermorde und Massaker, die die Menschheitsgeschichte durchziehen. Und so klingt es unfreiwillig zynisch, wenn Human Rights Watch allen Ernstes beklagt, dass autonome Maschinen nicht dasselbe Mitleid für ihre Opfer empfinden wie Menschen – als ob Mitleid die Massenmörder der Weltgeschichte von ihrem Tun abgehalten hätte. Niklas Schörnig, der sich bei der Hessischen Stiftung Friedens- und Konfliktforschung (HSFK) mit der Automatisierung des Krieges beschäftigt, weist jedoch darauf hin, dass es in der Menschheitsgeschichte nicht nur brutale Gewalt gibt:
O-Ton Niklas Schörnig
„Die Anzahl der Fälle, wo auch Menschen sich verantwortungsbewusst und zurückhaltend – auch auf Gefahr hin für das eigene Leben – entschieden haben, bestimmte Sachen nicht zu machen, die sie hätten tun können, die sind natürlich nicht die, die in die News kommen. Also insoweit glaube ich, haben wir beide keine belastbaren Daten, um die eine oder andere These – Menschen tun es immer, Menschen tun es nie – zu stützen.“
Doch werden Kampfroboter wirklich Realität? Die ersten Ansätze gibt es bereits, auch wenn ihre Entwicklung noch am Anfang steht. Israel zum Beispiel setzt an seiner Grenze ein ferngesteuertes gepanzertes Fahrzeug namens Guardium ein. Es patrouilliert an der Grenze zum Gazastreifen und soll angeblich auch autonom entscheiden können.
Als erster echter Kampfroboter gilt der Security Guard Robot SGR-A1 von Samsung Techwin. Der Hersteller ist eine Tochter des südkoreanischen Samsung-Konzerns. Der Roboter ist mit Sensoren und einem Maschinengewehr ausgestattet und soll Menschen von Tieren oder Gegenständen unterscheiden können. 2006 wurde er erstmals eingesetzt, um im Irak südkoreanische Soldaten zu sichern. Doch ausgereift scheint die Technik noch nicht zu sein. Denn der Plan, das Gerät schon bald an der innerkoreanischen Grenze einzusetzen, wurde schnell wieder fallengelassen. Bis zu wirklich funktionierenden und echten autonomen Robotern ist es noch ein langer Weg, meint auch das US-Militär. Das Pentagon proklamierte deswegen schon 2007 eine geduldige Herangehensweise, nach dem Motto ‚Kriechen-Gehen-Laufen’.
Auch andere Experten gehen davon aus, dass die Entwicklung schrittweise vorangehen wird. Nach den Drohnen in der Luft kommen die unbemannten Roboterfahrzeuge am Boden. Beide werden dann immer autonomer. Drohnen können zum Beispiel selbstständig navigieren und fliegen, wie man das schon vom Autopiloten in Passagierflugzeugen kennt. Hinzu kommt, dass die Informationsverarbeitung automatisiert wird. Durch immer mehr Drohnen mit immer leistungsstärkeren Kameras wächst auch die Menge des gesammelten Datenmaterials. Dessen Auswertung wird dann der künstlichen Intelligenz überlassen – die letzte Entscheidung trifft aber noch der Soldat. Der Technik-Experte Niklas Schörnig:
O-Ton Schörnig
„Das amerikanische Militär, also das Pentagon, hat ja jetzt vor wenigen Wochen eine neue Direktive herausgegeben über autonome Systeme. Und da sagt man: auch die letzte Entscheidung soll immer bei einem Menschen liegen. Aber natürlich stützt der sich immer mehr auch auf Vorschläge, die ihm dann ein Algorithmus, ein Computer, bietet.“
Aber die automatisierte Datenauswertung spart natürlich Personalkosten und ermöglicht es, im Kriegsfall schneller reagieren zu können. Drohnen-Kritiker Frank Rieger vom „Chaos Computer Club“ warnt, dass damit auch die Zahl der Fehler ansteige – das heißt, immer mehr Unbeteiligte würden getötet. Bei keiner Spezialeinheit würden so viele Kollateralschäden toleriert wie bei Drohneneinsätzen, sagt Rieger:
O-Ton Rieger
„Das Militär ist immer bestrebt, die Entscheidung für so einen Feuerbefehl möglichst weit nach vorne zu verlegen, um möglichst nah an Echtzeit agieren zu können. Und das Risiko, das dabei natürlich entsteht, ist, dass die Technologie, die eingesetzt wird, erst mal noch unzureichend ist. Tatsächlich ist es so, dass die Menge an Kollateralopfern gerade bei den Drohneneinsätzen keinerlei Hinweis darauf gibt, dass es irgendwie besser wird. Im Gegenteil, es passiert einfach folgendes: Wer auch immer Opfer von so einem Drohnenangriff wird, wird retroaktiv einfach zum Terroristen deklariert.“
Bisherige Erfahrungen mit automatischen Systemen sind übrigens keineswegs positiv. Die Montage von Selbstschussanlagen an der innerdeutschen Grenze stieß im Westen auf Empörung. Die Mauer gibt es inzwischen nicht mehr. Und Landminen sind völkerrechtlich geächtet. Betroffen sind auch intelligente Minen, die zwischen Panzern und zivilen Autos unterscheiden konnten. So verwundert es nicht, dass auch Jody Williams bei der Kampagne gegen Kampfroboter dabei ist. Die Amerikanerin wurde 1997 zusammen mit ihrer Initiative für das Verbot von Landminen mit dem Friedensnobelpreis ausgezeichnet. Aber anders als Landminen sind autonome Kampfroboter noch nicht technisch ausgereift. Sie werden noch nicht in Serie gebaut. Von daher, so argumentieren die Roboter-Kritiker, stehen die Chancen gut, ihre Einführung noch zu verhindern.
Autor: Dirk Eckert
MP3: http://media.ndr.de/download/podcasts/podcast2998/AU-20130222-1350-1542.mp3