Die Automatisierung des Krieges

DSC03788

Eine Heron-1 der Bundesluftwaffe auf dem Test Airfield „En Shemer“ in Israel

Forscher entwickeln zusammen mit den Militärs immer leistungsfähigere „autonome Waffensysteme“. Bis 2015 soll ein Drittel der bewaffneten Fahrzeuge und Flugzeuge der US-Armee aus Robotern bestehen.
Die eigenen Streitkräfte sollen geschützt, Feinde verstärkt aus der Ferne „eliminiert“ werden. Die Aufklärung des Kampfgebietes durch Drohnen – ferngesteuerte unbemannte Flugzeuge – ist dabei eine wichtige Säule, auch für die Bundeswehr. Sie hat das deutsch-israelische Drohnensystem „Heron“ geleast.

Wird das Töten immer banaler, immer leichter? Oder helfen Roboter, Menschenleben zu schützen?

Hier geht´s zum Film in der  3sat Mediathek:

DSC03785

Heron 1 – der fliegende Spion

In der israelischen Küstenstadt Tel Aviv werden deutsche Piloten der Luftwaffe von Spezialisten an einem Verkaufsschlager ausgebildet: Der Aufklärungsdrohne Heron 1. Die Bundeswehr hat drei dieser Fluggeräte für 110 Mio. Euro geleast. Sie sollen in Afghanistan zum Einsatz kommen.

Die israelische Drohne voll mit Spionage- und Aufklärungstechnik. Die Luftwaffenpiloten, die sonst im Cockpit sitzen, sollen die Daten interpretieren und weiterleiten. Das Ziel: der verbesserte Schutz der eigenen Soldaten.

Amerikanische Soldaten im Irak und Afghanistan schätzen die Roboter schon lange als „Kollegen“. Die technologisch hochgerüstete US-Armee schickt Roboter in die Schusslinie. Die eigenen Soldaten sollen so wenig Risiken wie möglich ausgesetzt werden.

Wie ein Computerspiel?

Man muss kein Pilot sein, um Heron 1 zu fliegen. Manche Streitkräfte setzen auch Bodenpersonal an die Steuerhebel. Denn wegen der weit reichenden Automatisierung lässt sich die Drohne steuern wie ein komplexes Computerspiel.

Kampfpilot der Bundeswehr:
„Aufgrund der Tatsache, dass ich natürlich nur einen Bildschirm betrachte, brauche ich selbstverständlich ein räumliches Vorstellungsvermögen, um das Geschehen vor Ort auch tatsächlich einordnen zu können und diese Informationen an die Bodentruppen vor Ort an den Abnehmer auch bedarfsgerecht weitergeben zu können. Nun, das Bild, das ich sehe ist real, das ist sehr real, insbesondere dann, wenn Bodentruppen vor Ort sind und ich versuche diese zu unterstützen. Das ist also beileibe kein Computerspiel und dieses Feeling kommt in so einer Mission auch nicht auf.“

Die Luftwaffe setzt bei Drohnen-Missionen nur auf erfahrene Piloten. Sie sind zwar für den Job überqualifiziert, aber sie haben ihr Einfühlungsvermögen, im Idealfall, bereits bewiesen. Die Aufklärungsqualität soll so erhöht werden.

Verhaltensforschung für Roboter

IMG_5180

Wenn Roboter im Krieg „fallen“, werden sie ersetzt. Wenn die eigenen Soldaten sterben, nimmt für die Regierung demokratischer Staaten der Legitimationsdruck zu. Und die Bereitschaft, überhaupt Krieg zu führen, nimmt ab. Aber Roboter minimieren nicht nur das Risiko eigener Verluste.

Die Maschinen reduzieren dramatisch die Chancen des Feindes zu überleben. Ein schweres Maschinengewehr wird plötzlich mobil und mit 1000 Schuss pro Minute geländegängig. Mit der Feuerkraft, Präzision und Geschwindigkeit eines Kampfroboters kann kein menschlicher Soldat mehr konkurrieren.

Keine zuverlässige Freund-Feind-Erkennung

Er ist ein treuer Scharfschütze, der weder Hunger noch Angst kennt und sich notfalls selbst opfert. Schon im Jahr 2015 sollen ein Drittel der Fahrzeuge der US-Armee aus Robotern bestehen. 20 Mrd. Dollar will Amerika in den nächsten drei Jahren für neue Roboter ausgeben. Und das, obwohl die Technologie noch nicht ganz ausgereift ist. Noch immer gibt es keine zuverlässige Freund-Feind-Erkennung.

Das Georgia Institute of Technology in Atlanta gehört zu den vielen amerikanischen Universitäten, die eng mit dem Pentagon zusammenarbeiten. Ronald Arkin entwickelt dort seit über 25 Jahren auch im Auftrag des Militärs immer intelligenter agierende Maschinen. Roboter sollen lernen, menschliche Verhaltensmuster einzuschätzen, um entsprechend darauf zu reagieren. Militärtechnologen sind sehr an dieser „Verhaltensforschung“ für Roboter interessiert.

Ronald Arkin, Entwickler:
„Menschen verhalten sich nicht besonders gut auf dem Schlachtfeld. Denn dort erleben sie Situationen, die dem menschlichen Design und Funktionsumfang nicht entsprechen. Das immer schnellere Tempo und die immer größer werdende Schlagkraft moderner Waffensysteme machen menschliche Überlegungen und Abwägungen fast bedeutungslos, weil Menschen gar nicht mehr die Zeit haben, ein gutes Ziel auszuwählen. Deswegen wird Autonomie und Entscheidungsbefugnis immer mehr an die Technik selbst übertragen.“

Soldaten treffen Fehlentscheidungen

Treffen Roboter auf dem Schlachtfeld wirklich die richtigen, vielleicht sogar die besseren Entscheidungen? Auch im Krieg gelten Regeln. An der Universität Köln ist Krieg das Spezialgebiet des Völkerrechtlers Claus Kreß. Wie der Robotiker Arkin versucht auch Claus Kreß zu verstehen, welche Faktoren für Fehlentscheidungen von Soldaten verantwortlich sind.

Claus Kress, Völkerrechtler:

„Natürlich ist es so, das lehrt die empirische Forschung auf diesem Gebiet, dass es emotionale Faktoren sind, das es Fragen sind, wie Wut, wie Stress, aber auch schlicht menschliche Unzulänglichkeiten bei der Verarbeitung einer Fülle von Information in einer kritischen Situation, die selbst beim besten Willen des betreffenden Kämpfers dazu führen, dass am Ende konfliktsvölkerrechtliche Regeln nicht beachtet werden.“

Das KZO-Aufklärungssystem

Kundus, September 2009: Amerikanische Kampfflugzeuge werfen auf Befehl des deutschen Oberst Klein zwei Satelliten-gesteuerte 500 Pfund Bomben auf entführte Tanklastzüge ab. Eine folgenschwere Entscheidung. Vermutlich 142 Menschen sterben, darunter viele Zivilisten.
Der Angriff im Norden Afghanistans wirft viele Fragen auf: War die Situation ausreichend aufgeklärt? Waren die Soldaten dafür überhaupt richtig ausgerüstet? Und: Hätten zivile Opfer durch moderne Aufklärungstechnik verhindert werden können?

KZO wurde nicht eingesetzt

Bis vor einem Jahr konnten die Bundeswehrsoldaten nur Kleinflugkörper für die Aufklärung rund ums Lager Kundus nutzen. Die Kleinstdrohnen sind allerdings fehleranfällig. Die Geräte gehen bei afghanischen Sommertemperaturen von über 40 Grad oft kaputt.

Seit August 2009 ist das „Kleinfluggerät Zielortung“, kurz KZO genannt, mit erheblicher Verspätung in Kundus im Einsatz. Warum KZO beim Angriff auf die Tanklastzüge nicht eingesetzt wurde, ist noch nicht abschließend geklärt.

Das mobile Drohnensystem wird von einem Artillerietrupp in 20 Minuten in Stellung gebracht. 15 KZO liefern abwechselnd täglich rund 10 Stunden Aufklärungsbilder in Echtzeit an die Bodenstation. Dabei ist eine Drohne knapp drei Stunden in der Luft. Reichweite: maximal 100 Kilometer.

Knapp 275 Mio. Euro hat die Bundeswehr für das KZO-Aufklärungssystem bei Rheinmetall Defense in Bremen bezahlt. Wenn größere Reparaturen anstehen, werden die knapp 170 Kilogramm schweren Kleinflugzeuge hier Instand gesetzt. Von 60 Drohnen hat die Bundeswehr bis heute erst zwei verloren.

Ob Talibanbeschuss oder eine harte Landung für die Schäden verantwortlich sind, ist nicht immer klar. Mitunter lassen auch einfache Bauern ihre Wut über die fremden Soldaten an den Drohnen aus, wenn diese am Fallschirm auf ihre Felder hinabschweben.

Drohne mit offensiver Fähigkeit

Die unbewaffnete KZO wird von der Artillerie betrieben. Jürgen Michel, bei Rheinmetall zuständig für Drohnensysteme, weiß, dass aus einer Aufklärungsfähigkeit ganz schnell auch eine offensive Fähigkeit werden kann. Drohnen als todbringende Waffen, auch für die Bundeswehr?

Jürgen Michel, Rheinmetall:

„Ja, wir lesen es heute täglich in der Zeitung. Andere Nationen, die Amerikaner beispielsweise, setzen diese Fähigkeit ein, bewaffnen große Drohnen, um mit ihnen nicht nur Aufklärung, sondern auch Bekämpfung betreiben zu können. Das ist bislang keine Forderung der Luftwaffe, aber ich nehme mal an, dass die Luftwaffe eines Tages diesen Trend auch aufnehmen wird. KZO ist als reines Aufklärungsmittel entwickelt worden, aber dort gibt es auch Möglichkeiten, in einer Vernetzung mit Waffensystemen, mit hoch präzisen Waffensystemen eine Fähigkeit zu erzeugen, die es erlaubt, hochgenau Punktziele mit Unterstützung von KZO als Aufklärungssensor zu bekämpfen.“

Targeted Killing – gezielte Tötung

Die USA setzen voll auf Roboter. Heute töten die Drohnen aus dem 12.000 Km entfernten Amerika per Satellit ferngesteuert im Irak und Afghanistan. Der asymmetrische Krieg hoch technisierter Armeen gegen schlagkräftige Guerillatruppen hat zu einem Umdenken geführt.
Die US-Streitkräfte verfügen mittlerweile über 7000 Drohnen und „nur“ noch über 3500 bemannte Flugzeuge. Der Pilot, der selbst noch im Flugzeug sitzt, ist ein Auslaufmodell. Noch töten die hochautomatisierten Maschinen nur auf menschlichen Befehl. Doch die Kämpfer sind nicht mehr im Kampfgebiet, sondern nach ihrer Schicht wieder zuhause bei der Familie.

Eine der brisantesten Streitfragen

Allein im Jahr 2009 sind über 700 Menschen Opfer ferngesteuerter Angriffe geworden. Unabhängige Experten sagen, dass auf jeden getöteten Terroristen 10 Zivilisten kommen. Das gehört zu den großen Problemen der neuen Technologie. Und sie birgt weitere Gefahren. Staaten können sich das Recht herausnehmen, auch außerhalb der Kriegsgebiete zu töten. Ohne Transparenz und Kontrolle.

Claus Kress, Völkerrechtler:
„Das gezielte Töten, das targeted killing ist eine der brisantesten Streitfragen in der gegenwärtigen Diskussion. Im Friedenszustand, im Normalzustand ist ein solches Vorgehen uneingeschränkt verboten. Die Situation im bewaffneten Konflikt ist allerdings grundsätzlich anders. Man wird auch hier, jedenfalls ist das die Position eines beachteten Teils der Staatengemeinschaft, und auch das internationale Komitee vom Roten Kreuz, der Hüter des Rechts der bewaffneten Konflikte, vertritt diese Auffassung, man kann auch hier derartige Befugnis nicht kategorisch ausschließen. Es geht allerdings darum, die Grenzen so scharf wie möglich zu ziehen.“

Doch Menschen überschreiten Grenzen. Können wir da wirklich „Kämpfer“ wollen, die von den Erfahrungen des Krieges unberührt bleiben? Welche Konsequenzen hat das Töten aus der Distanz ohne eigenes Risiko, für die Bereitschaft, Krieg zu führen?

Claus Kress, Völkerrechtler:
„Man wird grundsätzliche Fragen zu stellen haben, sowohl auf der Ebene: Fördert das vielleicht den Einstieg in die Kampfführung selbst in einer Weise, wie wir sie vielleicht nicht wollen? Also, senkt es die Hemmschwelle zur Kriegsführung, wird es aggressionsgeneigten Führern, wenn sie über ein solches Instrument verfügen Vorschub leisten, ihrer Neigung nachzukommen, ganz brisante Fragestellung. Aber auch nicht so einfach zu beantworten.“

Ethische Regeln für Roboter

Wenn die Roboter-Technik das eigene Risiko auf Null reduziert, wird das Töten aus der Distanz scheinbar harmlos, zu einer Art Videospiel. Verwundete haben dann keine Gnade zu erwarten. Doch sind damit Kriegsverbrechen zwangsläufig vorgezeichnet oder ergeben sich für das post-heroische Zeitalter auch Chancen?

Könnten Roboter Kriegsverbrechen verhindern? Roboter als Retter der Menschlichkeit? Für Ronald Arkin ist dies die zentrale Frage der nächsten Jahre: Können autonom handelnde Roboter auf dem Schlachtfeld nicht auch ethischen Regeln unterworfen werden?

Ronald Arkin, Entwickler:
„Wut und Angst, diese Gefühle werden für Kampfroboter als hinderlich gesehen. Aber es gibt da noch eine andere Kategorie der Emotionen, die Schuld, Reue oder Scham beinhaltet. Nun ist gerade Schuld ein Gefühl, das in eine proaktive und konstruktive Veränderung münden kann, sobald etwas Schlimmes passiert ist. Und wenn ein Kampfroboter mit immer mehr Entscheidungsbefugnis falsch handelt, dann muss er sein Verhalten ändern, damit es besser wird. Die Modelle von Schuld, die wir in unseren Systemen nutzen, helfen uns dabei, Robotern diese Erkenntnisfähigkeit aufzuprägen.“

In Roboter könnten völkerrechtliche Regeln – etwa keine Krankenhäuser, Schulen oder Friedhöfe anzugreifen – einprogrammiert werden. Arkin ist überzeugt: Ein internes „Schuldkonto,“ das getötete Zivilisten mit einberechnet, könnte sogar dazu führen, dass ein Tötungsbefehl verweigert wird. Sind Roboter also die besseren Soldaten? Für Claus Kreß sind die Antworten darauf noch längst nicht klar.

Claus Kress, Völkerrechtler:

„Also, der Einsatz von Robotern mit gleichsam eingepflanztem, implantiertem kriegsvölkerrechtlichem Gewissen, das ist eine auch für den Völkerrechtswissenschaftler geradezu atemberaubende Zukunftsfrage, von der man im Moment nur sagen kann, dass sie eine ganze Fülle ethischer Fragen aufwirft, bevor wir auf die einzelnen Rechtsfragen kommen. Die ethische Debatte scheint mir jedenfalls hierzulande gerade erst begonnen zu haben.“

Kampfpiloten der Zukunft

Für die Bundeswehr fängt das Drohnenzeitalter erst an. In Kalifornien laufen die letzten Tests des „EuroHawk“ – einer europäischen Aufklärungs- drohne. Anfang 2011 soll die auf einer amerikanischen Drohne basierende EuroHawk voll automatisch von Kalifornien nach Deutschland fliegen.
Bei EADS in München wird sie dann mit deutscher Spionagetechnik ausgestattet und von der Bundeswehr getestet. Die Maschine hat 40 Meter Spannweite und beschleunigt auf über 600 Kilometer pro Stunde. Ohne Zwischenlandung kann sie mehr als 25.000 Kilometer fliegen und 1,4 Tonnen Aufklärungstechnik in 20 Kilometer Höhe tragen. Damit fliegt die Drohne weit über dem zivilen Luftverkehr.

Keine Zulassung für den deutschen Luftraum

Doch die Sache hat eine Haken: Die Zulassung für den deutschen Luftraum steht noch aus, die deutsche Gesetzgebung ist auf unbemannte Flugsysteme, die zivile Luftstraßen kreuzen, nicht vorbereitet. Deshalb darf auch die Heron 1 zwar über Afghanistan fliegen, nicht aber über Deutschland.

Das ist auch ein Grund, warum die Ausbildung der deutschen Heron-Piloten in Israel stattfinden muss. Nach der Theorie kommt für sie die Praxis. Die komplette Bodenstation der Heron steckt in einem kleinen Container. Weil Satellitenverbindungen teuer sind, wird die Heron 1 meistens über ein extrem gebündeltes und verschlüsseltes Richtfunksignal gesteuert.

Wie wichtig Verschlüsselung ist, belegt die Tatsache, dass irakische Aufständische monatelang die Videobilder amerikanischer Kampfdrohnen abfangen konnten. Und zwar mit Hilfe billiger russischer Software.

Und die immer größer werdenden Datenmengen überfordern selbst die US-Geheimdienste. Mehr als 24 Jahre würde es dauern, wollten man sich das gesamte Videomaterial der US-Drohnen in Afghanistan und im Irak am Stück ansehen.

Eine andere Art der Kontrolle

Vermutlich sind Soldaten in einer Bodenstation die Kampfpiloten der Zukunft. Schon heute werden in der US-Armee mehr Drohnenbediener als Piloten ausgebildet. Billiger ist es in jedem Fall: Die Ausbildung eines US-Kampfpiloten kostet 2,6 Millionen Dollar, die eines Drohnenpiloten nur etwa 135.000 Dollar.

Major Helmut Becker, Phantom-Pilot:
„Hauptsächlich ist es eine andere Art der Kontrolle, die ich natürlich über dieses Luftfahrzeug habe. Das heißt, ja, ich habe kein Feedback mehr, ich höre nichts mehr, ich spüre nichts mehr, sondern muss mich einzig und allein auf die Anzeigen in der Bodenkontrollstation verlassen.“

Roboter sind menschlichen Soldaten oft überlegen. Entscheidend ist, wer die Kontrolle behält. Die Gefahr wächst, Robotern zu viele Entscheidungen zu überlassen. Der Mensch zieht sich scheinbar aus der Verantwortung zurück.

Claus Kress, Völkerrechtler:
„Man kann umgekehrt auch die Gegenfrage stellen, wird vielleicht das hiermit ja reduzierte Risiko für die eigene Seite dazu führen, dass zur Abwendung einer humanitären Katastrophe, Stichwort, Kosovo, Stichwort Dafur, bei der die Staaten zu Recht nach den eigenen Verlusten fragen, wird es da nicht vielleicht Möglichkeiten eröffnen, zu einer Rettungsaktion zu kommen, die man ansonsten in der Furcht eigener Verluste unterließe?“

Die Roboter werden kommen. Bleibt die Frage nach der Verantwortung? Was passiert, wenn der Bediener des Roboters versagt? Wenn er die falschen Entscheidungen trifft? Oder wenn gar der Roboter selbst außer Kontrolle gerät? Wer wird dafür zur Rechenschaft gezogen?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.