| Drohnenkriege

Dezember 2014
Von Norbert Schepers

Warum Big Data tödlich sein kann

Kampfdrohnen sind zu einem vielbeachteten Phänomen geworden. Ihr kriegerischer Einsatz reicht bis zum Ersten Weltkrieg zurück, als unbemannte Doppeldecker mit tödlicher Bombenfracht (Kettering Bug) zum Einsatz kamen. Ihren Durchbruch erlebten die Drohnen, als nach den Debakeln der Weltmächte in Vietnam und in Afghanistan asymmetrische Konflikte zunahmen und der Fortschritt in der Informationstechnik die Steuerung und Datenauswertung nahezu in Echtzeit ermöglichte. Mit dem ›globalen Krieg gegen den Terrorismus‹ nach 9/11 verlor die Drohnentechnologie endgültig ihr Nischendasein. Der Einsatz ferngesteuerter und unbemannter Fluggeräte veränderte das Gesicht der modernen Kriegsführung. Ein neues Wettrüsten ist in Gang gesetzt, in dem relativ unabhängig agierende Killerroboter entwickelt werden. Internationale Institutionen und Normen sowie humanitäre Rechtsordnungen erodieren beschleunigt unter dem Druck der automatisierten Kriegsführung.

Jagd auf Terroristen

Für ›gezielte Tötungen‹ vermeintlicher Mitglieder terroristischer Gruppen wurden insbesondere US-amerikanische Drohnen der Typen Predator und Reaper bekannt, die mit Hellfire-Raketen Bodenziele beschießen. Solche Einsätze – derzeit vor allem in Afghanistan, Pakistan, Somalia und Jemen – sind zu einem Mittel des weltweiten ›Antiterrorkrieges‹ der USA und ihrer Verbündeten geworden. Diese ›Jagd auf Terroristen‹ ist alles andere als präzise. Bei den Explosionen sterben immer wieder Unbeteiligte und Zivilisten. Wer dabei stirbt, wird meist geheim gehalten. Es geht um Tötungen auf Verdachtsgrundlage in einem verdeckten, weltweiten ›schmutzigen‹ Krieg. Das Londoner Bureau of Investigative Journalism zählt allein für Pakistan von 2004 bis 2014 mindestens 400 Drohnenschläge, davon 349 unter der Regierung Obama.1 Dabei wurden – je nach Schätzung – zwischen 2 379 und 3 851 Menschen getötet. Zwischen 416 und 957 davon waren Zivilisten, darunter sechs bis neun Kinder. Weitere 78 bis 196 Menschen wurden verletzt. Gerade einmal vier Prozent der Getöteten konnten aufgrund verfügbarer Quellen als Mitglieder von Al-Qaida identifiziert werden.2 Die Behauptung, es würden mit nahezu absoluter Sicherheit identifizierte, hochrangige Mitglieder des Al-Qaida-Netzwerkes getroffen, ist falsch.

Globale Totalüberwachung

Bei vielen Drohnenschlägen beispielweise in den Stammesgebieten im Nordwesten von Pakistan (FATA) ist die Identität der Zielpersonen nicht bekannt. Sogenannte signature strikes sind eine Art von Rasterfahndung mit optionaler Vor-Ort-Hinrichtung via Raketen beschuss. Sehr allgemeine Verhaltensmuster und Gruppenmerkmale (»all military-age males in a strike zone«) gelten als Verdachtsmomente, auf denen eine Tötungsentscheidung durch Geheimdienste oder Militärs basieren kann (vgl. Zenko 2012). Zur Zielbestimmung für signature strikes durch Drohnen werden auch anlasslos gesammelte Metadaten aus den globalen Überwachungsprogrammen der Geheimdienste genutzt. Als ›relevant‹ kann hier bereits der Besitz eines Telefons mit einer bestimmten IMEI-Nummer oder der Gebrauch einer bestimmten SIM-Karte gelten. Die Identität einer potenziellen Zielperson wird dabei nicht zwingend bestimmt, sondern ihr Gefährdungspotenzial auf der Grundlage der qua Datenanalyse verfügbaren Informationen eingeschätzt. »We kill people based on metadata«, konstatierte General Michael Hayden, ehemaliger Direktor der Nationalen Sicherheitsagentur (NSA) und der CIA, am 1. April 2014 (zit. nach Cole 2014).

Die Frage nach dem Sinn weltweiter Totalüberwachung ist mit Blick auf solche Tötungsprogramme neu beantwortet. Sie ermöglicht eine nahezu beliebige Identifikation, Lokalisierung und Liquidierung unliebsamer Personen ohne nennenswerte externe oder demokratische Kontrolle. Trotz erfolgreicher Klagen ist die juristische Argumentation, mit der gezielte Tötungen gerechtfertigt werden, überwiegend Geheimsache der US-Regierung nach dem nationalen Sicherheitsprivileg. Diese stützt sich auf präsidiale Autoritäten aus dem Jahr 2001: Drei Tage nach 9/11 verabschiedete der Kongress die »Authorization for Use of Military Force« – eine Kriegserklärung gegen die für die Anschläge verantwortlichen Personen und Gruppen, insbesondere Al-Qaida. Sie kam einem Freibrief für weltweite Militäreinsätze gegen den ›internationalen Terrorismus‹ gleich.

Die Verstrickung Deutschlands in Überwachungen und Verbrechen der Geheimdienste, in die weltweiten Drohnenkriege sowie in den ›globalen Krieg gegen den Terrorismus‹ hat eine sicherheitspolitische Dimension, die von der hiesigen Bürgerrechtsbewegung weitgehend unbeachtet bleibt. Wer ein Ende oder eine strikte Eindämmung von Datensammlung und Massenüberwachung will, der muss sich für ein Ende des Antiterrorkriegs einsetzen.

Die nächste Phase der Drohnenkriege

Obama hat die von Bush begonnenen Drohnenprogramme ausgeweitet, den Antiterrorkrieg faktisch intensiviert und wesentlich auf Drohnenschläge verlagert.3 Allein 2013 wurden US-Spezialkräfte in 134 Ländern eingesetzt, unter Bush waren es noch 60. Die ganze Welt ist ein Schlachtfeld geworden, der Einsatz von Kampfdrohnen kann als etabliertes militärisches Mittel gelten. Weltweit werden sie nachgerüstet, neu entwickelt und verbreitet. Auch Hamas und Hisbollah setzten sie bereits ein. Mindestens 50 Staaten betreiben inzwischen eigene Beschaffungsprogramme für künftige Aufklärungs- und Überwachungsflugzeuge oder Kampfdrohnen (vgl. Horgan 2013). Bundeswehr und Bundespolizei wollen eigene Drohnen anschaffen, um nicht weiter auf die Luftunterstützung anderer Staaten angewiesen zu sein. Eingebunden ist diese Beschaffungsabsicht in die Grenzüberwachungsaktivitäten von EUROSUR und in Pläne für eine europäische Drohne, offiziell primär zur Flüchtlingsbeobachtung über dem Mittelmeer gedacht.4 Die USA stellten 2011 einen Flugroboter als Stealth-Bomber vor, welcher bereits autonom auf einem Flugzeugträger starten und landen kann. In Europa gibt es zwei dazu parallele Entwicklungsprojekt: Neuron (F) und Taranis (UK). Auch diese Ergebnisse werden voraussichtlich in die europäische Drohnenentwicklung einfließen.

Inzwischen werden außerdem autonome Vehikel für den Land- und Wassereinsatz entwickelt, die in der Lage sind, mehr Informationen selbst zu verarbeiten, statt sie an das Kontrollzentrum weiterzuleiten. Neben größerer Rechenkapazität und ›klügeren‹ Algorithmen orientieren die Forschungsschwerpunkte der Zukunft darauf, dass eine große Anzahl von Robotern koordiniert und ohne zentrale Instanz ›autonom‹ operieren kann.6

Drohnenökonomie

Drohnen sind nur die bekannteste Form ferngesteuerter und automatisierter Techniken. Darüber hinaus sind viele weitgehend autonom agierende Systeme, also Roboter, in Entwicklung.5 Der Markt lebt von seinen Aussichten auf zivile Nutzung. Die militärische Sparte ist den großen Investoren wie beispielsweise Google kein ausreichender Anreiz. Die Problemlagen hier sind andere: ein neuer Angriff auf die Privatsphäre, Ausdehnung von Überwachung oder Gefährdung des zivilen Luftverkehrs. Die großen Player des Marktes für militärische Drohnen sind Rüstungskonzerne, die schon jetzt Hightech-Waffensysteme für den Luftkampf liefern: Boeing, Lockheed Martin, Northrop Grumman, Raytheon, Israel Aerospace Industries oder BAE. Die militärisch orientierten Investoren haben sich als starke Triebkraft für die militärische wie zivile Entwicklung von Robotertechnologie herausgestellt. Die Forschungsbehörde der US-Militärs DARPA spielt hier eine Schlüsselrolle. Seit den 1990er Jahren standen ›autonome Vehikel‹ auf den Wunschlisten der Militärplaner; heute sehen wir YouTube-Videos von ausgereiften Prototypen für selbständige, voll geländegängige Vierbeiner, die den Soldaten Gepäck und Nachschub durch unwegsames Gelände tragen. Der Bedarf auf den aktuellen Schlachtfeldern und die Entwicklung asymmetrischer Konflikte sind Faktoren, welche die Entwicklung von Dual-Use-Technologie vorantreiben. Im besetzten Irak 2003 wurden die US-Streitkräfte von den Aufständischen massenhaft mit improvisierten Sprengfallen konfrontiert. Bis zu zwei Drittel der Gefallenen gingen auf das Konto solcher Anschläge. Abhilfe kam von der kleinen Firma iRobot, eher bekannt für Staubsaugerroboter, die in der Lage war, schnell eine große Anzahl von kleinen, ferngesteuerten Bodenfahrzeugen zur Gefechtsfeldaufklärung und zur Kampfmittelbeseitigung zu produzieren. Auch dabei spielte Fördergeld der DARPA eine Rolle. Wir sehen hier ein erfolgreiches Konzept der Wirtschaftssteuerung, das mit öffentlichen Mitteln militärische und Dual-Use-Forschung privater Unternehmen subventioniert. Beide Seiten des Drohnenmarktes sind so stark verwoben, dass Strategien zur Delegitimierung der Technologie ein eher hoffnungsloses Unterfangen sein dürften. Wer den Drohnenkriegen politisch begegnen will, muss auf Regulierung setzen. Gleiches gilt für die zivile Ebene.

Roboterkriege der Zukunft

Die Option, Kriege von Drohnen führen zu lassen, trägt zu deren ›Entgrenzung‹ bei – geografisch wie zeitlich. Und die Spezifik dieser Art der Kriegsführung – ferngesteuert und unbemannt – hat die Hemmschwelle der Verantwortlichen gesenkt. Krieg wird damit nicht unbedingt grausamer, aber er wird leichter zu führen. Die Brutalisierung ist jenseits der Kriegsschauplätze kaum noch wahrnehmbar. Hohe Opferzahlen unter der Zivilbevölkerung sind nicht für sich genommen eine Besonderheit der Drohnenkriege. Eher schon, dass diese Kriege in hohem Maß politisch durchhaltbar scheinen, solange eigene Verluste gegen null gehen. Denn bei den Drohnenkriegen sterben immer die anderen.

›Zeitgemäße Kriegsführung‹ heißt: mehr Maschine, weniger Mensch. Es geht nicht um vollständig autonome Kampfroboter, die dem Menschen die Tötungsentscheidung abnehmen, aber doch um weitgehende Autonomie der Killermaschinen. Ein Grund dafür sind die riesigen Datenmengen, die zum Computer des Kontrollzentrums übertragen und dort verarbeitet werden müssen, und die damit verbundenen Reaktionszeiten. Verarbeitung und Auswertung des Bildmaterials werden zunehmend durch bordeigene Computer erledigt. Ergebnis dieser Entwicklung wäre, dass der Roboter eine Entscheidung vorbereitet, die dann auf Grundlage eines so entstandenen Lagebilds vom Menschen binnen Sekunden getroffen werden muss: feuern oder abbrechen. »Wir stehen am Beginn eines Wettrüstens im Bereich der Algorithmen für letale Autonomie«, schreibt Frank Rieger (2012) in der Frankfurter Allgemeinen Zeitung über den künftigen Roboterkrieg.

Auch die Studie Losing Humanity vom November 2012 von Human Rights Watch und der International Human Rights Clinic an der Harvard Law School warnt vor der Entwicklung und Verbreitung von vollautonomen »Killer-Robotern« in den kommenden 20 bis 30 Jahren. »Menschliche Kontrolle der robotischen Kriegsführung ist für eine Minimierung ziviler Toter und Verwundeter unerlässlich«, sagt Steve Goose, der Sprecher von Human Rights Watch.7 Beide Menschenrechtsorganisationen fordern einen internationalen Vertrag zum Verbot der Entwicklung, Herstellung und Nutzung von vollautonomen Roboterwaffen. Zusammen mit einer breiten Koalition zivilgesellschaftlicher Akteure haben sie 2013 die Campaign to Stop Killer Robots ins Leben gerufen und ihre Forderungen in die zuständigen UN-Gremien eingebracht, mit beachtlicher Resonanz.8

Sicherheitspolitik von links

Die weltweite ›Antiterrorkriegsführung‹ der letzten Jahre hat in mehrfacher Hinsicht eine Relativierung der Menschenrechte gebracht. Die extralegale Hinrichtung von Verdächtigen mithilfe von Drohnen untergräbt außerdem die Unschuldsvermutung. Automatisierte Kriegsführung treibt die Erosion internationaler Normen und Institutionen weiter voran. Sollten irgendwann Killerroboter selbständig Tötungsentscheidungen treffen, werden zentrale Grundsätze der Rechtsstaatlichkeit außer Kraft gesetzt: Es gibt keine zurechenbare Verantwortlichkeit mehr. Der technologische und waffentechnische Fortschritt gebietet, sowohl für unbemannte und ferngesteuerte Systeme als auch für automatisierte Roboterwaffen neue Regulierungsrahmen auf internationaler Ebene zu schaffen. Hier ist die globale Linke – und mit ihr die Linkspartei – gefordert.

Eckpunkte sollten dabei sein:

  • Strafverfolgung von Terrorverdächtigen, die außergerichtliche Hinrichtungen einschließt, ist zurückzuweisen.
  • Der Einsatz von ferngesteuerten unbemannten Luftfahrzeugen (Drohnen) – ob bewaffnet oder nicht – muss unter strenge, internationale Vorschriften gestellt werden.
  • Autonome, bewaffnete Roboter müssen weltweit verboten werden. p Die Grundzüge der Drohnen- und Überwachungsprogramme müssen in den beteiligten und unterstützenden Staaten den jeweiligen Parlamenten zur Information und Beschlussfassung vorgelegt werden. Dies schließt rechtliche Begründungen, Auswertungen und Berichte zur bisherigen Tätigkeit ein.
  • Die Grundzüge der ›Antiterrorpolitik‹ sollten auch in den politischen Gremien der NATO Gegenstand einer grundsätzlichen Bestandsaufnahme und Revision sein.
  • Die neue Kriegsführungsdynamik schwächt institutionelle und völkerrechtliche Kontrollen.

Notwendig ist die Entwicklung einer übergreifenden friedens- und sicherheitspolitischen Konzeption, die diese Dynamik einhegt und beseitigt. Kriege verändern sich radikal. Noch ist die Antikriegspolitik nicht auf der Höhe der Zeit.

 

Literatur

Cole, David, 2014: »We Kill People Based on Metadata«, in: The New York Review of Books, 10.4.2014
Gubrud, Mark und Jürgen Altmann, 2013: Compliance Measures for an Autonomous Weapons Convention, International Committee for Robot Arms Control, Working Paper No. 2
Horgan, John, 2013: The Drones Come Home, in: National Geographic, März 2013
Rieger, Frank, 2012: Das Gesicht unserer Gegner von morgen, in: Frankfurter Allgemeine Zeitung, 20.9.2012
Zenko, Micha, 2012: Targeted Killings and Signature Strikes, in: Council on Foreign Relations Blog, 16.7.2012

Anmerkungen

1 Vgl. www.thebureauinvestigates.com/category/ projects/drones/drones-graphs/.
2 Vgl. www.thebureauinvestigates.com/ namingthedead/only-4-of-drone-victims-in-pakistan-namedas-al-qaeda-members/?langen.
3 Vgl. die Studie Drone Wars Pakistan: Analysis, http:// securitydata.newamerica.net/drones/pakistan/analysis.
4 Vgl. www.euractiv.de/soziales-europa/artikel/bigbrother-an-der-grenze-eurosur-gestartet-008317.
5 Vgl. z.B. die militärische Planung in den USA für unbemannte Systeme Unmanned Systems Integrated Roadmap 2013–2038, www.defense.gov/pubs/DOD-USRM-2013.pdf.
6 Im militärtechnischen und -strategischen Diskurs verweist der Begriff Autonomie auf die Entwicklung von Waffensystemen, die mit hochkomplexer künstlicher Intelligenz ausgestattet, unabhängig von unmittelbarer menschlicher Kontrolle funktionieren, also Ziele ausmachen, verfolgen und angreifen: sogenannte vollautonome Kampfdrohnen oder auch Killerroboter. Bei derlei autonomen Tötungsrobotern endet die menschliche Intervention mit der Programmierung. Momentan fliegen Drohnen zwar ›automatisch‹, agieren aber (noch) nicht ›autonom‹, insofern der eigentliche Angriff durch Menschen entschieden und ferngesteuert wird. Vgl. zu Kritik und Vorschlägen zur Kontrolle dieser Entwicklung Gubrud/Altmann 2013.
7 Vgl. www.hrw.org/reports/2012/11/19/losinghumanity-0.
8 Vgl. www.stopkillerrobots.org