Waffensysteme als „derivierte Akteure“. Kampfroboter im asymmetrischen Krieg

Schwerpunkt: Parasoziale Beziehungen mit pseudointelligenten Softwareagenten und Robotern

Waffensysteme als „derivierte Akteure“: Kampfroboter im asymmetrischen Krieg

von Hans Geser, Universität Zürich

„They don’t forget their orders.“ (P.W. Singer)

Neueste Entwicklungen in der (semi-)autonomen Waffentechnik haben die (ursprünglich von I. Asimov entworfene) Idee des „Roboterkrieges“ wiederbelebt. Funktionale Analysen zeigen, dass solche Geräte vielerlei für Menschen ungeeignete Spezialaufgaben übernehmen können, das offensive und defensive Potenzial der Streitkräfte verstärken und evtl. auch die Schwelle zum Gewalteinsatz niedriger legen. Andererseits ist ihr Nutzen aufgrund ihrer Gebundenheit an hochstrukturierte Umweltbedingungen und voraussehbare Problemtypen in asymmetrischen Kriegen (besonders in Friedensmissionen) eng begrenzt. Zudem erhöhen sie das Risiko, dass attackierte Feinde Zugang zu relevanten Informationen gewinnen. In dem Maße, wie Kampfroboter konventionelle Soldaten ersetzen, werden asymmetrische Gegner motiviert sein, ihre Aggression weg vom Schlachtfeld auf terroristische Aktivitäten zu verlagern.

1     Von der bloßen Hand zum „derivierten Akteur“

Am Ursprung der kriegstechnischen Evolution steht der unbewaffnete Mensch, der mit seinen bloßen Händen kämpft und damit alle motorischen und sensorischen Vorgänge mit seinem eigenen Körper kontrolliert. Seither hat sich die Waffentechnik fast ausschließlich darauf ausgerichtet, die motorischen Aspekte dieses Regelkreises (in Form von Steinen, Speeren, Wurfgeschossen, Artilleriegranaten und Interkontinentalraketen) zu externalisieren: mit der Konsequenz, dass die Zusammenhänge zwischen dem, was Kämpfer tun, und dem, was sie bewirken, immer vermittelter werden. Da die sensorischen wie auch die reflexiv-beurteilenden Prozesse vollumfänglich beim Menschen verbleiben, rückt der Kämpfer zum Feind in immer größere Distanz: in dem Sinne, dass er immer unfähiger wird, die Wirkung seiner Waffen präzis zu steuern und adäquat zu registrieren (Singer 2009c, S. 44).

Schon sehr früh sind „automatische“, d. h. sich ohne Zutun des Kämpfers aktivierende Waffen entstanden: z. B. Fallgruben, die später in Form von Tretminen oder Selbstschussanlagen ihre Fortsetzung fanden (Arkin 2007, S. 4). Dementsprechend alt sind auch die ethischen Folgeprobleme, die aus einer wachsenden Verunklärung der Verantwortlichkeit entstehen. Wer auf öffentlichem Gelände Tretminen montiert, nimmt in Kauf, dass nachher unschuldige Menschen daran sterben, ohne dass eine direkte kausale Verantwortung besteht; und der Bomberpilot ist höchstens „eventualvorsätzlich“ für alle Kollateralschäden zu belangen, die er ohne Absicht und Wissen generiert. Wie bereits die berühmten Experimente von Milgram gezeigt haben, schafft die durch das technische Gerät erzeugte Distanz zwischen Akteur und Zielobjekt eine Enthemmung, weil die elementaren, auf Empathie und Reziprozität beruhenden Moralnormen nicht mehr wirksam sind, wie sie im engen Kreis mitanwesender Menschen normalerweise bestehen (Milgram 1974).

„Robotisch“ werden Waffen in dem Maße, wie sie neben motorischen auch mit sensorischen Kapazitäten ausgestattet werden, sowie mit der Fähigkeit, solche sensorischen Inputs mittels autarker Rechenprozesse und Speicherresourcen für die „autonome“ Steuerung ihrer eigenen Motorik zu nutzen (Sullins 2006, S. 26). Ungeachtet ihrer weitläufigen Popularisierung in der Science-Fiction-Literatur seit den 1930er Jahren sind bis heute (und auch in absehbarer Zukunft) keine als autonom handlungsfähige Gefechtsteilnehmer ernstzunehmenden Kriegsroboter in Sicht. Immerhin bietet die amerikanische Armee, Marine und Luftwaffe im aktuellen Irak- und Afghanistankrieg Anschauungsmaterial für die Einsatzmöglichkeiten semi-autonomer Waffensysteme, die zumindest annäherungsweise als „derivierte Akteure“ betrachtet werden können, da sie in einem variablen, immer vom Menschen bestimmten Spielraum selbständige Wahrnehmungen und Entscheidungen vollziehen.

In der Marine z. B. kann dem auf Schiffen fix stationierten AEGIS-System Robotercharakter zugeschrieben werden, da es in eigener Regie den Luftraum beobachtet und das Schiff mit selbständigen Abwehrmaßnahmen vor sich nähernden Geschossen schützt (Sullins 2010, S. 269ff.).

Den Utopien Isaac Asimovs (1950) sehr viel näher steht aber wohl der von der US-Armee benutzte „irobot 510 Packbot“: ein Gerät, das z. B. für Minenräumung, Bombenentschärfung, die Waffensuche in Gebäuden, Höhlen und Tunnels sowie für die Sammlung chemischer und radioaktiver Luftproben eingesetzt werden kann.[1]

In der US-Luftwaffe schließlich zeigt sich der Trend zu zunehmend autonomen Waffensystemen in den aktuellen „MQ-9 Reaper Drones“, die ein Territorium viele Stunden lang auf verdächtige Veränderungen hin beobachten, zwar nur auf Befehl entfernter „Piloten“ feuern, aber im Falle eines Kommunikationsabbruchs selbständig wieder „nach Hause“ finden (Axe 2009).

In allen Fällen besteht immer die Möglichkeit, das technische System auf den Status eines bloßen „Beraters“ zurückzudrängen, dessen Empfehlungen man ignorieren oder dessen automatische Vorgehensweisen man durch Ausübung menschlicher „Veto“-Macht außer Kraft setzen kann (Singer 2009a, S. 39f.).

Allerdings wirken vielerlei Kräfte dahin, den automatischen Modus zu präferieren: sei es, um die rasche Reaktionsfähigkeit der Roboter voll auszunutzen (Royakkers, van Est 2010), oder um zu vermeiden, dass zwischen Roboter und Einsatzzentrale Kommunikationskanäle offengehalten werden müssen, die vom Feind belauscht und gestört (bzw. „gehackt“) werden können (Herman, Fritzson, Hamilton 2008). Überdies kann die Knappheit an qualifiziertem Personal dazu nötigen, arbeitsintensive Dauersteuerungen durch intermittierende „Überwachung“ zu ersetzen (Singer 2009a, S. 41; Sullins 2010, S. 269); und schließlich können sich Roboter in dem Maße, wie sie mit Lernfähigkeit ausgestattet sind, aus Erfahrungen zusätzliche, weder von ihren Konstrukteuren noch ihren Einsatzleitern überblickbare Entscheidungsfähigkeiten aneignen, die es immer schwieriger (bzw. risikoreicher) machen, menschlicher Urteilskraft den Vorzug zu geben (Sparrow 2007, S. 70; Lin, Bekey, Abney 2008, S. 23).

2     Funktionsmerkmale und Einsatzperspektiven

Fraglos sind mit dem Einsatz von Kriegsrobotern weit über menschliche Kapazitäten hinausreichende Leistungsvorteile verbunden, die sich v. a. auf die taktische, aber teilweise auch die strategische Ebene der Kriegsführung auswirken können und momentan vor allen dazu führen, den Asymmetriegrad der zwischen den USA und allen ihren Gegnern stattfindenden Konflikte zu verstärken. Rein physisch sind sie z. B. in der Lage, im Lufteinsatz noch unter Bedingungen sechzehnfacher Schwerkraft zu funktionieren (Herman, Fritzson, Hamilton 2008), für den Menschen unerreichbare Tunnelgänge und Unterwassereinrichtungen zu durchkämmen oder fünfmal schneller als konventionelle Soldaten Minen zu entschärfen (Singer 2009a, S. 36).

Da sie keinen Schwankungen der Geduld und Aufmerksamkeit unterliegen, können sie 30 Stunden lang mit gleichbleibender Effektivität ein gefährliches Territorium inspizieren, und v. a. lassen sie sich risikolos auf äußerst gefährliche Missionen schicken, da selbst im schlimmsten Falle nur eine Ersatzinvestition von vielleicht $ 150.000 (Singer 2009a, S. 31) nötig ist, anstatt dass Body Bags geordert, Briefe an verzweifelte Eltern geschrieben und lebenslange Witwenpensionen ausbezahlt werden müssen (Guetlein 2005, S. 14.)

Heeresroboter erhöhen die defensive Kapazität der Truppe, indem sie im Falle plötzlicher Angriffe ohne Zeitverzug und mit maximaler Präzision zurückschießen, da sie im Unterschied zu konventionellen Soldaten (vgl. Lang 1965, S. 870) keine kostbare Zeit damit verbrauchen, zuerst verletzte Kameraden zu bergen und sich selbst in Sicherheit zu bringen (Singer 2009a, S. 41).

Ebenso steigern sie die Fähigkeiten zur Offensive, indem sie im Gefecht dem Feind sehr viel näher kommen als konventionelle Soldaten (Lin, Bekey, Abney 2008, S. 53) und man sie selbst in Situationen risikolos für „Kamikaze“-Aktionen vorschicken kann, bei denen man im vornherein weiß, dass sie im feindlichen Feuer kaum Überlebenschancen besitzen.[2]

Mit ihrem Fehlen psychologischer Sensibilität kontrastieren Kriegsroboter besonders eindrücklich mit den besonderen Stresserfahrungen moderner Kampfsoldaten, über die die Militärsoziologie seit dem 2. Weltkrieg berichtet, dass ihre Aktivität und Effektivität im Gefecht extrem stark von psychologischen Randbedingungen (z. B. aktuellen Emotionen der Angst, Solidarität, Rachelust etc.) beeinflusst werden (Basowitz et al. 1955). V. a. als Folge der automatischen Serienfeuerwaffen hat sich das Ausmaß an Stress und Angst, dem ein Soldat im Infanteriekampf ausgesetzt ist, stark erhöht: mit der Folge, dass das Kampfverhalten immer stärker von der Motivierungskraft des unmittelbaren informellen Sozialfeldes (der Unteroffiziere und „buddies“) abhängig wird (George 1971, S. 294–295). So haben Studien über den Korea- und Vietnamkrieg ergeben, dass die Kampfkraft der Truppe wesentlich von solch informellen Variablen abhängt, die kaum durch formelle Weisungen höherer Offiziere, durch generelle patriotische Motivationen oder durch Pflege einer übergreifenden Organisationskultur beeinflussbar sind. Diese partikularistischen Informalbindungen reduzieren die Kampfkraft kleiner Soldatengruppen insofern, als es kaum möglich ist, personelle Lücken ohne Weiteres mit neuen Teammitgliedern zu füllen (Shils, Janowitz 1948).

Evidenterweise ist die Armeeführung an Kampfagenten interessiert, die ihre formellen Orders ohne die unberechenbare intervenierende Wirkung solch informeller Einflüsse getreulich ausführen, indem sie

Die gegnerische Kriegspartei muss wissen, dass mit Robotern agierende Streitkräfte nicht mehr durch Einschüchterungs- und Zermürbungstaktiken oder spektakuläre „Shock-and-awe“-Aktionen zum Rückzug veranlasst werden können, sondern erst dann vernichtet sind, wenn aus rein technischen Gründen kein Roboter mehr funktioniert (Herman, Fritzson, Hamilton 2008).

Umgekehrt mögen die angegriffenen Gegner umso gründlicher demotiviert werden,

Indirekt kann dadurch der globale Terrorismus neue Nahrung finden, weil die im militärischen Gefecht derart chancenlos gewordenen Kriegspartien umso intensiver darum bemüht sein werden, den Feind in seinem Hinterland (wo er nach wie vor verwundbar ist) zu treffen (Herman, Fritzson, Hamilton 2008).

Schließlich sind Roboter dank ihrer überlegenen Kapazitäten der Informationsverarbeitung wahrscheinlich prädestiniert, in modernen Kriegsverläufen eine immer prominentere Rolle zu übernehmen. Moderne Soldaten und Offiziere leiden zunehmend unter einer Überlastung mit Informationen, die aus verschiedenen Quellen (Satelliten, Aufklärungsflugzeuge, Geheimdienst, Rapporten etc.) stammen und die im Hinblick auf eine optimale Entscheidungsfindung alle möglichst ohne Zeitverzug in eine Synthese gebracht werden müssen (Arkin 2007, S. 124). Informatisch hochgerüstete Roboter sind demgegenüber imstande, in kürzester Zeit beliebige Informationsmengen zu prozessieren, um für Entscheidungen beliebiger Art hinreichende kognitive Grundlagen zu schaffen (Arkin 2007, S. 6).

Dementsprechend sind sie auch viel besser als konventionelle Soldaten in der Lage, untereinander in sehr kurzer Zeit beliebig komplexe Information auszutauschen: z. B. um sehr rasch kollektiv auf eine neue Bedrohungslage zu reagieren, ihre Kräfte in dieselbe Richtung zu massieren, oder um eine arbeitsteilige Rollenspezialisierung (z. B. Suche in verschiedene Himmelsrichtungen) zu erzeugen (Singer 2009a). Die moderne Robotik bietet heute genügend Grundlagen, um beliebig zahlreiche Kampfroboter durch horizontale Kopplung zu „Schwärmen“ zu integrieren, die auf der Basis einfachster Verhaltensregeln kaum mehr voraussagbare Formen der Selbstorganisation und emergenten Makroaktivität erzeugen, die es mit ihrer dezentralen Ubiquität jedem asymmetrischen Feind schwer machen, sich zielgerichtet und effektiv zu verhalten (Spears et al. 2004; Singer 2009b, S. 110; Lin, Bekey, Abney 2008, S. 79).

3     Leistungsgrenzen und Dysfunktionen

Auch wenn Vorstellungen von Robotersoldaten und Roboterarmeen mancherorts zumindest in der Langfristperspektive noch aufrechterhalten werden, scheint sich die Einsicht durchzusetzen, dass moderne Kriegssituationen dafür besonders geringe Realisierungschancen bieten.

Die großenteils ernüchternden Erfahrungen mit wissensbasierter „artificial intelligence“ (vgl. z. B. Mandl 2008) haben gezeigt, dass informatische Agenten in klar abgrenzbaren und gut formalisierbaren Aufgabenbereichen ihren Entfaltungsschwerpunkt haben, da sie – selbst wenn Lernfähigkeit durchaus vorgesehen ist – auf ein enges Spektrum von Wahrnehmungs-, Lern- und Aktionsweisen festgelegt werden müssen (Nilsson 1980; Hayes-Roth 1997). So ist es wahrscheinlich, dass nie mehr ein Homo Sapiens gegen den Schachcomputer gewinnt, während z. B. kaum je ein frühstückzubereitender Computer hergestellt werden wird, weil dieser mit einer kaum überblickbaren Fülle von informell-lebensweltlichem Wissen ausgestattet werden müsste, über die jedes für geringen Stundenlohn tätiges Küchenmädchen ohne weiteres verfügt (vgl. z. B. Puppe, Stoyan, Studer 2003; Mandl 2008).

Typische Anwendungsbereiche finden sich deshalb in der industriellen Fertigung, wo Roboter– als logische Weiterentwicklung automatisierter Spezialmaschinen – hoch standardisierte, meist repetitive Aktionssequenzen vollziehen, die aufgrund umfassender Kenntnis der Umweltbedingungen und Mittel-Zweck-Relationen vollständig ex ante festgelegt werden können (Nof 1999).

Im Militär kann höchstens in Friedenszeiten (wo der „Drill“ vorherrscht), mit einer ähnlich totalen Dominanz formalisierter Normen und routinisierter Verhaltensweisen gerechnet werden, während im Kampf unberechenbare Situationsbedingungen, Ereignisabläufe und Handlungsanforderungen hervortreten, die zu „spontanen“ Reaktionen auf der Basis persönlicher Intuition und Erfahrung zwingen und zur Herausbildung einer meist von der Formalstruktur stark abweichenden informellen Gruppenkultur Anlass geben (Ziegler 1968, S. 30).

In Gegenläufigkeit zu den Bürokratisierungstendenzen in vielen dem Kampf entrückten Militärabteilungen hat vom allem im Infanteriegefecht aufgrund neuer waffentechnischer Entwicklungen eher eine Regression zu sehr kleinformatigen, auf informeller Basis beruhenden Kooperationsverhältnissen stattgefunden (George 1971, S. 295). Während noch in den Napoleonischen Kriegen zentralistisch gesteuerte kollektiv einheitliche Verhaltensweisen (z. B. Abfeuerung von Gewehrsalven auf Kommando) üblich waren, sind heute stark individualisierte Verhaltensweisen üblich geworden, die durch rasch und unvorhersehbar wechselnde Problemsituationen gekennzeichnet sind und deshalb vom Einzelsoldaten – bzw. kleinen Einsatzteams – ständig neue Wahrnehmungen, Lagebeurteilungen und Entscheidungen verlangen (Lin, Bekey, Abney 2008, S. 31).

Bereits bei Allerweltaufgaben wie Küchendiensten, Lastwagenfahren oder Krankenversorgung stoßen Roboter aufgrund ihres Mangels an „tacit knowledge“ auf enge Grenzen (Borenstein 2008), und noch viel weniger kann man sich auf ihre Entscheidungsfähigkeit in Spezialeinsätzen verlassen, wo singuläre Aufgaben mit idiosynkratischen Merkmalskonfigurationen (z. B. bei einer Geiselbefreiung) zu bewältigen sind (Singer 2009a).

Am ehesten sind Roboter dichten Gefecht einsetzbar, wo mit ausschließlich militärischen Aktivitäten gerechnet werden kann (Lin, Bekey, Abney 2008, S. 77), bzw. in Sperrgebieten (z. B. in der verbotenen Grenzzone zwischen Nord- und Südkorea am 17. Breitengrad), wo alle registrierten Ereignisse als Feindbewegungen, auf die ein Beschuss zu erfolgen hat, interpretiert werden können (Arkin 2007, S. 93). Generell ist es unproblematischer, ihnen (reaktiv) die Antwort auf vorangegangene Beschüsse als (proaktiv) die Entscheidung zur Erstbeschießung zuzugestehen. Denn letztere erfordert meist komplexe Lagebeurteilungen, während es gemäß den üblichen Rules of Engagement in fast allen Situationen erlaubt oder gar zwingend geboten ist, auf einen feindlichen Beschuss durch den Feind mit Gegenbeschuss zu reagieren (Singer 2009a, S. 41).

Selbst im klassischen Gefecht werden Roboter die von den Genfer Konventionen her zwingende Aufgabe, kämpfende von kapitulationswilligen Soldaten zu unterscheiden, kaum je bewältigen können (Sharkey 2008; Tamburrini 2009, S. 16). Im modernen asymmetrischen Krieg ist zudem die erforderliche Isolierung des militärischen vom zivilen Bereich kaum mehr gegeben, weil Kämpfe immer häufiger inmitten ziviler urbaner Kontexte stattfinden, in denen es auch immer schwerer fällt, militärische von zivilen Zielen und Kombattanten von Zivilpersonen zu unterscheiden (Borenstein 2008, S. 6; Arkin 2007, S: 11; Guetlein 2005, S. 16).

Und völlig überfordert sind Roboter natürlich in allen polyvalenten Einsätzen (z. B. des Peace Enforcement und Nation Rebuilding), wo sich militärische Kampfbereitschaft mit Fähigkeiten zum Verhandeln und zur Konfliktschlichtung, mit dem Ringen um die „hearts and minds“ der autochthonen Bevölkerung, mit der Beziehungspflege zu zivilen Organisationen oder mit bedürfnisorientierten Vorgehensweisen bei der Allokation medizinischer Hilfe oder bei der Verteilung von Kleidern und Nahrungsmitteln verbindet (vgl. z. B. Berdal 1993).

Ganz allgemein erhöhen Roboter die Verletzlichkeit des Angreifers insofern, als die Entscheidungs- und Verhaltensregeln in vollständige Explizitheit überführt werden müssen: d. h. in einen Aggregatzustand, in dem sie sehr leicht kopiert, transferiert und gelesen werden können. Wenn es dem Feind gelingt, durch „hacking“ oder auf andere Weise in den Besitz dieser Information zu gelangen, hat er vielerlei Möglichkeiten, die Roboter durch aktive Störung ihrer Steuerungssysteme lahmzulegen oder ihre Wirkungen durch geeignete Anpassung seines Verhaltens zu neutralisieren (Borenstein 2008, S. 10).

Demgegenüber bewahren „konventionelle“ menschliche Soldaten dank der Informalität und „tacitness“ ihrer kognitiven und normativen Orientierungen die Eigenschaft, für den Feind grundsätzlich unberechenbar zu bleiben, weil immer wieder neue, nicht voraussehbare Handlungsabläufe spezifiziert und Entscheidungen getroffen werden.

Schwer hinzunehmen ist schließlich auch die unscharfe Diffusion der Verantwortlichkeit, die mit dem Einsatz von Kriegsrobotern (in einer gewissen Parallele zum Einsatz von Kampfhunden oder Kindersoldaten) entsteht (Marino, Tamburrini 2006; Sparrow 2007).

Bereits bei konventionellen militärischen Aktivitäten nämlich besteht zwischen Politikern, Militäroffizieren und Soldaten eine unübersichtliche Gemengelage der Verantwortlichkeiten, die dem seit den Nürnberger Prozessen wachsenden Bedürfnis, Kriegsverbrechen zwecks Anwendung von Strafsanktionen eindeutig individuell zuzurechnen, grundsätzlich widerspricht.

Im Falle autonomer Roboter wandelt sich das Bild v. a. in dem Sinne, dass sich der Schwerpunkt der Verantwortung einerseits auf die mit dessen Produktion und Programmierung befassten technischen Unternehmen und Ingenieure und andererseits auf die für deren spezifischen Einsatz zuständigen zentralen Instanzen der Militärführung und Politik verschiebt (Moshkina, Arkin 2007, S. 17). Daneben besteht allerdings auch eine Tendenz, einen Teil der Haftung dem Roboter selbst zuzurechnen – und damit die mitinvolvierten menschlichen Personen zumindest zu einem kleineren Teil zu exkulpieren (Lin, Bekey, Abney 2008, S. 73).All dies macht es erforderlich, einen von der strafrechtlichen Schuld scharf getrennten, kausalen Verantwortlichkeitsbegriff („mindless morality“ im Sinne von Floridi und Sanders 2004) zu benutzen, wie er z. B. seit langem im zivilen Haftpflichtrecht Verwendung findet.

Allerdings verbieten es die genannten Komplexitäten und Unberechenbarkeiten, militärische Roboter ähnlich wie die meisten anderen industriellen Produkte einer kausalen Produkthaftpflicht zu unterstellen –, in dem Sinne, dass der Hersteller auch ohne schuldhaftes Verhalten für allfällige schädliche Wirkungen seines Erzeugnisses belangt werden kann. Am allerwenigsten wird ein Hersteller die Verantwortung für einen Roboter übernehmen können, der darauf angelegt ist, durch Lernen neue Erfahrungen und Verhaltensroutinen zu erlernen, die zum Zeitpunkt seiner Herstellung überhaupt nicht absehbar sind. Vielmehr wird es immer erforderlich sein, die Verantwortlichkeit, die niemandem in toto zugerechnet werden kann, auf eine Vielzahl mitinvolvierter Akteure aufzuteilen (Lin, Bekey, Abney 2008, S. 57): wobei dann endlose Rechtsstreitigkeiten vorprogrammiert sind, weil über den Aufteilungsschlüssel natürlich keine konsensualen Vorstellungen bestehen.

So erscheint es nicht unwahrscheinlich, dass Roboter in Zukunft – ähnlich wie heute die Landminen – eine breite internationale Ächtung erfahren (Sparrow 2007). Auch aus diesem Grund wird der asymmetrische Feind dazu neigen, den Konflikt aus dem engeren Kriegsgeschehen hinaus ins Herz der angreifenden Nationen zu tragen: mit Terroraktionen, die das Ziel haben, nicht mehr ausdifferenzierte Kampfeinheiten, sondern das gesamte in den Krieg involvierte gesellschaftlich-politisch-militärische System zu treffen.

4     Schluss

Im Vergleich zu den Science-Fiction-Projektionen der vergangenen 80 Jahre sind die Fortschritte in der Kriegsrobotik v. a. deshalb bescheiden geblieben, weil moderne Kriege im Allgemeinen und asymmetrische Konflikte im Besonderen die Sensomotorik und Reflexionskapazitäten der konventionellen Soldaten derart belasten, dass die Perspektive, sie könnten auch nur partiell durch Roboter substituiert werden, immer irrealer erscheint. Dementsprechend sind auch in den letzten Jahren aufkeimende Spekulationen darüber eher müßig, ob in Zukunft

Sehr wohl gibt es aber – verstärkt seit Beginn des Irakkriegs – eine Tendenz zur Entwicklung von Waffensystemen, die innerhalb klar begrenzter funktionaler Nischen aufgrund eigenständiger Wahrnehmungen eigene Entscheidungen treffen und Aktionen ausführen – und damit eine – entfernt mit Kampfhunden vergleichbare – derivierte Autonomie aufweisen, die im Vergleich zu letzteren aber immer im Zugriff expliziter Regeln und reversibler technischer Manipulationen verbleibt.

Einerseits potenzieren sie den Asymmetriegrad der modernen Kriege, indem die mit konventionelleren Waffen und vollem Körpereinsatz kämpfenden Feinde größeren Gefahren ausgesetzt sind und verringerte Wirkungsmöglichkeiten hinnehmen müssen und deshalb wahrscheinlich dazu neigen werden, die Angriffe auf weichere, nichtmilitärische Ziele zu verlagern. Andererseits kann der Einsatz von Robotern insofern enge Grenzen finden, als erstens die hohe Explizitheit ihrer Regelstrukturen es erleichtert, sie zu paralysieren und zweitens die gegenüber Kriegsverbrechen zunehmend sensibilisierte und auf den Ausbau internationaler Strafgerichtsbarkeit bedachte Weltöffentlichkeit nicht bereit ist, die mit dem Robotereinsatz verbundene Diffusion der Verantwortlichkeiten zu tolerieren.

Anmerkungen

[1]  Für einen Eindruck von den Leistungen des Roboters siehe das Video des Herstellers unter http://www.irobot.com und den Prospekt (iRobot Corporation 2011).

[2]  Ebenso können diese Roboter eingesetzt werden, um in solch „selbstloser“ Weise Zivilpersonen zu beschützen (Arkin 2007, S. 11).

Literatur

Arkin, R.C., 2007: Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive Robot Architecture. Georgia Institute of Technology GVU Technical Report GIT-GVU-07-11, S. 1–117; http://www.cc.gatech.edu/ai/robot-lab/online-publications/formalizationv35.pdf (download 20.1.11)

Arkin, R.C., 2009: Governing Lethal Behavior in Autonomous Robots. Boca Raton: CRC Press

Asimov, I., 1950: I, Robot. New York

Axe D., 2009: A Man and his Drones: On the Front Line of Robotic Warfare. WIRED.CO.UK, December 2; http://www.wired.co.uk/news/archive/2009-12/02/a-man-and-his-drones-on-the-front-line-of-robotic-warfare (download 20.1.11)

Basowitz, H.; Persky, H.; Korchin, S.J.; Grinker, R.R., 1955: Anxiety and Stress. New York

Berdal M.R., 1993: Whither UN Peacekeeping? Adelphi Papers. International Institute of Strategic Studies, Tavistock. London

Borenstein, J., 2008: The Ethics of Autonomous Military Robots. In: Studies in Ethics, Law, and Technology 2/1 (2008); http://www.bepress.com/selt/vol2/iss1/art2 (download 20.1.11)

Floridi, L.; Sanders, J.W., 2004: On the Morality of Artificial Agents. In: Minds and Machines 14/3 (2004), S. 349–379; http://www.i-r-i-e.net/inhalt/006/006_full.pdf (download 20.1.11)

Gabriel, R.A.; Savage, P.L., 1978: Crisis in Command. New York

George, A.L., 1971: Primary Groups, Organization and Military Performance. In: Little, R.W. (Hg.): Handbook of Military Institutions. Beverly Hills, S. 293–318

Guetlein, M.A., 2005: Lethal Autonomous Weapons – Ethical and Doctrinal Implications. Joint Military Operation Department; http://www.dtic.mil/cgi-bin/GetTRDoc?AD=ADA464896&Location=U2&doc=GetTRDoc.pdf (download 20.1.11)

Hayes-Roth, F., 1997: Artificial Intelligence. What Works and What Doesn’t? In: AI Magazine 18/2 (1997), S. 99–113

Herman, M.; Fritzson, A.; Hamilton, B.A., 2008: War machines. In: C4ISR Journal June 1 (2008); http://www.c4isrjournal.com/story.php?F=3434587 (download 20.1.11)

iRobot Corporation, 2011: One Robot, Unlimited Possibilities. iRobot 510 PackBot. Bedford, MA; http://www.irobot.com/gi/filelibrary/pdfs/robots/iRobot_510_PackBot.pdf (download 30.3.11)

Lang K., 1965: Military Organizations. In: March, J.G. (Hg.): Handbook of Organizations. Chicago, S. 838–878

Lin, P.; Bekey, G.; Abney, K., 2008: Autonomous Military Robots: Risk, Ethics and Design. US Department of Navy, Office of Naval Research; http://gees.org/files/documentation/30012010082946_Documen-07767.pdf (download 20.1.11)

Mandl, St., 2008: Erschließung des unberücksichtigten Kontexts formalisierten Wissens. Dissertationsschrift, Erlangen; http://deposit.ddb.de/cgi-bin/dokserv?idn=988688395&dok_var=d1&dok_ext=pdf&filename=988688395.pdf (download 20.1.11)

Marino, D.; Tamburrini, G., 2006: Learning Robots and Human Responsibility. In: International Review of Information Ethics 6/12 (2006), S. 47–51; http://www.i-r-i-e.net/inhalt/006/006_full.pdf (download 20.1.11)

Milgram, St., 1974: Obedience to Authority. An Experimental View. New York

Moshkina, L.; Arkin, R.V., 2007: Lethality and autonomous systems: Survey design and results. Technical Report GIT-GVU-07-16. Mobile Robot Laboratory, College of Computing, Georgia Institute of Technology, Atlanta, Georgia; http://www.cc.gatech.edu/ai/robot-lab/online-publications/MoshkinaArkinTechReport2008.pdf (download 20.1.11)

Nilsson, N., 1980: Principles of Artificial Intelligence. San Francisco

Nof, S.Y. (Hg.), 1999: Handbook of Industrial Robotics. New York

Puppe, F.; Stoyan, H.; Studer, R., 2003: Knowledge Engineering. In: Görz, G.; Rollinger, C.-R.; Schneeberger, J. (Hg.): Handbuch der Künstlichen Intelligenz. München, S. 599–641

Royakkers, L.; van Est, R., 2010: The Cubicle Warrior: The Marionette of Digitalized Warfare. In: Ethics and Information Technology 12/3 (2010), S. 289–296

Sharkey, N., 2008: Grounds for Discrimination. Autonomous Robot Weapons. RUSI Defense Systems 11.2. S. 86–89

Shils, E.A.; Janowitz, M., 1948: Cohesion and Disintegration of the Wehrmacht in World War II. In: Public Opinion Quarterly 12 (1948), S. 280–315

Singer, P.W., 2009a: Robots at War: The New Battlefield. In: The Wilson Quarterly 32 (2009), S. 30–48; http://www.wilsonquarterly.com/article.cfm?aid=1313 (download 20.1.11)

Singer, P.W., 2009b: Wired for War. Robots and Military Doctrine. In: Joint Forces Quarterly 52/1 (2009), S. 104–110

Singer, P.W., 2009c: Military Robots and the Law of War. In: The New Atlantis 23 (2009), S. 27–47

Sparrow, R., 2007: Killer Robots. In: Journal of Applied Philosophy 24/1 (2007), S. 62–77

Spears, W.M.; Spears, D.F.; Hamann, J.C.; Heil, R., 2004: Distributed, Physics-Based Control of Swarms of Vehicles. In: Autonomous Robots 17 (2004), S. 137–162

Sullins, J.P., 2006: When is a Robot a Moral Agent? In: International Review of Information Ethics 6/12 (2006), S. 24–30

Sullins, J.P., 2010: RoboWarfare: can robots be more ethical than humans on the battlefield? In: Journal of Ethics and Information Technology 12/3 (2010), S. 263–275

Tamburrini, G., 2009: Robot Ethics: A View from the Philosophy of Science. In: Capurro, R.; Nagenborg, M. (Hg.): Ethics and Robotics. Amsterdam, S. 11–22

Young, S.; Kott A., 2009: Control of Small Robot Squads in Complex Adversarial Environments: a Review. Army Research Lab Adelphi 6/2009; http://alexander.kott.org/pubs_website/14CCRTS-2009-RobotC2.pdf (download 20.1.11)

Ziegler, R., 1968: Einige Ansatzpunkte der Militärsoziologie und ihr Beitrag zur soziologischen Theorie. In: König, R. (Hg.): Beiträge zur Militärsoziologie. Köln, S. 13–37

Kontakt

Prof. Dr. Hans Geser
Soziologisches Institut der Universität Zürich
Andreasstraße 15, 8050 Zürich, Schweiz
Tel. +41 44 635-2310
E-Mail: hg∂socio.ch
Internet: http://www.geser.net