Autonomie und Kontrolle. Arbeit in hybriden Systemen am Beispiel der Luftfahrt

Schwerpunkt: Wandel der Arbeit

Autonomie und Kontrolle

Arbeit in hybriden Systemen am Beispiel der Luftfahrt

von Johannes Weyer, Universität Dortmund

Die Luftfahrt ist ein Prototyp einer neuen Arbeitswelt, die zunehmend von autonomer Technik geprägt ist und damit die Frage nach künftigen Formen der Kooperation zwischen Mensch und Technik aufwirft. Dabei geht es nicht nur um die Entwicklung neuartiger Handlungsroutinen auf der Mikro-Ebene der Mensch-Maschine-Interaktion in hybriden Systemen, sondern auch um die Entwicklung neuer institutioneller Strukturen auf der Meso-Ebene des Gesamtsystems „Luftverkehr“. Empirische Untersuchungen belegen eine große Verunsicherung unter Piloten, die sich häufig auf der Suche nach einem neuen Selbstverständnis befinden. Dies verweist auf Konfliktpotenziale, aber auch Gestaltungsspielnotwendigkeiten, die mit dem Vordringen autonomer Technik einhergehen.

1     Autonome Technik und die Zukunft der Arbeit

In vielen Bereichen der Lebens- und Arbeitswelt haben sich in den letzten Jahren fundamentale Veränderungen vollzogen, die mit der flächendeckenden Verbreitung von IT-Systemen, vor allem aber mit deren Vernetzung und den damit einhergehenden neuartigen Möglichkeiten zusammenhängen, komplexe Systeme zu überwachen und zu steuern (Rochlin 1998). Ein besonderes Merkmal der jüngsten Entwicklung ist zudem das scheinbar unaufhörliche Vordringen autonomer technischer Systeme, die immer mehr zu Mitspielern in derartigen Netzwerken geworden sind (Mattern 2003). In vielen Bereichen der Gesellschaft entstehen somit „hybride Konstellationen, die von menschlichen Akteuren und (teil-)autonomen Maschinen bevölkert sind, die nebeneinander, miteinander, teils aber auch gegeneinander agieren“ (Weyer 2005, S. 6).

Nur wenige Jahre nach der Umwälzung der industriellen Gesellschaft zur Wissensgesellschaft erleben wir gegenwärtig die nächste Phase der gesellschaftlichen Transformation, in der die Wissensgesellschaft sich in eine posthumanistische Hybrid-Gesellschaft verwandelt; der Mensch wird dabei zu einer Komponente eines hochautomatisierten Räderwerks, das von Robotern, autonomen Software-Agenten und Multi-Agenten-Systemen mit geprägt ist, die sich in zunehmendem Maße selbst steuern.

Dieses Autonom-Werden von Technik rührt am Selbstverständnis des Menschen und wirft Grundfragen der Anthropologie neu auf (Brooks 2002). Es hat jedoch auch gravierende Konsequenzen für die Arbeitswelt, die von der Soziologie bislang kaum wahrgenommen wurden. Sowohl in der Arbeitssoziologie als auch in der Techniksoziologie gibt es nur wenige Arbeiten, die sich mit diesen Entwicklungen befassen (z. B. Pfeiffer 2001; Böhle et al. 2004; Rammert, Schulz-Schaeffer 2002); und auch die soziologische Theorie hat die Tatsache des Mithandelns von Technik noch nicht hinreichend theoretisch-konzeptionell verarbeitet, da sie sich vorwiegend mit Adaptionen der flachen Ontologie von Bruno Latour befasst (Weyer 2007b).

Bei der Entwicklung hochautomatisierter Systemen hat die Luftfahrt immer eine Vorreiter-Rolle gespielt. Kapitel 3 versucht daher, am Beispiel der Pilotenarbeit einige Dimensionen zu entwickeln, die bei einer systematischen Analyse der arbeitssoziologischen Aspekte hybrider Systeme hilfreich sein könnten. Zunächst aber sollen in Kapitel 2 einige Tendenzen der Entwicklung des Luftverkehrs skizziert werden.

2     Das Beispiel der Pilotenarbeit

Nach der Mechanisierung des Fliegens zu Beginn des 20. Jahrhunderts, der Jet-Revolution der 1960er Jahre und der Computerisierung der Flugsteuerung in den 1980er Jahren [1] findet gegenwärtig in der Luftfahrt erneut eine technische Revolution statt, die durch den flächendeckenden Einsatz autonomer Systeme gekennzeichnet ist, die – untereinander vernetzt – in der Lage sind, menschliche Problemlösungen zu substituieren. Immer intensiver werden Szenarien diskutiert und praktisch umgesetzt, in denen „intelligente“ und miteinander vernetzte Technik die Systeme vollautomatisch steuert und der Mensch lediglich auf die marginale Rolle des „Systemüberwachers“ reduziert wird, der allenfalls in Notsituationen einzugreifen hat.

Die Luftfahrt hat bei etlichen technischen Innovationen eine Pionierrolle gespielt; sie war – ihrerseits inspiriert von militärischen Entwicklungen – oftmals der Trendsetter, dem andere gesellschaftliche Bereiche mit einem gewissen zeitlichen Abstand folgten. Dies gilt beispielsweise für die elektronische Steuerung und Überwachung der Systeme, die in den 1980er Jahren mit dem „Glasscockpit“ des Airbus A320 Einzug in die Passagierfliegerei hielt und mittlerweile auch in andere Verkehrsbereiche wie den Straßenverkehr diffundiert, wo mit dem Einsatz einer wachsenden Zahl elektronischer Assistenzsysteme die Vision des autonomen Fahrens näher rückt. In der Luftfahrt entwickelte sich aus dem Vier-Mann-Cockpit der 1950er Jahre und dem Drei-Mann-Cockpit der 1970er Jahre das heute übliche Zwei-Mann-Cockpit, in dem jedoch der weitaus größte Teil der Operationen vom Computer ausgeführt wird: Während das „Flight Management System“ die Navigation und Streckenplanung vornimmt, regelt der Autopilot die Flugsteuerung vollautomatisch; und die „Alpha Protection“ greift ein, wenn der Pilot das Flugzeug in eine kritische Lage bringt, in der z. B. ein Strömungsabriss droht.

Die Computerisierung der Fliegerei hat also nicht nur zu einer enormen Rationalisierung geführt; sie hat auch das Verhältnis von Mensch und Maschine grundlegend verändert. So sah beispielsweise die ursprüngliche Produktphilosophie von Airbus – im Gegensatz zu der von Boeing verfolgten – eine weitgehende Verdrängung und Entmündigung des Piloten vor, der auf eine „Lückenbüßerfunktion“ reduziert werden sollte. Der Mensch wurde als primäre Störquelle angesehen, die es zu eliminieren galt. Es bedurfte eines langen Lernprozesses mit etlichen schweren Unglücken, um bei Airbus die Einsicht reifen zu lassen, dass es keine perfekte Technik gibt und man daher die Strategie der Automatisierung nicht überziehen sollte (Weyer 1997). Diese Phase der „Realexperimente“ (Krohn 2007) führte zu der Erkenntnis, dass der Mensch offenbar unverzichtbar ist und es einer Optimierung des Gesamtsystems und nicht nur dessen technischer Komponenten bedarf, um einen zuverlässigen Betrieb zu gewährleisten.

Mittlerweile bahnt sich jedoch die nächste technische Revolution in der Luftfahrt an, die dadurch gekennzeichnet ist, dass Rechnerintelligenz nicht nur für die Steuerung des (singulären) Flugzeugs, sondern zunehmend auch für die Koordination und Steuerung des Gesamtsystems Luftverkehr eingesetzt wird. Der erste Schritt auf diesem Weg war das „Traffic Alert and Collision Avoidance System“ (TCAS), das seit Mitte der 1990er Jahre im Einsatz ist und einen wirkungsvollen Kollisionsschutz bietet, wenn sich zwei Flugzeug gefährlich nahe kommen (Weyer 2006a). Die Basis von TCAS sind miteinander kommunizierende Rechner an Bord der Flugzeuge, die im Konfliktfall unabhängig vom Piloten eine Lösung aushandeln, die dieser dann allerdings manuell ausführen muss. [2] TCAS kann also als ein Prototyp einer neuen Generation von Technik angesehen werden, nämlich als ein verteiltes Netzwerk autonomer, eingebetteter Systeme, die mittels entsprechender Sensoren ihre Umwelt wahrnehmen und bei Bedarf ad hoc Problemlösungen aushandeln, die für den betroffenen menschlichen Entscheider nur partiell transparent sind (denen er aber tunlichst blind folgen sollte – so die Logik von TCAS).

TCAS ist jedoch offenkundig nur die Durchgangsstation zu einer viel umfassenderen Transformation des Luftverkehrs, denn „unbemannte“ Flugzeuge dringen zunehmend auch in den zivilen Luftraum vor. Dies wirft die Frage auf, wie sich die Koordination des Luftverkehrs der Zukunft gestalten wird, der von einem Mix aus bemannten und unbemannten Systemen geprägt ist. Es geht dabei nicht nur um (militärisch oder zivil einsetzbare) Aufklärungsflugzeuge, die bereits in großer Zahl im Einsatz sind, sondern auch um unbemannte Passagierflugzeuge. In diesen wird möglicherweise nur noch ein einzelner Pilot als Einsatzreserve für Notfälle sowie als „Akzeptanzbeschaffer“ sitzen, der aber lediglich als passiver Beobachter eines Systems fungieren wird, das alle bordseitigen Prozesse weitgehend selbsttätig regelt (Weyer 2007a). Neben der Fähigkeit der autonomen Navigation und Flugsteuerung spielt vor allem eine sichere Kollisionsvermeidung, die nicht mehr auf den Menschen angewiesen ist, in diesen Szenarien eine entscheidende Rolle (Hughes 2006).

3     Tendenzen in der Entwicklung von Arbeit in hybriden Systemen

Am Beispiel der Luftfahrt lassen sich also einige Entwicklungstendenzen der Arbeit festmachen. Dies gilt vor allem deshalb, weil die modernen Flugzeuge der Gegenwart (und erst recht die der Zukunft) treffende Beispiele für die Allgegenwart eingebetteter, sensorbestückter Computer sind, die automatisch und zunehmend autonom im Hintergrund operieren, eine bemerkenswerte Problemverarbeitungskapazität besitzen und interaktiv Lösungen generieren.

3.1     Virtualisierung

Eine offenkundige Tendenz besteht in der Virtualisierung der Arbeitsprozesse und der Arbeitsumgebung: Die Arbeit von Piloten an Bord moderner Flugzeuge findet in künstlichen Umgebungen statt. Ein Flugzeug zu steuern bedeutet, sich vollständig auf technische Geräte zu verlassen, die ein virtuelles Bild des Luftraums konstruieren, das kaum noch von einem Computerspiel wie „Flight Simulator“ von Microsoft zu unterscheiden ist. [3] Die „Realität“ an Bord wird dem Piloten nahezu ausschließlich über Steuerungs- und Diagnosesysteme vermittelt, die jedoch ein „Eigenleben“ derart haben, als sie nicht mechanisch funktionieren, sondern autonom agieren und interagieren.

Sowohl dispositive als auch kommunikative Tätigkeiten werden zunehmend automatisiert (Pfeiffer 2001, S. 242); die Streckenplanung übernimmt beispielsweise das „Flight Management System“, dem nur noch die Wegpunkte eingegeben werden müssen. Auch soll der – störanfällige und oftmals überlastete – Sprechfunk in den kommenden Jahren durch eine elektronische Datenkommunikation zwischen Tower und Cockpit abgelöst werden, mittels derer alle relevanten Informationen zuverlässiger als bisher übertragen werden sollen.

Mit dieser weit gehenden Virtualisierung der Arbeitsprozesse und Informatisierung der Kommunikation geht eine fast vollständige räumliche Distanzierung vom Ort des Geschehens (z. B. in den Triebwerken) einher; ein Flugzeug ist ein komplexes Echtzeit-System, das während des Betriebs nicht begehbar ist. Zudem ergibt sich eine zeitliche Entkopplung von Planung und Steuerung; die Eingabe der Route in das „Flight Management System“ erfolgt beispielsweise in der Regel bereits vor dem Start des Flugzeugs.

Dennoch vermitteln Interviews mit Piloten den Eindruck, dass auch ein modernes Verkehrsflugzeug ohne „High-Tech-Gespür“ nicht zu fliegen ist. Allerdings muss man diesen von Fritz Böhle und anderen (Bauer et al. 2002) geprägten Begriff insofern leicht modifizieren, als es nicht um die unmittelbare Erfahrung im Sinne einer körperlich-sinnlichen Wahrnehmung der Prozesse in der Anlage geht, sondern eher um ein Gespür dafür, was der Computer mit der Anlage macht – also ein Gespür für die Steuerungstechnik und damit einen eher indirekten, vermittelten Zugang zur Anlage selbst.

3.2     Hybridisierung

Eine zweite wesentliche Entwicklungstendenz der Arbeit in hochautomatisierten Systemen ergibt sich aus der veränderten Rollenverteilung, die mit dem Vordringen autonomer Technik einhergeht. Selbst wenn man posthumanistische Szenarien einer vollständigen Ersetzung des Menschen durch Roboter, wie sie beispielsweise Hans Moravec (2000) vertritt, für futuristische Visionen hält, so überrascht in Interviews mit Piloten doch, welch hohen Grad an Autonomie sie der Technik zuschreiben. Dies wird beispielsweise in folgendem Zitat deutlich:

Auch ein Zitat aus einer Luftfahrt-Fachzeitschrift, demzufolge die TCAS-Systeme „Intentionen kommunizieren“, belegt anschaulich, dass sich in der Luftfahrt zurzeit etwas abspielt, was dem Typus von Beziehungen nahe kommt, den wir bislang ausschließend Menschen zuordnen (Nordwall 2002, S. 36). Denn TCAS funktioniert nach dem Prinzip der „Multi-Agenten-Systeme“ (MAS), die nach dem Muster menschlicher Sozialsysteme konstruiert sind und sich durch (quasi-)soziale Interaktionen auszeichnen (Brooks 2002; Weyer 2006a).

Durch das Neben- und Miteinander menschlicher und künstlicher Sozialsysteme entstehen hybride Systeme verteilten Handelns, in denen Entscheidungen im Verbund von menschlichen Entscheidern und (teil-)autonomer Technik getroffen werden, und zwar in einer Weise, die es für einen Außenstehenden kaum noch unterscheidbar macht, wer beispielsweise das Flugzeug fliegt: der Pilot, der Autopilot oder beide zusammen.

Die moderne Luftfahrt ist daher ein anschauliches Beispiel für das Konzept der verteilten Handlungsträgerschaft (Rammert, Schulz-Schaeffer 2002): Im Cockpit wirken Piloten („Humans“ im Sinne von Bruno Latour) und eine Vielzahl von Assistenzsystemen wie TCAS („Non-humans“) zusammen, um eine Lösung für eine gegebene Situation zu finden. Dabei übernimmt TCAS die Verantwortung für die Situationsanalyse, die Interaktion mit dem entgegen kommenden Flugzeug sowie die Generierung einer Handlungsempfehlung für den Piloten (die in Form einer menschenähnlichen Sprachausgabe übermittelt wird). Der Pilot hingegen ist verantwortlich für die Handlungsdurchführung sowie die Überwachung des gesamten Systems und die Bewertung seiner Leistungen. [5]

Es gibt zwar Fälle, in denen smarte Technik den Menschen vollständig substituiert und autonom „handelt“ – beispielsweise wenn es darum geht, das Ausweichmanöver mit dem anderen Flugzeug abzustimmen (was früher die Aufgabe des Fluglotsen war). Die vollständige Handlung, einem anderen Flugzeug in einer kritischen Situation auszuweichen, wird jedoch von einem hybriden System von menschlichen Akteuren und nicht-menschlichen Agenten vorgenommen, von denen jeder für unterschiedliche Sequenzen des Handlungsstroms verantwortlich ist.

3.3     Entgrenzungen

Diese neuartigen Formen der Hybridisierung beinhalten also eine „Entgrenzung“ von Mensch und Maschine. Pilot und Autopilot begegnen sich als handlungsmächtige Einheiten, die sich wechselseitig kontrollieren und substituieren können. Diese Symmetrie zwischen Mensch und Technik beschreibt ein Pilot, wenn er zunächst darauf verweist, dass er die Kontrolle übernimmt, wenn der Computer einen Fehler macht, und dann in nahezu identischer Wortwahl folgendes hinzufügt:

Allein die gewählten Formulierungen sind bezeichnend und untermauern den Eindruck einer wechselseitigen Kontrolle von Mensch und Technik im hybriden System Flugzeugcockpit.

Derartige Grenzverwischungen werden in dem Maße weiter zunehmen, wie unbemannte Flugzeuge in den zivilen Luftraum vordringen (Weyer 2007a). Denn für einen störungsfreien Betrieb unbemannter Flug-Roboter müssen diese mit Sicherungssystemen insb. zur Kollisionsvermeidung ausgerüstet sein, die die Fähigkeiten des Menschen „replizieren“ – was nicht nur technisch eine enorme Herausforderung ist (Hughes 2007, S. 47). Im Luftverkehr der Zukunft, der durch einen gemischten Betrieb bemannter und unbemannter Flugsysteme gekennzeichnet sein wird, verschwimmen die Grenzen zwischen den Aktionen, die vom Menschen, und denjenigen, die von autonomen technischen Geräten durchgeführt werden. Mit der Verfügbarkeit neuer Technologien zur Replikation menschlicher Eigenschaften bzw. Leistungen wird zugleich der Druck wachsen, die Rolle des Menschen weiter zu reduzieren.

3.4     Adaptives Handeln

Die Hybridisierung der Systeme und die Entgrenzung von Mensch und Technik sind jedoch nicht ausschließlich unter dem Aspekt einer neuen Rollenverteilung sowie der Marginalisierung bzw. Substitution des Menschen zu sehen. Es findet vielmehr eine sukzessive Verlagerung vom strategischen zum adaptiven Handeln statt (Weyer 2006b). Ein strategisch handelnder Akteur verfolgt – im Sinne von Jürgen Habermas (1968) – ein zweckrationales Kalkül und bezieht die antizipierten Handlungen seiner Mitspieler in sein Kalkül mit ein. Dabei unterstellt er nicht nur die Handlungsfähigkeit der anderen Akteure, sondern auch eine gewisse Regelhaftigkeit und damit Berechenbarkeit ihres Handelns; denn ohne eine derartige „Erwartungssicherheit“ (Schimank 1992) wäre menschliche Sozialität undenkbar.

Im Falle der Interaktion mit autonomer Technik ergibt sich jedoch eine anders gelagerte Situation, denn autonome Technik operiert nicht nach einem erwartbaren und vom Menschen beeinflussbaren Muster, sondern produziert situationsangepasste Lösungen, die insofern emergenten Charakter haben, als sie nicht vorab in allen Details prognostiziert werden können. Und dies hat Konsequenzen für die Handlungsfähigkeit: Wenn ein Pilot ein entgegen kommendes Flugzeug auf dem Bildschirm sieht, muss er, wenn er sich auf TCAS verlässt, keine Ausweichstrategie entwickeln, die er dann mit dem Fluglotsen und dem anderen Piloten kommunikativ abstimmt. Er kann stattdessen in Ruhe auf die Anweisung warten, die von den beiden interagierenden TCAS-Systemen automatisch generiert wird. Es ist nahezu unmöglich, im Voraus zu ahnen, ob diese Anweisung „Steigen!“ oder „Sinken!“ sein wird, denn dies hängt von einer ganzen Reihe von Faktoren ab (u. a. den ID-Nummern der kommunizierenden TCAS-Computer), die der Pilot kaum vorhersehen, geschweige denn beeinflussen kann. Die Interaktion zwischen TCAS und dem Piloten erinnert somit eher an ein Stimulus-Response-Modell als an das bekannte Konzept strategischen Handelns. Man kann hier eher von adaptivem Handeln sprechen, das sich blitzschnell auf die von den IT-Systemen generierte Situation einstellten muss.

3.5     Verunsicherung durch autonome Technik

Die Prozesse der Virtualisierung, Hybridisierung und Entgrenzung führen zu neuartigen Verunsicherungen. Das bereits mehrfach erwähnte Kollisionsvermeidungssystems TCAS ist ein Beispiel für ein avanciertes technisches System, das immer wieder für Irritationen sorgt und zumindest an zwei fatalen Unglücken beteiligt war – nämlich an den Zusammenstößen zweier Flugzeuge am 1. Juli 2002 über dem Bodensee bei Überlingen sowie am 29. September 2006 über dem Amazonas-Urwald in Brasilien. Beide Unglücke hätte TCAS eigentlich zuverlässig vermeiden sollen; aber es gab Lücken im System und widersprüchliche Regelsysteme, die zumindest im Fall der Kollision über dem Bodensee für den Gang der Ereignisse mit verantwortlich waren. [6] Das Beispiel zeigt, dass smarte Technik selbst in einem professionellen Kontext für Konfusion sorgen kann. Ferner führt der Einsatz autonomer Systeme, die im Regelfall sämtliche Prozesse selbsttätig steuern, zu einem Verlust der Lernfähigkeit – zum einen, weil die manuelle Steuerung derartiger Situationen im Vertrauen auf die funktionierende Technik immer weniger trainiert wird, zum anderen aber weil neue Unsicherheiten (in Form selten auftretender und schwer antizipierbarer Anomalien) entstehen, die mittels gelernter Routinen kaum zu bewältigen sind. Oftmals ist es für die Piloten schwer nachzuvollziehen, was sich gerade abspielt, und es ist ebenso schwierig, aus Erfahrung zu lernen, wie sich TCAS in einer unvorhersehbaren Situation verhält. Diese Hypothetizität des Ernstfalls ist ein gravierendes Problem, dem die Fluggesellschaften durch regelmäßiges Simulatortraining zu begegnen suchen.

3.6     Riskante Entscheidungen

In gewisser Weise setzen autonome Systeme somit den bekannten Pfad der Hochautomation fort, aber auch die mit ihnen einher gehenden Risiken ähnlich denen anderer hochautomatisierter Systeme. Die Beteiligung autonomer Technik an Entscheidungsprozessen führt also zu einer Intensivierung der Probleme und Risiken. Ein modernes Flugzeug zu fliegen ist Routine-Arbeit mit langweiligen Überwachungsaufgaben, was die Aufmerksamkeit und die Sensibilität für Risiken vermindert, vor allem in Systemen, die als sich selbst steuernd und inhärent sicher betrachtet werden. In den selten auftretenden Störfällen, von denen die Operateure oftmals überrascht werden, produziert dann eine unerwartete Interaktion der Systemkomponenten eine Situation, die nur ansatzweise durchschaut wird und die kaum adäquat beherrscht werden kann.

Allerdings befindet sich das Bedienpersonal dann plötzlich in einer Situation, in der es die Verantwortung für die Kontrolle der Anlage (inkl. der autonomen Systeme) übernehmen muss. In einem derartigen Fall sind schwierige Entscheidungen zu treffen, die mit ungewohnten und zuvor unbekannten Unsicherheiten einhergehen. In gewisser Weise kann man von einem Automatisierungs-Paradox sprechen, nämlich dem Re-entry des menschlichen Entscheiders, der von Entscheidungen erster Ordnung (das Flugzeug in den Steig- oder Sinkflug zu steuern) ausgeschlossen wurde und nunmehr Entscheidungen zweiter Ordnung treffen muss, nämlich unter hohem Zeitdruck festzustellen, ob die Anzeigen der automatischen Systeme korrekt sind und ob er sich auf die von diesen Systemen generierten Anweisungen verlassen kann.

3.7     Systembeobachter oder Manager?

Auf diese neue Konstellation, die durch das Mit-Handeln autonomer Technik entstanden ist, reagieren die Piloten auf sehr unterschiedliche Weise: Während der Systembeobachter ein unbedingtes Vertrauen in die Technik besitzt und seine Rolle als die eines weit gehend passiven Überwachers der sich selbst regulierenden Systeme definiert, kennzeichnet den Manager eine kritische Distanz gegenüber der Technik, die von einem wachsamen Vertrauen geprägt ist (dazu ausführlich Weyer 2007a). Der Systembeobachter betreibt ein weitgehend reaktives Störfallmanagement; der Manager hingegen versucht, die Prozesse innerhalb des Systems gedanklich zu antizipieren und ein mentales Bild der Lage zu produzieren, um jederzeit steuernd einzugreifen zu können. Dabei rückt das fliegerische Können in den Hintergrund; denn der Autopilot steuert das Flugzeug in vielen Flugphasen mittlerweile besser als der Mensch. In den Mittelpunkt rückt vielmehr die Fähigkeit, „gute Entscheidungen (zu) machen“ (P8, Z. 501), und zwar auf einer Meta-Ebene der Entscheidung über die Aktivierung autonomer Systeme.

Diese beiden Selbstbilder von Piloten können als – extrem entgegen gesetzte – Reaktionen auf die Tatsache der Hybridisierung von Entscheidungsprozessen aufgefasst werden, die beide die Rolle des Menschen im soziotechnischen System Cockpit neu zu definieren suchen: Zum einen in der Reduktion auf ein mehr oder minder passives Anhängsel der weitgehend autonom agierenden Maschine, zum anderen in dem Versuch, die Symmetrie von Mensch und Technik in Fragen der Systemsteuerung durch ein Modell der wechselseitigen Kontrolle (vgl. Kap. 3.3) sowie die Entwicklung eines Gespürs zweiter Ordnung (vgl. Kap. 3.1) zu ergänzen.

3.8     Disziplinierung und Normierung

Diese (tastenden) Versuche, die Rolle und die Spielräume des menschlichen Entscheiders im Cockpit neu zu definieren, spielen sich allerdings im Kontext eines soziotechnischen Systems ab, das in immer stärkerem Maße die Überwachung und Kontrolle sämtlicher Prozesse im Flugzeug ermöglicht. So wird im Airbus A320 beispielsweise eine Vielzahl von Daten aufgezeichnet, die an die Flugsicherung, aber auch an den technischen Service der Fluggesellschaften übermittelt werden, z. B. um Wartungsarbeiten zu beschleunigen. Diese totale Transparenz wird von den Piloten als eine neuartige Belastung beschrieben, da jegliche Form der Abweichung von der Norm nunmehr rekonstruiert werden kann. Dies gilt nicht nur für Pilotenfehler, sondern auch für den sicheren und ökonomisch effizienten Ablauf eines Fluges. Die Piloten unterliegen damit einem gesteigerten Rechtfertigungsdruck; auf ihnen lastet auch eine höhere Verantwortung als zuvor, da ihr Arbeitshandeln in hohem Maße normiert und standardisiert werden kann.

Über die Vernetzung der IT-Systeme in Echtzeit eröffnet sich also die Option des „Mikromanagements“ (Rochlin 1998. S. 148), die zu einer Entsubjektivierung des Arbeitshandelns führt, indem sie vormalige Freiheiten und Handlungsspielräume der Piloten einschränkt und sie zu einer optimierten Flugsteuerung zwingt – was oftmals nur durch das Einschalten des Autopiloten gelingt.

Zudem entsteht mit der technischen Möglichkeit der Ferndiagnose („downlink“) zunehmend auch die Option der Eingriffe in das Fluggeschehen bis hin zur Fernsteuerung des Flugzeugs („uplink“) – mit der mittelfristigen Perspektive der Einführung unbemannter Fluggeräte (vgl. Kap. 2).

3.9     Neue Governance-Formen

Schließlich sei noch erwähnt, dass die Reorganisation der Arbeit auf der Mikro-Ebene der Mensch-Maschine-Interaktion im hybriden System Cockpit eingebettet ist in eine umfassende Reorganisation der Meso-Ebene der Steuerung des Luftverkehrs. Bis in die 1990er Jahre operierte der Luftverkehr im Modus der hierarchischen Steuerung, der von einer zentralen Organisation der Flugsicherung (Air Traffic Control, ATC) exekutiert wurde. Das Vordringen autonomer, vernetzter technischer Systeme ermöglicht nunmehr neuartige Formen der dezentralen Selbst-Koordination, in denen die Beteiligten mit Hilfe avancierter technischer Assistenzsysteme die Problemlösungen (z. B. für den Fall der Kollisionsvermeidung) generieren, indem sie auf lokaler Ebene Verhandlungen führen (dazu ausführlich Weyer 2006a, ders. 2007a). Die gegenwärtige Situation ist durch ein (riskantes) Nebeneinander zweier Systeme mit unterschiedlichen Sicherheitsarchitekturen sowie ein Experimentieren mit neuen Modi der System-Steuerung gekennzeichnet, die jenseits der klassischen Dichotomie von zentraler Steuerung und dezentraler Koordination liegen. Damit zeichnet sich auf mittlere Sicht eine Neu-Verteilung der Rollen von Fluglotsen und Piloten ab: Während die Fluglotsen in Zukunft sich vorrangig auf das Verkehrsmanagement konzentrieren werden, erhalten die Piloten im Modus des „Free-flight“ eine höhere Autonomie in Fragen der Navigation, der Koordination und der Kollisionsvermeidung. Diese Prozesse markieren eine fundamentale Transformation des Systems Luftverkehr, die Auswirkungen auf das Arbeitshandeln der Piloten hat.

4     Fazit: Autonomiegewinne – Autonomieverluste

Die Arbeit in hybriden Systemen ist also durch eine spannungsreiche und tendenziell widersprüchliche Mischung aus unterschiedlichen Trends gekennzeichnet. Auf der einen Seite erleben wir eine deutliche Einschränkung der Autonomie der Piloten, die mit dem Vordringen avancierter Technik an Bord der Flugzeuge einhergeht. In dem Maße, in dem autonome Technik das Flugzeug steuert, verringern sich die Handlungsspielräume und Eingriffsmöglichkeiten des menschlichen Akteurs; zudem erhöht sich die Transparenz und Kontrolldichte. Dies hängt mit der Virtualisierung der Prozesse, der Hybridisierung der Entscheidungskonstellation sowie der Entgrenzung von Mensch und Technik zusammen, was letztlich in neuartige Formen der symmetrischen Kooperation sowie der wechselseitigen Kontrolle von Mensch und Technik mündet. Die Typen des „Systembeobachters“ und des „Managers“ (vgl. Kap. 3.7) lassen sich als erste tastende Versuche interpretieren, mit den entstandenen Verunsicherungen und Entscheidungsproblemen umzugehen und die Rolle des Menschen in hybriden Systemen neu zu definieren.

Auf der anderen Seite ergeben sich aber mit der Dekonstruktion der „alten“ zentralistischen Ordnung des Luftverkehrs und der Übertragung klassischer Aufgaben der Flugsicherung an die dezentralen Einheiten auch neue Handlungsspielräume. Die momentane Situation kann somit nur als ambivalent beschrieben werden: Die Technik, welche die Autonomie des Piloten im Mensch-Maschine-System Cockpit einschränkt, erweitert zugleich den Handlungsspielraum des soziotechnischen Systems Flugzeug im Gesamtsystem Luftverkehr, das beispielsweise seine Route – in Abstimmung mit anderen Flugzeugen – nunmehr autonom gestalten kann. Es ist jedoch zu vermuten, dass diese neuen Spielräume weniger den individuellen Piloten zugute kommen, sondern verstärkt von den Fluggesellschaften genutzt werden, um innerorganisationale Optimierungsstrategien zu verfolgen. Ein Pilotprojekt von United Parcel Service in den USA weist deutlich in diese Richtung: Hier werden nämlich die neuen Freiheiten dazu genutzt, um die Aktionen einer Flotte von Frachtflugzeugen zu koordinieren und diese enger in das Supply Chain Management einzubinden (Hughes 2006).

Die Luftfahrt ist ein Prototyp der neuen Arbeitswelt, in dem zurzeit neue Formen der Kooperation zwischen Mensch und autonomer Technik sowie der Verteilung der Rollen der Beteiligten experimentell erprobt werden. Dies gilt nicht nur für die Entwicklung von Handlungsroutinen auf der Mikro-Ebene der Mensch-Maschine-Interaktion in hybriden Systemen, sondern auch für die Entwicklung neuer institutioneller Strukturen auf der Meso-Ebene des Gesamtsystems Luftverkehr. Die laufenden Transformationsprozesse bergen ein großes Konfliktpotenzial; sie weisen aber auch auf die Gestaltungsspielräume (und -notwendigkeiten) hin, die sich aus dem Vordringen autonomer Technik ergeben.

Anmerkungen

[1] Zur Entwicklung des computergestützten Fliegens in den 1980/90er Jahren am Beispiel des Airbus A320 siehe Weyer 1997.

[2] Eine automatische Ausführung der Ausweichempfehlungen durch den Autopiloten wäre technisch möglich und war auch bei der Konzipierung des Systems in den 1970er Jahren angedacht.

[3] Persönliche Information Burkhard Kruse (Lufthansa), 7. April 2005.

[4] Im Januar 2007 wurden im Rahmen eines von der DFG geförderten Projekts „Mensch und Technik in der Logistik“ Interviews mit acht Piloten und einer Pilotin einer großen Fluggesellschaft geführt; alle befragten Personen flogen Flugzeuge der A320-Familie von Airbus. Aus Gründen der Anonymisierung wird nur die männliche Form verwendet.

[5] Dies beinhaltet ebenfalls die Meta-Entscheidung, sich im Konfliktfall ganz auf TCAS zu verlassen und die Anweisungen der Flugsicherung zu ignorieren.

[6] Dazu ausführlich Weyer 2006a

Literatur

Bauer, H.G. et al., 2002:
Hightech-Gespür. Erfahrungsgeleitetes Arbeiten und Lernen in hoch technisierten Arbeitsbereichen. Bonn (Schriftenreihe des Bundesinstituts für Berufsbildung, Bd. 253)

Böhle, F. et al., 2004:
Der gesellschaftliche Umgang mit Erfahrungswissen: Von der Ausgrenzung zu neuen Grenzziehungen. In: Beck, U.; Lau, C., (Hg.): Entgrenzung und Entscheidung. Was ist neu an der Theorie reflexiver Modernisierung. Frankfurt a. M.: Suhrkamp, S. 95-122

Brooks, R., 2002:
Menschmaschinen. Wie uns die Zukunftstechnologien neu erschaffen. Frankfurt a. M.: Campus

Habermas, J., 1968:
Technik und Wissenschaft als Ideologie. Frankfurt a. M.: Suhrkamp

Hughes, D., 2006:
ADS-B Pioneer. Cargo carrier UPS plans to save fuel and improve runway safety next year. In: Aviation Week & Space Technology, November 6, 2006, S. 56-58

Hughes, D., 2007:
File-and-Fly Wannabes. If UAVs could fly routinely in the National Airspace System, their potential would be huge. In: Aviation Week & Space Technology, February 12, 2007, S. 46-49

Krohn, W., 2007:
Realexperimente – Die Modernisierung der ‚offenen Gesellschaft' durch experimentelle Forschung. In: Erwägen Wissen Ethik (im Ersch.)

Mattern, F. (Hg.), 2003:
Total vernetzt. Szenarien einer informatisierten Welt (7. Berliner Kolloquium der Gottlieb Daimler- und Karl Benz-Stiftung). Heidelberg: Springer

Moravec, H., 2000:
Die Roboter werden uns überholen. In: Spektrum der Wissenschaft – Spezial: Forschung im 21. Jahrhundert (1/2000), S. 72-79

Nordwall, B.D., 2002:
TCAS more ‚foolproof' than generally recognized. In: Aviation Week & Space Technology, July 15, 2002, S. 36

Pfeiffer, S., 2001:
information@Work. Neue Tendenzen in der Informatisierung von Arbeit und vorläufige Überlegungen zu einer Typologie Informatisierter Arbeit. In: Matuschek, I. et al. (Hg.): Neue Medien im Arbeitsalltag. Empirische Befunde – Gestaltungskonzepte – Theoretische Perspektiven. Wiesbaden: Westdeutscher Verlag, S. 239-257

Rammert, W.; Schulz-Schaeffer, I., 2002:
Technik und Handeln. Wenn soziales Handeln sich auf menschliches Verhalten und technische Abläufe verteilt. In: Rammert, W.; Schulz-Schaeffer, I. (Hg.): Können Maschinen handeln? Soziologische Beiträge zum Verhältnis von Mensch und Technik. Frankfurt a. M.: Campus, S. 11-64

Rochlin, G., 1998:
Trapped in the net. The unanticipated consequences of computerization. Princeton: Princeton University Press

Schimank, U., 1992:
Erwartungssicherheit und Zielverfolgung. Sozialität zwischen Prisoner's Dilemma und Battle of the Sexes. In: Soziale Welt 43 (1992), S. 182-200

Weyer, J., 1997:
Die Risiken der Automationsarbeit. Mensch-Maschine-Interaktion und Störfallmanagement in hochautomatisierten Verkehrsflugzeugen. In: Zeitschrift für Soziologie 26 (1997), S. 239-257

Weyer, J., 2005:
In der hybriden Gesellschaft. In: Frankfurter Allgemeine Zeitung 1. Sept. 2005, S. 6

Weyer, J., 2006a:
Modes of Governance of Hybrid Systems. The Mid-Air Collision at Ueberlingen and the Impact of Smart Technology. In: STI-Studies 2 (2006), S. 127-149; http://www.sti-studies.de/articles/2006-02/Weyer-011206.pdf, download vom 16.6.07

Weyer, J., 2006b:
Die Kooperation menschlicher Akteure und nicht-menschlicher Agenten. Ansatzpunkte einer Soziologie hybrider Systeme. Universität Dortmund (Soziologische Arbeitspapiere Nr. 16) Aug. 2006 (auch http://www.techniksoziologie-dortmund.de/veroeffentlichung/files/ap16.pdf), download vom 16.6.07

Weyer, J., 2007a:
Mixed Governance – Das Zusammenspiel von menschlichen Entscheidern und autonomer Technik im Luftverkehr der Zukunft. In: Matuschek, I.; Voß, G. (Hg.), Take off: Arbeit, Organisation und Technologie im Luftverkehr (im Ersch.)

Weyer, J., 2007b:
Ubiquitous Computing und die neue Arbeitswelt. In: Kornwachs, K. (Hg.), Bedingung und Triebkräfte technologischer Innovationen. Beiträge aus Wissenschaft und Wirtschaft. Berlin: acatech (im Ersch.)

Kontakt

Prof. Dr. Johannes Weyer
Universität Dortmund