European Environment Agency (EEA): Late Lessons from Early Warnings: Science, Precaution, Innovation

Rezensionen

Schätze aus der reichen Geschichte umweltpolitischen Scheiterns

European Environment Agency (EEA): Late Lessons from Early Warnings: Science, Precaution, Innovation. EEA-Report Nr. 1/2013, Kopenhagen, 750 S., ISSN 1725-9177

Rezension von Hans-Jochen Luhmann, Wuppertal Institut

„Aus Schaden wird man klug“ sagt das Sprichwort. Englisch heißt es: „Experience is a hard teacher“ oder „one learns from one’s mistakes“. Diese spezifisch negative Qualifizierung der Art von Erfahrungen, aus denen der Mensch besonders gut Lehren zu ziehen vermag, ist weise. Die kollektive Bereitschaft nämlich, Lehren zu ziehen, ist bekanntlich nicht symmetrisch ausgeprägt gegenüber dem Vorzeichen der kollektiven Erfahrung. Diese Weisheit hat sich das Militär systematisch zu Eigen gemacht. „After-Action Review“ in seiner heutigen Gestalt wurde vom US-Militär in den 1970er Jahren entwickelt. Die Idee dieser „Lessons Learned“ ist aber uralt, mit „Manöverkritik“ hatte sie es schon längst in den metaphorischen Wortschatz geschafft.

Die Europäische Umweltagentur (EEA) hat diese Lehre vor mehr als zehn Jahren schon be- und aufgegriffen. Treibende Kraft dahinter war der langjährige EEA-Mitarbeiter David Gee. Der empfand zweierlei Defizite: 1) Der vorfindliche Ansatz der Umwelt- bzw. Risikopolitik sei weit hinter dem professionell erwartbaren Niveau zurückgeblieben. 2) Dieser Bereich von Politik habe viele Schlachten geschlagen und dabei sehr häufig das Scheitern seiner Intentionen erlebt. Also verfüge er über einen Schatz von (insbesondere desaströsen) Erfahrungen ungewöhnlichen Ausmaßes. Der sei bislang ungehoben, so gelte es, ihn zu heben. „Heben“ heißt hier, angesichts des hohen Anteils von Erfahrungen des Scheiterns, zuallererst: Nicht zulassen, dass der Charakter des Desaströsen dieser Erfahrung zu deren Verdrängung führt. Im Gegenteil habe zu gelten: Es herrsche eine Atmosphäre, in der das Zurückkommen auf diese leidvolle und schambesetzte Erfahrung zum Zwecke ihrer Nutzung als Ehrung der Opfer verstanden wird. Weshalb verspricht dieser Ansatz Erfolg?

1    Wie man aus Erfahrung klug wird

Der Ansatz „Lessons Learned“ ist Teil eines rückgekoppelten Modells von menschlichem kollektivem Handeln – es repräsentiert wohl eigentlich das, was man Lernen (aus Erfahrung) nennt. Diese iterative Struktur nur vermag zu erklären, weshalb der Mensch der Hochkulturen zu einer unvergleichbar hohen Effizienz seines Handelns zu kommen vermochte. Der Schlüssel zu dem Erfolg der Spezies Mensch liegt in einem breiten Verständnis von Handlung: Politiken („do“) werden explizit konzipiert („plan“); nach deren Abschluss wird Intendiertes und Erreichtes systematisch verglichen („observe“), um daraus Lehren zu ziehen („reflect“) für das Konzept („plan“) der nächsten anstehenden Handlung/Politik („do“). Es handelt sich um eine Kreisbewegung, aber nur im Schematismus – faktisch handelt es sich um eine dreidimensionale Bewegung, um eine Spirale nach oben. Der Aufstiegswinkel ist bei der aktuellen Umwelt- und Risikopolitik zwar positiv, aber doch noch viel zu gering, als dass er der objektiv gegebenen Herausforderung angemessen wäre.

Das alles hat David Gee gesehen. Er hat das regelmäßige Scheitern der immer erneut unternommenen politischen Ansätze ihrer systematischen Unzulänglichkeit zurechnen können – und so Hoffnung zu bewahren vermocht. Erster Ertrag seines EEA-internen Drängens war die im Jahre 2001 publizierte Studie desselben Obertitels wie die hier besprochene, also Lessons Learned I: „Late lessons from early warnings: The precautionary principle 1896–2000“ (http://reports.eea.eu.int/environmental_issue_report_2001_22/en). Zwölf Jahre später konnte die scheidende Chefin der Europäischen Umweltagentur EEA, Jacqueline M. McGlade, zum Ende ihrer Amtszeit den weit inhaltsreicheren, 750 Seiten umfassenden „Full Report“ – Lessons Learned II – vorlegen.[1]

2    Late Lessons im Jahr 2013

Auch wer (nur) auf lockere Lektüre aus ist, kann auf seine Kosten kommen. Er kann die 19 Analysen zu konkreten Fällen durchblättern und die eine oder andere auswählen, um sie abends im Sessel zu lesen. Er gewinnt dann in vielen Beispielen Anschauung zu dem abstrakten Satz:

„Viele Leben wären gerettet und viele Schäden für Ökosysteme vermieden worden, wenn das Vorsorgeprinzip bei gerechtfertigtem Anfangsverdacht angewandt worden wäre.“ (S. 38)

Gruppiert sind die Fälle in neun gesundheitsbezogene (Blei im Treibstoff, PCE, Minamata-Krankheit, Beryllium-Krankheit, Tabak, Vinylchlorid, DBCP, Bisphenol A, DDT) einerseits und fünf ökosystembezogene (Antifoulants, Östrogen EE2, menschgemachter Klimawandel, Hochwasserschutz, systemisch wirkende Insektizide [Bienensterben]) andererseits. Hinzu kommen fünf „emerging issues“ (Tschernobyl/Fukushima, gentechnisch verändertes Saatgut, Invasive Arten, Handys & Gehirntumore, Nanotechnologie), also Besorgnis erregende Sachverhalte, von denen man noch nicht so genau weiß, ob sie in zehn Jahren, wenn Lessons Learned III (hoffentlich) erscheinen wird, den „geklärten Fällen“ zugerechnet werden können oder nicht.

Der EEA-Bericht ist aber auch studierenswert. Voll auf seine Kosten kommt nur, wem es gelingt, sich die 19 Fälle insgesamt vor Augen zu halten. Das voluminöse Werk läuft auf „politische“ Konsequenzen („reflect“) hinaus, die in etlichen abschließenden Kapiteln auch formuliert werden. Wer das nachvollziehen können will, wer in die eingangs skizzierte Kreisbewegung einsteigen will, muss vom entspannten Lese- in den hochkonzentrierten Studiermodus wechseln. Denn bei den Ergebnissen, die zu Konsequenzen führen sollen, handelt es sich um recht abstrakte Formulierungen – Macht, so ihr Wesen, wächst mit Abstraktheit. Der Nachvollzug der zentralen Ergebnisse erfordert eine erhebliche Integrationsleistung seitens des Lesers.

Im Folgenden werden nur Bereiche des Lehren-Ziehens herausgegriffen. Da der Learning Loop auf Anwendung in den Heimatstaaten der Leser zielt, erlaube ich mir, zudem eigene Urteile und Bezüge zu Aktuellem einzuflechten, auch auf Leerstellen (in Deutschland) hinzuweisen.

3    Zum Verhältnis von Wissen und Macht

In den beiden Studien der EEA von 2001 und 2013 geht es, so die Formulierung McGlades in ihrer Einleitung, um das „Verhältnis von Wissen und Macht“, also um das Verhältnis von „Erkenntnis und Interesse“. Das rechtliche Vorsorgeprinzip kann nur so gut zur Anwendung kommen, wie Erkenntnis und Wissen zugelassen werden – der Learning Loop muss spielen dürfen, und das nicht nur auf der strategischen Ebene, sondern auch in jedem speziellen Risikofall. Nun ist insbesondere das Element „observe“ aus diesem Zyklus anfällig dafür, destruiert zu werden. Das hängt mit einem seelischen Mechanismus zusammen. Besondere Gefahr droht, wenn der Mensch nicht sieht. Wenn er sieht und keine Vorsorge treibt, dann sieht er diesen Mangel, diese Unterlassung – das ist ein dauernder Druck. Das hält er nicht auf Dauer aus, also wird er eines Tages handeln, hier Schutzmaßnahmen umsetzen. Wenn er aber nicht sieht, sieht er nicht, dass er nicht sieht. Der entsprechende Druck zu handeln, hier die Augen aufzumachen, fehlt. Dieser Asymmetrie wegen ist das „Handlungs“-Defizit, nicht zu sehen, soviel schwerwiegender: Es ist potenziell stabil.

Die Autoren führen etwa zwei Dutzend haarsträubender Beispiele von Manipulation und Machtmissbrauch an der Schnittstelle von Wissen und Macht auf. Doch solche vergleichsweise primitive Formen der Einflussnahme auf das kollektive Bewusstsein sind nicht die Pointe; ein wesentlicher Teil des Problems liegt tiefer, ist rechtskulturell begründet. Das hängt damit zusammen, dass Subjekt des hier relevanten Wissens nicht die Wissenschaft allein ist. Wissenschaft ist definiert als methodische Gewinnung von Wissen, dessen Quellen allgemein zugänglich sind – sie leistet somit einen definierten Beitrag zum kollektiven Wissen, und der ist auch unverzichtbar. Ihr fehlt aber der Zugang zu privat vorhandenem Wissen (der Unternehmen vor allem), und was zufällig auffällt, ist auch nicht ihres. Um Risiken in einem frühen Stadium erkennen zu können, bedarf es deswegen der Kollaboration weiterer Subjekte des Wissens. Involvierte Unternehmen und Laien haben ihre Beiträge, gemäß ihren spezifischen Kompetenzen, ebenfalls einzubringen. Mit einem Schlagwort formuliert: Es geht bei dem „Verhältnis von Wissen und Macht“ nicht lediglich um das von „Wissenschaft und Macht“, es geht vielmehr um das von „Wissensmanagement und Macht“.

4    Die Baustelle „Wissenschaft“

Hinsichtlich der Baustelle „Wissenschaft“ fordert die EEA, die Wissenschaftler müssten besser geschützt werden. Sie hat etliche Fälle zusammengetragen, wo Forscher in ihrer Arbeit bedrängt, eingeschüchtert oder bedroht wurden, wenn sie Lobbyinteressen zu nahe kamen. Die Konsequenz, die die EEA zieht, ist zwar sympathisch, aber nur symptomatisch. Sie schlägt vor, einen europäischen Preis für kritische Wissenschaft auszuloben. Nur symptomatisch ist dies, da die Institutionen der Wissenschaft bekanntlich nicht für Äußerungen ihrer Mitglieder haften, nicht einmal Rechtsschutz anbieten können – zumindest nicht in Deutschland. Das Haftungsrisiko liegt bei den Wissenschaftlern je individuell als Privatpersonen, auch wenn sie in Ausübung ihres Amtes Warnungen formulieren.[2] Ein Wissenschaftler, der sich mit einem finanzkräftigen Gegner anlegen und zugleich Ross und Reiter benennen will, muss bereit sein, seine bürgerliche Existenz aufs Spiel zu setzen. Unter einem solchen Haftungsregime bedarf es „Helden“, damit riskante Verhaltensweisen von Unternehmen und staatlichen Gliederungen öffentlich werden. Heldenhaftes Verhalten aber darf man nicht erwarten, es kann nicht die Regel sein. Es ist und bleibt eine seltene Ausnahme.

5    Die Baustelle „Unternehmen“

Gehen wir über zum zweiten Subjekt, dessen Kollaboration erforderlich ist, zur Baustelle „Unternehmen“. Die Führung der Wirtschaft gilt gemeinhin als Mustertyp von rational handelnden Subjekten, individuell und als Kollektiv, also auch in ihrer Lobbyarbeit. Folglich ist die Auffassung verbreitet, die Vertreter der Wirtschaft seien sich generell darüber im Klaren, was sie tun. Sie muteten also das, in dem EEA-Bericht vielfältig veranschaulichte Unglück, welches sie via externe Effekte ihrer Produkte und Produktionsweisen über Dritte bringen, denen aus kühlem Kalkül und aus Eigennutz zu. Die Frage „Why did business not react with precaution to early warnings?“ verspricht eine präzise Überprüfung dieser Unterstellung.

Zugestanden wird einleitend: An dieser Sicht ist etwas dran – doch ist sie nicht die ganze Wahrheit. Der Zentralsatz im 25. Kapitel spiegelt diese Ambivalenz. Er besteht aus zwei Teilen. Einerseits gelte

„... characteristics of the research environment and the regulatory context can provide business actors with opportunities to enter into ‘political actions’ to deny or even suppress early warning signals.“ (S. 639)

Also die ungeschminkte Feststellung: Die Wirtschaftsszene ist in der Lage, die Wahrnehmung der Gesellschaft (in den hier interessierenden Fragen) aktiv zu steuern, konkret: in die Irre zu führen. Sie vermag insbesondere Fragen als noch offen darzustellen, die eigentlich geklärt sind. Das vermag sie insbesondere über Entscheidungen zu Forschungsfragestellungen bzw. -institutionen, aber selbstverständlich auch mittels Einsatz „ihres“ Geldes zur Beeinflussung der Medienberichterstattung.[3] Andererseits gelte auch:

„Also, business decision-makers face psychological barriers to awareness and acceptance of the conflicts of values and interests entailed by early warning signals. Cultural business context may further contribute to the denial of conflicts of values.“ (S. 639)

Auch Wirtschaftsbosse können somit Opfer falscher Wahrnehmung sein, also getäuscht werden, und das insbesondere als Kollektiv.

Daraus sind Konsequenzen zu ziehen. Doch die Behandlung in Kapitel 25 überzeugt wenig. Meiner Wahrnehmung der entscheidenden Charakteristika der Wirklichkeit am nächsten kommt der wie folgt beschriebene Regelkreis:

„When companies respond to early warning signals by giving priority to their business interest at the expense of public interest, they have a further incentive to suppress, contradict or downplay these early warning signals, ...“ (S. 646)

So selbstverstärkend geht es in der Tat zu. M.E. realistischer gilt sogar: Es setzt ein Selbstverstärkungsprozess in negativer Richtung ein, in Richtung „Augen ganz feste zudrücken“. Grund ist: Das Delikt der Konkursverschleppung ist rechtlich so gut durchgeknetet, dass eine Unternehmensführung sich da auf sicherem Boden bewegen kann; für den Tatbestand der Einsichtsverschleppung bei Umwelt- und Produktrisiken hingegen ist das bislang nicht ansatzweise der Fall. Diese Ausweglosigkeit für ein Firmen-Management haben die Autoren nicht vor Augen.

Anmerkungen

[1]  Die Zusammenfassung (Summary, 44 S.) kann gedruckt über die EEA bezogen werden und steht als Download zur Verfügung: http://www.eea.europa.eu/publications/late-lessons-2. Das deutsche Umweltbundesamt bereitet derzeit eine Übersetzung des Summarys ins Deutsche vor.

[2]  Oder sogar, bei Gremien, gesamtschuldnerisch. Vgl. Luhmann, H.-J.: Das Risiko der Risikowahrnehmung – Mangelnde Klarheit und fehlender Schutz vor den Haftungsrisiken der Umweltpolitikberatung. In: Zeitschrift für Angewandte Umweltpolitik (ZAU), 13/1–2 (2000), S. 218–231. Dort geht es um das Gutachten, welches erstellt wurde, nachdem der MAK-Kommission der DFG von einem betroffenen Unternehmen rechtliche Schritte angekündigt wurden.

[3]  In diesem Zusammenhang von „ihrem“ Geld zu sprechen, ist nur halb wahr, denn entsprechende Aufwendungen sind steuerabzugsfähig. Geld der Wirtschaft im genuinen Sinne fließt da nur zur Hälfte hinein, die andere Hälfte ist perfiderweise der Getäuschte, der Steuerzahler, zu tragen gezwungen.