<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE article
  PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD with MathML3 v1.2 20190208//EN" "JATS-journalpublishing1-mathml3.rng">
<article xmlns:xlink="http://www.w3.org/1999/xlink"
         article-type="research-article"
         dtd-version="1.2"
         xml:lang="de"><?letex RNG_JATS-journalpublishing1-mathml3 ok?>
   <front>
      <journal-meta>
         <journal-id/>
         <journal-title-group>
            <journal-title>TATuP – Journal for Technology Assessment in Theory and Practice</journal-title>
         </journal-title-group>
         <issn pub-type="ppub">2568-020X</issn>
      </journal-meta>
      <article-meta>
         <article-id>7253</article-id>
         <article-id pub-id-type="doi">10.14512/tatup.7253</article-id>
         <article-categories>
            <subj-group>
               <subject>Research Article</subject>
            </subj-group>
            <subj-group>
               <subject/>
            </subj-group>
         </article-categories>
         <title-group>
            <article-title xml:lang="de">Was wirkt hat recht</article-title>
            <subtitle xml:lang="de">Zur Konjunktur und Kritik des Wirkungsbegriffs und Schlussfolgerungen für die Technikfolgenabschätzung</subtitle>
            <trans-title-group>
               <trans-title xml:lang="en">Only impact counts</trans-title>
               <trans-subtitle xml:lang="en">On the popularity and critique of the concept of impact, and conclusions for technology assessment</trans-subtitle>
            </trans-title-group>
         </title-group>
         <contrib-group>
            <contrib contrib-type="author" corresp="yes" id="Au1" xlink:href="#Aff1">
               <contrib-id contrib-id-type="orcid">https://orcid.org/0000-0003-2490-1500</contrib-id>
               <name name-style="western">
                  <surname>Sörgel</surname>
                  <given-names>Franziska</given-names>
                  <prefix>Dr.</prefix>
               </name>
               <address>
                  <email>franziska.soergel@kit.edu</email>
               </address>
               <bio>
                  <boxed-text id="FPar1" specific-use="Style1">
                     <caption>
                        <title>DR. FRANZISKA SÖRGEL</title>
                     </caption>
                     <p>ist seit 2023 Post-Doc am ITAS und promovierte 2023 im Fach Wissenschaftsforschung an der Humboldt-Universität zu Berlin. Sie forscht zu Innovationsprozessen und Partizipationsverfahren sowie emotionalen Bewertungspraktiken, alternativen Verfahren der Wirkungsevaluierung und der Methodenentwicklung.</p>
                     <fig id="Figa">
                        <label/>
                        <caption>
                           <title/>
                        </caption>
                        <graphic specific-use="Print" xlink:href="910000_2026_7253_Figa_Print.eps"/>
                        <graphic specific-use="HTML" xlink:href="910000_2026_7253_Figa_HTML.png"/>
                     </fig>
                  </boxed-text>
               </bio>
               <aff id="Aff1">
                  <institution>Karlsruher Institut für Technologie</institution>
                  <institution content-type="dept">Institut für Technikfolgenabschätzung und Systemanalyse</institution>
                  <addr-line>
                     <city>Karlsruhe</city>
                     <country>Deutschland</country>
                  </addr-line>
               </aff>
            </contrib>
         </contrib-group>
         <pub-date date-type="pub">
            <day>23</day>
            <month>03</month>
            <year>2026</year>
         </pub-date>
         <fpage>48</fpage>
         <lpage>54</lpage>
         <permissions>
            <copyright-year>2026</copyright-year>
            <copyright-holder>by the author(s); licensee oekom</copyright-holder>
            <license>
               <license-p>This Open Access article is published under a Creative Commons Attribution 4.0 International Licence (CC BY).</license-p>
            </license>
         </permissions>
         <abstract abstract-type="summary" id="Abs1" xml:lang="de">
            <title>Zusammenfassung</title>
            <p>Dieser Forschungsartikel entwickelt eine reflexive Konzeption von Wirkung bzw. ‚Impact‘ für die Technikfolgenabschätzung (TA). Wirkung wird als relationale, prozesshafte Zuschreibung gefasst, die durch Indikatoren und Bewertungspraktiken mitproduziert wird. Aufbauend auf philosophischen Kausalitätsdebatten (Aristoteles, Hume, Kant), der Wissenschafts- und Technikforschung, der Evaluationsfor-schung sowie der TA werden vier Analysedimensionen formuliert: Kausalarchitektur, Unsicherheitsprofil, Ordnungsrahmen und Wissenspluralität. Entlang dieser Kriterien zeigt die Analyse zentraler Impact-Regime, wie Steuerungslogiken Wirkung vereinheitlichen und Langfristigkeit ausblenden. Dieser vorangestellte Reflexionsrahmen definiert Impact als formativen und verhandelbaren Prozess um und ermöglicht der TA epistemische Voraussetzungen zu begreifen und Bewertungsordnungen so zu gestalten, dass sie der Komplexität reflexiver Wissensproduktion besser gerecht werden.</p>
         </abstract>
         <abstract abstract-type="summary" id="Abs2" xml:lang="en">
            <title>Abstract</title>
            <p>This research article develops a reflexive conception of ‘impact’ in technology assessment (TA). Impact is conceived as a relational and processual attribution that is co-produced by indicators and evaluation practices. Building on philosophical debates on causality (Aristotle, Hume, Kant), science and technology studies, evaluation research, and TA, four analytical dimensions are proposed: causal architecture, uncertainty profile, framing order, and epistemic plurality. Using these criteria, the analysis of central impact regimes reveals how control logics standardize impact and obscure long-term effects. This upstream framework for reflection redefines impact as a formative and negotiable process, enabling TA to understand epistemic prerequisites and design evaluative orders that better live up to the complexity of reflexive knowledge production.</p>
         </abstract>
         <kwd-group>
            <compound-kwd>
               <compound-kwd-part content-type="code">heading</compound-kwd-part>
               <compound-kwd-part content-type="text">Keywords</compound-kwd-part>
            </compound-kwd>
            <compound-kwd>
               <compound-kwd-part content-type="code"/>
               <compound-kwd-part content-type="text">impact</compound-kwd-part>
            </compound-kwd>
            <compound-kwd>
               <compound-kwd-part content-type="code"/>
               <compound-kwd-part content-type="text">evaluation</compound-kwd-part>
            </compound-kwd>
            <compound-kwd>
               <compound-kwd-part content-type="code"/>
               <compound-kwd-part content-type="text">reflexive impact assessment</compound-kwd-part>
            </compound-kwd>
            <compound-kwd>
               <compound-kwd-part content-type="code"/>
               <compound-kwd-part content-type="text">heuristics</compound-kwd-part>
            </compound-kwd>
            <compound-kwd>
               <compound-kwd-part content-type="code"/>
               <compound-kwd-part content-type="text">technology assessment</compound-kwd-part>
            </compound-kwd>
         </kwd-group>
      </article-meta>
   </front>
   <body>
      <sec id="Sec1">
         <label>1</label>
         <title>Zwischen Messlogik und Aushandlungsprozess</title>
         <p>‚Was wirkt, hat recht‘ – so ließe sich die verkürzte Rationalität zusammenfassen, die viele gegenwärtige Wirkungsdiskurse prägt. Wirkung fungiert als Währung, Legitimationsfigur und universelle Messgröße. Forschungsanträge, Begleitforschung und politische Strategien sind durchzogen von Forderungen nach ‚Impact‘, der gemessen, ausgewiesen und belegt werden soll. Dabei wird oft übersehen, dass Indikatoren, Frameworks und Evaluationstools nicht neutral sind: Sie prägen selbst, was als relevant gilt (Strathern <xref ref-type="bibr" rid="CR32">2000</xref>).</p>
         <p>Marilyn Strathern (<xref ref-type="bibr" rid="CR32">2000</xref>, S. 308) bringt dieses Problem auf den Punkt: „When a measure becomes a target, it ceases to be a good measure“. Werden Kennzahlen zu Steuerungsinstrumenten, erzeugen sie Reaktivität und verschieben Beobachtungsrahmen, wenn sich Akteure nunmehr an den Messgrößen orientieren (Espeland und Sauder <xref ref-type="bibr" rid="CR15">2007</xref>).</p>
         <p>Ein reflexives Wirkungsverständnis erkennt an, dass Messlogiken Wirkungen hervorbringen und fragt, welche Wirkungsvorstellungen jeweilige Bewertungsinstrumente voraussetzen, und wie sie Forschung und Themenwahl beeinflussen. Vor diesem Hintergrund fasse ich Wirkung für die Technikfolgenabschätzung (TA) als relationale, prozessuale und kontextabhängige Zuschreibung und leite daraus Werkzeuge für TA-spezifische (nicht-lineare) Wirkungen ab.</p>
         <p>Zur Entwicklung eines reflexiven Wirkungsverständnisses wurden zwei Stränge der Literatur systematisch berücksichtigt: (1) konzeptuelle Arbeiten zu Regierbarkeit, Performativität und der Reaktivität von Indikatoren; sowie (2) methodische Ansätze formativer Evaluation, die Beiträge zu langfristigen, nicht-linearen und symbolischen Wirkungen nachzeichnen. Anknüpfend daran zeigen Programme wie das britische Research Excellence Framework (REF), die deutsche Exzellenzstrategie oder das europäische Horizon Impact Assessment, wie Wirkung als zählbare Steuerungsgröße etabliert wurde; dabei wirken Indikatoren als politische Instrumente, die Relevanz konfigurieren und Policy-Diskurse mitprägen (Spaapen und van Drooge <xref ref-type="bibr" rid="CR31">2011</xref>; Morton <xref ref-type="bibr" rid="CR27">2015</xref>; Belcher et al. <xref ref-type="bibr" rid="CR3">2020</xref>; Godin <xref ref-type="bibr" rid="CR18">2002</xref>, <xref ref-type="bibr" rid="CR19">2006</xref>).</p>
         <p>Im Sinne einer Gouvernementalität der Zahlen normalisieren sie eine quantifizierende Steuerungslogik; die Forschung hat früh auf deren konstitutive Effekte hingewiesen: Wirkung dient als Legitimationsfigur (Strathern <xref ref-type="bibr" rid="CR32">2000</xref>), Forschung wird auf ex post verwertbare Ergebnisse ausgerichtet (Gläser und Laudel <xref ref-type="bibr" rid="CR17">2007</xref>), Evaluationen prägen Erwartungshorizonte und epistemische Agenden (Dahler-Larsen <xref ref-type="bibr" rid="CR10">2014</xref>). Bornmann (<xref ref-type="bibr" rid="CR5">2013</xref>) betont, dass seit den 1990er-Jahren zwar stärker gesellschaftliche Relevanz in das Verständnis von Wirkung einfließt, jedoch oft unscharfe Begriffe wie ‚societal impact‘, ‚Relevanz‘ oder ‚Nutzung‘ (Brewer <xref ref-type="bibr" rid="CR7">2011</xref>) dominieren.</p>
         <p>Besonders kritisch äußert sich die Wissenschafts- und Technikforschung (STS), die auf die epistemische Performativität solcher Frameworks verweist: Wirkung wird durch Indikatoren, Verfahren und symbolische Übersetzungen (Jasanoff <xref ref-type="bibr" rid="CR23">2003</xref>; Felt <xref ref-type="bibr" rid="CR16">2017</xref>) mit-erzeugt. Auch aus der TA kommen Plädoyers für ein reflexives, mehrdimensionales Wirkungsverständnis (Grunwald <xref ref-type="bibr" rid="CR20">2006</xref>; Decker et al. <xref ref-type="bibr" rid="CR12">2004</xref>). Gleichwohl bleibt unscharf, (1) wie Output, Outcome und sozial vermittelter Impact voneinander abgegrenzt werden; (2) ob, ab wann und wie indirekte, verzögerte und symbolische Effekte erfasst werden; und (3) wie Indikatoren selbst Wirkungen durch Reaktivität und Pfadlogiken erzeugen. Für die TA sind reflexive, prozessuale Verfahren zentral, so zum Beispiel das ‚Reflexive Monitoring‘ (van Mierlo et al. <xref ref-type="bibr" rid="CR34">2010</xref>), beitrags-/theoriebasierte Ansätze (Morton <xref ref-type="bibr" rid="CR27">2015</xref>; Belcher et al. <xref ref-type="bibr" rid="CR3">2020</xref>; Bührer et al. <xref ref-type="bibr" rid="CR8">2022</xref>; de Jong und Spaapen <xref ref-type="bibr" rid="CR13">2023</xref>; Pasanen und Shaxson <xref ref-type="bibr" rid="CR28">2016</xref>) sowie Dynamic-Learning-Ansätze in Transformationsprozessen (Svare et al. <xref ref-type="bibr" rid="CR33">2023</xref>), die Attribution unter Unsicherheit ersetzen und mit dem integrierten Nachhaltigkeitskonzept der TA kompatibel sind. Ergänzend adressiert der Ansatz ‚Productive Interactions‘ (Spaapen und van Drooge <xref ref-type="bibr" rid="CR31">2011</xref>) Nutzbarmachung von Wissen und ‚Public Value Mapping‘ (Bozeman und Sarewitz <xref ref-type="bibr" rid="CR6">2011</xref>) fokussiert auf öffentliche Wertschöpfung; das ‚Payback-Modell‘ (Buxton und Hanney <xref ref-type="bibr" rid="CR9">1996</xref>) bleibt hingegen in linear-kausalen Wirkungsketten verhaftet. Der Beitrag setzt hier an und entwickelt eine Heuristik, die vor der Anwendung von TA-Verfahren klärt, welche Annahmen über Kausalität, Unsicherheit und Bewertungsordnungen einer Wirkungszuschreibung zugrunde liegen.</p>
      </sec>
      <sec id="Sec2">
         <label>2</label>
         <title>Kausalität und Kontingenz</title>
         <p>Wirkung setzt immer auch Zusammenhang voraus und damit Annahmen darüber, wie wir einen solchen überhaupt erkennen. Für die TA ist Wirkung implizit, indes lässt sich feststellen: Wo Wirkungen indirekt, vermittelt und zeitversetzt auftreten, kollabieren rein effizient-kausale Modelle. Im Folgenden werden daher die Begriffe Kausalarchitektur, Unsicherheitsprofil, Ordnungsrahmen und Wissenspluralität für die TA kalibriert, um aus ihnen analytische Werkzeuge zu generieren.</p>
         <p>Bei einem Blick in die antike Wissenschaftstheorie, begegnet uns bei Aristoteles eine komplexe Differenzierung von Ursachen (<italic>aitia</italic>), die das Zustandekommen eines Ereignisses oder eines Gegenstandes erklären sollten: die <italic>causa materialis</italic> (der Stoff, aus dem etwas besteht), die <italic>causa formalis</italic> (seine Gestalt), die <italic>causa efficiens</italic> (die bewegende, hervorrufende Ursache) und die <italic>causa finalis</italic> (der Zweck oder das Ziel, auf das etwas hin orientiert ist). Der Zweck bildet die leitende Dimension: Eine tragfähige Erklärung berücksichtigt alle vier Ursachen (Aristoteles <xref ref-type="bibr" rid="CR1">1986</xref>, Physik, II, 3). Wirkung entsteht also nicht monokausal, sondern durch ein Zusammenspiel verschiedener Dimensionen, die materiell, formal, intentional und dynamisch sein können. Sie ist damit immer auch Ergebnis eines Deutungsrahmens; TA-Wirkungen umfassen daher neben physikalisch-ökonomischen Effekten auch institutionelle, gestalterische und normative Dimensionen. Für eine TA-Evaluation folgt, dass Wirkungsmodelle mehrdimensional konstruiert werden müssen: Sie kombinieren effizient-kausale mit formalen (Gestaltung/Institution) und finalen (Zweck/Leitbild) Komponenten; andernfalls verfehlt die Messung zentrale, tatsächlich wirksame Vermittlungen.</p>
         <fig id="Fig1">
            <label>Abb. 1</label>
            <caption xml:lang="de">
               <title>Aristoteles Vier-Ursachen-Wirkung: Wirkung entsteht durch das Zusammenwirken materieller, formaler, auslösender und finaler Faktoren. Für die TA heißt das: Technologische Wirkungen sind nie linear, sondern Ausdruck vielfältiger Verflechtungen; ein reflexives Wirkungsverständnis muss diese Pluralität anerkennen und sichtbar machen. <italic>Quelle: eigene Darstellung</italic>
               </title>
            </caption>
            <graphic specific-use="Print" xlink:href="910000_2026_7253_Fig1_Print.eps"/>
            <graphic specific-use="HTML" xlink:href="910000_2026_7253_Fig1_HTML.png"/>
         </fig>
         <p>Mit der Neuzeit verschiebt sich der Fokus auf die beobachtbare Verursachung. In der empiristisch geprägten Erkenntnistheorie David Humes wird die Vorstellung kausaler Notwendigkeit grundlegend infrage gestellt. Für Hume ist die Verbindung von Ursache und Wirkung keine objektive Beziehung in der Welt, sondern ein psychologisches Gewohnheitsurteil (Hume <xref ref-type="bibr" rid="CR22">2007</xref>, u. a. Section IV, Part I) und er formulierte damit das bis heute virulente Induktionsproblem: Etwa, wenn wir beobachten, dass <italic>A</italic> regelmäßig auf <italic>B</italic> folgt, glauben wir an eine Verbindung, die sich nicht beweisen lässt. Aus einer Vielzahl beobachteter Konjunktionen lässt sich logisch nicht zwingend ableiten, dass diese Abfolge auch in Zukunft bestehen wird. Jede Annahme einer notwendigen Verbindung beruht auf Erfahrungsmustern und Erwartungshaltungen, nicht auf empirisch zugänglicher Notwendigkeit. Für die TA ist dieser Gedanke besonders relevant, weil sie häufig mit innovativen Technologien arbeitet, deren künftige Effekte nicht durch etablierte empirische Regelmäßigkeiten abgesichert sind. Methodisch heißt das: Starke Attributionsansprüche sind zu begrenzen; valide Verfahren arbeiten formativ (Szenarien, Prozess-Marker, Stakeholder-Evidenzen), um Beiträge unter Unsicherheit sichtbar zu machen, statt ex post Kausalgewissheiten zu behaupten.</p>
         <fig id="Fig2">
            <label>Abb. 2</label>
            <caption xml:lang="de">
               <title>David Hume: Unsicherheiten akzeptieren. Aus Vergangenheit folgt keine notwendige Zukunft. Für die TA heißt das: Verzweigung in plausible Szenarien; Partizipation zur Einbettung von Unsicherheit. <italic>Quelle: eigene Darstellung</italic>
               </title>
            </caption>
            <graphic specific-use="Print" xlink:href="910000_2026_7253_Fig2_Print.eps"/>
            <graphic specific-use="HTML" xlink:href="910000_2026_7253_Fig2_HTML.png"/>
         </fig>
         <p>Immanuel Kant nimmt Humes Skepsis auf, widerspricht ihr jedoch, indem er Kausalität als transzendentale Bedingung der Möglichkeit von Erfahrung konzipiert. In der ‚Kritik der reinen Vernunft‘ formuliert er in der zweiten Analogie der Erfahrung, dass jedes Ereignis eine Ursache haben muss und, dass Ereignisse stets nach einer regelhaften Abfolge geordnet sind (Kant <xref ref-type="bibr" rid="CR24">1998</xref>, B 232–256). Kausalität ist damit nicht aus Erfahrung abgeleitet, sondern eine Kategorie des Verstandes, eben ein notwendiges Ordnungsprinzip, ohne dass wir Erscheinungen überhaupt nicht als zusammenhängend begreifen könnten.</p>
         <p>Dieser Gedanke verschiebt die Diskussion über Wirkung auf eine metaepistemische Ebene: Wirkungszusammenhänge sind nicht einfach in der Welt vorfindlich, sondern Resultat der Ordnungsleistungen unseres Denkens. So beruht jede Darstellung von Wirkung bereits auf spezifischen konzeptuellen und methodischen Voraussetzungen, die selbst reflektiert und transparent gemacht werden müssen. Folglich sind Indikatoren Teil des Gegenstands; ihre Performativität und Reaktivität müssen gleichermaßen beobachtet werden.</p>
         <fig id="Fig3">
            <label>Abb. 3</label>
            <caption xml:lang="de">
               <title>Reflexion der Rahmenbedingungen bei Immanuel Kant. Jede Wirkungserfassung ist von Ordnungsbegriffen geprägt. Für die TA heißt das: Bewertungsraster hinterfragen, blinde Flecken erkennen. <italic>Quelle: eigene Darstellung</italic>
               </title>
            </caption>
            <graphic specific-use="Print" xlink:href="910000_2026_7253_Fig3_Print.eps"/>
            <graphic specific-use="HTML" xlink:href="910000_2026_7253_Fig3_HTML.png"/>
         </fig>
         <p content-type="eyecatcher" specific-use="Style2">Wirkungszusammenhänge sind nicht einfach in der Welt vorfindlich, sondern Resultat der Ordnungsleistungen unseres Denkens.</p>
         <p>Diese erkenntnistheoretischen Einsichten haben tiefgreifende Konsequenzen für unser wissenschaftstheoretisches Verständnis von Wirkung. Sie zeigen: Wirkung ist keine neutrale Beobachtung, sondern eine kognitive und kulturelle Leistung; eine Zuschreibung, die voraussetzt, dass wir etwas als Ursache und etwas anderes als Folge interpretieren. Diese Zuschreibung ist immer selektiv, kontextabhängig und interessengeleitet. Sie hängt davon ab, was als relevant, plausibel oder anschlussfähig gilt – epistemisch wie normativ.</p>
         <sec id="Sec3">
            <label>2.1</label>
            <title>Ein Analyseraster für die Technikfolgenabschätzung</title>
            <p>Aus den vorangegangenen Überlegungen lässt sich für die TA ein analytisches Raster ableiten, das Wirkung in vier Analysedimensionen fasst. Erstens beschreibt die <italic>Kausalarchitektur</italic>, wie Wirkungszusammenhänge konstruiert werden: monokausal oder als Zusammenspiel materieller, institutioneller und normativer Faktoren. Zweitens verweist das <italic>Unsicherheitsprofil</italic> auf den Umgang mit Ungewissheit: Zukunftseffekte sind nicht prognostizierbar, weshalb starke Attributionsansprüche unplausibel werden und szenariengeleitete, partizipative Verfahren an Bedeutung gewinnen. Drittens markiert der <italic>Ordnungsrahmen</italic> die begrifflichen und institutionellen Bedingungen, unter denen Wirkung beobachtet wird: von Indikatoren über Bewertungsformate bis hin zu epistemischen Routinen, die nicht nur erfassen, sondern auch mitbestimmen, was in einem gegebenen Kontext als Wirkung sichtbar und sagbar wird. Viertens betont die <italic>Wissenspluralität</italic>, dass Bewertungen nur dann tragfähig sind, wenn unterschiedliche epistemische Perspektiven einbezogen werden, um Selektivitäten der Messung auszugleichen.</p>
            <p>Vor diesem Hintergrund wird Wirkung zu einer voraussetzungsreichen, normativ aufgeladenen und kontextabhängigen Zuschreibung. In der wissenschaftspolitischen Praxis jedoch wird sie zunehmend als messbare Größe operationalisiert, oft in Anlehnung an international gängige, aber unscharfe Impact-Begriffe. Das nivelliert die Komplexität des Begriffs und erzeugt scheinbare Objektivität, die oft mehr Legitimation als Erkenntnis liefert (Bornmann <xref ref-type="bibr" rid="CR5">2013</xref>; Dahler-Larsen <xref ref-type="bibr" rid="CR10">2014</xref>; Bührer et al. <xref ref-type="bibr" rid="CR8">2022</xref>; de Jong und Spaapen <xref ref-type="bibr" rid="CR13">2023</xref>; Paschen et al. <xref ref-type="bibr" rid="CR29">1978</xref>).</p>
            <p>Für die TA verschärft sich dieses Verhältnis: indirekte, diskursive, institutionell vermittelte Wirkungen mit Zeitverzug und Nichtlinearität stehen der Pflicht zu belegbaren Beiträgen gegenüber. Formative Verfahren im Sinne eines Contributions-Ansatzes (Morton <xref ref-type="bibr" rid="CR27">2015</xref>) sind dafür angemessener als ein auf unmittelbare Outputs und Policy-Effekte verengter Begriff.</p>
            <p>Notwendig ist ein relationales, reflexives und pluralistisches Wirkungsverständnis, das auch vermittelte, verzögerte und symbolische Effekte umfasst, etwa veränderte Problemdefinitionen oder institutionelle Praktiken. Wirkung wird so nicht zum Endpunkt oder Beweis, sondern zum Ausgangspunkt reflexiver Analyse. Evaluation und Messung werden nicht verworfen, sondern kritisch geschärft.</p>
            <p content-type="eyecatcher" specific-use="Style2">Gerade in der Technikfolgenabschätzung, wo Unsicherheiten, lange Wirkungsketten und politische Rahmungen allgegenwärtig sind, muss der Wirkungsbegriff geöffnet, historisiert und politisiert werden.</p>
            <p>Gerade in der TA, wo Unsicherheiten, lange Wirkungsketten und politische Rahmungen allgegenwärtig sind, muss der Wirkungsbegriff geöffnet, historisiert und politisiert werden. Das ist keine Beliebigkeit, sondern eine methodische Voraussetzung für ein realistisches Verständnis dessen, was Wissenschaft bewirken kann, und wie sich diese Prozesse kritisch begleiten lassen.</p>
         </sec>
      </sec>
      <sec id="Sec4">
         <label>3</label>
         <title>Wirkung in der Wissenschaftspolitik</title>
         <p>Wirkung ist in ein Regime der Regierbarkeit eingebettet: ein Ensemble aus Indikatoren, Verfahren und Auditpraktiken, das Vergleichbarkeit herstellt und festlegt, was als Wirkung gilt. Es greift ex ante, in situ und ex post: bestimmt Forschungsziele, steuert Ressourcen, prägt Bewertungslogiken und erzeugt Reaktivität. Ausgehend von den zuvor skizzierten vier Analysedimensionen lässt sich zeigen, wie verschiedene Impact-Regime Kausalarchitekturen verengen, Unsicherheiten reduzieren, Ordnungsrahmen standardisieren und Wissenspluralität selektiv einbinden.</p>
         <sec id="Sec5">
            <label>3.1</label>
            <title>Research Excellence Framework</title>
            <p>Seit 2014 bewertet das REF im Vereinigten Königreich neben wissenschaftlicher Qualität auch „Impact“ als „eine Auswirkung, Veränderung oder einen Nutzen […] über den akademischen Bereich hinaus“ (REF <xref ref-type="bibr" rid="CR30">2021</xref>, S. 4, eigene Übersetzung). Universitäten reichen dazu Auswirkungsfallstudien (Impact Case Studies) ein, die Rechenschaft und Vergleichbarkeit erhöhen, zugleich jedoch lineare Kausalplots fixieren und oberflächenplausible Attributionen belohnen. Die Kausalarchitektur wird dadurch auf eine monokausale, lineare Logik reduziert, Unsicherheiten weitgehend ausgeblendet. Der Ordnungsrahmen ist stark formalisiert: Templates, Rubriken und Punkteskalen erhöhen Vergleichbarkeit, erzeugen aber auch Reaktivität. Wissenspluralität verbleibt im Expertenmodus der Panels – Stimmen von Betroffenen erscheinen als sogenannte ‚Testimonials‘, nicht als gleichberechtigte Bewertungsinstanzen oder -akteure.</p>
         </sec>
         <sec id="Sec6">
            <label>3.2</label>
            <title>Horizon Europe: Key Impact Pathways</title>
            <p>Bei Horizon Europe ist „Impact“ neben „Exzellenz“ und „Implementierung“ zentrales Bewertungskriterium (EPC <xref ref-type="bibr" rid="CR14">2021</xref>). Die <italic>Key Impact Pathways</italic> operationalisieren Wirkung über Indikatoren, die Projekte bereits ex ante strukturieren. Problemdefinitionen und Arbeitspakete werden entlang erwarteter Metriken entworfen – mit Gewinnen an Steuerbarkeit, aber Verlusten an Offenheit. Die Kausalarchitektur folgt faktisch linearen Sequenzen (Outputs → Outcomes → Impacts), während Unsicherheit minimiert wird: Gefordert sind früh nachweisbare Beiträge, risikoreiche Explorationen fallen aus dem Raster. Der Ordnungsrahmen ist indikatorzentriert; Wissenspluralität bleibt funktionalisiert, zwar liefern Praxispartner Daten, gestalten Bewertungslogiken aber kaum mit.</p>
         </sec>
         <sec id="Sec7">
            <label>3.3</label>
            <title>Deutschlands Exzellenzinitiative/-strategie</title>
            <p>Unter dem Leitmotiv ‚gesellschaftliche Relevanz‘ gewinnt Wirkung auch im deutschen Fördersystem der Exzellenzstrategie an Bedeutung, bleibt jedoch vornehmlich output-orientiert (Krempkow <xref ref-type="bibr" rid="CR25">2018</xref>). Die Kausalarchitektur verengt sich auf einfache Wirkungsketten – Publikation, Transfer, Nutzen. Das Unsicherheitsprofil ist niedrig: Förderzyklen bevorzugen planbare Resultate, langfristige Entwicklungen bleiben unterbelichtet. Der Ordnungsrahmen folgt Drittmitteln, Publikationszahlen und Reputationsmarkern; reflexive Verfahren sind marginal. Wissenspluralität bleibt begrenzt, da Entscheidungen in akademisch-administrativen Arenen getroffen werden. TA-typische, diskursive und zeitverzögerte Wirkungen werden so kaum sichtbar.</p>
         </sec>
         <sec id="Sec8">
            <label>3.4</label>
            <title>Querverweis: Indikatorensystem der Ziele für Nachhaltige Entwicklung</title>
            <p>Das globale Framework der Ziele für Nachhaltige Entwicklung (SDG) illustriert die Ambivalenz solcher Bewertungslogiken besonders deutlich. Durch die enge Kopplung von Zielen und Indikatoren wird Kausalität vereinfacht: Wirkung zählt, wenn sie Metriken verändert; komplexe Rückkopplungen bleiben unsichtbar. Das Unsicherheitsprofil ist niedrig, langfristige Kontingenz wird in Trendlinien und Rankings überführt. Der Ord-nungsrahmen privilegiert Vergleichbarkeit vor Kontextsensibilität. Wissenspluralität bleibt asymmetrisch: Staatliche Institutionen definieren Messrahmen, zivilgesellschaftliche Akteure bleiben konsultativ. Das SDG-System verdeutlicht exemplarisch, wie Bewertungsregime Unsicherheit verdrängen, Sichtbarkeit ordnen und so politische Wirklichkeiten mitgestalten.</p>
            <p>Diese Beispiele zeigen, wie Bewertungsordnungen in unterschiedlichen Kontexten Wirkung nicht nur erfassen, sondern aktiv hervorbringen: Sie stabilisieren Kausalmodelle, reduzieren Unsicherheit und kanalisieren Wissensproduktion entlang normierter Pfade. Reforminitiativen wie The Declaration on Research Assessment, The Leiden Manifesto for Research Metrics und The Coalition for Advancing Research Assessment versuchen, diese Dynamik zu korrigieren, indem sie qualitative und kontextbezogene Bewertungsformen stärken, ändern aber die grundlegende Logik indikatorzentrierter Steuerbarkeit nicht. Wenn Bewertungsregime Wirklichkeiten mitschreiben, verschiebt sich daher die zentrale Frage: nicht ‚Wie stark ist Wirkung?‘, sondern ‚Welche Wirkungskonfigurationen machen unsere Bewertungsordnungen sichtbar und was bleibt systematisch unsichtbar?‘. Entlang der vier analytischen Dimensionen lassen sich diese Regime weniger nach der Intensität einzelner Effekte lesen als nach den Ordnungen des Sichtbaren, den Strukturen der Ausblendung und den Bedingungen, unter denen Unsicherheit als Defizit statt als Erkenntnischance gilt.</p>
         </sec>
      </sec>
      <sec id="Sec9">
         <label>4</label>
         <title>Wirkung als Machtinstrument</title>
         <p>Während die in den vorangegangenen Ausführungen beschriebenen Programme und Förderlogiken Wirkung in standardisierte Bewertungsrahmen übersetzen, lässt sich aus einer wissenschafts- und techniksoziologischen Perspektive zeigen, dass Wirkung in der Wissenschaft weder ein rein objektiv messbarer Fakt noch eine quasi naturhafte Eigenschaft von Forschungsergebnissen ist. Vielmehr handelt es sich um das Produkt sozialer Zuschreibungen, das Ergebnis von Prozessen, in denen Akteure aushandeln, was als relevant, bedeutsam oder wertvoll gilt (Lamont <xref ref-type="bibr" rid="CR26">2009</xref>, S. 16–18; Helgesson und Muniesa <xref ref-type="bibr" rid="CR21">2013</xref>, S. 4; Daston <xref ref-type="bibr" rid="CR11">1995</xref>).</p>
         <p>Entscheidend ist, dass diese Zuschreibungen innerhalb von relativ stabilen Bewertungsordnungen erfolgen, die Luc Boltanski und Laurent Thévenot (<xref ref-type="bibr" rid="CR4">2006</xref>) als <italic>cités</italic> (Rechtfertigungsordnungen) beschreiben: Konfigurationen von Maßstäben und Begründungslogiken, die festlegen, welche Formen von Wertschöpfung und Wirkung in einem bestimmten Kontext Anerkennung finden. In einer bibliometrischen Ordnung zählt vor allem die Zahl der Zitationen, in einer politikorientierten Ordnung der direkte Einfluss auf Gesetzgebungsprozesse, und in einer partizipativen Ordnung die Qualität der Einbindung von Bürgern. Jede dieser Ordnungen hebt bestimmte Wirkungsformen hervor und blendet andere aus. Diese Selektivität ist nicht nur ein technisches Nebenprodukt, sondern ein zentrales Moment der sozialen Konstruktion von Wirkung.</p>
         <p>Die Definitionsmacht darüber, was als Wirkung gilt, liegt häufig bei Förderorganisationen, Ministerien oder internationalen Panels. Durch die Festlegung von Bewertungsmaßstäben prägen sie nicht nur nachträgliche Evaluationen, sondern setzen auch proaktiv die Rahmenbedingungen dafür, welche Projekte entstehen. Beckert (<xref ref-type="bibr" rid="CR2">2016</xref>, S. 9) spricht in diesem Zusammenhang von „Erwartungsstrukturen“: Forschende richten ihre Agenden, Methoden und Kommunikationsstrategien an den Wirkungsformen aus, die Aussicht auf Anerkennung und Ressourcen versprechen.</p>
         <p>Die Praktiken, mit denen Wirkung zugeschrieben wird, verbinden oft quantitative Indikatoren mit narrativen Belegen. Zitationsraten, Reichweitenmessungen oder Teilnehmerzahlen stehen neben Impact Case Studies oder Testimonials von Stakeholdern. Diese Formate verdichten komplexe Wirkungszusammenhänge zu greifbaren Einheiten, und verändern gerade dadurch, was sichtbar wird. Langfristige, indirekte oder schwer messbare Effekte verschwinden leicht hinter kurzfristigen, medienwirksam kommunizierbaren Resultaten. Dahler-Larsen (<xref ref-type="bibr" rid="CR10">2014</xref>, S. 31) betont in diesem Zusammenhang, dass Indikatoren „konstitutive Effekte“ haben: Sie bilden nicht nur Wirklichkeit ab, sondern gestalten sie aktiv mit.</p>
         <p>Diese Logik erzeugt Anreize zur strategischen Anpassung; in der TA droht eine Verschiebung hin zu kurzfristig verwertbaren Effekten zulasten langfristiger Debatten- und Orientierungsleistungen. Für die TA ist diese Spannung besonders ausgeprägt, weil ihre Wirkung oft im Öffnen von Debatten, im Sichtbarmachen von Unsicherheiten oder im Erarbeiten von Orientierungswissen liegt, folglich Prozesse, die sich kaum in kausallinearen Indikatoren abbilden lassen. Wenn diese Leistungen ausschließlich in dem Raster externer Bewertungsmaßstäbe übersetzt werden, droht der Verlust genau jener Qualitäten, die die TA als reflexives Feld auszeichnen. Gleichzeitig ist die TA auf die Anerkennung ihrer Wirkung angewiesen, um ihre Legitimität und Ressourcen zu sichern.</p>
         <p>In diesem Spannungsfeld wird Wirkung zu einem Machtinstrument. Sie ist nicht nur das Ergebnis wissenschaftlicher Arbeit, sondern auch ein Hebel, um Forschungsfelder zu formen, Ressourcenflüsse zu lenken und Themen zu setzen. Das gilt umso mehr, als Bewertungsordnungen selten neutral sind: Sie spiegeln bestehende Machtverhältnisse wider und können diese stabilisieren oder herausfordern. Ein reflexives Verständnis von Wirkung in der TA muss daher zweierlei leisten: Es muss die eigenen Wirkungsansprüche transparent machen und zugleich Wege finden, den relationalen, prozesshaften und oft nicht-linearen Charakter der TA-Arbeit so zu kommunizieren, dass er auch in politischen und institutionellen Arenen Bestand hat.</p>
         <p>Das wirft die Frage auf, wie ein solches reflexives Wirkungsverständnis konkret ausgestaltet sein muss, um der TA zu ermöglichen, bestehende Bewertungslogiken nicht nur zu adressieren, sondern epistemisch zu verschieben. Mir liegt nicht daran, etablierte Instrumente der TA zu ersetzen, sondern eben jene Heuristik, mit der sie systematisch relationiert und kalibriert werden können. Entscheidend ist, dass sie nicht additiv, sondern sequenziell eingesetzt wird: Sie greift vor der Auswahl von Methoden, Indikatoren oder Evaluationsdesigns und fungiert als verbindliche Reflexionsschleife im TA-Prozess. Dazu werden (1) die zugrunde gelegte Kausalarchitektur, (2) das Unsicherheitsprofil und die daraus abgeleiteten Evidenzformen, (3) der Ordnungsrahmen der Wirkungszuschreibung sowie (4) die als bewertungsrelevant geltenden Wissensformen und Akteursgruppen explizit bestimmt. Erst auf dieser Grundlage werden bestehende TA-Instrumente wie Reflexive Monitoring, beitragsbasierte Evaluation oder partizipative Verfahren ausgewählt und begründet eingesetzt. Auf diese Weise wird verhindert, dass reflexive TA-Verfahren nachträglich in bestehende Impact-Regime übersetzt werden; vielmehr strukturieren die heuristischen Kriterien vorab, welche Wirkungszuschreibungen im jeweiligen Kontext als plausibel gelten können. So verschiebt sich etwa in der TA-Begleitforschung zu Transformationsprozessen die Bewertungslogik von kurzfristig ‚nachweisbaren‘ Entscheidungen hin zu Prozessmarkern wie veränderten Problemdefinitionen, institutionellen Routinen oder Lernschleifen.</p>
      </sec>
      <sec id="Sec10">
         <label>5</label>
         <title>Aushandlungs- und Gestaltungsaufgabe der Technikfolgenabschätzung</title>
         <p>Gerade ein reflexives Verständnis muss Wirkung als fortlaufenden, pluralen Aushandlungsprozess begreifen, der in Politik, Wissenschaft und Öffentlichkeit stattfindet, Zeit braucht und in dem die TA sowohl Akteurin als auch Gegenstand von Zuschreibungen ist. Dies impliziert erstens, Wirkungen auch in indirekten, zeitversetzten und symbolischen Formen anzuerkennen, wie etwa in der langfristigen Veränderung von Problemdefinitionen oder der Verstetigung partizipativer Verfahren. Zweitens erfordert es, das gesamte Spektrum möglicher Wirkungsformen sichtbar zu machen und sich nicht auf wenige privilegierte Dimensionen wie Policy-Relevanz oder wirtschaftlichen Nutzen zu beschränken. Drittens muss die Übersetzungsarbeit offengelegt werden, die bei der Wirkungsmessung erfolgt: Welche Effekte werden durch bestehende Bewertungsrahmen sichtbar gemacht, welche ausgeblendet, und mit welchen Konsequenzen?</p>
         <p>Für die Technikfolgenabschätzung ergibt sich daraus ein spezifischer Mehrwert: Ihre etablierten Werkzeuge können so nicht nur als methodische Routinen, sondern als bewusst eingesetzte epistemische Interventionen verstanden und begründet werden. Reflexivität bedeutet darüber hinaus, Bewertungslogiken aktiv mitzugestalten und sie sichtbar zu machen. Impact-Regime sind gestaltbar, und Ansätze wie Sheila Jasanoffs ‚Technologies of Humility‘ (<xref ref-type="bibr" rid="CR23">2003</xref>) oder partizipative Evaluationsverfahren zeigen, wie Indikatoren gemeinsam mit relevanten Akteursgruppen entwickelt werden können, um auch qualitative, prozessuale und langfristige Effekte zu erfassen. So wird Wirkung vom nachträglichen Ausweis zum gestaltbaren Bestandteil von Forschung; die TA beteiligt sich an der Setzung von Maßstäben und stärkt Bewertungsordnungen, die Komplexität zulassen.</p>
      </sec>
   </body>
   <back>
      <ack>
         <p>
            <boxed-text id="FPar2" specific-use="Style1">
               <caption>
                  <title>Funding</title>
               </caption>
               <p>This article received no funding.</p>
            </boxed-text>
         </p>
         <p>
            <boxed-text id="FPar3" specific-use="Style1">
               <caption>
                  <title>Competing interests</title>
               </caption>
               <p>The author declares no competing interests.</p>
            </boxed-text>
         </p>
         <p>
            <boxed-text id="FPar4" specific-use="Style1">
               <caption>
                  <title>Ethical oversight</title>
               </caption>
               <p>The author confirms that all procedures were performed in compliance with relevant laws and institutional guidelines.</p>
            </boxed-text>
         </p>
      </ack>
      <ref-list id="Bib1">
         <title>Literatur</title>
         <ref id="CR1">
            <citation-alternatives>
               <element-citation publication-type="book">
                  <name content-type="author">
                     <surname>Aristoteles</surname>
                  </name>
                  <date>
                     <year>1986</year>
                  </date>
                  <source content-type="BookTitle">Physik. Vorlesung über Natur. Bücher I-IV</source>
                  <publisher-name>Meiner</publisher-name>
                  <publisher-loc>Hamburg</publisher-loc>
               </element-citation>
               <mixed-citation>Aristoteles (1986): Physik. Vorlesung über Natur. Bücher I‑IV. Hamburg: Meiner.</mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR2">
            <citation-alternatives>
               <element-citation publication-type="book">
                  <name content-type="author">
                     <surname>Beckert</surname>
                     <given-names>J</given-names>
                  </name>
                  <date>
                     <year>2016</year>
                  </date>
                  <source content-type="BookTitle">Imagined futures. Fictional expectations and capitalist dynamics</source>
                  <publisher-name>Harvard University Press</publisher-name>
                  <publisher-loc>Cambridge</publisher-loc>
                  <volume-id content-type="bibbookdoi">10.4159/9780674545878</volume-id>
               </element-citation>
               <mixed-citation>Beckert, Jens (2016): Imagined futures. Fictional expectations and capitalist dynamics. Cambridge, MA: Harvard University Press. <ext-link xlink:href="https://doi.org/10.4159/9780674545878">https://doi.org/10.4159/9780674545878</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR3">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <person-group person-group-type="author">
                     <name content-type="author">
                        <surname>Belcher</surname>
                        <given-names>B</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Davel</surname>
                        <given-names>R</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Claus</surname>
                        <given-names>R</given-names>
                     </name>
                  </person-group>
                  <date>
                     <year>2020</year>
                  </date>
                  <article-title>A refined method for theory-based evaluation of the societal impacts of research</article-title>
                  <page-range>100788</page-range>
                  <volume-id content-type="bibarticledoi">10.1016/j.mex.2020.100788</volume-id>
                  <source content-type="journal">MethodsX</source>
                  <volume>7</volume>
               </element-citation>
               <mixed-citation>Belcher, Brian; Davel, Rachel; Claus, Rachel (2020): A refined method for theory-based evaluation of the societal impacts of research. In: MethodsX 7, S. 100788. <ext-link xlink:href="https://doi.org/10.1016/j.mex.2020.100788">https://doi.org/10.1016/j.mex.2020.100788</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR4">
            <citation-alternatives>
               <element-citation publication-type="book">
                  <person-group person-group-type="author">
                     <name content-type="author">
                        <surname>Boltanski</surname>
                        <given-names>L</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Thévenot</surname>
                        <given-names>L</given-names>
                     </name>
                  </person-group>
                  <date>
                     <year>2006</year>
                  </date>
                  <source content-type="BookTitle">On justification. Economies of worth</source>
                  <publisher-name>Princeton University Press</publisher-name>
                  <publisher-loc>Princeton</publisher-loc>
                  <volume-id content-type="bibbookdoi">10.1515/9781400827145</volume-id>
               </element-citation>
               <mixed-citation>Boltanski, Luc; Thévenot, Laurent (2006): On justification. Economies of worth. Princeton, NJ: Princeton University Press. <ext-link xlink:href="https://doi.org/10.1515/9781400827145">https://doi.org/10.1515/9781400827145</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR5">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <name content-type="author">
                     <surname>Bornmann</surname>
                     <given-names>L</given-names>
                  </name>
                  <date>
                     <year>2013</year>
                  </date>
                  <article-title>What is societal impact of research and how can it be assessed? A literature survey</article-title>
                  <issue>2</issue>
                  <page-range>217–233</page-range>
                  <volume-id content-type="bibarticledoi">10.1002/asi.22803</volume-id>
                  <source content-type="journal">Journal of the American Society for Information Science and Technology</source>
                  <volume>64</volume>
               </element-citation>
               <mixed-citation>Bornmann, Lutz (2013): What is societal impact of research and how can it be assessed? A literature survey. In: Journal of the American Society for Information Science and Technology 64 (2), S. 217–233. <ext-link xlink:href="https://doi.org/10.1002/asi.22803">https://doi.org/10.1002/asi.22803</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR6">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <person-group person-group-type="author">
                     <name content-type="author">
                        <surname>Bozeman</surname>
                        <given-names>B</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Sarewitz</surname>
                        <given-names>D</given-names>
                     </name>
                  </person-group>
                  <date>
                     <year>2011</year>
                  </date>
                  <article-title>Public value mapping and science policy evaluation</article-title>
                  <issue>1</issue>
                  <page-range>1–23</page-range>
                  <volume-id content-type="bibarticledoi">10.1007/s11024-011-9161-7</volume-id>
                  <source content-type="journal">Minerva</source>
                  <volume>49</volume>
               </element-citation>
               <mixed-citation>Bozeman, Barry; Sarewitz, Daniel (2011): Public value mapping and science policy evaluation. In: Minerva 49 (1), S. 1–23. <ext-link xlink:href="https://doi.org/10.1007/s11024-011-9161-7">https://doi.org/10.1007/s11024-011-9161-7</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR7">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <name content-type="author">
                     <surname>Brewer</surname>
                     <given-names>J</given-names>
                  </name>
                  <date>
                     <year>2011</year>
                  </date>
                  <article-title>The impact of impact</article-title>
                  <issue>3</issue>
                  <page-range>255–256</page-range>
                  <volume-id content-type="bibarticledoi">10.3152/095820211X12941371876869</volume-id>
                  <source content-type="journal">Research Evaluation</source>
                  <volume>20</volume>
               </element-citation>
               <mixed-citation>Brewer, John (2011): The impact of impact. In: Research Evaluation 20 (3), S. 255–256. <ext-link xlink:href="https://doi.org/10.3152/095820211X12941371876869">https://doi.org/10.3152/095820211X12941371876869</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR8">
            <citation-alternatives>
               <element-citation publication-type="book">
                  <person-group person-group-type="author">
                     <name content-type="author">
                        <surname>Bührer</surname>
                        <given-names>S</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Feidenheimer</surname>
                        <given-names>A</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Walz</surname>
                        <given-names>R</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Lindner</surname>
                        <given-names>R</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Beckert</surname>
                        <given-names>B</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Wallwaey</surname>
                        <given-names>E</given-names>
                     </name>
                  </person-group>
                  <date>
                     <year>2022</year>
                  </date>
                  <comment>https://publica-rest.fraunhofer.de/server/api/core/bitstreams/06cee3b3-f386-4ef5-8026-26c9311e0923/content, zuletzt geprüft am 13.01.2026</comment>
                  <source content-type="BookTitle">Concepts and methods to measure societal impacts – an overview</source>
                  <series>Discussion Papers Innovation Systems and Policy Analysis No. 74</series>
                  <publisher-name>Frauenhofer ISI</publisher-name>
                  <publisher-loc>Karlsruhe</publisher-loc>
               </element-citation>
               <mixed-citation>Bührer, Susanne; Feidenheimer, Alexander; Walz, Rainer; Lindner, Ralf; Beckert, Bernd; Wallwaey, Elisa (2022): Concepts and methods to measure societal impacts – an overview. Discussion Papers Innovation Systems and Policy Analysis No. 74. Karlsruhe: Frauenhofer ISI. Online verfügbar unter <ext-link xlink:href="https://publica-rest.fraunhofer.de/server/api/core/bitstreams/06cee3b3-f386-4ef5-8026-26c9311e0923/content">https://publica-rest.fraunhofer.de/server/api/core/bitstreams/06cee3b3-f386-4ef5-8026-26c9311e0923/content</ext-link>, zuletzt geprüft am 13.01.2026.</mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR9">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <person-group person-group-type="author">
                     <name content-type="author">
                        <surname>Buxton</surname>
                        <given-names>M</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Hanney</surname>
                        <given-names>S</given-names>
                     </name>
                  </person-group>
                  <date>
                     <year>1996</year>
                  </date>
                  <article-title>How can payback from health services research be assessed?</article-title>
                  <issue>1</issue>
                  <page-range>35–43</page-range>
                  <volume-id content-type="bibarticledoi">10.1177/135581969600100107</volume-id>
                  <source content-type="journal">Journal of Health Services Research &amp; Policy</source>
                  <volume>1</volume>
               </element-citation>
               <mixed-citation>Buxton, Martin; Hanney, Steve (1996): How can payback from health services research be assessed? In: Journal of Health Services Research &amp; Policy 1 (1), S. 35–43. <ext-link xlink:href="https://doi.org/10.1177/135581969600100107">https://doi.org/10.1177/135581969600100107</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR10">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <name content-type="author">
                     <surname>Dahler-Larsen</surname>
                     <given-names>P</given-names>
                  </name>
                  <date>
                     <year>2014</year>
                  </date>
                  <article-title>Constitutive effects of performance indicators. Getting beyond unintended consequences</article-title>
                  <issue>7</issue>
                  <page-range>969–986</page-range>
                  <volume-id content-type="bibarticledoi">10.1080/14719037.2013.770058</volume-id>
                  <source content-type="journal">Public Management Review</source>
                  <volume>16</volume>
               </element-citation>
               <mixed-citation>Dahler-Larsen, Peter (2014): Constitutive effects of performance indicators. Getting beyond unintended consequences. In: Public Management Review 16 (7), S. 969–986. <ext-link xlink:href="https://doi.org/10.1080/14719037.2013.770058">https://doi.org/10.1080/14719037.2013.770058</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR11">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <name content-type="author">
                     <surname>Daston</surname>
                     <given-names>L</given-names>
                  </name>
                  <date>
                     <year>1995</year>
                  </date>
                  <article-title>The moral economy of science</article-title>
                  <page-range>2–24</page-range>
                  <volume-id content-type="bibarticledoi">10.1086/368740</volume-id>
                  <source content-type="journal">Osiris</source>
                  <volume>10</volume>
               </element-citation>
               <mixed-citation>Daston, Lorraine (1995): The moral economy of science. In: Osiris 10, S. 2–24. <ext-link xlink:href="https://doi.org/10.1086/368740">https://doi.org/10.1086/368740</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR12">
            <citation-alternatives>
               <element-citation publication-type="book">
                  <person-group person-group-type="editor">
                     <name content-type="editor">
                        <surname>Decker</surname>
                        <given-names>M</given-names>
                     </name>
                     <name content-type="editor">
                        <surname>Ladikas</surname>
                        <given-names>M</given-names>
                     </name>
                     <name content-type="editor">
                        <surname>Stephan</surname>
                        <given-names>S</given-names>
                     </name>
                     <name content-type="editor">
                        <surname>Wütscher</surname>
                        <given-names>F</given-names>
                     </name>
                  </person-group>
                  <date>
                     <year>2004</year>
                  </date>
                  <source content-type="BookTitle">Bridges between science, society and policy. Technology assessment – methods and impacts</source>
                  <publisher-name>Springer</publisher-name>
                  <publisher-loc>Berlin</publisher-loc>
                  <volume-id content-type="bibbookdoi">10.1007/978-3-662-06171-8</volume-id>
               </element-citation>
               <mixed-citation>Decker, Michael; Ladikas, Miltos; Stephan, Susanne; Wütscher, Friederike (Hg.) (2004): Bridges between science, society and policy. Technology assessment – methods and impacts. Berlin: Springer. <ext-link xlink:href="https://doi.org/10.1007/978-3-662-06171-8">https://doi.org/10.1007/978-3-662-06171-8</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR13">
            <citation-alternatives>
               <element-citation publication-type="chapter">
                  <person-group person-group-type="author">
                     <name content-type="author">
                        <surname>Jong</surname>
                        <given-names>S</given-names>
                        <suffix>de</suffix>
                     </name>
                     <name content-type="author">
                        <surname>Spaapen</surname>
                        <given-names>J</given-names>
                     </name>
                  </person-group>
                  <person-group person-group-type="editor">
                     <name content-type="editor">
                        <surname>Ochsner</surname>
                        <given-names>M</given-names>
                     </name>
                     <name content-type="editor">
                        <surname>Bulaitis</surname>
                        <given-names>Z</given-names>
                     </name>
                  </person-group>
                  <date>
                     <year>2023</year>
                  </date>
                  <chapter-title>Formative evaluation in the Netherlands. An opportunity for the arts, humanities and social sciences</chapter-title>
                  <page-range>172–185</page-range>
                  <volume-id content-type="bibchapterdoi">10.4337/9781800885738.00021</volume-id>
                  <source content-type="BookTitle">Accountability in academic life</source>
                  <publisher-name>Edward Elgar Publishing</publisher-name>
                  <publisher-loc>Cheltenham</publisher-loc>
               </element-citation>
               <mixed-citation>de Jong, Stefan; Spaapen, Jack (2023): Formative evaluation in the Netherlands. An opportunity for the arts, humanities and social sciences. In: Michael Ochsner und Zoe Bulaitis (Hg.): Accountability in academic life. Cheltenham: Edward Elgar Publishing, S. 172–185. <ext-link xlink:href="https://doi.org/10.4337/9781800885738.00021">https://doi.org/10.4337/9781800885738.00021</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref specific-use="2" id="CR14">
            <mixed-citation>EPC – European Parliament and Council (2021): Regulation (EU) 2021/695. Online verfügbar unter <ext-link xlink:href="http://data.europa.eu/eli/reg/2021/695/oj">http://data.europa.eu/eli/reg/2021/695/oj</ext-link>, zuletzt geprüft am 26.01.2026.</mixed-citation>
         </ref>
         <ref id="CR15">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <person-group person-group-type="author">
                     <name content-type="author">
                        <surname>Espeland</surname>
                        <given-names>W</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Sauder</surname>
                        <given-names>M</given-names>
                     </name>
                  </person-group>
                  <date>
                     <year>2007</year>
                  </date>
                  <article-title>Rankings and reactivity. How public measures recreate social worlds</article-title>
                  <issue>1</issue>
                  <page-range>1–40</page-range>
                  <volume-id content-type="bibarticledoi">10.1086/517897</volume-id>
                  <source content-type="journal">American Journal of Sociology</source>
                  <volume>113</volume>
               </element-citation>
               <mixed-citation>Espeland, Wendy; Sauder, Michael (2007): Rankings and reactivity. How public measures recreate social worlds. In: American Journal of Sociology 113 (1), S. 1–40. <ext-link xlink:href="https://doi.org/10.1086/517897">https://doi.org/10.1086/517897</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR16">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <name content-type="author">
                     <surname>Felt</surname>
                     <given-names>U</given-names>
                  </name>
                  <date>
                     <year>2017</year>
                  </date>
                  <article-title>Under the shadow of time. Where indicators and academic values meet</article-title>
                  <page-range>53–63</page-range>
                  <volume-id content-type="bibarticledoi">10.17351/ests2017.109</volume-id>
                  <source content-type="journal">Engaging Science, Technology, and Society</source>
                  <volume>3</volume>
               </element-citation>
               <mixed-citation>Felt, Ulrike (2017): Under the shadow of time. Where indicators and academic values meet. In: Engaging Science, Technology, and Society 3, S. 53–63. <ext-link xlink:href="https://doi.org/10.17351/ests2017.109">https://doi.org/10.17351/ests2017.109</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR17">
            <citation-alternatives>
               <element-citation publication-type="chapter">
                  <person-group person-group-type="author">
                     <name content-type="author">
                        <surname>Gläser</surname>
                        <given-names>J</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Laudel</surname>
                        <given-names>G</given-names>
                     </name>
                  </person-group>
                  <person-group person-group-type="editor">
                     <name content-type="editor">
                        <surname>Whitley</surname>
                        <given-names>R</given-names>
                     </name>
                     <name content-type="editor">
                        <surname>Gläser</surname>
                        <given-names>J</given-names>
                     </name>
                  </person-group>
                  <date>
                     <year>2007</year>
                  </date>
                  <chapter-title>The social construction of bibliometric evaluations</chapter-title>
                  <page-range>101–123</page-range>
                  <volume-id content-type="bibchapterdoi">10.1007/978-1-4020-6746-4_5</volume-id>
                  <source content-type="BookTitle">The changing governance of the sciences</source>
                  <publisher-name>Springer</publisher-name>
                  <publisher-loc>Dordrecht</publisher-loc>
               </element-citation>
               <mixed-citation>Gläser, Jochen; Laudel, Grit (2007): The social construction of bibliometric evaluations. In: Richard Whitley und Jochen Gläser (Hg.): The changing governance of the sciences. Dordrecht: Springer, S. 101–123. <ext-link xlink:href="https://doi.org/10.1007/978-1-4020-6746-4_5">https://doi.org/10.1007/978-1-4020-6746-4_5</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR18">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <name content-type="author">
                     <surname>Godin</surname>
                     <given-names>B</given-names>
                  </name>
                  <date>
                     <year>2002</year>
                  </date>
                  <article-title>Outline for a history of science measurement</article-title>
                  <issue>1</issue>
                  <page-range>3–27</page-range>
                  <volume-id content-type="bibarticledoi">10.1177/016224390202700101</volume-id>
                  <source content-type="journal">Science, Technology, &amp; Human Values</source>
                  <volume>27</volume>
               </element-citation>
               <mixed-citation>Godin, Benoît (2002): Outline for a history of science measurement. In: Science, Technology, &amp; Human Values 27 (1), S. 3–27. <ext-link xlink:href="https://doi.org/10.1177/016224390202700101">https://doi.org/10.1177/016224390202700101</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR19">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <name content-type="author">
                     <surname>Godin</surname>
                     <given-names>B</given-names>
                  </name>
                  <date>
                     <year>2006</year>
                  </date>
                  <article-title>The knowledge-based economy. Conceptual framework or buzzword?</article-title>
                  <issue>1</issue>
                  <page-range>17–30</page-range>
                  <volume-id content-type="bibarticledoi">10.1007/s10961-005-5010-x</volume-id>
                  <source content-type="journal">Journal of Technology Transfer</source>
                  <volume>31</volume>
               </element-citation>
               <mixed-citation>Godin, Benoît (2006): The knowledge-based economy. Conceptual framework or buzzword?. In: Journal of Technology Transfer 31 (1), S. 17–30. <ext-link xlink:href="https://doi.org/10.1007/s10961-005-5010-x">https://doi.org/10.1007/s10961-005-5010-x</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR20">
            <citation-alternatives>
               <element-citation publication-type="chapter">
                  <name content-type="author">
                     <surname>Grunwald</surname>
                     <given-names>A</given-names>
                  </name>
                  <name content-type="editor">
                     <surname>Kopfmüller</surname>
                     <given-names>J</given-names>
                  </name>
                  <date>
                     <year>2006</year>
                  </date>
                  <chapter-title>Technikfolgenabschätzung als Nachhaltigkeitsbewertung. Konzeptionelle Herausforderungen und methodische Probleme</chapter-title>
                  <page-range>39–61</page-range>
                  <volume-id content-type="bibchapterdoi">10.5771/9783845267685-39</volume-id>
                  <source content-type="BookTitle">Ein Konzept auf dem Prüfstand. Das integrative Nachhaltigkeitskonzept in der Forschungspraxis</source>
                  <publisher-name>edition sigma</publisher-name>
                  <publisher-loc>Berlin</publisher-loc>
               </element-citation>
               <mixed-citation>Grunwald, Armin (2006): Technikfolgenabschätzung als Nachhaltigkeitsbewertung. Konzeptionelle Herausforderungen und methodische Probleme. In: Jürgen Kopfmüller (Hg.): Ein Konzept auf dem Prüfstand. Das integrative Nachhaltigkeitskonzept in der Forschungspraxis Berlin: edition sigma, S. 39–61. <ext-link xlink:href="https://doi.org/10.5771/9783845267685-39">https://doi.org/10.5771/9783845267685-39</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR21">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <person-group person-group-type="author">
                     <name content-type="author">
                        <surname>Helgesson</surname>
                        <given-names>C-F</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Muniesa</surname>
                        <given-names>F</given-names>
                     </name>
                  </person-group>
                  <date>
                     <year>2013</year>
                  </date>
                  <article-title>For what it’s worth. An introduction to valuation studies</article-title>
                  <issue>1</issue>
                  <page-range>1–10</page-range>
                  <volume-id content-type="bibarticledoi">10.3384/vs.2001-5992.13111</volume-id>
                  <source content-type="journal">Valuation Studies</source>
                  <volume>1</volume>
               </element-citation>
               <mixed-citation>Helgesson, Claes-Fredrik; Muniesa, Fabian (2013): For what it’s worth. An introduction to valuation studies. In: Valuation Studies 1 (1), S. 1–10. <ext-link xlink:href="https://doi.org/10.3384/vs.2001-5992.13111">https://doi.org/10.3384/vs.2001-5992.13111</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR22">
            <citation-alternatives>
               <element-citation publication-type="book">
                  <name content-type="author">
                     <surname>Hume</surname>
                     <given-names>D</given-names>
                  </name>
                  <date>
                     <year>2007</year>
                  </date>
                  <source content-type="BookTitle">An enquiry concerning human understanding</source>
                  <publisher-name>Oxford University Press</publisher-name>
                  <publisher-loc>Oxford</publisher-loc>
               </element-citation>
               <mixed-citation>Hume, David (2007). An enquiry concerning human understanding. Oxford: Oxford University Press.</mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR23">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <name content-type="author">
                     <surname>Jasanoff</surname>
                     <given-names>S</given-names>
                  </name>
                  <date>
                     <year>2003</year>
                  </date>
                  <article-title>Technologies of humility. Citizen participation in governing science</article-title>
                  <issue>3</issue>
                  <page-range>223–244</page-range>
                  <volume-id content-type="bibarticledoi">10.1023/A:1025557512320</volume-id>
                  <source content-type="journal">Minerva</source>
                  <volume>41</volume>
               </element-citation>
               <mixed-citation>Jasanoff, Sheila (2003): Technologies of humility. Citizen participation in governing science. In: Minerva 41 (3), S. 223–244. <ext-link xlink:href="https://doi.org/10.1023/A:1025557512320">https://doi.org/10.1023/A:1025557512320</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR24">
            <citation-alternatives>
               <element-citation publication-type="book">
                  <name content-type="author">
                     <surname>Kant</surname>
                     <given-names>I</given-names>
                  </name>
                  <date>
                     <year>1998</year>
                  </date>
                  <source content-type="BookTitle">Kritik der reinen Vernunft</source>
                  <publisher-name>Meiner</publisher-name>
                  <publisher-loc>Hamburg</publisher-loc>
               </element-citation>
               <mixed-citation>Kant, Immanuel (1998): Kritik der reinen Vernunft. Hamburg: Meiner.</mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR25">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <name content-type="author">
                     <surname>Krempkow</surname>
                     <given-names>R</given-names>
                  </name>
                  <date>
                     <year>2018</year>
                  </date>
                  <article-title>Exzellenz in der Gründungsförderung erfassen – ein vermessen(d)es Anliegen an Hochschulen?</article-title>
                  <issue>5/6</issue>
                  <page-range>140–147</page-range>
                  <comment>https://www.hochschulwesen.info/inhalte/hsw-5-6-2018.pdf, zuletzt geprüft am 30.01.2026</comment>
                  <source content-type="journal">Das Hochschulwesen</source>
                  <volume>66</volume>
               </element-citation>
               <mixed-citation>Krempkow, René (2018): Exzellenz in der Gründungsförderung erfassen – ein vermessen(d)es Anliegen an Hochschulen? In: Das Hochschulwesen 66 (5/6), S. 140–147. Online verfügbar unter <ext-link xlink:href="https://www.hochschulwesen.info/inhalte/hsw-5-6-2018.pdf">https://www.hochschulwesen.info/inhalte/hsw-5-6-2018.pdf</ext-link>, zuletzt geprüft am 30.01.2026.</mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR26">
            <citation-alternatives>
               <element-citation publication-type="book">
                  <name content-type="author">
                     <surname>Lamont</surname>
                     <given-names>M</given-names>
                  </name>
                  <date>
                     <year>2009</year>
                  </date>
                  <source content-type="BookTitle">How professors think. Inside the curious world of academic judgment</source>
                  <publisher-name>Harvard University Press</publisher-name>
                  <publisher-loc>Cambridge</publisher-loc>
                  <volume-id content-type="bibbookdoi">10.4159/9780674054158</volume-id>
               </element-citation>
               <mixed-citation>Lamont, Michèle (2009): How professors think. Inside the curious world of academic judgment. Cambridge, MA: Harvard University Press. <ext-link xlink:href="https://doi.org/10.4159/9780674054158">https://doi.org/10.4159/9780674054158</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR27">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <name content-type="author">
                     <surname>Morton</surname>
                     <given-names>S</given-names>
                  </name>
                  <date>
                     <year>2015</year>
                  </date>
                  <article-title>Progressing research impact assessment. A ‘contributions’ approach</article-title>
                  <issue>4</issue>
                  <page-range>405–419</page-range>
                  <volume-id content-type="bibarticledoi">10.1093/reseval/rvv016</volume-id>
                  <source content-type="journal">Research Evaluation</source>
                  <volume>24</volume>
               </element-citation>
               <mixed-citation>Morton, Sarah (2015): Progressing research impact assessment. A ‘contributions’ approach. In: Research Evaluation 24 (4), S. 405–419. <ext-link xlink:href="https://doi.org/10.1093/reseval/rvv016">https://doi.org/10.1093/reseval/rvv016</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR28">
            <citation-alternatives>
               <element-citation publication-type="book">
                  <person-group person-group-type="author">
                     <name content-type="author">
                        <surname>Pasanen</surname>
                        <given-names>T</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Shaxson</surname>
                        <given-names>L</given-names>
                     </name>
                  </person-group>
                  <date>
                     <year>2016</year>
                  </date>
                  <comment>https://media.odi.org/documents/10259.pdf, zuletzt geprüft am 26.01.2026</comment>
                  <source content-type="BookTitle">How to design a monitoring and evaluation framework for a policy research project</source>
                  <publisher-name>Overseas Development Institute</publisher-name>
                  <publisher-loc>London</publisher-loc>
               </element-citation>
               <mixed-citation>Pasanen, Tiina ; Shaxson, Louise (2016): How to design a monitoring and evaluation framework for a policy research project. London: Overseas Development Institute. Online verfügbar unter <ext-link xlink:href="https://media.odi.org/documents/10259.pdf">https://media.odi.org/documents/10259.pdf</ext-link>, zuletzt geprüft am 26.01.2026.</mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR29">
            <citation-alternatives>
               <element-citation publication-type="book">
                  <person-group person-group-type="author">
                     <name content-type="author">
                        <surname>Paschen</surname>
                        <given-names>H</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Gresser</surname>
                        <given-names>K</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Conrad</surname>
                        <given-names>F</given-names>
                     </name>
                  </person-group>
                  <date>
                     <year>1978</year>
                  </date>
                  <source content-type="BookTitle">Technology Assessment – Technologiefolgenabschätzung. Ziele, methodische und organisatorische Probleme, Anwendungen</source>
                  <publisher-name>Campus</publisher-name>
                  <publisher-loc>Frankfurt a. M.</publisher-loc>
               </element-citation>
               <mixed-citation>Paschen, Herbert; Gresser, Klaus; Conrad, Felix (1978): Technology Assessment – Technologiefolgenabschätzung. Ziele, methodische und organisatorische Probleme, Anwendungen. Frankfurt a. M.: Campus Verlag.</mixed-citation>
            </citation-alternatives>
         </ref>
         <ref specific-use="2" id="CR30">
            <mixed-citation>REF – Research Excellence Framework (2021): Index of revisions to the ‘Guidance on submissions’. Online verfügbar unter <ext-link xlink:href="https://2021.ref.ac.uk/media/1447/ref-2019_01-guidance-on-submissions.pdf">https://2021.ref.ac.uk/media/1447/ref-2019_01-guidance-on-submissions.pdf</ext-link>, zuletzt geprüft am 13.01.2026.</mixed-citation>
         </ref>
         <ref id="CR31">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <person-group person-group-type="author">
                     <name content-type="author">
                        <surname>Spaapen</surname>
                        <given-names>J</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Drooge</surname>
                        <given-names>L</given-names>
                        <suffix>van</suffix>
                     </name>
                  </person-group>
                  <date>
                     <year>2011</year>
                  </date>
                  <article-title>Introducing ‘productive interactions’ in social impact assessment</article-title>
                  <issue>3</issue>
                  <page-range>211–218</page-range>
                  <volume-id content-type="bibarticledoi">10.3152/095820211X12941371876742</volume-id>
                  <source content-type="journal">Research Evaluation</source>
                  <volume>20</volume>
               </element-citation>
               <mixed-citation>Spaapen, Jack; van Drooge, Leonie (2011): Introducing ‘productive interactions’ in social impact assessment. In: Research Evaluation 20 (3), S. 211–218. <ext-link xlink:href="https://doi.org/10.3152/095820211X12941371876742">https://doi.org/10.3152/095820211X12941371876742</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR32">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <name content-type="author">
                     <surname>Strathern</surname>
                     <given-names>M</given-names>
                  </name>
                  <date>
                     <year>2000</year>
                  </date>
                  <article-title>The tyranny of transparency</article-title>
                  <issue>3</issue>
                  <page-range>309–321</page-range>
                  <volume-id content-type="bibarticledoi">10.1080/713651562</volume-id>
                  <source content-type="journal">British Educational Research Journal</source>
                  <volume>26</volume>
               </element-citation>
               <mixed-citation>Strathern, Marilyn (2000): The tyranny of transparency. In: British Educational Research Journal 26 (3), S. 309–321. <ext-link xlink:href="https://doi.org/10.1080/713651562">https://doi.org/10.1080/713651562</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR33">
            <citation-alternatives>
               <element-citation publication-type="journal">
                  <person-group person-group-type="author">
                     <name content-type="author">
                        <surname>Svare</surname>
                        <given-names>H</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Dahl Gjefsen</surname>
                        <given-names>M</given-names>
                     </name>
                     <name content-type="author">
                        <surname>Boer</surname>
                        <given-names>A</given-names>
                        <suffix>den</suffix>
                     </name>
                     <name content-type="author">
                        <surname>Kok</surname>
                        <given-names>K</given-names>
                     </name>
                  </person-group>
                  <date>
                     <year>2023</year>
                  </date>
                  <article-title>Learning systems and learning paths in sustainability transitions</article-title>
                  <issue>1</issue>
                  <page-range>art22</page-range>
                  <volume-id content-type="bibarticledoi">10.5751/ES-13868-280122</volume-id>
                  <source content-type="journal">Ecology and Society</source>
                  <volume>28</volume>
               </element-citation>
               <mixed-citation>Svare, Helge; Dahl Gjefsen, Mads; den Boer, Alanya; Kok, Kristiaan (2023): Learning systems and learning paths in sustainability transitions. In: Ecology and Society 28 (1), S. art22. <ext-link xlink:href="https://doi.org/10.5751/ES-13868-280122">https://doi.org/10.5751/ES-13868-280122</ext-link>
               </mixed-citation>
            </citation-alternatives>
         </ref>
         <ref id="CR34">
            <citation-alternatives>
               <element-citation publication-type="book">
                  <name content-type="author">
                     <surname>Mierlo</surname>
                     <given-names>B</given-names>
                     <suffix>van</suffix>
                  </name>
                  <date>
                     <year>2010</year>
                  </date>
                  <comment>https://edepot.wur.nl/149471, zuletzt geprüft am 26.01.2026</comment>
                  <source content-type="BookTitle">Reflexive monitoring in action. A guide for monitoring system innovation projects</source>
                  <publisher-name>Athena Institute</publisher-name>
                  <publisher-loc>Amsterdam</publisher-loc>
               </element-citation>
               <mixed-citation>van Mierlo, Barbara et al. (2010): Reflexive monitoring in action. A guide for monitoring system innovation projects. Amsterdam: Athena Institute, VU. Online verfügbar unter <ext-link xlink:href="https://edepot.wur.nl/149471">https://edepot.wur.nl/149471</ext-link>, zuletzt geprüft am 26.01.2026.</mixed-citation>
            </citation-alternatives>
         </ref>
      </ref-list>
   </back>
</article>
