Philipp Zimmermann*, 1, Sarah Becker1, Isabel Wrobel1
* Corresponding author: philipp.zimmermann-j5r@rub.de
1 Institut für Philosophie I, Ruhr-Universität Bochum, Bochum, DE
Künstliche Intelligenz (KI) ist weitläufig präsent, in vielen Fällen ohne, dass es bewusst wird. KI-gestützte Softwarelösungen prägen Internetrecherchen, erledigen automatisiert Aufgaben und unterstützen Bildung. Zugleich sammeln diese Technologien Informationen über uns, greifen in unsere Handlungsmöglichkeiten ein, formen unsere Identität und prägen unsere Wahrnehmungen. Vor diesem Hintergrund thematisierte der, von Martina Philippi und Sebastian Weydner-Volkmann am 20. und 21. 04. 2023 an der Ruhr-Universität Bochum, organisierte Workshop „Mensch-Maschine-Interaktion und Informationsdarstellung – Philosophische Perspektiven auf KI-Anwendungen“, die Frage, welchen Beitrag die Philosophie durch ihre besonderen Perspektiven und Methoden bei der Bewertung und Reflexion der Risiken und Möglichkeiten neuer Technologien und ihrer Nutzung leisten kann. Die Verfasser*innen dieses Beitrags waren an der Organisation des Workshops beteiligt und geben im Folgenden einen Überblick über die Beiträge.
Zu Beginn des Workshops betonten Philippi und Weydner-Volkmann, dass das Verbindende des Workshops nicht so sehr durch eine einzelne Technologie und ihre Nutzung gestiftet werde, als vielmehr durch die Reflexion auf den spezifischen Beitrag verschiedener philosophischer Perspektiven und Methoden bei der Bewertung diverser Technologien und ihrer Nutzung. Die Offenheit des Workshops für eine Diskussion ganz unterschiedlicher Technologien ermöglichte es, zahlreiche Antworten auf die Ausgangsfrage auszuloten. Die Beiträge betrachteten unter anderem das Mensch-Maschine-Verhältnis, die Darstellung KI-generierter Information sowie die Übertragung von ursprünglich auf den Menschen bezogene Lerntheorien auf technische Objekte und umgekehrt. Diskutiert wurde unter anderem auch ‚Affective Computing‘, ‚Learning-Analytics‘ und Informationsdarstellung.
Ausgehend von einer anthropologisch-philosophischen Perspektive präsentierte Armin Grunwald (KIT-ITAS) die kulturstiftende, anthropologisch bedeutsame Rolle von Technik und fokussierte dabei auf das Narrativ vom unterlegenen Menschen und der überlegenen KI. Dabei wurde die Frage aufgeworfen, inwiefern der technische Fortschritt dazu verpflichte, Menschen zu verbessern. An diesen Verbesserungsgedanken schlossen sich thematisch die Vorträge von Inken Titz (RUB) und Philipp Zimmermann (RUB) an. Titz fragte, ob Informationstechnologien den Menschen nachhaltig moralischer machen können, und argumentierte für einen pluralistischen Ansatz sowie einen Fokus auf die moralische Identität bei der Gestaltung moralischer Technologien. Ob und gegebenenfalls wie ‚KI-Coaching‘ dem Menschen beim persönlichen Wachstum helfen könne, untersuchte Zimmermann ausgehend von Deweys Annahme, dass ein dynamisches Selbst die Voraussetzung für persönliches Wachstum sei. Er lotete aus, inwiefern ‚KI-Coaching‘ zur Ausbildung eines dynamischen Selbst beitragen kann.
Kevin Liggieri (TU Darmstadt) untersuchte, welche Bilder und Argumentationsfiguren zu Beginn des 20. Jahrhunderts zu einer Gegenüberstellung humanistischer und funktionalistischer Lernkonzepte führten. Dazu zählten auch interessensgeleitete Fehlübersetzungen bekannter Konzepte der „klassischen Konditionierung“. Indem er einerseits prüfte, wie das Konzept der „klassischen Konditionierung“ epistemologisch und anthropologisch fundiert ist und andererseits beleuchtete, wie sich im 20. Jahrhundert humanistische und funktionalistische Lernkonzepte miteinander verschränkten, stellte er diese strikte Gegenüberstellung in Frage. Seine Analyse erlaubte es ihm einerseits, zu zeigen, wie das Lernen vom Menschen auf technische Strukturen übertragen wurde; andererseits konnte er so problematische Aspekte des Modells der Konditionierung beleuchten. Olivier Del Fabbro (ETH Zürich) argumentierte ausgehend von Georges Canguilhem und Gilbert Simondon, dass ab dem 20. Jahrhundert technische Objekte mittels biologischer Begriffe und KI seit ihrem historischen Auftauchen durch Lern- und Intelligenzkonzepte bzw. -modelle des Behaviorismus beschrieben werden. Er zeichnete nach, wie es zunächst zu einer „Biologisierung“ von Technik kam, die sich angesichts der Entwicklung von KI um eine Psychologisierung erweiterte.
Dominik Bär (RUB) stellte in seinem Vortrag die Frage, was Autonomie angesichts der raschen Ausbreitung von KI bedeuten könne. Da Autonomie sowohl auf individueller als auch auf politischer Ebene ein zentrales Phänomen menschlicher Praxis ist, betonnte er die Relevanz einer Neubestimmung der Grenzen und Möglichkeiten menschlicher Autonomie für die ethische Reflexion von KI-Systemen und ihrer Nutzung. Andreas Kaminski (TU Darmstadt) untersuchte die selbstverständlich anmutende Leitdifferenz von ‚funktioniert‘ und ‚kaputt‘, die jedoch, besonders bei Informationstechnik- und KI-Systemen, schnell ihre vermeintliche Eindeutigkeit verliert. Ob diese Techniken wie beabsichtigt funktionieren, wie gut sie funktionieren und an welchem Verhalten sich das richtige Funktionieren überhaupt erkennen lässt, sei bei solchen Systemen oft schwer zu bestimmen. Daraus folgt eine ‚pragmatische‘ Opazität, die sich unter anderem als Hindernis im alltäglichen Technikgebrauch bemerkbar mache, da sie das Ausbilden einer Folgenerwartung der Verwendung erschwere. Die Begriffsarbeit der Vorträge von Liggieri, Del Fabbro, Bär und Kaminski trug zum philosophisch orientierten Verständnis darüber bei, wie sich wichtige Begriffe und Konzepte zur Beschreibung von Mensch und Technologie historisch entwickelten und an welchen Stellen diese heute problematisch sind.
Die Vorträge mit starkem Praxisbezug verdeutlichten, wie die Philosophie mit Empfehlungen zur Technikentwicklung und -nutzung beitragen kann.
Eva Weber-Guskar (RUB) beleuchtete die oft an die auf ‚Affective Computing‘ basierende digitale Gefühlserfassung herangetragene Kritik, diese könnte zu einem Verlust an emotionaler Granularität führen. Sie zeigte, dass ein Hauptkritikpunkt, nämlich dass es digitaler Gefühlserfassung selbst an emotionaler Granularität mangelt, theoretisch durch eine einfache technische Lösung entkräftet werden könne. Weber-Guskar schärfte anschließend die Kritik am ‚Affective Computing‘ vor dem Hintergrund der Philosophie der Emotionen, indem sie zeigte, dass die digitale Gefühlserfassung die Dimension der Intentionalität nicht erfassen kann. Zu erkennen, worauf sich eine Emotion bezieht und vor welchem Hintergrund diese entstanden ist, sei aber entscheidend für emotionale Granularität.
Am Beispiel einer KI-gestützten Rettungspraxis, in der Rettungskräfte anhand einer 3-D-Lagekarte, die durch eine teilautonome Drohne generiert wurde, in teilweise eingestürzten Gebäuden nach Unglücksopfern suchen, zeigte Martina Philippi (RUB) wie sich phänomenologische Überlegungen zur Aufmerksamkeit sowie zu Wahrnehmungsgewohnheiten für das Design und die Nutzung von Technik nutzbar machen lassen. Durch die Untersuchung der Sehgewohnheit im ‚analogen‘ Raum und der Wahrnehmungsgewohnheiten bei der Verwendung von bildhaft dargestellter Information konnte sie problematische Aspekte der Informationsdarstellung identifizieren und entsprechende Empfehlungen für das Design der Informationsdarstellung sowie die Techniknutzung formulieren. Sarah Becker (RUB) widmete sich der Frage, inwiefern Learning-Analytics-Systeme, die Daten und Informationen über das Verhalten von Studierenden auf Lernplattformen an Lehrende weitergeben, Lehrende in ihrer Interaktion mit Studierenden beeinflussen und so möglicherweise zur Benachteiligung bestimmter Studierender beitragen. Aufgrund möglicherweise vorhandener ‚Cognitive Biases‘ könnten die durch diese Anwendung an Lehrende weitergegebenen Daten und Information zur fehlerhaften Einschätzung von Studierenden führen und so die Chancengleichheit einschränken. Ob ‚Learning-Analytics‘ die Autonomie von Lernenden stärken kann, untersuchte Sebastian Weydner-Volkmann (RUB). Er nahm die Debatte zum ‚Self-Tracking‘ in den Blick und machte Erkenntnisse aus dieser Debatte für den ‚Learning-Analytics‘-Diskurs fruchtbar. An John Deweys Konzepte der intelligenten Habitualisierung und des Wachstums anknüpfend, schlug er vor, das Interface von LA-basierten Feedback-Tools so zu gestalten, dass sie autonomiestärkende Verwendungsformen nahelegen, indem sie etwa dabei unterstützen, die eigenen Lernhabitualitäten kennenzulernen, zu reflektieren und gezielt zu verändern. Diese Vorträge mit starkem Praxisbezug verdeutlichten, wie die Philosophie mit Empfehlungen zur Technikentwicklung und -nutzung beitragen kann.
In der offenen Atmosphäre des Workshops wurden verschiedene Technologien aus anthropologischer, ethischer und technikphilosophischer Perspektive stets praxisorientiert diskutiert. So konnten bspw. durch philosophische Überlegungen zu Wahrnehmungsgewohnheiten und zur intelligenten Habitualisierung bestimmte problematische Faktoren bei der Informationsdarstellung und der Techniknutzung identifiziert und Empfehlungen für die Praxis entwickelt werden. Historische Methoden erlaubten die Entwicklung von Begriffen nachzuzeichnen und zu reflektieren, ob bestimmte Begriffe angesichts neuer Entwicklungen heute problematisch sind. Die Ausgangsfrage des Workshops beantworteten die einzelnen Vorträge, indem sie jeweils demonstrierten, welchen Beitrag die dezidiert philosophische Perspektive zur Bewertung und Reflexion der betrachteten Technologie und ihrer kontextspezifischen Verwendung leisten kann.