BERICHT

Künstliche Intelligenz und Weltverstehen

Klaus Angerer, Zentrum verantwortungsbewusste Digitalisierung, Technische Universität Darmstadt, Karolinenplatz 5, 64289 Darmstadt (klaus.angerer@tu-darmstadt.de) https://orcid.org/0000-0002-1983-0026

Daniel Frank, Lehrstuhl für Ethik, Theorie und Geschichte der Biowissenschaften, Eberhard-Karls-Universität Tübingen (daniel.frank@uni-tuebingen.de) https://orcid.org/0000-0003-3477-332X

This is an article distributed under the terms of the Creative Commons Attribution License CCBY 4.0 (https://creativecommons.org/licenses/by/4.0/)

TATuP Bd. 29 Nr. 3 (2020), S. 87–88, https://doi.org/10.14512/tatup.29.3.87

Eigentlich als Frühjahrstagung geplant und dann aufgrund der Sars-CoV2-Pandemie verschoben, fand die interdisziplinäre Tagung „Künstliche Intelligenz (KI) und Weltverstehen“ nun vom 30. September bis zum 2. Oktober statt. Geladen hatte die Deutsche Akademie der Naturforscher Leopoldina in Kooperation mit dem Interdisziplinärem Nachwuchsnetzwerk für Wissenschafts- und Technikforschung INSIST nach Halle, wobei die Tagung aufgrund der Umstände als hybrides Format, d. h. teilweise mit Online-Vorträgen und interaktiver Liveübertragung im Internet stattfand. Erfreulicherweise blieb die Zahl der online zugeschalteten und auch aktiv an der Diskussion partizipierenden TeilnehmerInnen die ganzen zwei Tage über konstant hoch.

Den Auftakt machte der Abendvortrag von Andreas Kaminski (High Performance Computing Center Stuttgart), der sich mit Begründungen im Kontext von Maschinellem Lernen und Entscheidungen befasste. Kaminski zufolge wird in der KI-Forschung Reliabilität, d. h. das Verhältnis von richtigen Ergebnissen zur Gesamtzahl der Ergebnisse, als dominante Begründungsform angesehen. Reliabilität sei jedoch nicht in allen Kontexten eine angemessene Form von Begründung. Daher könne auch eine Verbesserung der Reliabilität nicht in allen Fällen zu einer Verbesserung der Rechtfertigung des Einsatzes von Systemen Maschinellen Lernens führen. In einigen Fallkonstellationen könne es sich schlichtweg um die falsche Art von Gründen handeln, wie Kaminski an Beispielen aus der Rechtsprechung sowie anhand des Einsatzes von KI-Systemen zur Modellierung von Vertrauenswürdigkeit in Grenzsicherungssystemen illustrierte. Allerdings bedeute das nicht zwangsläufig, dass deshalb auch auf die Anwendung der Methode verzichtet werde. Eine Methode könne zwar trotz ihrer Verlässlichkeit unangemessen sein. Oftmals werde aber argumentiert, dass sie immer noch besser sei als eine nicht verlässliche Methode. Die anschließende Diskussion drehte sich u. a. um die Abgrenzung zwischen normativen und epistemischen Fragen sowie um die Implikationen der Fokussierung der KI-Forschung auf die Verbesserung der Reliabilität algorithmischer Systeme.

Computer und Gehirn, Software und Denken

Den Einstieg in die Vorträge am Donnerstag gaben Dinah Pfau und Helen Piel vom Deutschen Museum in München mit einem historischen Blick auf die Anfänge der KI-Forschung. Darin zeichneten sie nach, wie diese ausgehend von den USA und dem Gründungsmythos der Summer School am Dartmouth College 1956 über Großbritannien sich erst langsam in Deutschland etablierte, wo sie noch in den 1970er-Jahren stiefmütterlich behandelt wurde. Bereits in diesem Vortrag wurde Bezug genommen auf die Analogiebildung zwischen Computer und Gehirn bzw. zwischen Software und Denken, die während der Tagung immer wieder thematisiert wurde und auch zentraler Gegenstand der Podiumsdiskussion war. Auch Susanne Schregel (Universität Köln) befasste sich in ihren Überlegungen zur Geschlechtergeschichte der künstlichen Intelligenz insbesondere mit den Anfängen der KI-Forschung in der Bundesrepublik Deutschland und Großbritannien bis in die frühen 1980er-Jahre.

In der Podiumsdiskussion diskutierten Rudolf Seising (Deutsches Museum München), Gabriele Gramelsberger (RWTH Aachen) und Christian Vater (Karlsruher Institut für Technologie), moderiert von Martin Carrier (Universität Bielefeld) und unter Einbeziehung des vor Ort präsenten wie auch online zugeschalteten Auditoriums, insbesondere die Grenzen Künstlicher Intelligenz und die Differenz zum Menschen. Seising unterstrich zu Beginn gar, dass so etwas wie eine KI im engeren Sinne überhaupt nicht existiere. Konsens herrschte dahingehend, dass KI nicht denken könne – zumindest nicht so, wie ein Mensch. Gleichwohl spreche eine Tendenz dafür, dass sich nach und nach sämtliche Denkleistungen des Menschen durch entsprechende Systeme substituieren und gar übertreffen lassen, wie Christian Vater mit Verweis auf Alan Touring bemerkte. Allerdings, so Carrier, müsse man sich auch mit den Konsequenzen auseinandersetzen, die KI unterhalb dieses Anspruchs mit sich bringt. Welche Bedeutung ergebe sich etwa für die Wissenschaften, wenn computergenerierte mathematische Beweise selbst von den besten Mathematikern nicht mehr nachvollzogen werden? Oder wenn rein musterbasierte und damit letztlich auf Statistik beruhende Prognosen von Naturkatastrophen heute teilweise treffsicherer sind als solche, die direkt auf den Gesetzen der Physik bzw. der Thermodynamik beruhen? Die Spannung zwischen einer dramatischen Vertiefung und einer zugleich erfolgenden Verflachung der Erkenntnis durch den Rückgriff auf KI-Systeme könne, so betonte Carrier, eine Verschiebung der Art und Weise, wie wissenschaftliches Wissen generiert werde, mit sich bringen. Deren Implikationen wurden von den DiskussionsteilnehmerInnen durchaus verschieden beurteilt – ein willkommenes Moment des Dissens in einer Podiumsdiskussion, in der die Positionen der TeilnehmerInnen einander mitunter allzu sehr ähnelten.

Welche Gegenstände können überhaupt formalisiert und einer Künstlichen Intelligenz zugeführt werden?

Philosophiehistorisch ausgerichtet waren die beiden Vorträge von Lorina Buhr (Universität Göttingen) und Sandro Herr (Universität Wuppertal). Buhr betrachtete Künstliche Intelligenz als eine Form von mathesis universalis. Im Anschluss an Descartes’ Idee einer berechenbaren Welt, die es mittels einer mathematisch verfassten Einheitswissenschaft zu erfassen gelte, folgte sie dieser Leitidee über Leibniz’ Formalisierung und Husserl Krisis-Schrift, in der dieser eine Krise des kulturellen Sinns konstatierte, bis hin zu Foucault. Buhr erläuterte davon ausgehend die Rolle von KI im Wissenschaftssystem und in der digitalen Gesellschaft. Anstelle eines Fazits warf Buhr 15 in mehrere Untergruppen kategorisierte Fragen auf, die auch die weitere Diskussion zu ihrem Vortrag und darüber hinaus prägten. Buhr fragte u. a. danach, welche Gegenstände überhaupt formalisiert und einer KI zugeführt werden sollten und wie das Verhältnis von menschlicher Vernunft und KI zu bestimmen sei. Und auch Sandro Herr lieferte in seiner begriffsgenealogischen Naturalisierung von KI eine tour de force durch die abendländische Geistesgeschichte, die um das Verhältnis von Materie, organischer Körperlichkeit und künstlichem Denken kreiste – ausgehend von Platons Gedanken zu Schrift als erweitertem Gedächtnis, über Hobbes, de La Mettrie und Nietzsches Betonung der Körperlichkeit als Voraussetzung des Denkens, bis zu Marvin Minskis Verknüpfung von KI und Materie. Während die Schrift Herr zufolge noch im „Leibraum“ zu verorten sei, sei KI gar geografisch nicht mehr lokalisierbar. Sinn werde damit delokalisiert.

Verantwortungslücken und Opazität

Luna Rösinger (Universität Köln) widmete sich aus rechtsphilosophischer Sicht dem Autonomiebegriff und der Frage, ob KI Adressatin von Rechtsfragen sein kann. Wie Rösinger überzeugend ausführte, handelt es sich beim Recht weder um ein bloßes Mittel der Verhaltenssteuerung noch um eine heteronome Zwangsordnung. Vielmehr sei es entscheidend, dass Rechtssubjekte Regeln anerkennen, weil sie das Recht selbst mitkonstituieren. KI habe jedoch kein Bewusstsein ihrer selbst und sei daher auch nicht zur Selbstgesetzgebung fähig und kein Mitkonstituent des Rechts. Künstliche Intelligenz oder E-Personen können demnach keine Rechtspersonen sein. Machte man sie zu solchen, so wäre dies ein Ausdruck eines verfehlten Rechtsverständnisses und dem Bedürfnis nach der Zuschreibbarkeit von Verantwortung geschuldet. Anstatt aber KI-Systemen ungerechtfertigt Verantwortung zuzuschreiben, plädierte Rösinger dafür, Verantwortungslücken zu akzeptieren, sofern risikobehaftete Technologien im Anschluss an Deliberationsprozesse zugelassen werden.

Erfrischend unprätentiös war der online zugeschaltete Beitrag von Nele Wulf (Hochschule Furtwangen), der sich aus soziologischer Perspektive mit digitalen Erinnerungskulturen befasste. Wulf zeigte auf, wie sich derzeit ein ganzer Markt rund um das personal-biographische Erinnern etabliert. Teilweise wird hierbei versucht, dem Mythos der Totalerinnerung näherzukommen, teilweise werden Ewigkeitsfantasien adressiert. So sollen Avatare als digitale Clone über das organische Leben hinaus die eigene Existenz sichern oder als Surrogat für verstorbene Mitmenschen dienen, um weiterhin mit diesen kommunizieren zu können.

Andere Beiträge – u. a. diejenigen von Henning Mayer (TU München), Simon Egbert (TU Berlin), Maike Janssen (Bauhaus-Universität Weimar), Eckhard Geitz (Universität Freiburg) und Klaus Angerer (Universität Tübingen/TU Darmstadt) – befassten sich mit soziologischen Sichtweisen auf den Gebrauch von KI-Software bzw. Algorithmen in verschiedenen Anwendungsgebieten, u. a. im Gesundheitswesen und in Coaching-Apps für Führungskräfte. Darüber hinaus wurden in den genannten Beiträgen und den daran anschließenden Diskussionen immer wieder konzeptuelle und methodologische Fragen nach den Möglichkeiten und Grenzen einer empirisch unterfütterten Sozialforschung zu Praktiken der Entwicklung und Nutzung von KI-Software aufgeworfen. Diskutiert wurde hierbei u. a. über die Frage, inwiefern KI aufgrund der Opazität vieler Machine-Learning-Systeme im Vergleich zu anderen soziotechnischen Systemen eine anders geartete Black Box darstelle.

Information

Konferenzprogramm: https://www.leopoldina.org/veranstaltungen/veranstaltung/event/2829/