Die Natürlichkeit künstlicher Intelligenzen und Umwelten

Schwerpunkt: Parasoziale Beziehungen mit pseudointelligenten Softwareagenten und Robotern

Die Natürlichkeit künstlicher Intelligenzen und Umwelten

von Hajo Greif, Arno Bammé, Wilhelm Berger und Matthias Werner, Alpen-Adria-Universität

Der Beitrag versucht eine dritte Perspektive jenseits zweier aktueller Debatten zu gewinnen: der Debatte um künstliche Intelligenz und der Debatte um Ambient Intelligence. Zwei Fallbeispiele aus diesen Bereichen werden diskutiert: „augmented reality“ und „embodied conversational agents“ (Konversationsagenten). Dabei zeigt es sich, dass Fragen nach der faktischen Möglichkeit von künstlicher Intelligenz auf eine pragmatische Ebene heruntergebogen werden sollten. Was natürlich oder künstlich ist, kann nicht a priori beantwortet werden, sondern muss jeweils empirisch, d. h. anhand der konkreten sozialen Handlungen und Interaktionen und ihrer Bewertung durch diejenigen, die in sie eingebunden sind, diskutiert werden. Dabei ergeben sich interessante Fragestellungen: Wie finden die Interessen verschiedener Akteure Eingang in künstliche Organisation sozialer Handlungen? In welcher Weise erscheinen von künstlichen Akteuren bewohnte künstliche Umwelten ihren BewohnerInnen letztlich als natürlich?

1     Zwei komplementäre Ansätze

Der Großteil der philosophischen und sozialwissenschaftlichen Debatten um das Konzept und die faktische Möglichkeit oder Unmöglichkeit der Künstlichen Intelligenz (KI) war und bleibt auf die Frage ausgerichtet, inwieweit digitale Computer menschliche Denkprozesse und eventuell auch Handlungsweisen nachahmen können (Turing 1950). Während zunächst die Frage im Mittelpunkt stand, ob auf dem Wege formal-symbolischer Modelle ein hinreichendes Maß an Menschenähnlichkeit auf den Ebenen von Struktur und Verhalten erzielt werden kann[1], stützt sich ein Großteil der neueren kritischen Einwendungen gegen die KI auf das Argument, dass menschliche Intelligenz essentiell von den vielfältigen, komplexen und, so heißt es, nicht formalisierbaren Beziehungen zwischen Mensch und Umwelt abhängig sei.[2] Diese Beziehungen seien von der KI-Forschung lange zugunsten der Konstruktion von komplexen Systemen mit nur rudimentären Input-/Output-Beziehungen zu ihrer Umwelt vernachlässigt worden. Beide Ansätze der Kritik stellen eher grundsätzliche Fragen zum Verständnis der menschlichen Natur als nach den praktischen Möglichkeiten und Grenzen bestimmter Forschungsansätze.

Parallel zur KI-Forschung, aber nur in teilweiser Berührung mit ihren Zielen und Konzepten, hat sich in anderen Bereichen der Computerwissenschaften das Paradigma der „Ambient Intelligence“ (AmI) herausgebildet – das teilweise deckungsgleich mit den Ansätzen des „Ubiquitous Computing“ oder „Pervasive Computing“ ist.[3] In diesem Forschungsfeld geht es darum, die Umwelt menschlicher Akteure mit Funktionen anzureichern, die zum einen in der Lage sind, sich menschlichen Handlungsabsichten und Verhaltensweisen anzupassen, und die den Akteuren zum anderen nicht in Form klar individuierter Apparate mit klar identifizierbaren Bedienungsoberflächen gegenübertreten, sondern auf dem Wege verteilter und miniaturisierter Computersysteme bzw. -komponenten in Alltagsgegenstände und somit in die Umwelt selbst eingebettet sind. Hier wiederum nehmen die Kritiken – v. a. aus den Bereichen der Ethik und der Technikfolgenabschätzung – insbesondere die „Unsichtbarkeit“ der Modifikationen der menschlichen Handlungsumwelt in den Blick und erheben Bedenken in Richtung der unmerklichen Überwachung und unkontrollierten Manipulation des Handelns in dieser Umwelt (hierzu z. B. Crutzen 2006; Mattern, 2003). Auch wenn es bis dato nur wenige Anwendungsbereiche für AmI-Systeme gibt, die über ein Versuchs- oder Prototypenstadium hinausgekommen sind, wird diese Kritik als Frage von Akzeptanz und Akzeptabilität faktisch existierender Systeme verhandelt.

Vergleichend betrachtet erscheinen die beiden Forschungsprogramme ebenso wie ihre Kritiken komplementär. Wo es der KI an Umweltbezug mangelt, nimmt die AmI gleich gänzlich Abstand von der Idee eines klar individuierbaren Gegenübers menschlichen Handelns und konzentriert sich auf die Modellierung der Umwelt menschlichen Handelns. Wo die Kritiken der KI die Reichhaltigkeit menschlichen In-der-Welt-Seins unterschätzt sehen, nehmen die Kritiken der Umgebungsintelligenz die Betonung der möglichst bruchlosen Einbettung von Systemen in komplexe menschliche Handlungsumwelten ins Visier. Wo in der KI-Kritik Grundsatzfragen zur möglichen Ähnlichkeit maschineller Operationen mit menschlichem Denken und Handeln gestellt werden, ist die Kritik der AmI von einem Bild beherrscht, in dem Menschen als potenzielle Opfer verborgener maschineller Manipulation und Überwachung ihres Handelns erscheinen.

Wir möchten an dieser Stelle für ein anderes Bild argumentieren, das zu einem Teil die Richtung der Kritik gleichsam umkehrt und zu einem anderen Teil für beide Technikfelder einen gemeinsamen Fokus der Aufmerksamkeit auf die Rolle der Umwelt in menschlichem Denken und Handeln vorschlägt: Selbst wenn das Ziel der sog.ten starken KI nicht erreicht wurde, Maschinen zu konstruieren, die so denken wie Menschen, haben unterhalb dieser hohen Schwelle zahlreiche KI-Systeme den Weg in konkrete Anwendungen gefunden. Das Problem realweltlicher KI-Systeme besteht somit weniger in Fragen der prinzipiellen Realisierbarkeit besagter Menschenähnlichkeit, sondern in der Auswahl und Modellierung der Eigenschaften, die ein solches System in der Interaktion als menschenähnlich erscheinen lassen. Andersherum mag das Programm der AmI hinsichtlich der Grundsatzfragen des menschlichen Wesens weniger anspruchsvoll erscheinen als die KI, doch die bisherigen Versuche seiner Realisierung in konkreten Anwendungen stoßen auf hartnäckige Hindernisse. Das Problem der AmI besteht nicht in erster Linie in der Heimlichkeit der Modifikation und Manipulation einer von sich aus natürlichen Handlungsumwelt, sondern in den grundlegenden Schwierigkeiten der Erfassung derjenigen Eigenschaften einer Umwelt, welche für menschliches Handeln und dessen Gelingen relevant sind und diese ihnen gegenüber als natürlich erscheinen lassen.

In beiden Fällen ist die Auswahl der Eigenschaften des jeweiligen technischen Gegenübers menschlichen Handelns, von zentraler Bedeutung. Nicht die vollständige Identität oder die perfekte Nachahmung eines menschlichen Gegenüber oder einer natürlichen Umwelt ist das Ziel von KI bzw. AmI, sondern die – implizite oder explizite – Identifikation und Nachahmung der für das Gelingen der Interaktion relevanten Eigenschaften derselben. Diese Eigenschaften mögen nicht einmal unbedingt sehr komplex sein, aber sie zu identifizieren ist nicht nur ein wahrnehmungspsychologisch aufschlussreiches Unterfangen, sondern auch eine Herausforderung an menschliche Selbstverständnisse.

Diese Hypothesen möchten wir im Folgenden anhand zweier Fallbeispiele („augmented reality“ und „embodied conversational agents“) diskutieren und auf ihre Implikationen für die Technikfolgenabschätzung prüfen.

2     Augmented Reality

In vieler Hinsicht ist das Konzept der Augmented Reality (AR) exakt komplementär zur Idee der virtuellen Realität (VR). Anstatt die NutzerInnen in eine vollständig künstlich generierte, von der alltäglichen Umgebung weitgehend entkoppelte Umwelt eintauchen zu lassen, wird die Alltagsumwelt mit Informationen angereichert, die sich möglichst bruchlos in die Wahrnehmung derselben einfügen und sich auf Eigenschaften dieser Umwelt beziehen. Reale und virtuelle Objekte werden kombiniert, sodass sie in ein und derselben Umwelt koexistieren und zueinander in Beziehung treten (Azuma, et al. 2001). Auf diesem Wege soll die Orientierung in und die Interaktion mit der Umwelt erleichtert werden. Das Spektrum reicht dabei von Navigationsinformation über zielgerichtete Bewerbung von Angeboten in der Umgebung der NutzerInnen bis hin zur Bereitstellung von Spiel- und Unterhaltungsfunktionen. Diese Information wird allerdings, anders als z. B. bei ortsbezogenen Diensten in der Mobiltelefonie, nicht auf einem klar abgegrenzten Interface dargestellt, sodass sie eindeutig als extern bereitgestellte Information erkennbar und lokalisierbar wäre. Vielmehr wird diese Information direkt in die nutzerseitige Wahrnehmung der Umgebung integriert (Feiner 2002). Die Umwelt der NutzerInnen, so wie sie von ihnen wahrgenommen wird, wird selbst zum Interface. Digitale Objekte, die nicht im Raum präsent sind, werden so projiziert, dass sie als integrale Bestandteile der Umwelt erscheinen. Idealerweise sollten sie auch in bestimmtem Umfang eine Manipulation durch die NutzerInnen zulassen – was eine weitere Herausforderung an ihre Integration in die Wahrnehmung darstellt (Zhou et al. 2008).

Um dieses Ziel zu erreichen, müssen Verfahren zum Nachverfolgen sowohl der für die Erscheinung des betreffenden digitalen Objekts relevanten Umweltvariablen als auch zum Nachverfolgen der Wahrnehmung des Objekts durch die NutzerInnen verfügbar sein. Beide Seiten der Nachverfolgung, des „tracking“, sind zu einem Kernthema der AR-Forschung geworden (Zhou et al. 2008). Um das Funktionieren des Nachverfolgens sicherzustellen, müssen auch die Bewegungen des Körpers, des Kopfes und der Augen der NutzerInnen in Relation zum jeweiligen digitalen Objekt und seinen Transformationen in die Berechnung der Art und Weise eingehen, in welcher das digitale Objekt in seine scheinbare physikalische Umgebung eingefügt ist. Neben dem angemessenen Design eines digitalen Objekts selbst ist eine präzise, dynamische und in Echtzeit erfolgende Berechnung der Art und Weise erforderlich, in welcher dieses in die Wahrnehmung seiner NutzerInnen zu integrieren ist. Dies impliziert eine Fähigkeit des Systems, die Wahrnehmungen und Handlungsweisen seines menschlichen Gegenübers zu interpretieren.

Insofern Menschen sich auf eine Reihe von nicht ausschließlich visuellen Hinweisen stützen, wenn sie ein Objekt in ihrer Umwelt verfolgen, besteht eine weitere notwendige Vorbedingung für einen realistischen Eindruck digitaler Objekte in der Ermöglichung einer „hybriden“ Spurverfolgung über unterschiedliche Sinnesmodalitäten hinweg (Feiner 2002). Dementsprechend muss ein AR-System nicht nur in der Lage sein, die Bewegungen und die Blickrichtung seiner NutzerInnen zu verfolgen, sondern auch den Gebrauch und die Integration ihrer Sinnesmodalitäten. Soll dies in systematischer Weise erfolgen, ist das Verfügen über ein Modell davon erforderlich, welche natürliche Information dem wahrnehmenden Subjekt üblicherweise unter welchen Bedingungen zur Verfügung steht, wie sie übermittelt wird und wie sie ihm erscheint. Gerade letztere Aufgabe lässt sich jedoch nicht dadurch lösen, das man Repräsentationen der Wahrnehmungsprozesse der NutzerInnen gleichsam in die AR-Architektur hineinkopiert. Eine weitere Ebene der Modellierung ist erforderlich. Während die Funktion menschlicher Wahrnehmung darin besteht, sich aller möglichen Hinweise in allen möglichen Formen zu bedienen, um sich in einer gegebenen Umwelt zu orientieren, besteht die Funktion der AR darin, einige der Schlüsseleigenschaften dieser Umwelt in Beziehung zur menschlichen Wahrnehmung in einem anderen Medium zu simulieren. Anders gesagt: Wenn eine Form der Nachahmung zu den Prinzipien der AR gehört, handelt es sich um eine Nachahmung von Eigenschaften der Umwelt, so wie sie sich dem menschlichen Gegenüber präsentieren. Es sind die gezielten subtilen Modifikationen dieser Umwelt, welche der menschlichen Wahrnehmung und dem menschlichen Handeln in intelligenten Umwelten zuträglich sein sollen, während die Menschen im Gegenzug dazu in der Lage sein müssen, diese Modifikationen zu erkennen und sie nachzuverfolgen, sodass Irritationen vermieden werden. Solche Irritationen können nicht nur aus inkongruenten, unnatürlich wirkenden Modifikationen erwachsen, sondern auch aus Modifikationen, die so subtil sind, dass sich die digitalen Objekte nicht mehr verlässlich von realweltlichen Gegenständen unterscheiden lassen. Während letzteres Risiko der Überperfektion eine Quelle des „Unsichtbarkeits“-Vorwurfs der AmI-KritikerInnen ist, findet sich in ersterem das naheliegendere und in der Interaktion mit AR-Systemen wahrscheinlich landläufigere Problem.

3     Konversationsagenten

Ein teilweise komplementäres Bild ergibt sich bei der Betrachtung von Konversationsagenten („embodied conversational agents“). Hierbei handelt es sich um virtuelle Agentensysteme in meist menschenähnlicher Gestalt, die, üblicherweise auf einem Bildschirm dargestellt, sowohl zu einer Kommunikation in natürlicher Sprache fähig sind als auch die dazu passende Betonung, Sprachmelodie, Gesten und Gesichtsausdrücke generieren. Dennoch bleibt der Modus der Interaktion meist insofern asymmetrisch, als das nutzerseitige Input gegenwärtig noch über eine Tastatur erfolgt, das Agentensystem selbst also trotz seiner augenscheinlichen Verkörperung nicht über Analoga von Sinnesmodalitäten verfügt, vermittels derer es nutzerseitige Verhaltenshinweisen registrieren und interpretieren könnte. In Reaktion auf das Input jedoch artikuliert das Agentensystem komplexe, syntaktisch und semantisch wohlgeformte Sätze, vorausgesetzt, dass das Input selbst wohlgeformt ist und sich inhaltlich in einem vorab spezifizierten Bereich bewegt.

In mancher Hinsicht erscheinen Konversationsagenten als eine fortgeschrittene Version des Turingschen Nachahmungsspiels (Turing 1950): Eine Ähnlichkeit mit menschlichem Verhalten und Erscheinungsbild ist das Ziel, wobei dem menschlichen Interaktionspartner zusätzliche Informationskanäle zur Verfügung stehen, auf denen dem Computersystem eine Nachahmung gelingen muss. Andererseits ist die Interaktion jedoch nicht verblindet, sodass das Ziel nicht sein kann, die Bedingungen zu identifizieren, unter denen eine menschliche Testperson nicht in der Lage ist, eine Maschine von einem Menschen zu unterscheiden. Vielmehr besteht das Ziel der Entwicklung von Agentensystemen darin, Menschen eine weitgehend natürliche, unbeschwerte Kommunikation mit einem Computersystem zu ermöglichen (Bates 1994; Beun et al. 2003). Auf diesem Wege soll dem bekannten Problem der unpassenden Metaphern in der Mensch-Maschine-Interaktion begegnet werden: Ein Schlüssel zum Gelingen der Interaktion findet sich im Grad der Vertrautheit, genauer der kognitiven Anschlussfähigkeit an vertraute Dinge und Handlungen, mit dem das System seinen NutzerInnen gegenübertritt. Jedoch divergieren die intendierten Metaphern häufig von den wahrgenommenen, mit der Folge schwieriger oder misslingender Interaktionen. Die Setzung von Attributen der Menschenähnlichkeit der Schnittstelle, über welche die Interaktion erfolgen soll, scheint hierfür eine naheliegende Lösung zu bieten: Man soll mit dem System weitgehend wie mit einem Menschen kommunizieren können. Dennoch zeigen sich zumindest zwei interessante Begrenzungen dieses Ansatzes.

Die erste Begrenzung findet sich in der Wahl der Aspekte und Grade der Menschenähnlichkeit in der Erscheinung des Agentensystems. Obwohl es den Anschein haben mag, dass ein hoher Grad an Menschenähnlichkeit der Interaktion dienlich ist, ist damit nicht zugleich bereits eine Korrelation mit einem hohen Grad an Vertrautheit gewährleistet. Diese Problem wird in der Mensch-Maschine-Interaktionsforschung unter dem klingenden Titel des „uncanny valley“ verhandelt (Mori 1970): Während Wahrnehmungen und Einstellungen gegenüber einem Industrieroboter in der Regel emotional indifferent bleiben, da dieser weder besonders menschenähnlich erscheint noch von ihm ein hoher Grad an Vertrautheit erwartet wird, erscheinen humanoide Roboter oder Konversationsagenten sowohl menschenähnlicher als auch vertrauter – bis zu einem bestimmten Punkt: Relative Menschenähnlichkeit ist dem Empfinden von Vertrautheit genau dann zuträglich, wenn die relevanten Eigenschaften zutreffend ausgewählt und kalibriert werden. Ein Roboter oder Agentensystem mag einen nicht besonders hohen Grad an Menschenähnlichkeit aufweisen, kann aber dennoch in der Interaktion sehr vertraut erscheinen, wenn eine begrenzte Menge von Eigenschaften und Verhaltenshinweisen pointiert eingesetzt wird – ähnlich wie in einer gelungenen Karikatur. Wenn hingegen der Grad der Menschenähnlichkeit weiter gesteigert wird, ohne dabei jedoch höchste Perfektion zu erreichen, steigt die Wahrscheinlichkeit, dass das betreffende System dem menschlichen Gegenüber weniger vertraut erscheint – bis hin zum Auftreten von Gefühlen der Irritation und der Unheimlichkeit. Um dies zu vermeiden, gilt es, die für Gefühle der Vertrautheit relevanten Variablen verlässlich zu identifizieren und zu implementieren.

Die zweite Begrenzung des Ansatzes der Menschenähnlichkeit von Konversationsagenten liegt in der Asymmetrie der verfügbaren Informationskanäle in der Kommunikationssituation begründet, und im Wissen der menschlichen Interaktionspartner um die maschinelle Natur des Gegenüber. Es lässt sich beobachten, dass die menschlichen Interaktionspartner in Abwandlung des Turingschen Nachahmungsspiels bewusst und spielerisch die Grenzen der kommunikativen Fähigkeiten der Agentensysteme testen – etwa indem sie die Agenten durch Frotzeleien provozieren (Krummheuer 2008). Während die Praxis des Frotzelns in zwischenmenschlicher Kommunikation dem Anbringen von Kritik in spielerischer, ironischer Form unter miteinander gut bekannten Individuen dient, erscheint dieses Verhalten bei einer ersten Begegnung üblicherweise als übergriffig. Genau ein solches Verhalten lässt sich jedoch bei ersten Begegnungen mit Konversationsagenten feststellen. Die resultierende Interaktion beinhaltet einerseits eine gezielte Überschreitung der Grenzen kommunikativer Konventionen, während andererseits die Erwartungen an Formen interpersoneller Kommunikation intakt bleiben: Es wird getestet, bis zu welchem Punkt das Gegenüber sich wie eine normale Person verhält und „mitspielt“ und ab wann Reaktionen der Irritation, Verlegenheit oder gar Verärgerung zu beobachten sind. Eine solche Form der Interaktion lässt sich insofern als „hybrid“ bezeichnen, als zum einen die Menschenähnlichkeit des Konversationsagenten, soweit sie auch reichen mag, nicht gewährleistet, dass mit ihm wie mit einer Person interagiert wird. Zum anderen aber wird der Agent zugleich auch nicht eindeutig nicht wie eine Person behandelt. Er verharrt in einem eigentümlichen Zwischenreich zwischen sozialen und technischen Formen der Interaktion.

4     Diskussion

In beiden Beispielfällen zeigt sich, dass nicht die Ähnlichkeit intelligenter Umwelten oder Agentensysteme mit natürlichen Umwelten und Akteuren per se, sondern die Auswahl der relevanten Eigenschaften, anhand derer menschliche Akteure ihr technisches Gegenüber als – bis zu einem gewissen, begrenzten, je nach Design-Absicht zu kalibrierenden Maß – quasi-natürlich identifizieren, das entscheidende Kriterium für das Gelingen einer Interaktion mit dem Artefakt ist. Die Frage, welche Eigenschaften die relevanten sind, ist nicht a priori, sondern, so sollen die vorgestellten Beispiele zeigen, empirisch und oft experimentell zu beantworten.Die partielle oder Quasi-Natürlichkeit des technischen Gegenüber menschlichen Handelns erweist sich in mehrerlei Hinsicht als aufschlussreich: Auf den ersten Blick gibt eine gelungene Auswahl und Nachahmung der betreffenden Eigenschaften Aufschluss darüber, woran Menschen eine Umwelt oder eine Person als natürlich erkennen. Zugleich jedoch modifizieren die entlang dieser Eigenschaften modellierten Systeme, so sie in menschliche Umwelten Eingang finden, die Bedingungen, unter denen Entitäten in dieser Umwelt und die Umwelt selbst als natürlich erkannt und behandelt werden. Haben in die Umwelt eingebettete digitale Objekte und der Umgang mit Agentensystemen einmal eine gewisse Selbstverständlichkeit erlangt, wird sich nicht nur die Vorstellung der menschlichen Interaktionspartner davon verändert haben, was als natürlich gilt. Diese Dinge werden auch Auskunft darüber geben, auf welche Weise sich das menschliche Subjekt in die Natur projiziert und inwieweit sich Anteile des subjektiven Denkens technisch objektivieren lassen. Hierbei geht es nicht um jenen Bereich des Denkens, der Ausdruck des je individuellen Ichs der menschlichen Subjektivität ist, sondern um das Allgemeine, das Objektivierbare im individuellen Denken und Handeln. Technologien wie die zuvor beschriebenen können genau den Effekt haben, diesen Unterschied zu markieren – zumal sie letztlich mit zahlreichen unterschiedlichen Individuen erfolgreich interagieren sollen.

Diesseits dieser überindividuellen Ebene der Betrachtung stellt sich, auf der Ebene der konkreten Handlungsziele der jeweiligen Akteure, die Frage, aus wessen Perspektive eine Interaktion als erfolgreich zu betrachten ist. Es liegt nahe anzunehmen, dass die individuelle Perspektive der NutzerInnen entscheidend ist. In der Regel ist das sicher zutreffend, doch ist zu berücksichtigen, dass diejenigen, die ihre Geschäfte von Software-Agenten machen lassen oder die Umwelt der NutzerInnen mit Augmented-Reality-Anwendungen anreichern, ihre eigenen Absichten haben. Im Lichte dieser Absichten wird das Gelingen einer Interaktion möglicherweise nach anderen Kriterien bewertet als von den Personen, die in direkter Interaktion mit dem betreffenden System stehen. So mag für das Individuum die Selbstverständlichkeit und Quasi-Natürlichkeit der Interaktion im Vordergrund stehen – oder aber auch das spielerische Element des Ausreizens der Grenzen von Interaktionen mit einem Agentensystem. Für den Betreiber hingegen wird eher die Akzeptanz der von ihm platzierten Inhalte und Handlungsangebote im Vordergrund stehen, unabhängig davon, ob die NutzerInnen dieser Inhalte und Angebote explizit gewahr sind oder nicht.

An dieser Stelle kann der Beitrag der TA zur Analyse darin bestehen, den Rahmen der sozialwissenschaftlichen Betrachtung über die isolierte Interaktionssituation zwischen NutzerInnen und Artefakten hinaus zu erweitern. Die Gestaltung einer Handlungsumwelt ist ein genuin soziales Unterfangen. Nicht nur finden die Interessen und Absichten unterschiedlicher Akteure darin Eingang. Auch das Resultat dieses Prozesses kann als ein konkreter Entwurf möglicher sozialer Realitäten, einer historisch spezifischen Form, soziale Handlungen zu organisieren, gelesen werden. Mit den Projekten der KI und der AmI handelt es sich um die direktesten Versuche, neue Akteure in diesen Handlungsumwelten zu platzieren bzw. die Eigenschaften der Handlungsumwelt in einem ganz unmittelbaren Sinne zu gestalten. Es mag ein soziologischer Gemeinplatz sein, dass eine dem Menschen natürlich erscheinende Handlungsumwelt immer schon sozial konstruiert ist. Die Selbstverständlichkeit der Erscheinung ist kein Garant für deren Natürlichkeit im engeren Sinne. Ihren interessantesten Gegenstand findet diese Beobachtung jedoch in den gezielten Versuchen, eine von artifiziellen Akteuren bewohnte artifizielle Umwelt ihren BewohnerInnen ganz natürlich und selbstverständlich erscheinen zu lassen.

Anmerkungen

[1]  Hierzu als locus classicus Searle 1980.

[2]  Paradigmatisch formuliert von Dreyfus 1992.

[3]  Zu Pervasive Computing in der medizinischen Forschung siehe den Schwerpunkt in TATuP 17/1 (2008), der von Carsten Orwat und Kollegen herausgeben wurde (d. Red.).

Literatur

Azuma, R.T.; Baillot, Y.; Behringer, R. et al., 2001: Recent Advances in Augmented Reality. In: IEEE Computer Graphics and Applications 21/6 (2001), S. 34–47

Bates, J., 1994: The Role of Emotion in Believable Agents. In: Communications of the ACM 37 (1994), S. 122–125

Beun, R.-J.; de Vos, E.; Witterman, C., 2003: Embodied Conversational Agents: Effects on Memory Performance and Anthropomorphisation. Vortrag IVA 2003

Crutzen, C.K.M., 2006: Invisibility and the Meaning of Ambient Intelligence. In: International Review of Information Ethics 6/12 (2006), S. 52–62

Dreyfus, H.L., 1992: What Computers Still Can’t Do. Cambridge

Feiner, S.K., 2002: Augmented Reality: A New Way of Seeing. In: Scientific American 286/4 (2002), S. 48–55

Krummheuer, A.L., 2008: Die Herausforderung künstlicher Handlungsträgerschaft. Frotzelattacken in hybriden Austauschprozessen von Menschen und virtuellen Agenten. In: Greif, H.; Mitrea, O.; Werner, M. (Hg.): Information und Gesellschaft. Technologien einer sozialen Beziehung. Wiesbaden, S. 73–95

Mattern, F., 2003: Vom Verschwinden des Computers – Die Vision des Ubiquitous Computing. In: Mattern, F. (Hg.): Total Vernetzt. Szenarien einer informatisierten Welt. Berlin, S. 1–41

Mori, M., 1970: Bukimi no tani (The Uncanny Valley). In: Energy 7/4 (1970), S. 33–35

Searle, J.R., 1980: Minds, Brains, and Programs. In: The Behavioral and Brain Sciences 3 (1980), S. 417–457

Turing, A.M., 1950: Computing Machinery and Intelligence. In: Mind 59 (1950), S. 433–460

Zhou, F.; Duh, H.B.-L.; Billinghurst, M., 2008: Trends in Augmented Reality Tracking, Interaction and Display: A Review of Ten Years of ISMAR. Vortrag Proceedings of ISMAR 2008, Cambridge

Kontakt

Ass.-Prof. Dr. Hajo Greif
Institut für Technik- und Wissenschaftsforschung
Alpen-Adria-Universität
Sterneckstraße 15, 9010 Klagenfurt, Österreich
E-Mail: hajo.greif∂uni-klu.ac.at
Internet: http://www.aau.at/iff-tewi/inhalt/1.htm