Leopold-Franzens-Universit t Innsbruck Institut für Germanistik Masterstudium Medien

I WANT TO LIVE Roboterethik im westlichen Science-Fiction-Film

Claudia Gerstl A A

MASTERAR EIT zur Erlangung des akademischen Grades Master of Arts

Eingereicht bei Univ.- rof. Dr. Thomas Schr der

Innsbruck M rz 2018 Eidesstattliche Erkl rung

Ich erkläre hiermit an Eides statt durch meine eigenhändige Unterschri , dass ich die vorliegende Arbeit selbstständig verfasst und keine anderen als die angegebenen Quellen und Hilfsmittel verwendet habe. Alle Stellen, die wörtlich oder inhaltlich den angegebenen Quellen entnommen wurden, sind als solche kenntlich gemacht. Die vorliegende Arbeit wurde bisher in gleicher oder ähnlicher Form noch nicht als Masterarbeit eingereicht.

Datum Unterschri Inhaltsverzeichnis

1 Einleitung 1 2 Terminologie und theoretische Grundlagen 5 2.1 Roboter 5 2.2 Cyborg 14 2.3 Künstliche Intelligenz 19 2.4 Roboterethik 25 3 Forschungsdesign und Forschungsmethoden 34 4 Roboter im Film 40 4.1 Aktueller Forschungsstand 40 4.2 Quantitative Überblicksanalyse 48 4.2.1 Humanoider Roboter 51 4.2.2 Cyborg 56 4.2.3 Mechanischer Roboter 59 4.2.4 KI – Künstliche Intelligenz 61 4.2.5 Exoskelett und Mecha 62 4.2.6 Fazit 64 5 Filmanalyse 66 5.1 Untersuchungskorpus 67 5.2 Analyse Chappie 68 5.2.1 Handlung 69 5.2.2 Roboter und ihre Darstellung 73 5.2.3 Interpretation 76 5.2.4 Zwischenfazit 82 5.3 Analyse Autómata 86 5.3.1 Handlung 87 5.3.2 Roboter und ihre Darstellung 90 5.3.3 Interpretation 93 5.3.4 Zwischenfazit 99 5.4 Analyse Ex Machina 104 5.4.1 Handlung 105 5.4.2 Roboter und ihre Darstellung 109 5.4.3 Interpretation 111 5.4.4 Zwischenfazit 117 5.5 Fazit Analyse 121 6 Schlussfazit und Ausblick 126 7 Verzeichnisse 131 8 Anhang 149 1 Einleitung

„No sensible decision can be made any longer without taking into account not only the world as it is, but the world as it will be“ (Asimov 1978: 7).

Während sich der Roboter e-David an der Universität Konstanz mit seinem Pinsel an einem Selbstporträt versucht, wird in Italien an einem Roboter getü elt, der bald herzha belegte Pizzas in den Ofen schieben soll. Menschen beweinen auf den Friedhöfen ihre treuen mechanischen Vierbeiner, inzwischen dreht bei ihnen zu Hause der Staubsaugerroboter gemütlich seine Runden im Wohnzimmer. An der Rezeption wartet ein Dinosaurier-Roboter auf den nächsten Check-in und in der Eingangshalle läu die Live-Übertragung des Kampfes zwischen zwei riesigen, menschengesteuerten Robotern. Lautstark protestieren auf den Straßen Menschen gegen den Einsatz von Sexrobotern und die Tageszeitungen titeln: ‚Roboter Sophia bekommt Saudi-Arabiens Staatsbürgerscha ‘. Was wie futuristische Szenen klingen mag, wird durch die technischen Entwicklungen der letzten Jahre zur Realität. Die früher so klare Grenze zwischen Mensch und Technik verwischt; Roboter werden in unserem alltäglichen Leben immer wichtiger und tauchen immer ö er in Umgebungen auf, die früher als rein menschliche Domänen betrachtet wurden. Ihr Einsatz scheint grenzenlos: in Unterhaltung, Gesundheitswesen, Militär, Haushalt, Altenp ege und sogar als Sexroboter. Mit dem steigenden Einsatz von Robotik im Alltag kommen auch die Gespräche über die ethischen Auswirkungen langsam ins Rollen. Während sich der Mensch in der Realität in kleinen, aber dennoch beeindruckenden Schritten dem Traum eines künstlichen Menschen nähert, wurde dieses Ziel in der Fiktion bereits erreicht. Immer wieder wurde der Sto des Maschinenmenschen literarisch au ereitet. Und in den vergangenen Jahrzehnten haben sich zahlreiche Science- Fiction-Filme mit der Interaktion zwischen Mensch und Maschine beschä igt. Die Populärkultur kann als Spiegel der Gesellscha gesehen werden und bietet die Möglichkeit, aktuelle Fragen und Probleme der Menschheit zu thematisieren.

1 Inspiriert von der facettenreichen Darstellung künstlicher Menschen im Film und den aktuellen Diskussionen zur Roboterethik, habe ich den Schwerpunkt der vorliegenden Masterarbeit auf die ethischen Aspekte der Darstellung der Interaktion zwischen Mensch und Maschine im Film gelegt. Es gibt unterschiedliche Punkte, die die Bearbeitung dieses emas relevant erscheinen lassen, allen voran die bereits erwähnte Aktualität. Die sogenannten ‚Maschinenmenschen’ spielten in den Mythen und der Literatur bereits in Zeiten, in denen sie noch weit entfernte Zukun smusik waren, eine bedeutende Rolle. Aktuell scheint es so, als würden Roboter schon bald ein xer Teil unseres Lebens werden. Die Populärkultur bietet sich als Spielwiese an, um mögliche Probleme darzustellen und über Lösungsvorschläge zu fantasieren. Interessant ist dabei ein Blick auf den ethischen Zugang im Film: Wie wird mit Robotern und anderen künstlichen Agenten umgegangen? Welchen Stellenwert nehmen sie ein und welche Rechte werden ihnen zuteil? Dabei stehen die Filme nicht für sich allein, sondern können in Verbindung mit realen Entwicklungen reektiert werden. Das ema ist nicht nur in der Populärkultur sehr aktuell, sondern auch in der Realität. Durch das engere Zusammenrücken von Mensch und Maschine, werden ethische emen immer ö er zum Gegenstand verschiedener Reexionen. Während über Roboterethik im Militärbereich, Gesundheitswesen oder in Zusammenhang mit selbstfahrenden Autos in letzter Zeit viel publiziert wurde, beschä igen sich wenige Werke mit Roboterethik im Film. Im Sammelband von Battaglia und Weidenfeld wird auf diesen Gegenstand eingegangen. Die Beiträge legen ihren Fokus dabei hauptsächlich auf Filmklassiker (vgl. Battaglia/ Weidenfeld 2014). Die vorliegende Arbeit versucht, neue Blickwinkel in Betracht zu ziehen und Filme zu analysieren, über die noch wenig publiziert wurde. Die Analyse bietet die Möglichkeit, zu erfahren, welche ethischen emen in den Filmen behandelt werden und führt direkt zur forschungsleitenden Frage der Arbeit, nämlich welche ethischen Aspekte der Mensch-Maschinen-Interaktion in westlichen Science-Fiction-Filmen dargestellt werden. Der empirische Teil dieser Arbeit ist zweigeteilt und es wird mit einem Methodenmix aus quantitativer und qualitativer Analyse gearbeitet. Der erste Part umfasst eine quantitative Überblicksanalyse und hat zum Ziel, einen Überblick über die von 1990 bis 2017 erschienenen Filme zu schaen. Darin soll aufgezeigt werden, welche Arten von künstlichen Agenten in den Filmen über die Jahre vorkommen, ob es Tendenzen oder Veränderungen gibt und ob

2 sich die thematischen Schwerpunkte ändern. Die Ergebnisse sollen zusätzlich als Auswahlkriterium für die Filme der qualitativen Filmanalyse fungieren. Dort wird der Fokus gezielt auf die forschungsleitende Frage gelegt. Ziel der Filmanalyse ist es zu zeigen, welche ethischen Aspekte in den Filmen dargestellt werden; zum Beispiel ob sie nur Probleme illustrieren oder auch Lösungsvorschläge bieten. Da jede Fiktion der Realität einen Bezug zur Realität hat, sollen Überschneidungen von Fiktion und Realität, wenn vorhanden, aufgezeigt werden. Wie lassen sich die im Film dargestellten Momente mit realen Entwicklungen verknüpfen? All diese Punkte ergeben einen Überblick über die ethischen Aspekte der Interaktion zwischen Mensch und Maschine, die in den gewählten Filmen dargestellt werden. Sowohl die Beschä igung mit allen Formen künstlicher Agenten, als auch der Versuch, das ema Roboterethik in der Mensch-Maschinen-Interaktion umfassend und an einer großen Anzahl an Filmen zu analysieren, würde den Rahmen der vorliegenden Arbeit sprengen. Aus diesem Grund musste das ema eingegrenzt werden. Die Arbeit konzentriert sich auf westliche Spiellme; Kurzlme werden nicht berücksichtigt. Ebenfalls nicht in die Analyse inkludiert sind Animationslme oder Zeichentricklme, was die Auswahl auf das Genre Reallm begrenzt und einen besseren Vergleich zwischen den Filmen ermöglicht. Rein asiatische Produktionen wurden ausgeschlossen, da der Zugang zur ematik in Asien kulturbedingt ein anderer ist als in Europa oder Amerika. Bei der qualitativen Filmanalyse konzentriert sich die Arbeit auf die Darstellung ethischer Aspekte anhand von drei ausgewählten Filmbeispielen, in denen humanoide Roboter eine handlungstragende Rolle einnehmen. Die Arbeit versucht nicht einen allumfassenden Überblick über die Interaktion zwischen Mensch und Maschine im Film darzustellen. Zu Beginn der vorliegenden Masterarbeit werden in Kapitel 2 die wichtigsten theoretischen Grundlagen und Denitionen dargestellt, um eine einheitliche Wissensbasis und terminologische Klarheit zu schaen. Was genau ist ein Roboter? Wie unterscheidet er sich von einem Cyborg? Was ist Künstliche Intelligenz? Zusätzlich wird auf den Begri Roboterethik eingegangen, der wichtig für die Fragestellung der Arbeit ist. Hier werden einige aktuelle Entwicklungen und eorien präsentiert, Realbeispiele genannt und die Arbeitsdenitionen, die im Anschluss angewendet werden, festgelegt. Nachdem der theoretische Rahmen der Arbeit aufgespannt wurde, bietet Kapitel 3 einen

3 Überblick über das Forschungsdesign und die gewählten Methoden der Empirie. Das Forschungsdesign orientiert sich an der Strategie der Triangulation und kombiniert Methoden mit verschiedenen Erkenntniszielen. Kapitel 4 ist einem allgemeinen Überblick über die Darstellung der Roboter im Film gewidmet. Welche Rollen nehmen künstliche Agenten im Film ein? Wie können diese kategorisiert werden? Neben der Darstellung des Forschungsstandes, mit Einbezug allgemeiner Publikationen zum ema, werden die Ergebnisse der oben beschriebenen quantitativen Überblicksanalyse präsentiert. Den Hauptteil der Arbeit und den Schwerpunkt der Empirie bildet Kapitel 5. Nachdem das Analysekorpus präsentiert und die Auswahl der Filme begründet wurde, folgen die Analysen der Filme C (2015), A (2014) und E M (2015). Die Interpretation basiert auf der durchgeführten qualitativen Inhaltsanalyse der Filme. Das Kapitel wird mit einem Fazit abgerundet, in dem die drei Filme noch einmal miteinander verglichen werden. Es wird angenommen, dass die Filme versuchen, Antworten auf ethische Fragen zu nden und diese darzustellen. Eine weitere Vermutung ist, dass sich die gelieferten Antworten mit aktuellen Diskussionen der Roboterethik überschneiden. Kapitel 6 schließt die Arbeit mit einem Schlussfazit ab und wagt einen Ausblick.

4 2 Terminologie und theoretische Grundlagen

In den folgenden Unterkapiteln werden die wichtigsten Termini und  eorien für die vorliegende Arbeit dargestellt. Eine Begri serklärung ist aus unterschiedlichen Gründen unerlässlich. Einerseits werden die verschiedenen Begri e in der Populärkultur widersprüchlich verwendet. Auch hat nicht jede Leserin oder jeder Leser denselben Wissensstand zur  ematik. Damit vor allem der empirische Teil verständlich ist, wird in diesem Kapitel eine grundlegende Wissensbasis gescha en und es wird versucht, für die zentralen Termini eine Arbeitsde nition zu  nden, auf die die Analyse au auen kann. Das Unterkapitel 2.1 gibt einen kleinen Einblick in die Geschichte des Roboters und stellt dar, welche unterschiedlichen Typen es gibt. Die Grenze zwischen Roboter und Cyborgs und der Weg von den ersten Prothesen zu den ersten realen Cyborgs wird in Unterkapitel 2.2 illustriert. Künstliche Intelligenz bildet das zentrale  ema des Unterkapitels 2.3. Was ist Künstliche Intelligenz und welche Entwicklungen gibt es auf diesem Gebiet? Das letzte  ema, das für die qualitative Analyse von zentraler Bedeutung sein wird, behandelt die Roboterethik. Neben De nitionen, was alles darunter zu verstehen ist, werden in Unterkapitel 2.4 auch die jüngsten Bestreben auf europäischer Ebene in diesem Bereich dargestellt.

2.1 Roboter

Der Wunsch, einen mechanischen Menschen zu bauen, setzte nicht erst mit den technischen Entwicklungen der Neuzeit ein. Bereits in der Antike zeigte sich das Bestreben, einen künstlichen Menschen zu scha en. Springer schreibt dazu: „ e desire to simulate human life is thus deeply rooted in Western culture.” (Springer 1996: 28). Zu Beginn beschränkten sich die Schöpfungen noch auf mythische Fantasien, später wurden sie technische Realität. Bereits Ovid erzählte in der Antike die Geschichte des Künstlers Pygmalion von Zypern, der eine Statue aus Elfenbein schuf, die wie eine lebendige Frau aussah.

5 Er verliebte sich in sie und  ehte die Göttin der Liebe an, seine kün ige Frau solle so sein wie seine Statue. Als er sie zu Hause liebkoste, wurde sie lebendig (Ovid 2003: 10-13). Berr bezeichnet bereits die in Stein gehauenen Körperbilder der Antike als „Objekt der ersten Belebungsversuche” (Berr 1990: 28). Künstliche Menschen  nden sich zunächst in der griechischen und römischen Antike; bei Hesiod liest man von Pandora, „jenem täuschend schönen Übel, das die Götter als künstlichen Menschen gescha en haben, um sich an Prometheus und den Menschen zu rächen“ (Kormann 2006: 73) und Heron aus Alexandrien beschrieb 110 v. Chr. in ‚De Automatis’ die ersten Automaten (Ruge, 2012: 41). Aber auch die alten Chinesen, Araber, Perser und Azteken experimentierten mit sich selbst bewegenden mechanischen Figuren und Spielzeug. Kopacek schildert, dass die Menschen bereits früh versuchten „für schwere, monotone und gesundheitsschädliche – inhumane – Tätigkeiten Werkzeuge, Apparate und sogar Maschinen einzusetzen“ (Kopacek 2004: 113). Als erster ‚moderner‘ Maschinenmensch kann der Automat genannt werden. Gunzenhäuser beschreibt diese Schöpfung der europäischen Au lärung folgendermaßen: „Er bewegt sich selbst, aus eigenem Antrieb, ist ein mechanisches, ästhetisches Objekt, ein Spielzeug, das den Schein des Lebens erweckt und einen authentischen, organizistischen Naturkörper vortäuscht.“ (Gunzenhäuser 2006: 21). Automaten gehören zu einer Zeit, in der Mechanisierung ein wunderbares und unterhaltsames Geheimnis war (Springer 1996: 101). Bereits um 1500 gab Ludwig XII. einen mechanischen Löwen in Au rag und seine Residenz wurde zum Zentrum der Automatenbaukunst (Ichbiah 2005: 16). Das Handwerk  orierte im späten 17. Jahrhundert und erreichte seinen Höhepunkt im 18. Jahrhundert, als Automatenausstellungen an den europäischen Königshäusern sehr beliebt wurden und die Nachfrage stieg (Springer 1996: 28). Der französische Ingenieur Jacques de Vaucanson erfand 1745 den ersten vollautomatischen Webautomaten. Bekanntheit erlangte er aber durch seine humanoiden Automaten und seine mechanische Ente (Ichbiah 2005: 16 ). Zwischen 1738 und 1741 konstruierte Vaucanson einen mechanischen Flötenspieler, der 12 Stücke spielten konnte, einen Trommler, der mit einer Hand die Trommel und mit der anderen eine Schäferpfeife spielte

Abb. 1: Mechanische Ente und seine berühmte Ente, die ging, schnatterte, mit den Flügeln schlug, aß und scheinbar auch verdaute (Feldhaus 1970: 52). Der Schweizer Uhrmacher Pierre Jaquet-Droz und sein Sohn Henri-Louis bauten ab 1760 drei Figuren, die so menschlich waren, dass die Automatenbauer in Spanien beinahe wegen Hexerei angeklagt wurden. Einer der Automaten war ein Schreiber, der mit einer Feder einen Text aus 40 Buchstaben schreiben konnte. Es folgte ein Mädchen, das Cembalo spielte und ein Zeichner, der ein kleines Bild zu Papier brachte (Ichbiah 2005: 19). Durch die Entwicklung der metallenen Triebfeder konnten Bewegungen über technische Mechanismen erzeugt werden. Berr stellt fest, dass die Automaten der Romantik in ihrer Funktionslogik dennoch genauso eingeschränkt waren, wie auch schon die Automaten der Antike. Auch wenn sie scheinbar über Fähigkeiten wie essen, schreiben, singen oder Instrumente spielen verfügten, täuschten sie diese tatsächlich nur vor (Berr 1990: 30). Neben der realen Entwicklung von Automaten, erreichte auch die literarische Auseinandersetzung mit Maschinenmenschen um 1800 einen Höhepunkt. Über die Jahrzehnte nden sich in der Literatur Automaten verschiedenster Art und in unterschiedlichen Rollen. Werke wie E.T.A Homanns ‚Sandmann‘, Ambrose Bierces ‚Moxons Herr und Meister‘ oder Jules Vernes ‚Le Docteur Ox‘ zeigten nach Irrgang, dass Androiden als „magische, mechanische oder biologisch künstliche Menschen“ in der Literatur sehr beliebt waren (Irrgang 2005: 22). Beeinusst von der Idee des Maschinenmenschen, dem ‚homme machine‘, wurde der Pygmalion-Sto o aufgearbeitet und war weit verbreitet (Kormann 2006: 76). Im Laufe des 20. Jahrhunderts sank die Begeisterung für Automaten wieder und es kam zu einem Übergang von Automaten zu Robotern. Mit diesem Wandel veränderte sich auch die Bedeutung der künstlichen Wesen. Im Gegensatz zum Automaten wurde der Roboter nicht mehr als charmante, mechanische Neuheit behandelt (Springer 1996: 101). 1920 begründete der tschechische Schri steller Karel Čapek den Begri Roboter. Das Wort wurde von seinem Bruder Josef vorgeschlagen und später von Karel in seinem eaterstück R.U.R. (‚Rossum’s Universal Robots‘) verwendet (Levy 2008: 2). Das tschechische Wort ‚robot‘ kann mit Fronarbeit übersetzt werden (Irrgang 2005: 144). Čapeks Roboter waren menschenähnlich konzipiert und sollten den echten Menschen Arbeit abnehmen. Im eaterstück erlangten sie letztendlich Gefühle, wurden sich ihres Status als Sklaven bewusst und löschten schlussendlich die Menschen aus

7 (Asimov 1990: 6). Das Wort Roboter scha e den Sprung von der  eaterbühne in den Alltagsgebrauch vieler Sprachen und ersetzte schlussendlich den Begri des Automaten (Ruge 2012: 53). Es dauerte nicht lange und die Roboter überschritten den Status der bloßen Arbeitskrä e. Heute werden sie in allen Lebensbereichen eingesetzt, von der Industrie zur Medizin, von der Haushaltsarbeit zur Populärkultur. Um den Begri Roboter kommt man kaum herum. Aber was wird konkret mit diesem Wort bezeichnet? Eine allgemein gültige De nition für Roboter ist schwer zu  nden, da es zahlreiche Typen und Verwendungsgebiete gibt, auf die verschiedene De nitionen passen. Die VDI-Richtlinie 2860, die 1990 publiziert wurde, liefert eine technische und komplexe De nition. Ein Roboter ist „ein frei und wieder programmierbarer, multifunktionaler Manipulator mit mindestens drei unabhängigen Achsen, um Materialien, Teile, Werkzeuge oder spezielle Geräte auf programmierten, variablen Bahnen zu bewegen zur Erfüllung der verschiedensten Aufgaben“ (Christaller 2001: 18). Diese De nition weckt eine starke Assoziation mit Robotern in Fabriken. Auf rein technischer Ebene können Roboter nach Christaller als Maschinen bezeichnet werden, die den Handlungsrahmen der Menschen erweitern (Christaller 2001: 19). Abb. 2: Fabrikroboter Einen Schritt weiter geht Irrgang. Er de niert Roboter als „Maschinen, die so ähnlich ausschauen wie Lebewesen, dies aber nicht sind“ (Irrgang 2005: 161). Asimov schrieb seine Geschichten zwar vor fast 70 Jahren, war aber dennoch noch einen Schritt voraus und beschrieb Roboter als „an arti cial object that resembles a human being“ (Asimov 1990: 1). Roboter sehen für ihn nicht nur so aus wie Menschen; er beschreibt sie als computergesteuerte Maschinen, die Aufgaben erfüllen können, die für jeden lebenden Geist, außer dem Menschen, zu komplex sind (Asimov 1990: 2). Au auend auf Asimovs De nition können als humanoide Roboter jene Roboter bezeichnet werden, deren Körperbau dem menschlichen ähnelt. Sie bestehen aus einem Rumpf mit zwei Armen, zwei Beinen und einem Kopf, damit sie Manipulationsaufgaben ausführen und sich fortbewegen können und sind damit wahre High-Tech-Systeme (Christaller 2001: 87). Humanoide Roboter sind die Antwort auf den antiken Traum der Menschheit, einen Maschinenmenschen nach dem menschlichen Ebenbild

8 zu schaen. Nach Veruggio entspringt dieser Traum nicht nur einer rationalen, technischen oder utilitaristischen Motivation, sondern vor allem auch einer psycho-anthropologischen (Veruggio 2006: 28). Im Zusammenhang mit humanoiden Robotern stößt man unumgänglich auf den Begri des Androiden. Als Androide können Roboter bezeichnet werden, die ein menschenähnliches Erscheinungsbild und Verhalten aufzeigen (Vašek 2013: 146). Nach Springer können sie entweder menschlich geformte Roboter oder gentechnisch hergestellte humanoide Organismen sein. Sie kombinieren jedoch keine organischen mit nichtorganischen Komponenten (Springer 1996: 20). Im Gegensatz zu humanoiden Robotern sind Androiden somit vom Menschen optisch kaum zu unterscheiden. Friedrich stellt dar, dass durch diese Tatsache die Menschlichkeit des Menschen im Zusammenhang mit Androiden o reektiert wird. „Gängig ist die Vorstellung, Intuition, Kreativität und Gefühle seien nicht künstlich zu erzeugen, so dass Maschinen darüber grundsätzlich nicht verfügen können“ (Friedrich 2004: 136). Die Science-Fiction ist voller Androiden, die ein Bewusstsein entwickeln, Gefühle haben und somit fast so menschlich wie die Menschen sind. Betrachtet man die realen Entwicklungen, kann man aber Irrgang zustimmen: Roboter haben zwar menschliches Aussehen und sind also äußerlich menschenähnlich, in nächster Zukun wird aber kaum ein Roboter auf der Ebene der Fähigkeiten menschenähnlich werden (Irrgang 2005: 147). Irrgang geht davon aus, dass Roboter äußerlich menschenähnlich gestaltet werden, weil sie so einerseits leichter von Menschen gesteuert werden können und andererseits von Menschen in dieser Form eher als Hilfe akzeptiert werden. Anthropomorphe Denkzwänge drängen dazu, Roboter menschenähnlich zu gestalten (ebd. 2005: 157). Betrachtet man die Geschichte der Robotik, fällt auf, dass die Entwicklung vom ersten Industrieroboter bis heute rasch vorangegangen ist. 1954 gilt als Startschuss der Geschichte real existierender Roboter. In diesem Jahr reichte C. W. Kenward ein Patent zur Entwicklung von Robotern ein. 1959 wurde der erste kommerzielle Roboter präsentiert und ein Jahr später der erste Industrieroboter namens ‚Unimate‘ hergestellt (Ruge 2012: 45). In den frühen 70er Jahren fanden die ersten Roboter Einsatz in Fabrikhallen in den USA und Japan. Diese Roboter waren in ihrem Aussehen keinesfalls menschenähnlich und noch nicht ‚intelligent‘ (Kopacek 2004: 113). Auf die Bedeutung des Begris Intelligenz in diesem Kontext wird in Kapitel 2.3 genauer eingegangen.

9 Parallel zur Entwicklung von Fabrikrobotern versuchte man sich bereits an den ersten humanoiden Robotern. 1973 entwickelte Ichiro Kato an der Universität Tokio einen lebensgroßen Roboter: Wabot-1. Der humanoid-ähnliche Roboter steckte aber noch in seinen Kinderschuhen. Für einen Schritt brauchte er etwa 45 Sekunden (Ichbiah 2005: 30). Ab den 1990er Jahren drangen Roboter in immer mehr Lebensbereiche ein: Robodoc im Medizinbereich, Mission Path nder auf dem Mars und ab der Jahrtausendwende entwickelten die Universität Tokio und die Firma Honda erste humanoide Roboter (Ruge 2012: 46). Der menschliche Körper kann vereinfacht durch 24 Bewegungsmöglichkeiten imitiert werden. Wie auch Kopacek betont, ist der schwierigste, aber wesentlichste Punkt das Gehen auf zwei Beinen (Kopacek 2004: 114f). Nachdem Honda 1986 mit der Entwicklung eines gehenden Roboters begann und die Modelle E0, E1, E2 und E3 entstanden, konnten 1991-1993 die Modelle E4, E5, E6 bereits über Treppen steigen – wenn auch sehr langsam. Die nächste Herausforderung waren Körper, Arme und Kopf, um einen vollwertigen humanoiden Roboter zu bauen. 1993 wurde Hondas erster humanoider Roboter P1 präsentiert. Drei Jahre später folgte P2, der weltweit erste autonom gehende Roboter. 1997 wurde P3 gebaut, der optisch viel kompakter und alltagstauglicher designt wurde und etwas an einen Astronauten erinnerte. Ab 2000 wurde am neuen Modell gearbeitet: ASIMO (Akronym für Advanced Step in Innovative MObility). Die neueste Version kann laufen, auch auf unebenen Flächen, Treppen steigen, Objekte greifen, einfache Sprachbefehle verstehen und darauf reagieren. Er erkennt Gesichter und registriert seine Umgebung inklusive stationärer Objekte, damit er Hindernissen aus dem Weg gehen kann. Honda bezeichnen ihren Roboter als „the World’s Most Advanced Humanoid Robot” (Honda 2018).

Abb. 3: Entwicklung Honda Roboter Aber auch in Europa wird an humanoiden Robotern gearbeitet. So Bank Robotics, 2005 als Aldebaran Robotics in Paris gegründet, präsentierte 2006 NAO, einen 58 Zentimeter hohen Roboter, der laut Hersteller „an interactive companion robot” ist (So Bank Robotics 2017). 2008 nahm er als Nachfolger des Sony Aibo am RoboCup teil und das aktuelle Modell ist beispielsweise in einem Hotel als Rezeptionist tätig. Er begrüßt die Gäste und liefert ihnen Informationen in zahlreichen Sprachen (ebd. 2017). Ein anderes Modell ist Pepper, der laut Hersteller der erste humanoide Roboter ist, der menschliche Emotionen erkennt und sein Verhalten der Stimmung seines Gegenübers anpasst. Die Firma Nestlé plant mehr als 1000 Nescafé-Verkaufsstellen in Japan mit Pepper auszustatten, um Kundinnen und Kunden über ihre verschiedenen Produkte zu informieren (vgl. So Bank Robotics 2017). Ein Projekt, an dem noch gearbeitet wird, ist Romeo. Der 140 Zentimeter große humanoide Roboter ist dazu bestimmt, als Begleitroboter für Personen mit eingeschränkter Autonomie zu agieren und ihnen im Alltag zu assistieren. Romeo ist aus der Zusammenarbeit zahlreicher französischer und europäischer Laboratorien und Institutionen entstanden (vgl. So Bank Roboticsc 2017). Im November 2017 machte das Unternehmen Boston Dynamics, mit Sitz in Massachusetts, in den Medien wieder auf sich aufmerksam. In einem veröentlichten Video zeigten sie die neuesten Fortschritte ihrer Maschinen. Laut Gibbs entstanden die anfänglichen Modelle in Zusammenarbeit mit dem amerikanischen Militär, inklusive der US Defence Advanced Research Projects Agency (DARPA), der US Army, der Navy und dem Marine Corps (Gibbs 2013: o.S.). Neben den vierbeinigen Robotern in verschiedenen Größen, arbeitet Boston Dynamics an einem humanoiden Roboter namens Atlas (Boston Dynamicsa 2017). Dieser wird von den Herstellern als „the World’s Most Dynamic Humanoid“ beschrieben (Boston Dynamicsb 2017). Im veröentlichten Video sieht man den 1,5 Meter hohen und 75 Kilogramm schweren Roboter auf unterschiedlich hohe Kisten springen, sich im Sprung um die eigene Achse drehen und am Ende einen Rückwärtssalto machen (Boston Dynamicsb 2017). Neben den humanoiden Robotern gibt es weltweit hunderte Androiden- Projekte, von denen ein Großteil in Japan zu nden ist (De Asís Roig 2014: 3). Das wohl bekannteste Beispiel sind Hiroshi Ishiguros Roboter. Der japanische Roboterforscher von den ‚ATR Intelligent Robotics and Communication Laboratories‘ an der Universität Osaka baut Roboter, die aussehen wie

11 Menschen und sich auch wie solche verhalten. Bekannt wurde er vor allem durch seine Modellreihe ‚Geminoid’ (lat. zwillingsartig), die aus Duplikaten real existierender Personen besteht (Vašek 2013: 147f). Das bekannteste Exemplar ist ohne Zweifel ‚Geminoid HI-4’, eine exakte Kopie des Wissenscha lers selbst (vgl. Geminoid 2017). Die Technische Universität von Nanyang berichtete 2015 von Nadine, der neuen ‚Rezeptionistin‘ an der Universität. Der weibliche Android lächelt, wenn sie Gäste begrüßt, schüttelt ihre Hand und schaut ihnen beim Reden in die Augen. Sie kann, je nach Gespräch, glücklich oder traurig sein, erkennt Menschen wieder und kann sich an vorangegangene Gespräche erinnern. Optisch ist sie die Doppelgängerin ihrer Schöpferin Prof. Nadia Magnenat  almann (Nanyang Technological University 2015). Der weibliche Androide Sophia ist Hanson Robotics neuester und fortschrittlichster Roboter und kann 60 Emotionen imitieren. Sophia hatte ab 2016 zahlreiche Medienau ritte, gab Interviews und hat sogar ein Konzert gesungen (Hanson Robotics 2017). Aber damit nicht genug. Im Oktober 2017 erhielt Sophia vom Kronprinzen Mohammed bin Salman den saudischen Bürgerscha snachweis. Die futuristische Aktion schlug in den Medien hohe Wellen und sorgte auch für zahlreiche negative Reaktionen (Pichler 2017: o.S.). Während ASIMO, NAO oder Pepper begeistern und als liebenswert eingestu werden, gesellt sich bei den genannten Androiden-Beispielen zur Begeisterung o ensichtlich ein unheimliches Gefühl. Bezogen auf das Aussehen der Roboter und ihrer Akzeptanz hat der japanische Robotiker Masahiro Mori bereits 1970 das Phänomen beschrieben, das er ‚ e Uncanny Valley‘ nennt (Mori 2012: 98).

Abb. 4: Gra k - Uncanny Valley Sieht man einen realistischen Androiden, merkt man schnell, dass es kein echter Mensch ist. Bei vielen stellt sich in diesem Moment ein Gefühl von Unheimlichkeit und Unbehagen ein. Mori beschreibt dieses Phänomen folgendermaßen: Zu Beginn nimmt das Gefühl von Vertrautheit zu, je ähnlicher der Roboter dem Menschen sieht. Diese Vertrauenskurve steigt aber nur bis zu einem Punkt, an dem sie dann schlagartig abnimmt. Den Knick in der Vertrauenskurve nennt Mori das unheimliche Tal (ebd. 2012: 98) Erreicht man diesen Punkt fühlt man sich unwohl und dem Roboter gegenüber stellt sich ein befremdliches, unbehagliches Gefühl ein. Moris ese besagt, dass dieses Vertrauen erst wieder steigen könne, wenn die Roboter noch perfekter werden (Vašek 2013: 149). Mit Blick auf Moris Hypothese erforscht die Tübinger Philosophin Catrin Misselhorn diesen Zustand aus analytisch-philosophischer Perspektive. Dabei nennt sie dieses Gefühl der Unheimlichkeit ‚Dyspathy‘ und stellt es der Empathie entgegen. Dyspathy ist dabei nach Misselhorn ein ausgeprägtes negatives, aversives Gefühl gegenüber Androiden. In ihrem Artikel versucht sie, das Phänomen an Hand von Beispielen aus Animationslmen zu erörtern. Mit Techniken wie Motion-Capture oder Morphing wird versucht, realistische Bewegungen und Mimik zu animieren, um beim Publikum dasselbe Einfühlungsvermögen für animierte Figuren wie für menschliche Figuren zu wecken. Unterbewusst entdeckt die Zuschauerin beziehungsweise der Zuschauer jedoch kleinste Unterschiede. Dyspathy tritt paradoxerweise vor allem bei Figuren auf, die ein sehr hohes Maß an Menschenähnlichkeit aufweisen (Misselhorn 2009: 103). „Since androids are very humanlike robots, they o en fall into the uncanny valley, as long as they are not perfect copies of humans.” (ebd. 2009: 104). Für die ktionale Darstellung von Androiden im Film kommt sie zu folgendem Schluss: Wenn die Zuschauerinnen und Zuschauer Empathie und keine Dyspathy zu den Robotern im Film auauen sollen, sollen diese nicht zu menschenähnlich dargestellt werden (ebd. 2009: 117). In Bezug auf Asimovs Gesetze, auf die später in Kapitel 2.4 noch genauer eingegangen wird, ergänzt sie diese mit einem vierten Gesetz: „A robot must not be too similar to a human being if it is supposed to elicit empathy.“ (ebd. 2009: 117). Da die Herstellung humanoider Roboter mit hohen Kosten verbunden ist, werden sie nach Veruggio wahrscheinlich für Aufgaben und in Umgebungen ihren Einsatz nden, in denen die menschliche Gestalt wirklich benötigt wird. Dies betri vor allem Situationen, in denen es zu einer engen

13 Mensch-Roboter-Interaktion kommt: im Gesundheitswesen, in der Kinderbetreuung, als Bürokra , für Führungen in Museen, in der Unterhaltungsbranche, als Sexualpartnerin oder Sexualpartner und so weiter (Veruggio 2006: 28). Die genannten Androiden-Beispiele werden bereits in unterschiedlichen Bereichen eingesetzt. So ersetzt Ishiguros Doppelgänger ihn auch bei Vorträgen. Noch werden diese Modelle aber ferngesteuert und verfügen nicht über ein autonomes Programm (Vašek 2013: 147f). Ferngesteuert werden auch andere Robotertypen, auf die hier nur kurz eingegangen wird. Die Begrie sollen dennoch geklärt werden, da sie für die quantitative Analyse relevant sind. Als Mechas werden Laufroboter bezeichnet, die meist ein humanoides Aussehen haben und vom Menschen gesteuert werden. Nach Stiglegger können bei dieser Roboterart bereits Bezüge zum Cyborg ausgemacht werden. Er deniert Mechas als nicht rein technische Objekte und sieht sie bereits als eine Art prothetische Erweiterung des Menschen (Stiglegger 2014: 68). Einen Schritt weiter geht das Exoskelett, dessen „technische[r] Bewegungsapparat eine direkte Verbindung mit dem Organischen eingeht“ (Berr 1990: 77). Neben der realen Verwendung von Exoskeletten für medizinische, industrielle und militärische Zwecke, nden sich in Filmen, Videospielen und Comics zahlreiche ktive Exoskelette. Meistens unterstützen sie die Figuren und ermöglichen es ihnen, Tätigkeiten auszuführen, zu denen der menschliche Körper allein nicht im Stande wäre, wie auch die quantitative Überblicksanalyse in Kapitel 4.2 zeigen wird. Da Mechas und Exoskelette die Verbindung zum ema Cyborg spannen, ist es sinnvoll, diesen Begri als nächstes genauer unter die Lupe zu nehmen.

2.2 Cyborg

In vielen Science-Fiction-Filmen und häug auch im Alltag herrscht eine Unschärfe zwischen den Begrien Roboter und Cyborg. Um diese zu vermeiden und für die vorliegende Arbeit terminologische Klarheit herzustellen, wird im folgenden Kapitel genauer auf den Begri des Cyborgs eingegangen. Wie bereits im vorangegangenen Kapitel geklärt, sind Roboter vollkommen mechanische Figuren, die in verschiedenen Formen und Größen au reten. Cyborgs hingegen können als eine Fusion aus menschlichem Organismus und Maschinenteilen gesehen werden. Irrgang stellt fest, dass man zwischen zwei

14 Arten künstlicher Menschen unterscheiden muss. Auf der einen Seite sind die Roboter „als physikalische, als kybernetische, als digitale Maschinen, als etwas Totes, als ein Gegenstand, als ein Ding, als eine Sache, kurz als eine Maschine“ und auf der anderen Seite sind „Menschen, die von einem Menschen gezeugt wurden und noch nicht hirntot sind, also eine Leiblichkeit aufweisen, die zumindest einen Organismus als Grundlage haben“ (Irrgang 2005: 170). Unter diese zweite Kategorie fällt der Cyborg. Die Abkürzung Cyborg bezieht sich auf den Terminus ‚cybernetic organism‘. Der Begri wurde vom Neurowissenscha ler Manfred Clynes geprägt. Zusammen mit Nathan Kline publizierte er 1960 den Aufsatz ‚Cyborgs and Space‘. Im Text wurde das Konzept eines ‚kybernetischen Organismus‘ entwickelt. Dieser sich selbst regulierende Mensch-Maschinen-Hybrid sollte den Menschen verbessern und die Möglichkeit schaen, körperliche Funktionen schneller an äußerliche Umstände anzupassen. Nach Auassung seiner Schöpfer sollte der Cyborg den Weltraum erobern und stellte die perfekte, unverwundbare Kampfmaschine und das Ideal des Kolonialismus dar (Gunzenhäuser 2006: 63; Ruge 2012: 55). Donna Haraway lieferte in ihrem bekannten Essay ‚Cyborg Manifesto‘, das sie 1984 veröentlicht hat, eine häug verwendete und zitierte Denition. Nach dieser Denition ist ein Cyborg „a cybernetic organism, a hybrid of machine and organism, a creature of social reality as well as a creature of ction” (Haraway 2004: 158). Beim Cyborg geht es also um „die Erweiterung des menschlichen Körpers, um diesen leistungsfähiger zu machen“ (Ruge 2012: 55). Mensch und technische Rationalität vermischen sich im Cyborg zu einem Hybridwesen; zur Menschmaschine (Apunkt/Friesinger 2014: 134) mit prothetisch aufgerüstetem Körper und Mikrochip im Gehirn. Der Diskurs zu Cyborgs hat einen engen Zusammenhang zur Prothetik. Wie Berr darstellt, ist die Geschichte der unorganischen Prothesen am organischen Körper in erster Linie mit der Bewanung des menschlichen Körpers und seiner Sinne verbunden. Motivation für diese Bewanung ist die Steigerung des Wirkungsgrades (Berr 1990:11). Erste simple Prothesen, die Gliedmaßen ersetzten, gab es bereits im alten Ägypten, wo man versuchte, auf diese Weise körperliche Dezite zu korrigieren. Die möglicherweise älteste bekannte Gliedmaßen-Prothese ist der Nachbau einer großen Zehe aus Holz und Leder aus dem Jahr 600 v. Chr. (Finch 2011: 548). In einem Sarkophag wurde eine der ersten Kunsthände gefunden, die aus der Zeit um 300 v. Chr. stammt.

15 Im 15. Jahrhundert wurden in Florenz passive, bewegliche Handprothesen aus Eisen gefertigt. In der Ritterrüstung, die als zweite eiserne Haut fungierte, erreichte die technische Aufrüstung des Menschen einen ersten Höhepunkt (Berr 1990: 11-17). Im 16. Jahrhundert bestanden mechanische Prothesen aus Eisen und waren somit schwer und sperrig und mit wenig Bewegungspotential. Ein enormer Sprung im Bereich der beweglichen Prothesen wurde in den 1780er und 90er Jahren durch den Automatenbauer Pierre Jaquet-Droz gemacht. Wie Riskin schildert, verwendete er für seine Hände dieselben Materialien wie für seine Automaten: Leder, Kork, Pergament und Pappmaché auf einem Stahlrahmen. Dadurch waren die Prothesen einerseits sehr beweglich und mit 480 Gramm auch sehr leicht (Riskin 2005: 73). Blickt man in die Gegenwart, wurden auf der Ebene der Prothetik riesige Fortschritte gemacht. Obwohl Roboter und Cyborgs streng zu trennen sind, wird es nach Irrgang durch die Entwicklung von Robotern unausweichlich zu Fortschritten in der Herstellung technischer Prothesen kommen (Irrgang 2005: 186). Im Bereich der Medizintechnik arbeiten Wissenscha lerinnen und Wissenscha ler an Computerchips, die Blinde wieder sehen lassen oder an Prothesen, die über Hirnströme gesteuert werden und auch Impulse zurückschicken können. Dies würde es den Patientinnen und Patienten ermöglichen, mit ihren künstlichen Gliedmaßen wieder zu fühlen (Oergeld 2015: o.S.). Nach Schäfer und Gawron sind aber selbst die modernsten Prothesen, die heute verfügbar sind, nur Hilfsmittel. Der menschliche Organismus ist sehr komplex und auch die fortschrittlichsten Prothesen sind ihm in Punkto Wahrnehmung, Sensibilität und organischem Reaktionsvermögen noch weit unterlegen. Sie liefern aktuell nur eine Annäherung an die funktionalen Abläufe des menschlichen Körpers (Schäfer/Gawron 2015: 445). Dennoch ermöglichen sie alltägliche Handgrie wieder selbst auszuführen. So wurden 2015 an der Medizinischen Universität Wien drei Männern, die ihre Hand verloren hatten, Prothesen eingesetzt, die durch Gedanken gesteuert werden können. Möglich ist dies durch einen komplexen neuromuskulären Eingri, durch den eine interaktive Schnittstelle zwischen Mensch und Maschine entsteht. Die Medizinische Universität Wien gilt als weltweit einziger Ort, an dem die Methode der bionischen Rekonstruktion angewandt wird (Aszmann et al. 2015). Der britische Kybernetiker Kevin Warwick stilisierte sich selbst zum weltweit ‚ersten Cyborg‘ und gri dafür nicht zu Prothesen, sondern zu Computerchips.

16 Warwick sieht die Zukun der menschlichen Entwicklung in der sich immer weiter auösenden Grenze zwischen Mensch und Maschine. Mit dem Ziel seine Kommunikations- und Wahrnehmungsfähigkeiten zu steigern, ließ sich Warwick Ende der 1990er Jahre Computerchips implantieren (Woyke 2010: 25). Ab den 1990er Jahren wurde die ematik der Verschmelzung des Menschen mit informationstechnologischen Artefakten unter dem Stichwort ‚Cyborgisierung‘ zum häuger diskutierten ema und fand ab 2000 seinen Platz in gesellscha lichen Debatten und in der Politik (Coenen et al. 2010: 10). Es gibt nach Gunzenhäuser kein bestimmtes Körperkonzept, das mit dem Cyborg einhergeht. Der Begri vereint die Vielfalt, aber auch die Widersprüchlichkeit der verschiedenen Ansätze, die es zum ema Cyborg gibt (Gunzenhäuser 2006: 69). Haraway stellt fest, dass sich das Konzept des Cyborgs immer wieder verändert hat und es somit keine eindeutige und allgemeingültige Denition geben kann. „Cyborgs do not stay still. Already in the few decades that they have existed, they have mutated, in fact and ction, into second-order entities like genomic and electronic databases and the other denizens of the zone called cyberspace.” (Haraway 1995: xix, zit. n. Gunzenhäuser 2006: 63). Haraway verwendet den Begri in seiner Vielseitigkeit und bezeichnet damit einerseits technologisch- organische Objekte, aber auch die Menschen der postmodernen Welt, die immer mehr auf technologische Prothesen zurückgreifen. Dazu wird auch die Ausdehnung der eigenen Körperlichkeit in die technologische Welt gezählt, wie es zum Beispiel durch das World Wide Web geschieht (Stiglegger 2014: 71). Der letzte Punkt erinnert an Marshall McLuhans Überlegungen in ‚Understanding Media: e Extension of Man‘, wo er schon 1964 das Medium Fernsehen als Erweiterung des menschlichen Körpers denierte (vgl. McLuhan 2003). Durch diese Hybridität ist der Cyborg nicht eindeutig in die geschlossenen Konzepte humaner Körper zu verorten. Gunzenhäuser deniert den Cyborg deshalb als prozessha , weder „Maschine noch Organismus, weder Realität noch Fiktion“ (Gunzenhäuser 2006: 59). Denkt man an die technische Entwicklung, die in Kapitel 2.1 geschildert wurde, kann man feststellen, dass sich die Beziehung zwischen Mensch und Technik seit dem 17. Jahrhundert stark verändert hat. Die Technik ist inzwischen in die intimsten Bereiche eingedrungen. Springer stellt fest, dass Fusionen zwischen Menschen und künstlichen Geräten heute zum Alltag gehören: Immer ö er nimmt der menschliche Körper Technologie auf. Springer nennt als Beispiele

17 prothetische Gliedmaßen und künstliche Organe (Springer 1996: 29). Nach Ruge gehören auch organunterstützende Implantate wie Herzschrittmacher dazu (Ruge 2012: 56). Spinnt man den Faden weiter und denkt an Hörprothesen, Zahnprothesen oder künstliche Gelenke, dann könnte schon ein Großteil der Menschen unter uns als Cyborgs bezeichnet werden. Die Technik wird immer besser und rückt uns immer näher. Für viele Menschen unverzichtbar sind Smartphones oder Fitnessarmbänder, die direkt am Körper getragen werden. Turkle sieht diese Verschmelzung kritisch: „Techology is seductive when what it o ers meets our human vulnerabilities. And as it turns out, we are very vulnerable indeed.” (Turkle 2011: 1). Sie macht darauf aufmerksam, dass die Menschen ihre Technologien selbst scha en und anschließend durch diese geformt werden. Aus diesem Grund müsse man bei jeder Technologie fragen, ob sie auch unsere menschlichen Absichten entspricht (Turkle 2011: 19). An diesen Gedanken schließen auch die aktuellen Diskussionen zur Roboterethik an, die in Kapitel 2.4 dargestellt werden. Als bekanntesten Cyborg bezeichnet O ergeld den irisch-spanischstämmigen Künstler Neil Harbisson, der an einer vollkommenen Farbenblindheit leidet. Seit 2004 lebt er mit einer Antenne am Kopf und ist damit auch auf seinem Pass abgebildet (O ergeld 2015: o.S.). In einem TED-talk sagt Harbisson dazu: „You‘re not allowed to appear on U.K. passports with electronic equipment, but I insisted to the passport o ce that what they were seeing was actually a new part of my body, an extension of my brain, and they  nally accepted me to appear with the passport photo.” (Harbisson 2012: o.S.). Harbissons Erweiterung ist ein Farbsensor, der Farbfrequenzen erkennt, in Töne umwandelt und diese über ein Chipimplantat am Hinterkopf weiterleitet. Harbisson hört die Farben durch die Übertragung über den Schädelknochen. Der Sensor scha somit eine Art neuen Sinn. Inzwischen kann er auch Infrarot- und ultraviolette Strahlen hören und nimmt somit Farben wahr, die die menschlichen Sinne nicht wahrnehmen können (Harbisson 2012: o.S.). Beispiele wie Harbisson scheinen uns schon näher an den Cyborg der Science-Fiction- Fantasien gebracht zu haben. Noch hat der Mensch als Cyborg das Weltall

Abb. 5: Neil Harbisson nicht erobert, so wie es sich Clynes gewünscht hatte. Realität wurde dieses Szenario lediglich in der Science-Fiction, wo sich die Figur des Cyborgs großer Beliebtheit erfreut. In der Populärkultur und auch im Science-Fiction-Film stellt sich im Zusammenhang mit Cyborgs o die Frage, was den Menschen zum Menschen macht. Wie weit darf ein Mensch technisch verbessert werden? Ab wann kann ein Mensch nicht mehr als Mensch bezeichnet werden? In der Populärkultur basteln die Regisseurinnen und Regisseure am Traum des perfekten Menschen: der perfekte Soldat, der furchtlos in die Schlacht zieht, die perfekte Frau, die ihrem Mann jeden Wunsch von den Lippen liest, der perfekte Bürger, der nie Widerstand leistet. So nden sich einige Science-Fiction-Filme in denen Cyborgs eine Hauptrolle spielen. In anderen sind sie handlungstragende Nebenguren oder Randguren. Man denke zum Beispiel an Darth Vader aus der Star Wars-Saga, der ohne seine kybernetischen Gliedmaßen und dem Lebenserhaltungssystem in seiner schwarzen Rüstung nicht überlebensfähig wäre. In Filmen treten unterschiedliche Typen von Cyborgs auf. Die zwei häugsten Typen wurden von David Tomas, Künstler und Anthropologe an der Universität Ottawa, beschrieben. Er unterscheidet zwischen dem post- organischen, klassischen Cyborg mit Hardware-Schnittstelle einerseits und dem post-klassischen, transorganischen, datenbasierten Cyborg, mit So ware- Schnittstelle andererseits (Tomas 1992: 32). Der erste Typ kombiniert einen organischen Körper mit nicht-organischen mechanischen oder elektronischen Implantaten oder Prothesen. Beim zweiten Typ ist keine organische Form mehr vorhanden. Der Cyborg besteht hier aus dem menschlichen Geist, der auf einer Computer-So ware gespeichert ist. Der zweite Typ bildet das Gegenstück zum Gegenstand des nächsten Kapitels: einer denkenden Maschine mit einer Künstlichen Intelligenz.

2.3 Künstliche Intelligenz

Wissenscha und Science-Fiction träumen beide den Traum der denkenden Maschine beziehungsweise des intelligenten und dem Menschen ähnlichen Roboters. Der Begri Künstliche Intelligenz (KI oder im Englischen AI) weckt Emotionen: Faszination einerseits, Angst andererseits. Nach Dorner befasst sich die Disziplin der KI, wie es der Name bereits erahnen lässt, mit der Frage

19 „ob mittels des Computers in Zukun auch die letzte Bastion der menschlichen Fähigkeiten eigenommen werden kann – die des rationalen Denkens und Handelns, der Sprache und des Bewusstseins“ (Dorner 2004: 102). Was heute noch in den Bereich der Science-Fiction fällt, ist das Ziel der KI-Forschung. Während der Au lärung dachte man, dass Tiere und Menschen wie Maschinen funktionieren. Dabei wird das Verhalten des Menschen bewusst durch eine Kra gesteuert, die Seele oder Geist genannt wird. Durch diesen Gedanken kam man zur Überzeugung, dass Menschen durch die Nachahmung der Natur künstliche Menschen erschaen können (Euchner 2005: 42). Nicht nur künstliche Körper, sondern auch künstliche Intelligenz. Aber was genau versteht man darunter? Das Wort Intelligenz hat seinen etymologischen Ursprung im lateinischen Wort legere, was mit (ein)sammeln, auslesen, auswählen oder lesen übersetzt werden kann. Intellegere hingegen heißt wahrnehmen, erkennen, verstehen, begreifen oder Kenntnis haben. Wenn es der Mensch scha , eine Maschine zu bauen, die sammeln, zusammenfügen und aus verschiedenen Alternativen wählen kann, dann hat er, so Feigenbaum und McCorduck, eine Künstliche Intelligenz erschaen (Feigenbaum/McCorduck 1983: 34f). Nach Mainzer ist ein System intelligent, „wenn es selbstständig und ezient Probleme lösen kann“ (Mainzer 2016: 3). Dabei hängt für ihn der Grad der Intelligenz von unterschiedlichen Faktoren ab: der Selbstständigkeit, der Komplexität des Problems und der Ezienz des Problemlösungsverfahrens (ebd. 2016: 3). Desouza sieht die KI- Forschung als Wissenscha , die untersucht, wie Computer dazu genutzt werden können, menschliche Intelligenz nachzubilden (Desouza 2002: 29). Bereits in den 60er Jahren lieferte der amerikanische KI-Forscher Marvin Minsky eine simple Denition. Nach ihm ist Künstliche Intelligenz „the science of making machines do things that would require intelligence if done by men“ (Minsky 1968: V). Luger und Stubbleeld denieren Künstliche Intelligenz als „the branch of computer science that is concerned with the automation of intelligent behaviour“ (Luger/Stubbleeld 1997: 1). Auch die Informatikerin Elaine Rich und der Computerlinguist Kevin Knight spannen in ihrer Denition den Bogen zwischen Computer und Mensch. Künstliche Intelligenz ist darin „the study of how to make computers do things which, at the moment, people do better“ (Rich/Knight 1991: 3). Obwohl zwischen den verschiedenen Ansätzen und Denitionen fast 50 Jahre liegen, ist der Gedanke klar: Als Künstliche Intelligenz kann die Fähigkeit eines Computers oder auch eines Roboters gesehen werden,

20 Aufgaben ezient zu lösen, die Intelligenz erfordern und bisher nur von Menschen erledigt wurden. Darunter fallen Fähigkeiten wie Problemlösen, Lernen oder auch Sprache verstehen. In der Fachliteratur nden sich zwei Ansätze von KI. Der erste Ansatz beinhaltet Computer, die kognitive Prozesse untersuchen und nachahmen. Sie simulieren Intelligenz und werden als schwache KI eingestu . Der andere Ansatz vertritt die ese, dass intelligente Maschinen entwickelt werden können, die nicht bloß nachahmen, sondern Sprache verstehen, selbstständig kognitive Leistungen erbringen und somit eigenständig lernen und geistige Prozesse durchlaufen. Diese Computer sind wirklich intelligent und werden deshalb als starke KI eingestu (Lenzen 2002: 16). „Weak AI focuses on solving specic problems, compared to Strong AI, whose goal was to emulate the full range of human cognitive capabilities.” (Jones 2008: 10). Nach Ruge beginnt die Geschichte der KI mit dem Werk des englischen Mathematikers George Boole, den er als Urvater der KI-Forschung bezeichnet. 1854 publizierte Boole seine Schri ‚An Investigation of e Laws of ought‘ und schuf die auf binären Zahlensystem beruhende boolsche Algebra, auf die unsere Computer basieren (Ruge 2012: 43). 1946 wurde an der Universität von Pensylvania der erste Computer gebaut. ‚ENIAC‘ (kurz für Electronic Numerical Integrator And Computer) bestand aus 18 000 Vakuumröhren, brauchte 140m2 Platz und brachte stolze 30 Tonnen auf die Waage (Ichbiah 2005: 26). Zwei Jahre später begründete Norbert Wiener die Kybernetik, die den Computer von einer Rechenmaschine zu einer Steuerungseinheit erweiterte (Ruge 2012: 44). Sein Werk ‚Cybernetics or Control and Communication in the Animal and the Machine‘ setzte neue Maßstäbe in der Informationstheorie (Ichbiah 2005: 27). Der Begri Künstliche Intelligenz wurde 1955 in der Einladung zur Darthmoth Konferenz geprägt, wo für zwei Monate eine Studie über KI durchgeführt wurde (Ruge 2012: 44). In den ersten Ansätzen zur KI beschränkte man sich vor allem auf die Aspekte Vernun und Rationalität. „In einer sehr deutlichen Computermetapher wurde intelligentes Verhalten vor allem auf das logische Kalkül, das begriiches Wissen in Form von eindeutigen Symbolen beschreibt, reduziert.“ (Dorner 2004: 111). Wahrer menschlicher Intelligenz kommt dies aber nicht nahe. Alan Turing hatte erstmals die Idee, eine universale Rechenmaschine zu bauen, die nicht nur Rechenverfahren löst, sondern auch sprachliche Äußerungen versteht. 1950 machte er in seinem Aufsatz ‚Computing

21 Machinery and Intelligence‘ den Vorschlag, statt eines Denitionsversuchs einen Test durchzuführen. Das heute als Turing-Test bekannte Verfahren basiert auf folgendem Szenario: Eine menschliche Probandin oder ein Proband soll herausnden, ob sie oder er eine Unterhaltung mit einem Menschen oder einem Computer führt (Euchner 2005: 53f). Turing erwartete dabei von der Maschine ‚intelligent behaviour‘. Euchner betont, dass dies streng genommen nicht mit menschlicher Intelligenz gleichzusetzen sei. Der Turing-Test enthüllt also nur, dass kein Unterschied zwischen dem Verhalten einer Maschine und dem eines intelligenten Menschen entdeckt werden kann (ebd. 2005: 55). Kurzweil schildert, dass sich die Computertechnik in der 1950er Jahren so schnell weiterentwickelte, dass bei vielen der Eindruck entstand, „die Beherrschung der Hirnfunktionen sei möglicherweise weniger problematisch als angenommen“ (Kurzweil 2000: 117). Turing prophezeite 1950, dass Künstliche Intelligenz in Maschinen bis zum Jahr 2000 möglich wäre (Khunkham 2014: o.S.). Die Zeit von 1955 bis 1965, die als erste Phase der KI-Forschung gilt, war von euphorischen Aussichten geprägt (Mainzer 2016: 11). Simon und Newell propagierten 1958 in ihrem Aufsatz ‚Heuristic Problem Solving: e Next Advance in Operations Research‘: „Es gibt nun auf der Welt denkende, lernende und schöpferische Maschinen. Auch wachsen ihre Fähigkeiten auf diesem Gebiet so rasch, dass sie in absehbarer Zukun mit einem ebenso großen Spektrum an Problemen umgehen werden wie der menschliche Geist.“ (Simon/Newell 1958: o.S., zit.n. Kurzweil 2000: 117). Simon unterschätzte den menschlichen Geist, als er 10 Jahre später zusätzlich ankündigte, dass bis 1985 Maschinen alle Arbeiten, die ein Mensch erledigen kann, durchführen können. Kurzweil stellt fest, dass Aussagen wie diese dem Gebiet der KI viel Misstrauen bescherten, das sich teilweise bis heute hält (Kurzweil 2000: 117). Mehr als 70 Wissenscha lerinnen und Wissenscha ler, darunter auch Stephen Hawking und Elon Musk, unterzeichneten 2015 einen oenen Brief über Künstliche Intelligenz. Darin fordern sie dazu auf, eine stabile und widerstandsfähige KI zu erschaen, die im Dienst des Menschen steht und deren gesellscha liche Auswirkungen erforscht werden (vgl. CSER 2018). Im Brief und dem dazugehörigen Schreiben ‚Research Priorities for Robust and Benecial Articial Intelligence‘ wird bekrä igt, dass KI großes Potential für die Gesellscha hat. Man dürfe aber nicht etwas erschaen, was man nicht kontrollieren kann (vgl. CSER 2018; Russell/Dewey/ Tegmark 2015).

22 Im Folgenden werden einige Beispiele der KI beschrieben, die als Meilensteine gelten. Das Programm ‚ELIZA‘ wurde 1966 von Joseph Weizenbaum entwickelt. Obwohl es von einer starken KI noch weit entfernt war, zeigte es erstmals, dass ein Computer exibel auf Sprache reagieren kann. Kommuniziert wurde über eine Schreibmaschine (Weizenbaum 1966: 36). ELIZA konnte als erstes Programm einen Psychotherapeuten imitieren und führte mit den Patientinnen und Patienten ein normales Gespräch. Diese bauten schnell eine emotionale Bindung zu ELIZA auf, da es schien, als würde das Programm sie ‚verstehen‘ (Weizenbaum 1966: 42). ELIZA konnte die Menschen natürlich nicht verstehen, sondern ging nur auf Schlüsselworte ein. So vermittelte sie die Illusion eines mitfühlenden und mitdenkenden Gesprächspartners. 1997 besiegte das Programm Deep Blue den Schachweltmeister Garry Kasparow. Für das Spiel wurde der Schachchip des Vorgängermodells angepasst und war in der Lage 2 bis 2,5 Millionen Positionen pro Sekunde zu berechnen. Deep Blue‘s Team wurde für den Sieg gegen einen menschlichen Weltmeister in einem regulären Spiel mit dem Fredkin Preis ausgezeichnet (Campbell/Hoane/Hsu 2001: 4). Anfang 2014 berichtete der Spiegel, dass die russische So ware Eugene Goostman den Turing Test bestanden hätte. Die Euphorie über den Sieg hielt sich jedoch in Grenzen: Das Programm gab sich den Prüferinnen und Prüfern als 13-jähriger Junge aus der Ukraine aus. Bei der Analyse der Gesprächsprotokolle el auf, dass Eugene Goostman redundant widersinnig und desinteressiert sprach und nur alte Gespräche aus der Datenbank imitierte. Zusätzlich gab das Programm vor, gerade Englisch als Fremdsprache zu lernen. Dies hat mit großer Wahrscheinlichkeit die Wahrnehmung der Probandinnen und Probanden beeinusst (Khunkham 2014: o.S.). Ein aktuelles Beispiel für ein semantisches Frage-Antwort-System ist IBMs Programm Watson. Im Vergleich zu Weizenbaums ELIZA kann Watson die semantischen Bedeutungen der Kontexte sowie Sprachspiele verstehen. Wie Mainzer beschreibt, erfasst Watson die in natürlicher Sprache gestellten Fragen und sucht in kürzester Zeit die passenden Antworten in einer großen Datenbank. Zusätzlich kann sich das System dank einer Stilanalyse den sprachlichen Gewohnheiten der Nutzerinnen und Nutzer anpassen (Mainzer 2016: 76). Laut Hersteller versteht Watson „alle Formen von Daten, interagiert auf natürliche Weise mit Menschen, lernt hinzu und zieht Rückschlüsse“ (IBM 2017). Während Watsons eigentliche Einsatzbereiche das Bildungs-, Finanz- und Gesundheitswesen sowie auch Handel und Marketing sind, sorgt das System

23 abseits davon auch immer wieder mit kuriosen Projekten für Schlagzeilen. So veröentlichte 20th Century Fox im August 2016 einen Trailer zum Film M (2016). Dieser wurde von Watson produziert und ist somit der erste Trailer der Filmgeschichte, der durch eine KI entstanden ist (20th Century Fox 2016). Etwas simplere und für den privaten Gebrauch entwickelte schwache KIs begleiten uns fast tagtäglich. Apple hat Siri, Samsung Bixby, Microso Cortana, Google den Google Assistant und Amazon bietet für sein Produkt Amazon Echo den digitalen Assistenten Alexa. Im Gegensatz zu diesen schwachen KIs betont Irrgang, dass eine starke KI nicht Intelligenz simulieren will, sondern das Ziel hat, Maschinen mit Geist herzustellen (Irrgang 2005: 130). Nach Dorner ist menschliche Intelligenz abhängig von der menschlichen Wahrnehmung, ihren Sinnen und Manipulationsmöglichkeiten. Er schließt daraus, dass menschenähnliche Intelligenz nur in menschenähnlichen Körpern möglich sein wird. Da das kognitive Handeln somit mit der eigenen Körperlichkeit verbunden ist, könne man von einem System mit einer KI, wie auch bei einem Roboter, nur jenes Wissen erwarten, das im Zusammenhang mit seiner Verkörperung sinnvoll ist (Dorner 2004: 106). Die Intelligenz des Menschen zeichnet sich durch Adaptivität aus: Menschen können sich schnell an unterschiedlichste Umweltbedingungen anpassen, sie lernen und können so ihr Verhalten exibel ändern. Noch ist der Mensch in der Lernfähigkeit den Computern weit überlegen (Ertel 2013: 3). Nach Kurzweil bleibt der Antrieb für Künstliche Intelligenz für die nächsten 50 bis 60 Jahre auf jeden Fall die menschliche Intelligenz. Für die Zeit um 2099 prognostiziert er jedoch, dass menschliches Denken und die vom Menschen geschaene Maschinenintelligenz verschmelzen werden. Das würde dazu führen, dass es keine klare Unterscheidung zwischen Mensch und Computer mehr geben wird (Kurzweil 2000: 452). Diese Aussage erinnert an Zukun sszenarien, an denen der Science-Fiction-Film seit Jahrzehnten bastelt. Die Beispiele für starke KIs als Teil des Filmalltags sind zahlreich und reichen von HAL 9000 aus Stanley Kubricks Klassiker : A S O (1968), bis zu Spize Jonzes Samantha in H (2013) oder Wally Psters Film T (2014). Die Frage ist also nicht mehr, ob der Mensch eine starke KI entwickeln kann, sondern wann dieser Moment erreicht sein wird (Dorner 2004: 111). Wenn es dem Menschen aber gelingen wird, eine Künstliche Intelligenz zu schaen, die all diese Fähigkeiten besitzt und diese in einen Roboter eingebaut werden,

24 was unterscheidet dann den Menschen von seinem künstlichen Pendant? Bleibt dieses eine Maschine? Hat der Roboter dann Rechte und Pichten? Mit der steigenden Integration von Robotern in menschliche Lebenszusammenhänge ist schon heute klar, dass sie nicht mehr bloß Werkzeug sind, sondern zu Agenten werden. Das nächste Kapitel wir deshalb einen Blick auf das ema Roboterethik. Welche ethischen Herausforderungen stellt die Robotik an den Menschen? Und wie wird darauf reagiert?

2.4 Roboterethik

Der Begri ‚Ethik‘ bezeichnet seit Aristoteles die wissenscha liche Kategorie für sittlich richtiges Handeln. Schicha merkt an, dass sich die Ethik dabei auf Handlungen von Personen beziehe und nicht eine eorie um der eorie willen sei. Neben der theoretischen Basis kümmere sich die angewandte Ethik auch um den Praxisbezug und greife dabei verschiedenste Bereiche auf: Ökologie, Medizin oder Technik (Schicha 2010: 21). Traditionell werden Maschinen als Hilfsmittel oder Erweiterung der menschlichen Tätigkeit gesehen. Doch die technische Entwicklung ist in großen Schritten vorangegangen, wie bereits in den vorherigen Kapiteln gezeigt wurde. Vor allem die Fortschritte in der beziehungsbasierten Technologie, wie humanoide Roboter und andere künstliche Begleiterinnen und Begleiter, bringen einen Perspektivenwandel mit sich. Floridi sieht die Faszination solcher ‚articial companions‘ in ihrer Einfachheit. Nicht eine starke KI mache sie zu Agenten, sondern die Menschen, die mit ihnen agieren: „ey can deal well with their interactive tasks, even if they have the intelligence of an alarm clock.” (Floridi 2014: 153). René Descartes verglich bereits 1637 Mensch und Maschine. Er kam zum Schluss, dass der Mensch den Maschinen immer überlegen sein wird, weil Menschen die einzigartige Fähigkeit der Vernun besitzen. Obwohl Maschinen viele Dinge tun können, vielleicht auch besser als Menschen, würden sie in anderen Dingen scheitern. Dieses Fehlschlagen zeigt auf, dass die Maschinen nicht durch Verstand und Vernun geleitet agieren, sondern nur durch ihre technischen Voraussetzungen (Descartes 1960: 42, zit.n. Springer 1996: 16). Den menschlichen Verstand macht nicht nur die Fähigkeiten des Denkens aus, sondern auch die des Fühlens. De Asís Roig zitiert in diesem Kontext Demásio, der in seiner Publikation darstellte, dass es im Leben nicht nur um das

25 Sammeln von Wissen gehe, sondern auch darum, eine Verbindung zur realen Welt herzustellen. Deshalb wolle man Roboter bauen, die Emotionen erkennen, verstehen und ausdrücken können (Demásio 1994, zit.n. De Asís Roig 2014: 20). „Accordingly, the real aim is not to produce ‘human beings’ but rather to improve the robot's relationship with people.” (De Asís Roig 2014: 20). Dennoch werden Maschinen geschaen, die den Menschen ähnlich sind und auf engem Raum mit ihnen leben. Wissenscha lerinnen und Wissenscha ler wie Bekey erwarten, dass in den kommenden zehn Jahren immer mehr Roboter Teil des Alltags sein werden. Sie werden beim Putzen, der Haushaltsführung, Sekretariatsaufgaben, aber auch in der Kinder- und Altenbetreuung helfen. Als Startschuss für den Beginn der Ära der Roboter als ‚co-inhabitant‘, zu Deutsch Mitbewohnerin oder Mitbewohner, nennt Bekey den Staubsaugerroboter Roomba, der 2002 auf den Markt kam. Vier Millionen verkau e Roboter machen ihn nicht mehr zum Luxusprodukt, sondern zum Alltagsgehilfen (Bekey 2011: 25). Während kleine Putzroboter, die kreuz und quer durch die Wohnung sausen, als ungefährlich wahrgenommen werden, bringen andere Roboter Risiken mit sich. Einerseits herrscht schon seit längerem die Angst, Roboter würden den Menschen ihre Arbeitsplätze streitig machen. Andererseits kam es auch schon zu schwerwiegenden Zwischenfällen mit Robotern. 1979 wurde in einer Autofabrik in den USA erstmals ein Arbeiter durch einen Roboter getötet. Darauin wurden ethische Fragen im Bereich der Robotik erstmals medial diskutiert (Kiska 1983: 10). 1981 starb ein japanischer Arbeiter, während Wartungsarbeiten an einem Roboter (Technology Quarterly 2006: o.S.). Reagiert wurde mit Sicherheitsbarrieren, um vor den großen, schweren und potentiell gefährlichen Roboterarmen zu schützen. Dennoch wurde 1984 ein weiterer Arbeiter getötet, weil er über den Schutzzaun kletterte, ohne den Roboter zu deaktivieren. „Clearly, employing workers in factories where robots are their coworkers includes the ethical responsibility to ensure their safety and well- being: however, no safety barrier can protect against human stupidity.” (Bekey 2011: 20). Laut einem Beitrag aus ‚Technology Quarterly‘ kam es 2005 zu 77 roboterbezogenen Unfällen in Großbritannien (Technology Quarterly 2006: o.S.). Seeßlen und Jung, die aus der Filmwissenscha kommen, sehen die Problematik in Verbindung mit Robotern nicht so sehr in ihrer direkten Bedrohlichkeit oder ihrer Unkontrollierbarkeit. Als schwierig bezeichnen sie stattdessen das Zusammenleben zwischen Mensch und Maschine. Sie sprechen in diesem Fall

26 nicht von Putz- oder Fabrikrobotern, sondern von Maschinen der Zukun , die über eine starke KI verfügen und Gefühle entwickeln. Besitzen sie Gefühle oder eine Seele, müssen sie nach Seeßlen und Jung auch als vollwertige Agenten gesehen werden (Seeßlen/Jung 2003: 39). Obwohl uns einige Technologien noch eher an Science-Fiction erinnern und es vielleicht übertrieben scheint, über ethische Richtlinien nachzudenken, erinnert eine Prognose von Asimov an die Wichtigkeit dieses Vorgehens: „It is change, continuing change, inevitable change, that is the dominant factor in society today. No sensible decision can be made any longer without taking into account not only the world as it is, but the world as it will be.“ (Asimov 1978: 7). Wir man also einen Blick in die Zukun und stellt sich vor, dass humanoide Roboter zu unseren ‚Mitmenschen‘ werden, ist es klar, dass man ethische Richtlinien, also eine Art Roboterethik, braucht. Zu Beginn soll geklärt werden, was Roboterethik ist, beziehungsweise ob der Begri für den Gegenstand überhaupt geeignet ist. Pieper deniert Ethik als „Disziplin der Philosophie“ und als „Wissenscha vom moralischen Handeln“ (Pieper 2007: 17). Als eigenständige Fachrichtung wurde sie erstmals von Aristoteles benannt. Unter dem Titel Ethik legte er „seine umfassenden Untersuchungen über das menschliche Handeln und die Kriterien seiner moralischen Beurteilung“ vor (Pieper/urnherr 1998: 7). Dies erklärt auch den etymologischen Ursprung des Begris. Ethik leitet sich vom griechischen Wort ethos ab, das zwei Variationen hat: ἔθος, was mit Gewohnheit, Sitte oder Brauch übersetzt werden kann und ἦθος, was so viel wie Charakter bedeutet. Auch der lateinische Terminus mos leitet sich von den griechischen ethos-Begrien ab, bedeutet Sitte beziehungsweise Charakter und ist der Ursprung des deutschen Wortes Moral (Pieper 2007: 25f). Nachdem wir den Begri des Roboters bereits ausführlich geklärt haben und nun auch eine Denition für den Terminus der Ethik haben, können die beiden Begrie zusammengeführt werden. Der Begri Roboterethik wurde erstmals 2004 auf dem ‚First International Symposium on Roboethics‘ in San Remo (Italien) vorgeschlagen. Bei diesem Treen wurden Vertreterinnen und Vertreter der Philosophie, Rechtswissenscha , Soziologie, Anthropologie und der Robotik aufgefordert, die Grundlagen einer Ethik für die Entwicklung, das Design und die Nutzung von Robotern zu schaen (De Asís Roig 2014: 4). In Japan wurde im selben Jahr von den Teilnehmerinnen und Teilnehmern der Internationalen Roboter Messe in Fokuoka, die ‚World Robot Declaration‘

27 unterzeichnet. In diesem an den Hippokratischen Eid angelehnten Dokument wird der Fokus auf das enge Zusammenleben von Mensch und Roboter gelegt. „In order for society to accept and welcome robots, it is necessary to dene and implement certain standards, modify living and working environments and public institutions must promote the introduction of robots.” (De Asís Roig 2014: 4). Seit Anbeginn der Robotik, bereits in den Werken von Wiener oder Asimov, wurden ethische Fragen diskutiert. Dennoch ist erst in den letzten Jahren die internationale Debatte zum Stichwort Roboterethik ins Rollen gekommen und bildet heute ein aufstrebendes Feld der angewandten Ethik (Veruggio/Solis/Van der Loos 2011: 21). 2010 veröentlichten in Großbritannien das ‚Engineering and Physical Science Research Council’ und das ‚Arts and Humanities Council’ fünf Grundsätze zur Entwicklung von Robotern. Diese ethischen Regeln sind als ‚lebendiges‘ Dokument gedacht und sollen als Grundlage für Debatten und als kün ige Referenz dienen. Roboter, als vielseitig einsetzbares Werkzeug, sollen nicht als Waen konzipiert sein, außer aus Gründen der nationalen Sicherheit. Sie sollen, so weit wie möglich, so gestaltet und betrieben werden, dass sie bestehende Gesetze, Grundrechte und -freiheiten – wie die Privatsphäre – einhalten. Roboter sind Produkte und sollen deshalb so konstruiert sein, dass sie Sicherheit gewährleisten. Als vom Menschen gefertigte Artefakte vermitteln sie die Illusion von Emotionen und Absichten. Diese sollen nicht dazu genutzt werden, um Menschen auszunutzen: die maschinelle Natur der Roboter soll transparent sein. Zum Schluss soll die rechtliche Verantwortung für einen Roboter den Menschen zugeordnet werden (EPSRC 2010). Operto deniert Roboterethik in Anlehnung an Veruggio als eine angewandte Ethik, die es zum Ziel hat, wissenscha liche, kulturelle und technische Werkzeuge für die Gesellscha zu entwickeln. Diese Instrumente dienen einerseits dazu, die Entwicklung der Robotik in jene Richtung zu fördern, die der Gesellscha und dem einzelnen Individuum nützt und andererseits dazu, den abusiven Gebrauch zu verhindern. Diese Denition impliziert, dass die Robotik und ihre Anwendungen der moralischen Beurteilung und dem menschlichen Eingri unterliegen (Operto 2011: 76). Abney bezeichnet Roboterethik als einen Begri, der Verwirrung sti en kann. Es scheint, als wäre die Roboterethik ein Fachgebiet ohne Studienobjekt. Er stellt fest, dass in der au ommenden Literatur dem Begri Roboterethik drei

28 verschiedene Bedeutungen zugesprochen werden. Dabei sind die ersten zwei Ansätze real, der dritte Ansatz ist bis heute nur in der Science-Fiction zu verorten. Erstens kann der Begri Roboterethik die Berufsethik von Robotikerinnen und Robotikern bezeichnen. Die zweite Bedeutung beschreibt Roboterethik als moralischen Code, der in den Roboter einprogrammiert ist und dem die Maschine gehorcht. Als dritte Bedeutung nennt Abney die selbstbewusste Fähigkeit des Roboters, einen eigenen moralischen Code zu entwickeln und nach diesen zu handeln (Abney 2011: 35). Nach Veruggio, Solis und Van der Loos stimmt die erste Denition mit dem Konzept der Roboterethik als angewandter Ethik überein, da dort versucht wird, Antworten auf neue Fragen zu geben, die durch den Fortschritt eines wissenscha lichen und technischen Feldes entstehen (Veruggio/Solis/Van der Loos 2011: 21). De Asís Roig sieht es ähnlich und bezieht den Begri Roboterethik auf eorien, die ethische Fragen in Bezug auf die Entwicklung und den Einsatz von Robotern aufgreifen. „In principle, it is the ethics of those who create and use robots.” (De Asís Roig 2014: 4). Bezogen auf diese erste Bedeutung stellt Abney die Frage, ob Roboterethik einfach die Suche nach einer Liste von Regeln ist, der alle Robotikerinnen und Robotiker in ihrer Arbeit folgen. Handeln dann alle, die sich an die Regeln halten, automatisch moralisch und jene, die sie brechen, automatisch unmoralisch? „Or is it perhaps the search for the rules that will produce the best future net consequences for society (rule-utilitarianism)?” (Abney 2011: 37f). McCauley nennt als Möglichkeit eine Art Hippokratischen Eid, den er ‚Roboticist’s Oath‘ nennt (McCauley 2007: 162). Auch Bill Joy schlägt diese Richtung ein und schreibt in einem Artikel: „Verifying compliance will also require that scientists and engineers adopt a strong code of ethical conduct, resembling the Hippocratic oath.” (Joy 2000: o.S.). Nach McCauley müssen die Menschen, die an der Entwicklung und Erforschung intelligenter Maschinen beteiligt sind, sich persönlich verpichten, für ihre Kreationen Verantwortung zu übernehmen. Angelehnt an den Hippokratischen Eid formuliert er folgende Neufassung für Robotikerinnen und Robotiker beziehungsweise KI-Forscherinnen und -Forscher:

„I swear to fulll, to the best of my ability and judgment, this covenant: I will remember that articially intelligent machines are for the benet of society and will strive to contribute to that society through my creations. Every articial intelligence I have a direct role in creating will follow the spirit of the following rules:

29 1. Do no harm to humans either directly or through non-action. 2. Do no harm to myself either directly or through non-action unless it will cause harm to a human. 3. Follow the orders given me by humans through my programming or other input medium unless it will cause harm to myself or a human. I will not take part in producing any system that would, itself, create an articial intelligence that does not follow the spirit of the above rules.” (McCauley 2007: 162).

McCauley führt als übergreifende Intention des Eids an, den Wissenscha lerinnen und Wissenscha lern ein Gefühl von Verbundenheit und Verantwortung der Menschheit gegenüber zu vermitteln. „In essence, any AI Researcher or Roboticist should understand the intent of the three rules and make every reasonable eort to implement them within their creations. e rules themselves are essentially a reformulation of Asimov’s original.” (McCauley 2007: 162f). Das wohl bekannteste und am häugsten zitierte Beispiel einer Robotermoral, auf das sich McCauley hier bezieht, stammt aus der Science-Fiction: die Robotergesetze von Isaac Asimov. In der Kurzgeschichte ‚Runaround‘ (1942) formulierte er diese Gesetze, die heute noch als Orientierung in vielen Science- Fiction-Geschichten dienen. Auch wenn sie technisch nicht umsetzbar sind, sind sie literarisch gesehen eine funktionale Lösung (Ruge 2012: 54; Friedrich 2004: 128), die in fast jeder Publikation zu Robotern und Ethik zitiert wird: 1. „a robot may not injure a human being, or, through inaction, allow a human being to come to harm“, 2. „a robot must obey the orders given it by human beings except where such orders would conict with the First Law”, 3. „a robot must protect its own existence as long as such protection does not conict with the First or Second Laws” (Asimov 1990: 126). Später fügte Asimov das nullte Gesetz hinzu, das die Roboter dazu verpichtete, die gesamte Menschheit zu schützen (Ruge 2012: 54): „A robot may not injure humanity or, through inaction, allow humanity to come to harm.” (De Asís Roig 2014: 6). Die zweite Bedeutung des Begris Roboterethik nennen Veruggio, Solis und Van der Loos entweder ‚robot ethics‘ oder ‚machine ethics‘. Sie bezeichnen diese Ethik treend als Verhaltenskodex, den die Konstrukteure der KI einbauen. „is means a sort of articial ethics able to guarantee that autonomous robots will exhibit ethically acceptable behavior in all situations in which they interact with human beings.” (Veruggio/Solis/Van der Loos 2011: 21). Einige Forscherinnen und Forscher, darunter auch Rafael Capurro, bevorzugen

30 es, den zweiten und dritten Ansatz begriich zu unterscheiden. Den in Robotern einprogrammierten moralischen Code nennt er Robotermoral. Den Begri Roboterethik verwendet Capurro für die selbstbewusste, freiwillige Übernahme eines Ethikcodes von Seiten der Roboter selbst. In anderen Werken ndet man für diese beiden Ansätze den Begri ‚Maschinenmoral‘ (Capurro 2009 o.S., zit.n. Abney 2011: 35). Im Artikel ‚European Civil Law Rules in Robotics’ unterscheidet Nevejans zwischen Ethik in der Robotik und Maschinenethik. Maschinenethik deniert sie als „a theoretical state since even autonomous robots are incapable of taking moral decisions” (Nevejans 2016: 20). Die dritte Bedeutung nennen Veruggio, Solis und Van der Loos ‚robot’s ethics‘. Damit bezeichnen sie die Ethik, die aus der subjektiven Moral eines hypothetischen Roboters entspringt, der ein Gewissen und die Freiheit hat, sein Handeln auf der Grundlage eigener Entscheidungen zu wählen. In diesem Fall wäre der Roboter auch ein ‚moral agent‘, der über Verantwortung und Rechte verfügt (Veruggio/Solis/Van der Loos 2011: 22). Diese Tatsache ist zum aktuellen Zeitpunkt natürlich nur spekulativ. Eine eindeutige Denition für den Begri Roboterethik gibt es nicht, da die Entwicklung in diesem Bereich gerade erst begonnen hat und der Terminus mehrere, sich wandelnde Gebiete einschließt. „It is, therefore, clear that roboethics is a work in progress, susceptible to further evolution as the events unroll in our technical and scientic future.” (Veruggio/Solis/Van der Loos 2011: 22). Die dargestellten Begrisvariationen werden auch nicht einheitlich verwendet. Für die vorliegende Arbeit wird die erste Ebene, die die Wissenscha lerinnen und Wissenscha ler betri , Robotik-Ethik genannt. Ist von einem dem Roboter einprogrammierten Verhaltenskodex die Rede, wird dieser als Robotermoral bezeichnet. Als Roboterethik wird die subjektive Moral des Roboters beschreiben. Seit einiger Zeit hat das ema im Wissenscha sbereich Aufmerksamkeit bekommen und es wurde einige Werke zur ematik publiziert. 2011 veröentlichten Lin, Berkley und Abney ein wichtiges Sammelwerk. In ihrem Buch ‚Robot Ethics‘ vereinen sie alle Bereiche: von Programmdesign bis Militär, von Religion bis Gesundheitswesen, von Psychologie bis Roboterrecht (vgl. Lin/Abney/Bekey 2011). Im November erschien das Sammelwerk ‚Robot Ethics 2.0‘, das auf neue emen und Entwicklungen eingeht (vgl. Lin/Abney/ Jenkins 2017). Aber warum dieser plötzliche Aufschwung? Während die USA

31 den Markt für militärische Robotik dominieren, sind Länder wie Japan oder Südkorea wegweisend für die Entwicklung sozialer Robotik (Lin 2011: 6). Nach Lin sind in einigen Ländern Roboter bereits heute ein Ersatz für Menschen, im wahrsten Sinne des Wortes. Als Beispiel nennt er Japan, wo die ältere Bevölkerung wächst und die Geburtenzahlen sinken. Das demograsche Ungleichgewicht wird durch Roboter kompensiert. Lin führt zusätzlich an, dass Länder mit einer ähnlichen Demograe, wie beispielsweise Italien, voraussichtlich mehr Robotik in ihre Gesellscha einführen werden (ebd. 2011: 6). Die ersten europäischen Bestreben einer Roboterethik stammen aus Italien. 2006 entwickelte Veruggio ‚e rst roadmap for robotics development’ (vgl. Veruggio 2006). Von 2005 bis 2008 arbeiteten unterschiedliche Organisationen am ‚ETHICBOTS‘-Projekt (Nakada 2011: 76f) und das Europäische RoboLaw-Konsortium für Ethik in der Robotik veröentlichte seine ersten ethischen und rechtlichen Empfehlungen als ‚Guidelines for regulating Robotics‘ (vgl. RoboLaw 2012). Durch die genannten Beispiele wird deutlich, dass sich in Europa eine Reihe von Konferenzen und Projekte mit dem ema Roboterethik befassen. In den vergangenen Monaten wurde auch im Europäischen Parlament am ersten EU-weiten Robotergesetz gearbeitet. In einem Interview betonte EU-Abgeordnete Mady Delvaux: „Europa zeichnet sich im Bereich der Robotik und der künstlichen Intelligenz besonders aus. Wollen wir jedoch Spitzenreiter bleiben, so müssen wir über gemeinsame europäische Regelungen verfügen.“ (Europäisches Parlament 2017). Am 16. Februar 2017 kam es zur Plenarabstimmung im Europäischen Parlament, bei dem mit 451 gegen 138 Stimmen, bei 20 Stimmenthaltungen, eine Entschließung mit Empfehlungen zu zivilrechtlichen Robotervorschri en verabschiedet wurde. Im oziellen Bericht schlägt das Parlament eine Charta vor, die aus einem Verhaltenskodex für Robotikerinnen und Robotiker, einem Kodex für Forschungsethik-Kommissionen und aus Musterlizenzen für Konstrukteurinnen und Konstrukteure beziehungsweise Anwenderinnen und Anwender besteht (Europäisches Parlament 2017). „e code should be based on the principles of benecence, non-malecence, autonomy and justice. Researchers and designers were asked to act responsibly and bear in mind the need to respect, dignity, privacy, and human safety.” (Europäisches Parlament 2017). Viele Publikationen legen ihren Schwerpunkt auf den Militärbereich und die naheliegende Entwicklung selbstfahrender Autos. Zur Ethik über Mensch- Roboter-Interaktionen sowie humanoiden Robotern wurde vergleichsmäßig

32 wenig publiziert. Wenn, dann sind es spekulative Beiträge, da die technischen Entwicklungen im Bereich künstlicher Agenten mit einer starken KI noch am Anfang stehen. Vom Roboter als ‚moral agent‘ sind wir noch weit entfernt. Man kann aber davon ausgehen, dass dieser Bereich, wenn es so weit sein wird, noch komplexere Diskussionen hervorrufen wird. Ein Feld, in dem ethische Fragestellungen aus diesem Bereich bereits gestellt werden, ist die Science- Fiction. Das Medium Film bietet die Möglichkeit, Szenarien und Lösungen auszuprobieren. Aus diesem Grund wird in der qualitativen Analyse dieser Arbeit ein Blick auf die Behandlung des emas Roboterethik in ausgewählten Filmbeispielen geworfen. Bevor jedoch in das ema Roboterethik im Film eingetaucht werden kann, werden im folgenden Kapitel das Forschungsdesign und die Forschungsmethoden der Empirie präsentiert.

33 3 Forschungsdesign und Forschungsmethoden

Warum braucht man eine Filmanalyse? Müssen Filme analysiert werden? Diese Fragen stellt Faulstich in seiner Publikation. Er schreibt, dass Filme nicht analysiert werden müssen. Man kann Filme als Zeitvertreib sehen, als reine Unterhaltung. Man kann Filme mit all ihren spontanen Eindrücken erleben und muss sich im Nachhinein keine großen Gedanken darüber machen. Aber Filme können analysiert werden. Wissenscha lerinnen und Wissenscha ler, die sich mit Film auseinandersetzen, systematisieren ihr Nachdenken über den Film, re ektieren gezielt, rational, nachvollziehbar; kurz, sie analysieren ihn (Faulstich 2002: 20). „Es besteht also ein grundsätzlicher Unterschied erstens zwischen dem emotionalen Erleben eines Films […] und zweitens der systematischen, methodisch re ektierten, analytischen Beschä igung mit dem Film.“ (ebd. 2002: 20). Nach Faulstich kann der Spiel lm als komplexes ästhetisches Produkt gesehen werden, sozusagen als Literatur. Er stellt als Einzelmedium ein genauso passendes Analysematerial dar wie andere Einzelmedien, wie zum Beispiel Bücher, das Radio, die Zeitung oder der Fernseher (ebd. 2002: 20). Aber was geschieht, wenn Filme Gegenstand einer Analyse werden? Bei der Analyse setzt man sich nach Mikos systematisch, methodisch kontrolliert und re ektiert mit dem Material auseinander (Mikos 2005: 460). Dies ermöglicht laut Akremi, „den Sinn, die Intention oder die vermittelte Botscha des Filmes […] zu rekonstruieren“ (Akremi 2016: 151). Dabei betont sie, dass die Wissenscha nicht unbedingt Dinge in Filmen entdeckt, die Alltagskonsumentinnen und -konsumenten verborgen bleiben. Der Unterschied ist das Vorgehen nach bestimmten Kriterien: Es muss eine Methode geben, d.h. die Analyse soll systematisch und nachvollziehbar sein. Nach Reichertz und Englert ist eine konkrete Fragestellung das Um und Auf der Analyse und dient während des gesamten Deutungsprozesses als Richtwert. Die beiden beschreiben die Gefahr, das Neue mit dem altbekannten Blick zu sehen – ein Risiko, das bei jeder Analyse au reten kann. Bei der Interpretation der Daten ist es wichtig, o en

34 für das Neue zu bleiben. Oenheit heißt, das Untersuchungsfeld nicht mit xen Hypothesen zu überziehen. Es schließt jedoch nicht aus, sich im Vorfeld über den Untersuchungsgegenstand zu informieren (Reichertz/Englert 2011: 13). Reichertz und Englert präzisieren diese Position indem sie feststellen: „Wer dumm an die Forschung herangeht, bleibt dumm.“ (ebd. 2011: 13). Bereits zu Beginn der Forschung muss die Frage gestellt werden: Welches Forschungsdesign ist am besten geeignet, die Forschungsfrage so gut wie möglich zu beantworten? Burzan deniert das Forschungsdesign als ein „übergreifender Forschungsplan, der das Ziel der Untersuchung und ein grundsätzliches Konzept des weiteren Vorgehens bestimmt“ (Burzan 2015: 38). Es umfasst also die Entscheidungen darüber, wie im empirischen Teil der Arbeit vorgegangen wird. Bei der Entwicklung des Forschungsdesigns der vorliegenden Arbeit war die Vorstellung bereits sehr klar, welche Arten der Datenerhebung eingesetzt werden sollten. In einem sehr frühen Arbeitsstadium wurde beschlossen, mit einem Methodenmix aus quantitativer und qualitativer Analyse zu arbeiten. Wie bereits in der Einleitung geschildert, erfüllt die quantitative Analyse den Zweck, einen Überblick über die ausgewählten Filme im Zeitraum von 1990 bis 2017 zu schaen. Bei der qualitativen Analyse der drei Filme liegt der Fokus auf der forschungsleitenden Frage mit dem Ziel, aufzuzeigen, welche ethischen Aspekte in den Filmen dargestellt werden. Um die Forschungsfrage aus verschiedenen Blickwinkeln zu beleuchten, wurde dem empirischen Teil der Arbeit ein triangulatives Forschungsdesign zugrunde gelegt. Wie Kelle in seiner Publikation darstellt, kann der „Streit zwischen der quantitativen und der qualitativen Methodentradition der empirischen Sozialforschung“ (Kelle 2008: 9) auf eine lange Geschichte zurückblicken. Auf diesen „Krieg der Paradigmen“ (ebd. 2008: 9), wie er ihn nennt, wird hier nicht genauer eingegangen. Interessant ist jedoch seine Feststellung, dass ungeachtet dessen quantitative und qualitative Methoden häug zu einem erfolgreichen Forschungsdesign kombiniert werden (ebd. 2008: 9). Auch Burzan sieht in der Verknüpfung von Methoden die Möglichkeit, „den Forschungsgegenstand noch breiter, tiefer, aus verschiedenen Perspektiven und mit größerer Sensibilität für die Grenzen der jeweiligen Methoden zu erschließen.“ (Burzan 2015: 123). Für dieses Vorgehen nden sich in der Literatur verschiedene Bezeichnungen. Treumann nennt neben dem Methodenmix die Termini Mixed Methods, Methodenkombination und Triangulation (Treumann 2005: 209). Der Begri

35 Triangulation wurde von Denzin in den 1970er Jahren geprägt und hat seinen Ursprung in der Landvermessung und Geodäsie. Dort wurde er folgendermaßen deniert: „Triangulation is the method of location of a point from two others of known distance apart, given the angles of the triangle formed by the three points.” (Clark 1951: 145, zit.n. Flick 2008: 11). Die metaphorische Verwendung dieses Begris kann nach Treumann dahingehend gedeutet werden, dass er die Honung wiederspiegle, durch den Einsatz verschiedener Methoden, zu besseren Ergebnissen zu kommen (Treumann 2005: 209). Nach Flick bezeichnet der Begri, vereinfacht ausgedrückt, die Betrachtung des Forschungsgegenstandes von mindestens zwei unterschiedlichen Punkten. Dies werde durch die Verwendung unterschiedlicher Methoden realisiert (Flick 2008: 11). Mit Bezug auf Denzin unterscheidet Treumann verschiedene Strategien der Triangulation: Daten-, Forscher(innen)-, Methoden-, eorien- und Interdisziplinäre Triangulation (Treumann 2005: 210f). Wie auch Kelle feststellt, erweisen sich Methodenkombinationen in der Empirie o als „äußert fruchtbar und theoretisch stimulierend“ (Kelle 2008: 9). Er führt den Gedanken weiter und argumentiert, dass quantitative und qualitative Methoden in einer Wechselbeziehung ihre Stärken und Schwächen gegenseitig ausgleichen können und sich somit gegenseitig ergänzen (ebd. 2008: 296f). Abgestimmt auf das Erkenntnisziel dieser Arbeit kam bei der empirischen Untersuchung folgende Methodentriangulation zum Einsatz: Die zentrale empirische Komponente bildet die qualitative Filmanalyse am Beispiel von drei ausgewählten Filmen. Vor der qualitativen Analyse wurde eine quantitative Datenbankanalyse durchgeführt. Diese half, einen Überblick zu generieren und die qualitative Analyse vorzubereiten. Als Plattform zur Datenerhebung für die quantitative Analyse fungierte die Onlinedatenbank Internet Movie Database (IMDb). Um das Korpus für die quantitative Überblicksanalyse zu generieren, wurde eine Keyword-Suche durchgeführt. Details zum genaueren Vorgehen werden im Kapitel 4.2 dargestellt. Wie Burzan argumentiert, ist das Ziel einer empirischen Forschung die Beschreibung und Erklärung von Zusammenhängen. Dabei bilden bei der quantitativen Forschung möglichst viele Untersuchungsfälle die Basis. Dadurch können Muster erkannt und im Anschluss dargestellt werden (Burzan 2015: 22). Auch Witt stellt fest, dass durch das standardisierte Vorgehen des Datengewinns die Voraussetzung geschaen werde, die Daten miteinander zu vergleichen

36 (Witt 2001: o.S.). Bei der quantitativen Überblicksanalyse wurden insgesamt 247 Filme aus dem Zeitraum von 1990 bis 2017, die im Voraus festgelegte Kriterien erfüllten, untersucht. Mit Hilfe statistischer Verfahren wurden die generierten Daten ausgewertet. Witt betont, dass das lineare Vorgehen in diesem Fall wesentlich sei. Nur wenn während der Durchführung der Untersuchung keine Modikation stattnde, könne eine Vergleichbarkeit der Daten generiert werden. Diese sei wiederum Voraussetzung dafür, die Daten rechnerisch auszuwerten (ebd. 2001: o.S.). Während bei quantitativen Methoden die Herausarbeitung von Mustern durch die Analyse vieler Fälle grundlegend ist, werden bei qualitativen Methoden Zusammenhänge im Kontext von Einzelfällen untersucht (Burzan 2015: 24). Dabei wird, wie Witt feststellt, zirkulär vorgegangen (Witt 2001: o.S.). Da der Forschungsgegenstand der vorliegenden Arbeit Filme sind, war, während der Entwicklung des Forschungsdesigns, die Suche nach einer geeigneten Filmanalysemethode von großer Bedeutung. Wul stellt fest, dass es für die Filmanalyse kein allgemeingültiges Rezept gibt (Wul 2006: 220). Die Methode muss immer an die Forschungsfrage adaptiert werden. Da der Fokus der Arbeit nicht optische Gestaltungsmittel sind, war schnell klar, dass eine Methode, die zu einer exzessiven Bildanalyse führt und gezielt auf Bildinterpretationsverfahren zurückgrei , nicht zielführend wäre. Der Fokus der Fragestellung liegt stärker im verbalen Part des Filmes. Das methodische Werkzeug, das sich an zwei Ansätzen orientiert, wird hier präsentiert. Für die Strukturierung des Materials wurde in Anlehnung an Peltzer und Kepplers Sequenzprotokoll vorgegangen, das sie in ihrer Publikation zur soziologischen Filmanalyse vorstellen (vgl. Peltzer/Keppler 2015). Für den weiteren Verlauf der Analyse wurde in Anlehnung an Mayrings qualitativer Inhaltsanalyse gearbeitet (vgl. Mayring 2014). Laut Mayring kann die Methode auch für Filmmaterial verwendet werden. In diesem Fall wird dieses als Text behandelt: „A direct coding of video material without referring to language is, at the moment, not possible.“ (ebd. 2014: 44). Im Folgenden wird dargestellt, welche Schritte während der Analyse durchlaufen wurden. In einem ersten Analyseschritt wurde ein Sequenzprotokoll in Anlehnung an Peltzer und Keppler angefertigt, um einen ersten Überblick über das Material zu bekommen (vgl. Peltzer/Keppler 2015). In ihrer Publikation betonen sie, dass es für keinen Film nur eine einzige korrekte Bestimmung der Sequenzen gebe, was den Forschenden eine gewisse Freiheit gibt. Wichtig sei jedoch, dass das Protokoll

37 schlüssig ist und seinen Zweck – einen Überblick zu schaen – erfüllt. Für die vorliegende Analyse wurde beschlossen, die Filme in Szenen beziehungsweise Subsequenzen einzuteilen und diese nach einem Überbegri zu gruppieren. Die einzelnen Abschnitte wurden nummeriert, die Zeiteinheiten protokolliert und im Anschluss wurde der Handlungsverlauf der einzelnen Sequenzen betitelt. Bei den Subsequenzen wurde der szenische Inhalt in Stichworten zusammengefasst. Die nächsten Arbeitsschritte orientierten sich an der qualitativen Inhaltsanalyse nach Mayring (vgl. Mayring 2014). In seiner Publikation zur Methode präsentiert er ein Schritt-für-Schritt- Modell, in dem es darum geht, die Technik der Analyse zu bestimmen und ein Vorgehensmodell zu konstruieren. Die Analyse wird in einzelne Schritte aufgelöst, die bereits im Vorfeld festgelegt werden. Diese Art des Vorgehens garantiert einen nachvollziehbaren und intersubjektiv prüaren Arbeitsprozess. Dabei betont Mayring, dass das Vorgehensmodell an das jeweilige Material und die spezischen Fragestellungen angepasst werden muss (ebd. 2014: 53). An dieser Stelle wird sein allgemeines Modell zur Orientierung präsentiert und erklärt, welche Schritte für die Analyse dieser Arbeit variiert und angepasst wurden. In einem ersten Schritt wird das Material, auf dem die Analyse basiert, genau festgelegt. Das Korpus darf sich im Idealfall während der Analyse nicht mehr verändern. Es folgt eine Beschreibung der Umstände, unter denen das Material entstanden ist. Anschließend wird die Form beschrieben, in welcher das Material existiert. Als Grundlage für die Inhaltsanalyse ist ein schri licher Text erforderlich (ebd. 2014: 56f). Der zweite Schritt bezieht sich auf die Fragestellung. Diese kann auch in Unterfragen unterteilt werden. Im Anschluss daran wird festgelegt, welche Analysetechnik angewendet wird (ebd. 2014: 58). Für die Interpretation beschreibt Mayring drei voneinander unabhängige Techniken: Zusammenfassung, Explikation und Strukturierung (ebd. 2014: 63f). Je nach Forschungsfrage und Material soll die geeignete Vorgehensweise ausgewählt werden. Basierend darauf erfolgt die Festlegung eines konkreten Ablaufmodells. Für die vorliegende Analyse wurde die Technik der Zusammenfassung ausgewählt. Als Ziel dieser Analyseart beschreibt Mayring, das Material so zu reduzieren, dass am Ende der wesentliche Inhalt erhalten bleibt. Durch Abstraktion wird ein umfassender Überblick über den Analysesto geschaen (ebd. 2014: 64). In den ersten Schritten wird das Material genau bestimmt und beschrieben (ebd. 2014: 66). Mayring bezeichnet als zentrales Element der qualitativen Inhaltsanalyse, dass der Text nicht als Ganzes interpretiert wird, sondern in Segmente unterteilt

38 wird (Mayring 2014: 51). Dieser Schritt ist für die vorliegende Analyse bereits durch die Erstellung des Sequenzprotokolls geschehen. Als nächster Schritt folgt die Paraphrasierung der einzelnen Codierungseinheiten (ebd. 2014: 66). Da die Textebene der drei Filme umfassend und nicht jede Sequenz von Bedeutung ist, wurde dieser Schritt im Sequenzprotokoll umgesetzt, indem die Handlung der einzelnen Abschnitte in Stichworten zusammengetragen wurde. Es folgt die Generalisierung der Abschnitte, bei der den einzelnen Abschnitten ein übergreifender Begri zugeordnet wird. Sozusagen ein Code, der induktiv aus dem Text gewonnen wurde. Im nächsten Schritt, der Reduktion, werden aufeinander bezogene Abschnitte zusammengefasst (ebd. 2014: 67). Für die generierten Codes wurden Überkategorien gebildet. Das daraus entstehende Kategoriensystem wird noch einmal mit dem Grundmaterial verglichen, um zu sehen, ob die Kategorien noch das Material repräsentieren (ebd. 2014: 67). Die durch Generalisierung und Reduktion entstandenen Kategorien zeigen, welche emen in den einzelnen Filmen vorkommen und für welche Sequenzen es zusätzlich interessant sein könnte, einen genauen Blick auf die Dialoge zu werfen. Mayring betont, dass man für die Verwandlung von gesprochener Sprache in Textform klare Transkriptionsregeln brauche. Für die Transkription der Filmdialoge bietet sich das ‚reine wortgetreue Protokoll‘ an. In diesem Fall erfolgt die Transkription Wort für Wort inklusive aller dialektalen Formulierungen oder Lückenfüllern (ebd. 2014: 45). Dies scheint angemessen, da der gesprochene Text kein spontanes, sondern ein bewusst gestaltetes Element im Film ist. Kommen sprachliche Unsicherheiten wie Füller oder Versprecher vor, dann erfüllen sie im Film auch einen bestimmten Zweck. Basierend auf dem entstandenen Kategoriensystem folgt der letzte Schritt der Analyse: die Interpretation. Die Ergebnisse werden hier in Richtung der Forschungsfrage interpretiert (ebd. 2014: 67). Im Anhang der Arbeit nden sich sowohl die durch die quantitative als auch die durch die qualitative Analyse generierten Materialien. Die Ergebnisse der quantitativen Analyse in Tabellenform, die für die qualitative Filmanalyse relevanten Sequenzprotokolle und die darauf auauenden Tabellen der Generalisierung und Reduktion können im gedruckten Anhang eingesehen werden. Zusätzlich generiertes Material, wie die Tabellen der quantitativen Analyse oder die gesamten Transkripte der Filmdialoge sind im digitalen Anhang auf CD beigelegt.

39 4 Roboter im Film

Als Leitmedium unserer Zeit kann zweifelsohne der Film bezeichnet werden. Doch das Medium Film ist nicht nur Unterhaltung, sondern auch ein vielseitiges Untersuchungsobjekt. Wie Kötzing schreibt, spiegelt die Welt der bewegten Bilder „die jeweiligen Rahmenbedingungen einer Gesellscha wider“ (Kötzing 2005: 2). Unterschiedlichste Gedankenspiele werden im Film bearbeitet und re ektiert: längst vergangene Ereignisse, Zeitgeschichte, Traumwelten, reale Begebenheiten, Wünsche und Zukun sszenarien. Auch in der Darstellung von Robotern und anderen künstlichen Agenten spielt der Film eine wichtige Rolle. Wie Gunzenhäuser feststellt, wird die Mensch-Maschinen-Schnittstelle bis heute über den Film und  lmische Erzähltechniken verhandelt (Gunzenhäuser 2006: 111). Der empirische Schwerpunkt dieser Masterarbeit liegt auf der Interaktion zwischen Mensch und Maschine im Film. In den folgenden Unterkapiteln wird ein allgemeiner Überblick über die  ematik gegeben. Nach einer Darstellung des aktuellen Forschungsstandes folgen die Ergebnisse der im Laufe dieser Arbeit durchgeführten quantitativen Überblicksanalyse.

4.1 Aktueller Forschungsstand

Keine andere Kunstform trug laut Ichbiah so sehr dazu bei, den Roboter in der kollektiven Vorstellungswelt zu integrieren, wie der Film. Maschinen wurden auf der Leinwand lebendig und faszinierten mit ihrer visuellen Kra die Menschen, egal ob sie das Gute oder das Böse verkörperten (Ichbiah 2005: 55). Der Science- Fiction-Film ist vorrangiges Medium für die Spekulationen über Zukun und Technik. Roboter und Filme teilen eine lange gemeinsame Geschichte. Nach Höltgen reicht die Geschichte der Roboter im Film bis in die 1920er Jahre zurück. Bereits im italienischen Science-Fiction-Film L’  (1921) agierte der Roboter als Werkzeug des Verbrechens. Nur sechs Jahre später erreichte der Roboter lm mit Fritz Langs Klassiker Mƒ (1927) einen

40 ersten Höhepunkt. Hier ndet sich im Film erstmals ein weiblicher Roboter: Die falsche Maria wurde gebaut, um die Massen zu verführen und einen Aufstand zu initiieren (Höltgen 2009: o.S.). Zu Beginn der Filmgeschichte fand man nach Seeßlen und Jung hauptsächlich das Motiv des Zauberlehrlings: „Der Mensch wird die Geister, die er rief, nicht mehr los. Er kann nicht kontrollieren, was er geschaen hat, weil er nicht kontrollieren kann, was er an unbewussten Impulsen in diese zweite Schöpfung hineinlegt.“ (Seeßlen/Jung 2003: 524f). Zu Beginn stand also das Verhältnis zwischen Schöpfer und Geschöpf im Zentrum der Geschichten, wobei die dargestellten Maschinen rein logisch denkende und gänzlich emotionslose Maschinen waren. Wie El Mesbahi in ihrem Artikel darstellt, präsentierte die Science-Fiction den Roboter bereits lange bevor es möglich war, ihn zu bauen. Dabei stehen die Filme nicht für sich allein: Ethische Belange unter Designerinnen und Designern werden durch Filme hervorgebracht und beeinussen die aktuellen Entwicklungen (El Mesbahi 2015: 591). Wie es Seeßlen und Jung passend formulieren, probieren wir „in unseren Träumen aus, wie es ist, Maschinenwesen als Brüder oder Schwestern zu haben“ (Seeßlen/Jung 2003: 525). Zur Roboterdarstellung im Film und der Interaktion zwischen Mensch und Maschine nden sich zahlreiche Publikationen. O sind es allgemein gehaltene Werke, vor allem im Bereich der Science-Fiction-Studies. Wie Ruge in seinem Buch feststellt, nden sich zur Roboterdarstellung im Film häug Einzelanalysen, o in Form von Beiträgen in Sammelwerken oder akademischen Abschlussarbeiten. Zu großen Klassikern der Science-Fiction wurde viel geschrieben. Ein ebenfalls häug bearbeiteter Schwerpunkt ist die genderorientierte Lektüre der Filme. Bei den allgemein gehaltenen Übersichtswerken sind Seeßlens und Jungs Publikation (vgl. Seeßlen/Jung 2003) und Telottes Arbeit (vgl. Telotte 1995) nennenswert. Aber auch in Zeitschri enartikeln wird man fündig. So gibt Höltgen in einem Telepolis- Artikel einen kompakten thematischen Überblick über Science-Fiction-Filme mit Robotern (vgl. Höltgen 2009). Laut Ruge traten die künstlichen Menschen im Science-Fiction-Film vor 1950 hauptsächlich als Variation des Frankenstein-Motivs auf. Ab 1950 sieht er diesbezüglich einen Wandel, was ihn dazu bewegte, seine Untersuchung im Zeitraum von 1950 bis 1999 anzulegen (vgl. Ruge 2012). Basierend auf Ruges erarbeiteter Genealogie und anderen Quellen kann gezeigt werden, wie sich die

41 Schwerpunkte in den Filmen und die Rolle der Roboter selbst über die Jahre verändert haben. Beschä igt man sich mit ihrer Rolle, wird deutlich, dass die Science-Fiction eine reiche Palette an verschiedenen Robotern unterschiedlichster Charakterisierungen und Typisierungen aufweist: Sie reicht vom Butler zur Kampfmaschine, vom Familienmitglied zur vernichtenden Masse. Man ndet keine homogene Darstellung der Figur des Roboters im Spiellm. Im Laufe der Zeit fand eine starke Veränderung statt, die sicherlich auch von den jeweiligen aktuellen kulturellen, politischen und zeitgeschichtlichen Aspekten beeinusst wurde. Kochberg tri es auf den Punkt, wenn er schreibt: „Films do not exist in a vacuum.“ (Kochberg 2012: 3). Der Film ist, wie Eingangs schon erwähnt, in gewisser Weise immer eine Reexion der Gesellscha in der er entsteht, was ihn zu einem vielschichtigen Untersuchungsobjekt macht. Im Folgenden werden die Ergebnisse aus Ruges Studie dargestellt (vgl. Ruge 2012). Die von ihm entwickelte Genealogie beginnt in den 1950er Jahren. Die Filme aus dieser Zeit zeigen das typische Muster des Roboters als „Dienende Einzelstücke“ (ebd. 2012: 91). Ruge beschreibt, dass die hier dargestellten Roboter meist geringe Menschenähnlichkeit aufweisen, woraus sich eine niedere Interaktionsqualität ergibt. Sie sind meist Einzelanfertigungen und werden als Sensation wahrgenommen, die einerseits Erstaunen und andererseits Angst hervorru . Dennoch ist das Verhältnis zwischen Mensch und Maschine in diesen Filmen friedlich charakterisiert, da die Roboter den Menschen unterworfen sind (ebd. 2012: 91f). In seiner Untersuchung nennt Ruge den Film F† Pƒ (1956) als Beispiel dafür. Der robotische Protagonist Robby erfüllt in der Geschichte hauptsächlich seine dienende Funktion. Er wird als Ding, als Stück Technik inszeniert und durch seine Funktionalität deniert. Später variiert das Muster und Roboter entwickeln sich vom dienenden Einzelstück zur dienenden Gruppen, wie im Film Sƒ R (1972). Auch die Roboter der Star Wars-Saga gehören in diese Kategorie (ebd. 2012: 97f). Ein typisches Muster der 1970er Jahre identiziert Ruge als „Unterlegene Kopien sensationeller Alltäglichkeit“ (ebd. 2012: 99). Verglichen mit dem vorangegangenen Modell sind die Roboter hier menschenähnlicher dargestellt. Im Vordergrund steht aber immer noch die Überlegenheit des Menschen. Obwohl es bei diesem Muster zu Konikten zwischen Mensch und Maschine kommt, sind diese, wie er feststellt, nur Programmierfehlern geschuldet. Wie im Beispiel W‡ƒ (1973), bei dem es nur durch einen Fehler zur

42 Auseinandersetzung kommt. In den anderen untersuchten Beispielen leben Maschinen und Menschen in einer friedlichen Koexistenz. Die dargestellten Roboter sind hier noch keine Massenprodukte, sondern immer noch eine Sensation (Ruge 2012: 99f). In den 1980ern spaltet sich die Genealogie der Roboterdarstellung in zwei Entwicklungslinien: das friedliche Zusammenleben von Mensch und Maschine und deren kriegerische Auseinandersetzung. Im friedlichen Entwicklungszweig entsteht das Muster „Sozial eingebundene Lerner kindlichen Bewusstseins“ (ebd. 2012: 110). Die Menschenähnlichkeit ist hier schon weiter fortgeschritten und die mechanischen Protagonisten verfügen über ein kindliches Bewusstsein, einen freien, individuellen Willen sowie die Fähigkeit zu lernen. Da die visuelle Erscheinung nach Ruge zwischen ähnlich und ununterscheidbar schwankt, nden sich in dieser Kategorie auch Roboter, die Gefühle empnden. Dies führt zu einer höheren Interaktionsqualität und möglichen sozialen Beziehungen zwischen Menschen und Robotern. Neben Freundscha s- und Familienbeziehungen, werden sogar Liebesbeziehungen thematisiert (ebd. 2012: 111). Neben Mˆ M. R (1987), behandeln auch die Filme A (1983) oder S C (1986) dieses ema (ebd. 2012: 120f). Seeßlen und Jung stellen fest, dass während der frühen 1980er eine wahre Computer- und KI-Euphorie herrschte, die sich auch im Film rasch verbreitete. Dadurch kam es zu einer „wahren Ination der Motive von der technischen Parallel-Schöpfung im Genre“ (Seeßlen/Jung 2003: 465). Zu dieser Zeit entstanden immer mehr Filme, die den Fokus auch auf die persönliche Beziehung zwischen Mensch und fühlende Maschine legten (ebd. 2003: 466). Die Filme der 80er, die man zu der zweiten der oben genannten Entwicklungslinie zählen kann, thematisieren eine kriegerische Auseinandersetzung zwischen Mensch und Maschine. Ruge fasst sie in der Kategorie „Gefährliche Einzelgänger“ (ebd. 2012: 122) zusammen. Während das Bewusstsein der Roboter als unterlegen dargestellt wird und sie weder über Emotionalität, Lernfähigkeit noch einen freien Willen verfügen, entwickelt sich die visuelle Ähnlichkeit zur Ununterscheidbarkeit. Im Laufe des Films werden sie aber als Maschinen enthüllt. Im Vergleich zur Entwicklung im friedlichen Zweig sind die Roboter hier weder freie Wesen, noch sind sie zu sozialen Beziehungen fähig. Sie haben keine dienende Funktion mehr,

43 sondern stehen in einem Konkurrenzverhältnis zum Menschen, was zum Kriegszustand führt. Als Beispiel nennt Ruge den o zitierten Klassiker T T (1984) (Ruge 2012: 123). Im friedlichen Zweig werden die Roboter immer menschenähnlicher und immer ö er stellt sich die Frage, was genau Menschen von Robotern unterscheidet. In der Kategorie „Begehren entwickelnde Massenproduktionen“ (ebd. 2012: 132) fasst Ruge Filme zusammen, in denen die Roboter über einen freien individuellen Willen, Lernfähigkeit und ein vom Menschen ununterscheidbares Äußeres verfügen. Das Bewusstsein der Roboter ist o kindlich und sie überwinden ihre dienende Funktion. Des Weiteren beobachtet er, dass in dieser Kategorie die Roboter o eine Hauptrolle im Film übernehmen. Außerdem sind sie keine Sensation mehr, sondern in industrieller Massenanfertigung hergestellt und somit alltägliche Produkte. In Bezug auf die sozialen Beziehungen ist der Intimitätsgrad hoch, wodurch Familien-, Freundscha s- und Liebesbeziehungen möglich sind (ebd. 2012: 133). Dieses Muster tritt vor allem gegen Ende der 1990er Jahre auf. Als Vorzeigebeispiele für diese Kategorie nennt Ruge die Filme Bƒ M (1999) und A.I. – A‰ƒ Iƒƒ (2001) (ebd. 2012: 143). Nicht nur Ruge, auch Seeßlen und Jung zitieren einen etwas älteren Film in diesem Kontext. Bereits in Bƒ R (1982) kommen die Maschinen dem Menschen näher. Sie wollen selbst Mensch sein, sie wollen nicht mehr nur eine Maschine sein, sondern zum Ich avancieren (Seeßlen/ Jung 2003: 524f). Bƒ R (1982) war seiner Zeit voraus. Die im Film als Replikanten bezeichneten künstlichen Menschen wurden sehr menschlich dargestellt. Wie Ruge feststellt, bleibt im Film die Frage, was die Replikanten noch von Menschen unterscheidet, oen (Ruge 2012: 143). In den 1990ern kam nach Seeßlen und Jung zusätzlich das ema des Ersetzens eines Familienmitglieds durch einen künstlichen Agenten auf. Auch wenn das ema bereits vorher in weniger anspruchsvollen Komödien aufgegrien wurde, wurde es zu dieser Zeit konsequenter durchgeführt (Seeßlen/Jung 2003: 468). Dieser Punkt lässt sich gut mit der von Ruge festgestellten stärkeren Menschenähnlichkeit und dem hohen Intimitätsgrad in Zusammenhang bringen (Ruge 2012: 132). Die letzte Kategorie, die den kriegerischen Parallelzweig zum vorherigen Muster bildet, ist das der „Bedrohliche[n] Massen“ (ebd. 2012: 145), welches sich aus dem Muster der gefährlichen Einzelgänger entwickelt hat. In dieser Kategorie

44 wird eine Mensch-Maschine-Dichotomie konstruiert. Die Roboter verfügen zwar über eine hohe rationale Intelligenz, haben aber noch ein unterlegenes Bewusstsein. Erstmals tritt eine Kollektivintelligenz auf, die der robotischen Masse freien Willen zugesteht, nicht aber dem einzelnen Roboter. Laut Ruge treten sie in dieser Kategorie in Massen auf und decken visuell die ganze Bandbreite ab: Neben tierähnlichen Robotern – optisch o an Meereslebewesen erinnernd –, treten Roboter auf, die äußerlich nicht von Menschen zu unterscheiden sind. Die Interaktionsqualität ist niedrig, sie emp nden keine Gefühle, erfahren keine Anerkennung und p egen keine sozialen Beziehungen. Sie haben eine ubiquitäre Alltäglichkeit erreicht und erfüllen, da sie in einem kriegerischen Verhältnis zum Menschen stehen, keine dienende Funktion mehr (Ruge 2012: 146). Als Beispiele nennt Ruge T SƒŠ (2009) und die Matrix- Trilogie (1999, 2003, 2003), bei der das Publikum auf hochintelligente, aber emotionslose Maschinen tri (ebd. 2012: 154). Ein Film, der durch seine unterschiedlichen Facetten in einigen Publikationen aufgegri en und analysiert wurde, ist I, R† (2004) von Alex Proyas. Der Film passt in zwei Muster aus Ruges Genealogie: Auf der einen Seite steht Sonny, ein Roboter mit freiem, individuellen Willen und Gefühlen. Auf der anderen Seite steht V.I.K.I., eine Kollektivintelligenz, die gefühllos die Roboter steuert und gegen die Menschen rebelliert, was in einem Kampf eskaliert. Wie Ruge beschreibt, passiert hier etwas, was neu in der Genealogie ist: „Das Wesen des Roboters wird nicht als ausschließlich gut oder ausschließlich böse dargestellt, sondern eine di erenzierte Unterscheidung zwischen verschiedenen Robotern gemacht.“ (ebd. 2012: 154).

Abb. 6: Genealogie nach Ruge

45 Ruge zeigt in seiner Publikation die wichtigsten Meilensteine in der Entwicklung der Roboter im Film von 1950 bis 1999. In anderen Quellen nden sich Parallelen und ähnliche Gedanken zu einzelnen emen seiner Publikation. Seeßlen und Jung betonen, dass in den Filmen dieser Zeitspanne drei Grundmotive au reten: Der Roboter als Parallelschöpfung, der Roboter als Gefahr und der Roboter als Außenseiter (Seeßlen/Jung 2003: 39f). Höltgen untersuchte Filme von 1970 bis in die 1990er Jahre und machte ebenfalls drei Motive aus: Den Roboter als Freund, den Roboter als Feind, und den Roboter als Sexobjekt. Auch er stellte wie Ruge fest, dass es innerhalb des ersten Motivs zu einem historischen Wandel vom Diener zum Individuum gekommen ist (Höltgen 2009: o.S.). Filme, in denen Roboter als Freunde des Menschen agieren und diesen Status im gesamten Filmverlauf beibehalten, bilden nach Höltgen die Minderheit. Als Paradebeispiel für diese Entwicklung lässt sich der Film Bƒ M (1999) zitieren. Basierend auf Isaac Asimovs gleichnamiger Erzählung wird in ihm „die Entwicklungsgeschichte eines Serviceroboters von der bloßen Dienstleistungsmaschine hin zu einer Person beschrieben“ (Höltgen 2009: o.S.). Roboter, die als Freunde des Menschen programmiert werden, agieren nach Höltgen meist in den Rollen Diener oder Sklave (ebd. 2009: o.S.). Im bereits genannten Film S C (1986) gelangt der Militärroboter ‚Nummer Fünf‘ durch einen Blitzschlag zu Selbstbewusstsein und geht im Laufe des Films eine freundscha liche Beziehung zu Menschen ein. Höltgen argumentiert, dass Fehlfunktionen jedoch häug Situationen auslösen, in denen sich Roboter gegen Menschen wenden. Wie Ruge nennt er in diesem Zusammenhang den Film W‡ƒ (1973), in dem sich die Roboter eines Freizeitparks gegen die Parkbesucher wenden und sich, wie in einem Sklavenaufstand, gegen ihre Unterdrücker erheben (ebd. 2009: o.S.). Roboterzivilisationen und Roboteraufstände gehören laut Friedrich „zu den exotischen Motiven, die auf den Untergang ihrer Erbauer, das Ende von Geschichte verweisen“ (Friedrich 2004: 132). In vielen Filmen werden negative Utopien dargestellt. Seeßlen und Jung beschreiben, dass dies auf dem Hauptproblem basiere, dass Menschen und Maschinenmenschen nicht mehr so klar voneinander unterschieden werden können. Aus der Angst selbst überüssig zu werden, entwickelt sich die Angst vor den Robotern selbst. Ein weiterer Aspekt ist die Angst vor dem Maschinellen im Menschen. Daraus resultieren zwei negative Utopien, die das Zusammenleben von Mensch und Maschine betreen:

46 Erstens könnten Maschinen die Weltherrscha anstreben und durch ihre größere Widerstandsfähigkeit und Intelligenz die Macht übernehmen. Zweitens könnten sie sich durch ihre Menschenähnlichkeit unter die Menschen mischen und diese schrittweise ersetzen (Seeßlen/Jung 2003: 523). Den Grund für diese Ängste lasse sich nach Friedrich mit der Überlegenheit der Maschine gegenüber dem Menschen in Verbindung setzen. Der Roboter ist „langlebig, aufgrund von Selbstreparaturalgorithmen tendenziell unsterblich, aufgrund von technischer Optimierung perfektibilisiert“ (Friedrich 2004: 132). Während, nach Ruge, in den 50ern der Roboter noch der Gegenpart zum Menschen war, wird ab den 80ern die Dierenz zwischen Mensch und Maschine immer subtiler. Bezüglich der Menschenähnlichkeit wird allgemein deutlich, dass mit steigender Perfektion der Roboter die Frage nach der Unterscheidung von Mensch und Maschine immer schwerer wird. Friedrich betont, dass das Entstehen einer komplexen Maschine mit Bewusstsein zu vielen Fragen führen würde. Entscheidend sei dabei die äußere Gestalt der Maschine. Handle es sich um eine nicht-humanoide Maschine, sei sie unverkennbar kein Mensch und führe zu anderen Fragestellungen als humanoide Roboter (ebd. 2004: 135). Filme bieten das Potenzial, die Grenze zwischen Mensch und Maschine zu reektieren, humanoide Roboter und Androide geben den Anlass für ethische und anthropologische Reexionen. Bevor die vorliegende Arbeit in der qualitativen Analyse auf solche Fragen eingehen wird, wird im folgenden Kapitel noch ein genauerer Blick auf die Filme von 1990 bis 2017 geworfen. In einer quantitativen Überblicksanalyse wird basierend auf den vorherigen eoriekapiteln und dem aktuellen Forschungsstand untersucht, welche Arten von künstlichen Agenten in den Filmen dieser Zeit au auchen und welche Rolle sie spielen. Zum besseren Verständnis wird der Begri Agent hier kurz geklärt. In der Literatur lassen sich zum Begri unterschiedliche Denitionen nden. Als Arbeitsdenition für diese Arbeit gilt die Agentendenition von Russell und Norvig: „An agent is anything that can be viewed as perceiving its environment through sensors and acting upon that environment through eectors.” (Russell/ Norvig 1995: 31). Ein Agent kann nach ihnen menschlich oder künstlich sein (ebd. 1995: 31) und kann als Wesen gesehen werden, das in der Lage ist seine Umgebung wahrzunehmen und in ihr selbstständig zu agieren (ebd. 1995: 49). Der Fokus der quantitativen Analyse liegt auf den vier Motivvarianten, die auch Friedrich in der Darstellung der Mensch-Maschinen-Interaktion in der

47 Science-Fiction nennt: Roboter, Androiden, Cyborgs und Künstliche Intelligenz (Friedrich 2004: 125). Die quantitative Analyse diente im Arbeitsprozess dieser Masterarbeit als Instrument, um einen Überblick über die Filmpublikationen zu bekommen und so die einzelnen Filme für die qualitative Analyse auszuwählen.

4.2 Quantitative Überblicksanalyse

Für die quantitative Analyse wurde mit der Onlinedatenbank Internet Movie Database (IMDb) gearbeitet. Gewählt wurde diese Datenbank, da sie das älteste und bekannteste online zugängliche Archiv ist. Auf der Webseite werden Daten von Kino-, Video- und Fernsehlmen, Serien, aber auch Computerspielen gesammelt. Dies macht IMDb.com für die folgende Arbeit interessant. Im folgenden Teil werden die einzelnen Arbeitsschritte der quantitativen Analyse kurz erläutert und im Anschluss die erzielten Ergebnisse dargestellt und interpretiert. Auf IMDb.com kann nicht nur nach Filmen, Personen oder Film-Charakteren gesucht werden, es gibt auch die Möglichkeit, nach Keywords zu suchen und die Suche durch bestimmte Parameter einzuschränken. In einem ersten Schritt wurde für die Analyse eine Keyword-Suche durchgeführt. Die Datenbank wurde nach Filmen mit den Schlüsselbegrien ‚Robot’, ‚Android’, ‚Cyborg’, ‚Articial Intelligence’ und ‚Humanoid’ durchsucht. Um die Treer den erwünschten Ergebnissen anzupassen, wurde als Einschränkung der Zeitraum zwischen 1990 und 2017 gewählt. Zudem wurden die Suche auf die Kategorie ‚Feature Film’ eingeschränkt, da TV-Filme, Serien und Video Games nicht berücksichtigt werden sollten. Diese erste Suche ergab 781 Treer. Nachdem die mit unterschiedlichen Keywords mehrmals vorkommenden Filme ausgesondert wurden, wurden die Filme geograsch aussortiert. Alle asiatischen Produktionen wurden aus der Auswahl gestrichen. Diese Entscheidung wird damit begründet, dass wie bereits erwähnt, davon auszugehen ist, dass der Zugang zum ema Robotik im asiatischen Raum ein anderer ist als im Westen. Nach Veruggio äußert sich dies in den unterschiedlichen Schwerpunkten der Geschichten über Roboter (Veruggio 2006: 23). Während in der europäischen Literatur seit jeher Rebellionen, Missbrauch und die böse Verwendung der künstlichen Menschen eine zentrale Rolle einnehmen, enthält zum Beispiel die japanische Tradition kein solches Paradigma. Sie erzählen von positiven, nutzbringenden und menschenfreundlichen Maschinen (ebd. 2006: 23). Deshalb wird der Fokus

48 in dieser Arbeit auf westliche Filmproduktionen gelegt. Ebenfalls gestrichen wurden Animations lme und Zeichentrick lme, da der Fokus der Analyse auf Real lmen liegt. Von den 335 Filmen, die darau in in Betracht gezogen wurden, erfüllten 247 Filme die für die quantitative Analyse relevanten Kriterien. In ihnen kamen künstliche Agenten wie Roboter, Cyborgs oder Künstliche Intelligenzen vor. Die Ergebnisse in Zahlenform  nden sich im Anhang der Arbeit. Da durch die Analyse eine große Menge an Material entstanden ist, wird dieses im digitalen Anhang auf CD beigelegt. Jede Au istung dieser Art muss aufgrund der Vielfalt an Filmen lückenha bleiben. Die Analyse schließt nur die Filme ein, die die Keyword-Suche hervorgebracht hat. Bei den analysierten Filmen reicht das Spektrum von Hollywoodblockbustern zu Low-Budget-Produktionen. Die Kategorienbildungen und Einstufungen wurden nach Parametern und Interpretationen vorgenommen, die trotz wissenscha licher Fundierung auch subjektiv gefärbt sein können. Die folgenden Daten erheben aus diesen Gründen keinen Anspruch auf Vollständigkeit.

Abb. 7: Gra k - Anzahl Filme

Auf dem Diagramm lässt sich die Anzahl der Filme über den untersuchten Zeitraum ablesen. Die meisten Filmverö entlichungen mit Robotern, Cyborgs und künstlichen Intelligenzen als künstliche Agenten,  nden sich im Jahr 2017 mit 16 Filmen. Ebenfalls starke Jahre waren 2015 und 1995 mit jeweils 15 Filmen. Die schwächsten Jahre sind 2000 mit zwei und 2006 mit drei Filmen. Das Interesse ist in den 90er Jahren etwas stärker, geht von 2000 bis 2008 wieder sehr zurück und steigt seit 2011, mit Ausnahme von 2016, wieder konstant an. In einem ersten Analyseschritt wurden die Filme nach unterschiedlichen Arten von künstlichen Agenten durchsucht. Dabei wurden die humanoiden Roboter in ,humanoid mechanisch‘ und ,Android ‘ aufgeteilt. Daneben  nden sich die Kategorien Cyborg, mechanischer Roboter, KI, Exoskelett und Mecha.

49 Wie im Kreisdiagramm zu erkennen ist, treten in den Filmen insgesamt 42% humanoide Roboter auf. Dabei halten sich humanoid mechanische Roboter mit 22% und humanoid menschliche Roboter, also Androide, mit 20% fast die Waage. 24%, also fast ein Viertel der dargestellten künstlichen Agenten, sind Cyborgs. Mechanische Roboter sind mit 13% nur minimal stärker vertreten als Künstliche Intelligenzen mit 12%. Exoskelette und Mechas machen zusammen Abb. 8: Gra k - Arten von künstlichen Agenten nur rund 9% aus und bilden den schwächsten Zweig. Allgemein lässt sich feststellen, dass im Laufe der Jahre die Artenvielfalt der künstlichen Agenten gestiegen ist, wie auch die Gra k unten illustriert. Während sich die Filme in den 90ern meistens auf humanoide Roboter, Androide und Cyborgs beschränkten, sind die künstlichen Agenten ab Mitte der 2000er immer häu ger gemischt. Ebenfalls  ndet sich nicht mehr bloß ein künstlicher Agent als zentrale Figur im Film, sondern mehrere künstliche Agenten verschiedener Arten und in unterschiedlichen Rollen. In einigen Filmen treten Roboter zusätzlich als dekorative Elemente auf, um ein futuristisches Ambiente zu unterstreichen. Diese Roboter wurden in der Auswertung nicht zusätzlich gezählt. So sieht man in EŠ (2011) in einigen Einstellungen verschiedene Arten von Haushaltsrobotern auf der Straße oder bei G.I. J – T R ‰ C† (2009) Roboter sche, die durch das Meer schwimmen. Diese erfüllen einen rein dekorativen Zweck beziehungsweise illustrieren die Zeit und Welt, in der die Geschichte spielt.

Abb. 9: Gra k - Arten nach Jahren Im nächsten Schritt wird explizit auf die verschiedenen Arten der künstlichen Agenten eingegangen und die wichtigsten Ergebnisse der Analyse werden zusammengefasst dargestellt. Alle folgenden Zahlen und Beispiele beziehen sich auf die Ergebnisse der quantitativen Überblicksanalyse, die im digitalen Anhang in Tabellenform zu nden sind.

4.2.1 Humanoider Roboter Die wohl konstanteste Roboterart, die über die Jahre vorkommt, sind humanoide Roboter, die in Kapitel 2.1 genauer deniert wurden. Sie bilden mit 42% auch die Mehrheit der künstlichen Agenten in der Recherche. Die Ergebnisse der Analyse wurden in zwei Untergruppen eingeteilt, die sich in ihrer optischen Darstellung unterscheiden: einerseits humanoid menschliche Roboter, also Androide und andererseits humanoid mechanische Roboter. Von 1990 bis 2004 spielten humanoid mechanische Roboter eine eher untergeordnete Rolle in Filmen. Am häugsten traten Androiden auf, die optisch nicht von Menschen zu unterscheiden sind. Es wird angenommen, dass die Darstellung menschlicher Roboter durch Schauspielerinnen und Schauspieler weniger Kosten verursacht als eine vergleichsweise teurere und zudem weniger realistische Animation. Dies betri vor allem die älteren Filme. Vielleicht spielt die Verwendung von Androiden auch mit der Angst, Roboter könnten eines Tages äußerlich nicht mehr vom Menschen unterschieden werden. Ab 2005 beginnt die Anzahl humanoid mechanischer Roboter zu steigen. In neueren Filmen tauchen ebenfalls mehr humanoid mechanische Roboter auf, die in den meisten Fällen animiert sind. Durch die schnelle Entwicklung der Animationstechnik in den letzten Jahren sehen diese Roboter zusehend realistischer aus. Auf der optischen Ebene können bei den humanoid mechanischen Robotern Untergruppen gebildet werden. In einigen Filmen nden sich klassische, blechartige Roboter, die an die Roboter der 50er Jahre erinnern. Sie stellen den typischen, durch die Populärkultur im kollektiven Gedächtnis verankerten Roboter dar, den auch ein Kind zeichnet, wenn es gebeten wird, einen Roboter aufs Papier zu bringen. Bei den meisten Filmen, in denen diese Art vorkommt, handelt es sich um Komödien oder Familienlme: L  S (1998), Sˆ H (2005), Z: A S AŠ (2005), T M (2011), M L‰  Pƒ B (2012) oder S S ‹Œ (2014). O stellen sie explizit Spielzeugroboter dar. In anderen Fällen passt

51 das blechartige und nicht zu realistische Design zur komödiantischen oder kinderfreundlichen Handlung.

Abb. 10: My Life on Planet B (2012) Abb. 11: Zathura: A Space Adventure (2005) Abb. 12: Sky High (2005)

Eine andere Kategorie wird unter dem Sammelbegri ‚Kindchenschema‘ zusammengetragen, da die Proportionen dieser Roboter überzeichnet sind und sie deshalb als kindlich, süß oder etwas tollpatschig wahrgenommen werden. Marvin gewinnt in T Hˆ’ G   Gƒ (2005) als rundlicher und depressiver Roboter mit riesigem, hängendem Kopf die Herzen der Zuschauerinnen und Zuschauer. In R†: R† (2013) besticht der Roboter Cody mit Kulleraugen und einer kindlichen, lustigen und verspielten Art. Auch diese Filme lassen sich dem Genre Komödie oder Familien lm zuordnen.

Abb. 13:  e Hitchhiker‘s Guide to the Galaxy (2005) Abb. 14: Robosapien: Rebooted (2013)

Andere Roboter werden eher comicha dargestellt und erinnern an bewegte Puppen. Ein älteres Beispiel dafür ist der Taxifahrer Johnny Cab aus Tƒ Rƒƒ (1990). Er verfügt zwar nur über einen Oberkörper, wurde aber dennoch in die Kategorie der humanoiden Roboter aufgenommen, da der Oberkörper dem eines Menschen entspricht. Ein anderes Beispiel ist der Haushaltsroboter Nr. 7 in T B‡ (2006). Er ist comicartig gestaltet und erinnert mit seiner Glatze und dem weißen, buschigen Schnurrbart an einen comicha en britischen Butler. Auch der Weihnachtsmann-Roboter in T S Cƒ  (2002) fällt mit seinem Bart und den Haaren aus einem Guss in diese Kategorie. Weibliche Beispiele, die ebenfalls in diese Gruppe eingeordnet werden können,

52 sind der Beauty-Bot in K: T Gƒ Cƒ (2017) oder die Roboter-Geishas in G   Sƒƒ (2017).

Abb. 15: Total Recall (1990) Abb. 16:  e Benchwarmers (2006) Abb. 17:  e Santa Clause 2 (2002) Abb. 18: Ghost in the Shell (2017)

In neuen Filmen  nden sich aktuell Mischungen aus humanoid mechanischen Robotern und Androiden. Die Androiden werden mit sehr menschlichen Gesichtszügen dargestellt und mit technischen Details ergänzt, um auf ihr wahres Wesen hinzuweisen. So sind bei Ava in E M (2015) nur das Gesicht, inklusive Ohren, die Hände und die Füße menschlich gestaltet. Der restliche Körper ist teilweise glasartig und o enbart die komplexe Technik, die dahintersteckt. Auch Gemma Chatterjee in J A (2015) hat ein menschliches Gesicht und Hände, ist sonst aber eher mechanisch dargestellt. Im selben Film  nden sich auch Figuren wie Advocate Bob. Er hat ein menschlich aussehendes Gesicht, das aber nicht direkt am Kopf au iegt. Dies erlaubt einen Blick auf die Mechanik dahinter. Ähnlich ist auch der Roboter in der Romantik-Komödie Mƒ (2017) dargestellt. Sein Körper ist mechanisch, sein Gesicht hingegen menschlich. Ein Vorreiter dieser Art der Gestaltung war Steven Spielbergs A.I. – A‰ƒ Iƒƒ (2001). In der Szene, in der der Roboterjunge David gefangen genommen wird und zusehen muss, wie beim sogenannten Fleisch-Fest ausgediente und herrenlose Roboter zur Belustigung zerstört werden, tri er im Kä g auf einige Roboter, die eine Mischung aus humanoid mechanischen und humanoid menschlichen Robotern sind.

Abb. 19: Ex Machina (2015) Abb. 20: Jupiter Ascending (2015) Abb. 21: Jupiter Ascending (2015) Abb. 22: Melocotones (2017)

53 Der Großteil der humanoid mechanischen Roboter in den Filmen hat menschliche Proportionen. In einigen Fällen trägt das Gesicht realistisch menschliche Züge, in anderen ist das Gesicht minimalistisch gestaltet. Modelle wie der Roboter in R† Ž Fˆ (2012), der im Film die Rolle des P egeroboters übernimmt, erinnern an den real von Honda entwickelten humanoiden Roboter ASIMO, auf den in Kapitel 2.1 bereits eingegangen wurde. Andere Modelle, wie der Haushaltsroboter Andrew in Bƒ M (1999) oder auch C-3PO aus der Star Wars-Saga, haben einen eher metallisch anmutenden Körper, sind in etwa so groß wie ein Mensch und ihre Bewegungen sind etwas stockend. Die als Haushaltsroboter und Fabrikarbeiter eingesetzten Roboter in A (2014) ähneln in ihrer Darstellung den alten Modellen in I, R† (2004) und fallen durch ihre reduzierten Gesichtszüge auf.

Abb. 23: Bicentennial Man (1999) Abb. 24: I, Robot (2004) Abb. 25: Autómata (2014)

In einigen Filmen  nden sich Polizeiroboter und Roboterarmeen, die teilweise ähnlich dargestellt sind. Sie haben einen mechanischen Körper, entsprechen in ihrer Größe der eines Menschen und bewegen sich  üssig und schnell. In AŠ: A ‰ Uƒ (2015), Sˆ P (2011) oder I, R† (2004) kommen gefährliche Robotermassen mit metallischen Körpern vor. In C (2015), Eƒ (2013) oder Tƒ Rƒƒ (2012)  nden sich massenproduzierte Polizeiroboter, die sich schnell und agil bewegen. Das Modell K-Tron agiert in Vƒ   C ‰  T Pƒ (2017) als Polizeikra , gilt als unau altsam, präzise und praktisch unzerstörbar. In Filmen wie Kƒƒ C (2016), S W: R O (2016) oder X-M: Aƒ (2016)  nden sich Roboter, die metallische Körper haben, aber deutlich größer sind als Menschen.

Abb. 26: Valerian and the City of Abb. 27: Chappie (2015) Abb. 28: Star Wars: Rogue One Abb. 29: Sucker Punch (2011) a  ousand Planets (2017) (2016)

54 Zur Darstellung von Androiden kann gesagt werden, dass sie in einigen Filmen optisch gar nicht vom Menschen zu unterscheiden sind. Sie bewegen sich  üssig, sprechen normal und agieren auch so wie Menschen. In anderen Fällen sind ihre Bewegungen und ihre Sprache etwas stockend und mechanischer. Da sie optisch nach dem menschlichen Aussehen gestaltet sind, gibt es weniger Variationen als bei den humanoid mechanischen Robotern. In einigen Filmen, in denen Androide au auchen, ist o zuerst nicht klar, dass es sich bei der Figur um einen Roboter handelt. Sie sehen aus wie alle anderen menschlichen Figuren im Film. In vielen Fällen wird ihre Künstlichkeit erst deutlich, wenn es zu einem Schaden kommt. So wird Call in Aƒ: R (1997) erst nach einer Verletzung als Android enttarnt. Ein bekanntes Beispiel ist auch der Terminator, dessen menschenähnliche Gestalt im Kampf als Illusion demaskiert wird. Ein häu g au retendes Erzählmuster ist die Enthauptung, mit der die Roboter entlarvt werden. Sowohl in T (1992), T S‰ WŠ (2004), oder auch in T W’ E (2013) und T‡ƒ (2015) unterscheiden sich die Androiden optisch nicht von Menschen – bis sie am Ende ihren Kopf verlieren. Durch Kabel, spritzende Funken oder blauer hydraulischer Flüssigkeit, die an Blut erinnert, wird klar, dass es sich um Roboter handelt. Auch in P (2012) wird der Androide David gewaltsam enthauptet.

Abb. 30:  e Stepford Wives (2004) Abb. 31:  e World‘s End (2013) Abb. 32: Prometheus (2012)

Schaut man sich die Funktionen der humanoiden Roboter in den Filmen an, kann festgestellt werden, dass diese sehr vielseitig sind. Sie vertreten nicht nur die Position der Diener und Helfer der Menschheit, in dem sie Tätigkeiten als Haushaltshilfe, Arbeitsroboter, P egeroboter, Sexroboter oder sogar als Polizeikra oder im Militär übernehmen. Sie erfüllen auch die Rolle des Freundes der Menschheit, oder im Gegensatz dazu, des Feindes. Es lässt sich feststellen, dass humanoide Roboter den Menschen immer ähnlicher werden. Mensch und Maschine leben immer selbstverständlicher nebeneinander, wenn auch in vielen Fällen noch in unterschiedlichen ‚Gesellscha sschichten‘.

55 Parallel dazu werden ab der Jahrtausendwende o ethische emen angesprochen: Was unterscheidet Mensch und Maschine? Dürfen Menschen Maschinen schaden? Was passiert, wenn Maschinen Menschen schaden? Welche Verantwortung tragen Menschen, wenn sie Roboter bauen, die ein Bewusstsein haben? Ein Vorreiterlm in diesen Fragen war Ridley Scotts Bƒ R (1982). Nach den Filmen Bƒ M (1999), A.I. – A‰ƒ Iƒƒ (2001) und I, R† (2004) wurden ethische emen erst wieder ab 2011 aufgegrien. Filme wie EŠ (2011), T M (2013), A (2014), C (2015), E M (2015) oder Bƒ R •— (2017) legten ein Augenmerk auf ethische Aspekte im Plot. In den Jahren dazwischen erfüllten humanoide Roboter in Actionlmen häug die Rolle des Antagonisten, ethische Fragen wurden selten thematisiert. In Zusammenhang mit der lmischen Entwicklung in Richtung ethischer emen werden auch immer ö er Roboter eingesetzt, die über eine starke Künstliche Intelligenz verfügen. In den meisten Fällen sind sie auch fähig, Emotionen zu empnden. Neben den Robotern, die den Menschen immer ähnlicher werden, treten in den Filmen künstliche Agenten auf, die teils Mensch und teils Maschine sind. Nach den humanoiden Robotern treten Cyborgs in den analysierten Filmen am häugsten auf und stellen deshalb den nächsten Unterpunkt dar.

4.2.2 Cyborg Der Begri des Cyborgs wird, wie im Kapitel 2.2 dargestellt, o unscharf verwendet. Bei der Analyse wurde festgestellt, dass in den Filmen der Begri nicht immer korrekt benutzt wird. In manchen ist von Cyborgs die Rede, jedoch werden diese nicht eindeutig als solche dargestellt oder im Film deniert. Bei der Sichtung dieser Filme wird nicht klar, ob es sich tatsächlich um einen Cyborg handelt oder der Protagonist doch ein Android ist. Mit 24% treten Cyborgs in den berücksichtigten Filmen häug auf. Vor allem in der ersten Häl e der 1990er Jahre gab es einen regelrechten Cyborg-Boom. Hier zeigt sich ein Muster beziehungsweise ein deutlicher Trend. Sieht man sich die von Cyborgs verkörperten Rollen an, fällt auf, dass sie in vielen Filmen Polizisten oder Soldaten sind. Es kann vermutet werden, dass der 80er Jahre Klassiker R†C (1987) wegweisend für diese Entwicklung war. Zahlreiche Filme greifen das ema Cyborg in Kombination mit der Polizei auf. So erschienen nach C† C (1993) die Sequels C† C II (1994) und

56 C† C III (1995). In N (1992) spielt ein Cyborg-Polizist die Hauptrolle und auch die Sequels von R†C (1987), R†C  (1990) und R†C ˜ (1993) spinnen die Geschichte des Cyborg-Polizisten weiter. Auch bei Low-Budget Produktionen wurde o auf Cyborg-Polizisten als Protagonisten zurückgegri en. Ein weiteres  ema, das häu g aufgegri en wurde, ist der Cyborg beim Militär und als Kriegsmaschine. Dabei spielt der Cyborg in einigen Filmen den Helden, in anderen wiederum den Antagonisten. Im Film H‡ (1990) kämp ein Exsoldat und Cyborg gegen einen wildgewordenen, mechanischen Killerroboter, in P (1992) wird ein Veteran im Rollstuhl zum Cyborg und zur tödlichen Killermaschine und in D M (1994) spielt ein Cyborg als ultimativer Soldat eine handlungstragende Rolle. Die Liste der Kampfmaschinen, die teils Mensch und teils Maschine sind, ist lang und die meisten Titel sind selbsterklärend: UŠƒ Sƒ (1992), UŠƒ Sƒ: R (2009) oder A C†: Sƒ W (1993).

Abb. 33: RoboCop 2 (1990) Abb. 34: Prototype (1992) Abb. 35: Universal Soldier (1992)

Au allend ist, dass die Figur des Cyborgs in diesen Filmen meistens männlich dargestellt ist. Im Fall der Cyborgs beim Militär kann das damit zusammenhängen, dass der Beruf o männlich besetzt ist. Ausnahmen sind die Filme Sƒ  L (1991), in dem eine junge Frau namens Gaily nach ihrem Selbstmord in einen Cyborg verwandelt wird, der dazu bestimmt ist, Rache zu nehmen, und T Dƒ (1995), in dem eine ermordete Polizistin in einen weiblichen Polizei-Cyborg transformiert wird und als ultimative Verbrecherbekämpfungsmaschine agiert. Auch in V A P  (1990) gibt es einen weiblichen Polizei-Cyborg, der Bimbo Cop genannt wird. Die weiblichen Cyborg-Figuren sind stärker sexualisiert dargestellt als der Großteil der männlichen Cyborgs. Die Figur des Cyborg-Polizisten erreicht auch den Comedy-Bereich: Basierend auf der gleichnamigen Zeichentrickserie aus den 1980er

57 Jahren wurde die Realver lmung I G (1999) umgesetzt. Ab Ende der 90er kommen Cyborgs in den Filmen eher vereinzelt vor. In UŠƒ Sƒ: T R (1999) werden nicht nur die Körper der Cyborg-Soldaten biologisch verbessert, ihnen wird auch ein Gehirnchip mit einer festgelegten Gedankenmatrix implantiert. Auch in anderen Filmen ab der Jahrtausendwende werden implantierte Chips handlungsrelevant. So werden den Insassen des Gefängnisses in F  (2000) Chips implantiert, die sie steuerbar machen und in T S‰ WŠ (2004) werden die Frauen der Vorstadt durch Chips zu perfekten Ehefrauen gemacht.

Abb. 36: Universal Soldier:  e Return (1999) Abb. 37:  e Stepford Wives (2004)

Zur Figur des Cyborgs als Soldat und Polizist gesellen sich vereinzelt andere Rollen. Cyborgs sind immer häu ger Figuren, deren Verbesserung als nichts Besonderes gesehen wird, sondern als eine Nebenerscheinung der Zeit, in der die Filme spielen. Figurenbeispiele dafür  nden sich in aktuelleren Filmen zur Genüge: Cobra Commander in G.I. J – T R ‰ C† (2009), Max in Eƒ (2013), Bucky Barnes in C A: T W Sƒ (2014), Nebula in G ‰  Gƒ (2014) oder Saw Gerrera in S W: R O (2016). Die künstlichen Erweiterungen sind in diesen Fällen Reaktionen auf einen Unfall und ermöglichen es der Figur weiterzuleben, ganz wie das Paradebeispiel Darth Vader.

Abb. 38: G.I. Joe -  e Rise of Cobra (2009) Abb. 39: Guardians of the Galaxy (2014) Abb. 40: Star Wars: Rogue One (2016)

Auch die US-amerikanische Realver lmung des gleichnamigen Animes G   Sƒƒ (2017) spielt in einer nahen Zukun in der es

58 zur Normalität gehört, dass Menschen maschinelle Erweiterungen besitzen. So wird die Figur Batou nach einem Unfall zum Cyborg. Die Hauptperson Major Mira Killian hingegen besitzt einen komplett künstlichen Körper und nur noch ihr Gehirn, also ihr Geist, ist menschlich. Zu den häu gsten Erweiterungen, die optisch prominent platziert wurden, gehören mechanische Prothesen, meist in Form von Arm- oder Handprothesen oder Beinprothesen; wie bei Donald Pierce in L (2017) oder Charlie Hesketh in K: T Gƒ Cƒ (2017). Diese kommen sowohl in Hollywoodblockbustern als auch in Low-Budget-Produktionen vor. Von künstlichen Agenten mit erweiterten Körpern geht es im nächsten Unterkapitel wieder zu Agenten, die vollkommen mechanisch sind.

4.2.3 Mechanischer Roboter Neben den humanoiden Robotern treten 13% nicht-humanoide Roboter auf, die hier unter dem Sammelbegri mechanische Roboter zusammengefasst werden. Ab 1994 agieren relativ konstant mechanische Roboter in Filmen. In einigen Fällen spielen sie Hauptrollen oder handlungstragende Rollen, in anderen Nebenrollen. Die dargestellten mechanischen Roboter wurden in Unterkategorien eingeteilt, die sowohl ihr Aussehen als auch ihre Funktion betre en: Niedlich, Killermaschinen, Arbeitsroboter und Haustiere. In der Kategorie ‚Niedlich‘  nden sich Roboter, die nicht-humanoid sind und auch kein menschliches Gesicht haben. Dennoch wecken sie bei den Zuschauerinnen und Zuschauern Emotionen. O sind es Figuren, mit denen man im Film sympathisiert und die als liebenswert eingestu werden. Weebo in Fƒ†† (1997), Jimbod in A N AŠ (2007) und Steel in M Sƒ (2016) sind schwebende Roboter.

Abb. 41: Flubber (1997) Abb. 42: Max Steel (2006) Abb. 43: Star Wars: Episode VII -  e Force Awakens (2015) Auch der sphärische BB8 aus S W: E VII – T F A‡ˆ (2015), der Klassiker R2-D2 aus S W: E I - T P M

59 (1999) oder Mr. Pip aus Z (2006) sind zwar mechanisch dargestellt, haben aber Züge, die generell als sympathisch gelten. Meistens haben sie eine menschliche Stimme oder kommunizieren über vom Kino etablierte roboterartige Laute. In die Kategorie ‚Killermaschinen‘ fallen mechanische Roboter, die meistens entweder als Kampfmaschinen konzipiert sind oder im Laufe des Films zu Killermaschinen mutieren. Im Gegensatz zu den mechanischen Robotern der Kategorie ‚Niedlich‘ sind diese metallischer, kantiger und machen einen maschinellen und gefährlichen Eindruck. Die Roboter in D M (1994) und jener in R Pƒ (2000) haben animalische Züge. Jener in EŠƒŠ (1995) erinnert zu Beginn an einen etwas einschüchternden Spielzeugroboter. Das Modell M.A.R.K. 13 in H‡ (1990) hat zwar einen schädelähnlichen Kopf, besitzt aber 6 Haupt- und 3 Hilfsgliedmaßen, die sehr an eine Maschine erinnern, weswegen er nicht als humanoid eingestu wird. Zusätzlich ist er mit Infrarotsensoren, Nahkampfwa en und Gi injektoren ausgestattet und hat nur ein Ziel: töten.

Abb. 44: Red Planet (2000) Abb. 45: Hardware (1990) Abb. 46: Evolver (1995)

Einige mechanische Roboter können als ‚Arbeitsroboter‘ kategorisiert werden. Zu diesen gehören nicht-humanoide Assistenzroboter, aber auch Putzroboter. Sie werden meist sehr simpel, modern und kubisch dargestellt. So tauchen in einigen Filmen autonom handelnde Putzroboter auf, die an reale Staubsaugerroboter erinnern. Ein sehr eckiger sprechender Roboter mit einer männlichen Stimme dient in R† Ž Fˆ (2012) als Bibliothekpersonal-Roboter. Sehr speziell designte Assistenzroboter sind TARS und CASE in Iƒƒ (2014).

Abb. 47: Robot & Frank (2012) Abb. 48: Interstellar (2014)

60 In M (2009) tri man auf GERTY, einem sprechenden und sich bewegenden Assistenzroboter. In einigen wenigen Filmen tauchen Haustierroboter als Rand guren auf. So gibt es in T S‰ WŠ (2004) einen Roboterhund, in EŠ (2011) eine Roboterkatze und in S K : Iƒ ‰ L D (2002) einen sechsbeinigen Roboterkäfer. Sie haben keinen Ein uss auf die Geschichte und dienen lediglich dazu, das futuristische Ambiente zu unterstützen und fungieren o als ,comic relief‘. In K: T Gƒ Cƒ (2017) kommen ebenfalls Roboterhunde vor, die Hunde der Antagonistin. Diese spielen aber keine zentrale Rolle im Film. Eine Ausnahme bildet der Roboterteddy in A.I. – A‰ƒ Iƒƒ (2001): Er ist strenggenommen kein Haustier, sondern eher ein Spielkamerad und hat eine wichtige Rolle im Film, da er David auf seiner Reise begleitet.

4.2.4 KI - Künstliche Intelligenz In der Filmauswahl  nden sich ab der Jahrtausendwende einige Filme, in denen eine Künstliche Intelligenz eine handlungstragende Rolle oder Hauptrolle spielt: 12% sind künstliche Agenten in Form einer KI. Bei den KIs kann zwischen zwei Darstellungsarten unterschieden werden: Entweder die KI wird im Film nur durch eine Stimme dargestellt, die sowohl männlich als auch weiblich sein kann, oder sie wird durch ein Gesicht visualisiert. Beispiele für eine sprechende KI sind zum Beispiel J.A.R.V.I.S oder F.R.I.D.A.Y. in den Avenger Filmen wie Marvel’s T AŠ (2012) oder AŠ: A ‰ Uƒ (2015). J.A.R.V.I.S. kommuniziert zum Beispiel über die Exoskelett- Rüstung mit Tony Stark alias Iron Man. Die Hauptperson in Bƒˆ R (2016) hingegen hat ein KI-Implantat namens Clyde im Hinterkopf und Samantha aus H (2013) spricht über einen In-Ear-Kop örer mit ihrem Besitzer  eodore. In S-M: H (2017) ist der Anzug des jungen Spiderman mit einer KI Namens Karen ausgestattet.

Abb. 49: Black Road (2016) Abb. 50: Iron Man 2 (2010) Abb. 51: Her (2013)

61 Eine andere Möglichkeit ist die Darstellung der KI mit einem Gesicht, das o als Hologramm au ritt, so wie die KI Red Queen in R EŠƒ (2002) und R EŠƒ: R† (2012), Deus Ex Machina in T M RŠƒ (2003), V.I.K.I in I, R† (2004) oder SkyNet in T SƒŠ (2009). Au allend ist, dass all diese Beispiele entweder auf ein weibliches oder kindliches Gesicht zurückgreifen. Im Falle der KI in Bƒ R •— (2017) umfasst das Hologramm eine ganze Frau. Joi ist im Film als holographische Begleiterin eingesetzt und ist die Partnerin der Haupt gur O cer K.

Abb. 52:  e Matrix Revolutions (2003) Abb. 53: I, Robot (2004) Abb. 54: Resident Evil: Retribution (2012)

Für die Analyse wurden in diesem Fall nur Künstliche Intelligenzen berücksichtigt, die als starke KI eingestu werden können und als eigenständiger künstlicher Agent im Film au reten. Nicht in den Zahlen inkludiert sind somit Roboter mit einer KI. Diese wurden bei der Recherche zwar angemerkt, in den hier dargestellten Zahlen aber nicht als KI gelistet. In vielen Filmen ist nicht genau geklärt, ob die Roboter oder Androide programmiert sind und somit über eine schwache KI verfügen, oder eine echte, also starke KI haben. Beobachtet wurde aber, dass Roboter mit einer starken KI, die autonome Entscheidungen tre en, in den letzten Jahren häu ger vorkommen. Nicht autonom handelnd, sondern von Menschen gesteuert, sind Exoskelette und Mechas, die den Gegenstand des nächsten Unterkapitels bilden.

4.2.5 Exoskelett und Mecha Exoskelette und Mechas, mit 6% und 3%, treten von 1990 bis 2017 in vereinzelten Filmen auf. Meistens sind sie im militärischen Kontext situiert. Die Exoskelette verwandeln in den Filmen normale Menschen in Superhelden und werden optisch meistens als roboterähnliche Rüstungen dargestellt. Als Paradebeispiel kann Iron Man genannt werden, der von 2008 bis 2017 in rund 8 Filmen vertreten war: I M (2008), I M  (2010), T AŠ (2012),

62 I M T (2013), C A: T W Sƒ (2014), AŠ: A ‰ Uƒ (2015), C A: CŠƒ W (2016) und S-M: H (2017). Im Film baut die Haupt gur Tony Stark nach einem Zwischenfall in Afghanistan eine High-Tech-Rüstung, mit deren Hilfe er zum Superhelden Iron Man wird. Neben ihm tritt auch sein bester Freund Rhodey als War Machine in einer solchen Exoskelett-Rüstung auf. Auch in Filmen wie G.I. J – T R ‰ C† (2009) oder S K ˜: G OŠ (2003) stecken die Hauptpersonen in Exoskelett-Rüstungen. In T WƒŠ (2013) wird Shingen Yashida durch eine solche Rüstung zum Silver Samurai, Dr. Victor Fries wird in B Ž R† (1997) zu Mr. Freeze und auch Batman selbst grei in B Š S: D‡ ‰ J (2016) auf eine mechanische Rüstung zurück. Es zeigt sich, dass Exoskelette in verschiedensten Genres zu  nden sind, von Action lmen bis Familienkomödien. Im Fall von Max in Eƒ (2013) ist das Exoskelett Teil seiner Cyborg-Erweiterung und direkt mit seiner Wirbelsäule verbunden. Es erinnert deshalb nicht an eine Rüstung, sondern nähert sich real existierenden medizinischen Exoskeletten an.

Abb. 55: Batman v Superman: Abb. 56: Spy Kids 3: Game Over (2003) Abb. 57: Iron Man 2 (2010) Dawn of Justice (2016) Neben Exoskeletten treten in einigen Filmen Mechas auf, die in Kapitel 2.1 als Laufroboter de niert wurden. Sie haben meist ein humanoides Aussehen und werden von Menschen gesteuert. Sie werden in den Filmen in unterschiedlichen Bauformen und Größen dargestellt. In T M RŠƒ (2003) werden die Mechas Armored Personnel Unit – kurz APU – genannt, in AŠ (2009) besitzt das Militär die sogenannten Ampli ed Mobility Platform und in D — (2009) werden Mechas mit dem Namen Bio Suit verwendet. In allen Fällen fungieren sie als Kampfmaschinen. Menschen sitzen in oder auf den Robotern und steuern sie manuell. In einigen Filmen wird noch einen Schritt weitergegangen: In P‰ R (2013) werden die Mechas simultan von zwei Pilotinnen oder Piloten kontrolliert, deren Gedächtnisse durch eine neuronale Brücke mit der Maschine verbunden sind. Auch

63 in C (2015) wird der Kampfroboter MOOSE mit Hilfe eines sogenannten Neuronalhelms über Distanz gesteuert. Der Film T‰ (2007) und seine Fortsetzungen wurden nicht in die Analyse miteinbezogen. Auch wenn die Figuren optisch an Mechas erinnern mögen, stammen die Autobots und Decepticons vom Planeten Cybertron und sind somit eine außerirdische Lebensform und eindeutig keine vom Menschen gescha enen Roboter.

Abb. 58: Paci c Rim (2013) Abb. 59:  e Matrix Revolutions (2003) Abb. 60: Avatar (2009)

4.2.6 Fazit Die quantitative Überblicksanalyse hat gezeigt: intelligente humanoide Roboter sind auf dem Vormarsch. Au allend sind die Veränderungen über die Jahre, die die Funktion und die Rolle, aber auch die Darstellung der künstlichen Agenten betre en. In den Filmen von 1990 bis 2017 wurden unterschiedliche Arten von künstlichen Agenten dargestellt, deren Funktion variiert: In einigen Filmen spielen sie Hauptrollen oder handlungstragende Rollen, in anderen nehmen sie eher marginale Positionen ein oder treten nur auf, um ein futuristisches Ambiente zu vermitteln. In älteren Filmen nehmen die künstlichen Agenten eine besondere Position ein, sind o die Hauptperson und stehen im Zentrum der Geschichte. Durch die steigende Artenvielfalt in den Filmen, die ab Mitte der 2000er beobachtet wurde, wurden die künstlichen Agenten immer häu ger bunt gemischt eingesetzt. O agieren sie als Nebenrollen und ihr Status als künstlicher Agent wird nicht akzentuiert. So tritt zum Beispiel Donald Pierce in L (2017) als Cyborg auf. Seine Erweiterung ist jedoch nicht speziell, sondern einfach eine Erscheinung der Zeit, in der der Film situiert ist. Zusätzlich konnte beobachtet werden, dass Filme mit künstlichen Agenten schon lange nicht mehr auf das Genre Science-Fiction beschränkt sind. Roboter, Cyborgs und künstliche Intelligenzen kommen in zahlreichen Abenteuer-, Fantasy- oder Action lmen vor, werden in Komödien und Familien lmen eingesetzt, oder auch in  rillern, Dramas oder Horror lmen.

64 In der Art der Darstellung lassen sich Muster erkennen und daraus Unterkategorien bilden. So wurden die humanoiden Roboter in Androide und humanoid mechanische Roboter eingeteilt. Bei den mechanischen Robotern wurden, durch die unterschiedliche Darstellungsart, die Untergruppen Niedlich, Killermaschinen, Arbeitsroboter und Haustiere gebildet. KIs kommen als alleinstehende Agenten entweder als Stimme vor, die sowohl männlich als auch weiblich sein kann, oder werden als Hologramm dargestellt. Auallend ist, dass diese in den analysierten Filmen kindlich oder weiblich sind. Bei den humanoiden künstlichen Agenten wird o auf stereotypische Darstellungen zurückgegrien. In den Rollen als Soldat oder Polizeikra sind sie häuger männlich dargestellt. Weibliche künstliche Agenten belegen mehrfach klischeeha e Rollen, die stärker sexualisiert sind, wie zum Beispiel der weiblichen Polizei-Cyborg Bimbo Cop in V A P  (1990), die FemBots in A P‡: Iƒ M ‰ M (1997) – die neben der blonden Mähne und den Maßen 90-60-90 mit Maschinengewehr-Brüsten ausgestattet sind – oder der Beauty Bot in K: T Gƒ Cƒ (2017). Über die Jahre wurden immer wieder weibliche Sexroboter in den Filmen integriert: Die sexy Pleasure Units in D G (1995), die Love-Bots in G ‰  Gƒ Vƒ.  (2017), die Sexbots in J A (2015), Cleo in A (2014) oder der Pleasure Bot in R W: R† F (2017). Nur in Steven Spielbergs A.I. – A‰ƒ Iƒƒ (2001) gibt es neben dem Modell Gigolo Jane auch ein männliches Modell namens Gigolo Joe. Die Analyse hat gezeigt, dass humanoide Roboter den Großteil der künstlichen Agenten ausmachen. Diese spielen über die Jahre die konstanteste Rolle. In den aktuelleren Filmen wird immer ö er ihre Autonomie betont: Sie folgen nicht bloß einer Programmierung, sondern verfügen über eine starke KI und ein Bewusstsein. Vor allem ab der Jahrtausendwende spielen in diesem Zusammenhang ethische Fragen eine immer wichtigere Rolle. Für die qualitative Analyse der Arbeit, die im Kapitel 5 folgen wird, wird der Fokus auf Filme gelegt, in denen humanoide Roboter mit Bewusstsein und einer starken KI vorkommen. Sie nehmen eine Hauptrolle oder handlungstragende Rolle ein. Mit dem Blick auf die Forschungsfrage werden die Filme A (2014), C (2015) und E M (2015) analysiert. Dabei liegt der Fokus auf den in den Filmen dargestellten ethischen emen. Die quantitative Analyse hat einen Überblick geschaen und die Auswahl der drei Filme für die qualitative Analyse begründet. Wie genau wird im nächsten Kapitel spezischer erläutert.

65 5 Filmanalyse

Dass Filme nicht nur Unterhaltung, sondern auch ein vielseitiges Untersuchungsobjekt sein können, hat sich im vorangegangenen Kapitel zu Roboter im Film bereits gezeigt. Vor allem Science-Fiction-Filme bieten Gedankenspiele zu möglichen Entwicklungen und inspirieren o auch reale Er ndungen. Der empirische Schwerpunkt dieser Masterarbeit liegt auf der Interaktion zwischen Mensch und Maschine im Film. Nachdem in Kapitel 4 ein allgemeiner Überblick über die Situation gescha en wurde, soll die qualitative Filmanalyse, die den Schwerpunkt dieses Kapitels bildet, tiefer in die Materie eindringen. Die ausgewählten Filme werden mit Blick auf die Forschungsfrage analysiert und interpretiert:

Welche ethischen Aspekte der Mensch-Maschinen-Interaktion werden in westlichen Science-Fiction-Filmen dargestellt? Dabei werden im Laufe der Analyse folgende Unterfragen gestellt: - Welche ethischen  emen werden im Film behandelt? - Welche Kon ikte werden thematisiert? - Welche Lösungsvorschläge zeigt der Film? - Überschneiden sich die  ktiven Aspekte mit realen Entwicklungen?

Die Analyse bietet die Möglichkeit, zu erfahren, welche ethischen Aspekte in den Science-Fiction-Filmen behandelt werden und wie sie in die aktuelle Diskussion zur Roboterethik passen. Grundüberlegung dazu ist, dass die  ktiven Probleme und Lösungen einen Zusammenhang mit realen Entwicklungen aufweisen und in gewisser Weise miteinander ver ochten sind. Dabei gelten die Filme als hypothetische Fallbeispiele, die ethische Aspekte in der Interaktion zwischen Menschen und Maschinen beleuchten. Im folgenden Unterkapitel wird zunächst das Untersuchungskorpus der Filmanalyse kurz beschrieben und erläutert, warum die ausgewählten Filme als passend für die Fragestellung dieser Arbeit gesehen wurden. In den anschließenden

66 Unterkapiteln folgen die Analysen zu den drei Filmen C (2015), A (2014) und E M (2015), die noch weiter in Unterkapitel unterteilt wurden. Sämtliche Angaben der Analyse und Interpretation beziehen sich, falls nicht anders vermerkt, auf die Blu-ray-Version der drei Filme. Das Kapitel schließt mit einem Fazit zur Analyse.

5.1 Untersuchungskorpus

Durch die quantitative Analyse konnte ein Überblick über die Filmveröentlichungen der letzten Jahre gewonnen werden, in denen Roboter und andere künstliche Agenten eine mehr oder weniger wichtige Rolle einnehmen. Im Laufe der quantitativen Untersuchung hat sich gezeigt, dass die künstlichen Agenten in den Filmen autonom agieren müssen und über eine starke KI verfügen sollten, damit ethische Aspekte in der Mensch-Maschine- Interaktion sinnvoll beleuchtet werden können. Aus diesem Grund wurden drei Filme gewählt, die humanoide Roboter mit einer starken KI und einem eigenen Bewusstsein in einer Haupt- oder handlungstragenden Rolle haben. Auch wurde während der Überblicksanalyse beobachtet, dass vor allem ab der Jahrtausendwende ethische emen ö er im Mittelpunkt der Geschichten standen. Somit wäre, neben A.I. – A‰ƒ Iƒƒ (2001), auch I, R† (2004) ein passendes Analysebeispiel für dieses ema gewesen. Es wurde aber bewusst entschieden, neuere Filme für die Analyse zu wählen, deren Erscheinungsjahre zudem nahe beieinanderliegen. Dafür gibt es mehrere Gründe: Einerseits, weil das ema der Roboterethik durch die neuen Entwicklungen der letzten Jahre einen starken Aufschwung erlebt hat und in der Wissenscha nun prominenter thematisiert wird. Andererseits wurden jüngere Filme – im Vergleich zu Klassikern wie Bƒ R (1982) – natürlich noch nicht so häug für eine Filmanalyse verwendet. Der erste Film, der für die vorliegende Arbeit genauer analysiert wird, ist der US- amerikanische Science-Fiction-Film C aus dem Jahr 2015. Dieser Film wir nicht nur soziale, sondern auch kulturelle und technologische Fragen auf. Er beschä igt sich neben dem ema der starken KI auch mit der Frage nach dem Bewusstsein einer Maschine. Die Geschichte spielt in einer Gesellscha , in der Polizeiroboter neben menschlichen Polizeikrä en im Einsatz sind und gegen die Kriminalität in der Stadt Johannesburg kämpfen. In diesem Kontext

67 werden verschiedene ethische Aspekte gestrei . Der dystopische Science-Fiction-Film A aus dem Jahr 2014, der in Spanien, Bulgarien, den USA und Kanada produziert wurde, ist der wahrscheinlich unbekannteste Film der Auswahl. Ähnlich wie in I, R† (2004) wird darin eine Gesellscha dargestellt, in der Dienstleistungsroboter in verschiedenen Bereichen, wie im Haushalt oder als Fabrikarbeiter, eingesetzt werden. Jedoch herrscht in der dargestellten Gesellscha große Abneigung gegenüber den Robotern, was einige sehr interessante ethische Fragen aufwir . E M, ein britischer Science-Fiction-Film, der 2015 in die Kinos kam, wird als dritter Film analysiert. Er thematisiert die Entwicklung einer starken KI und illustriert vordergründig auch das  ema der Roboterverkörperung. Die Geschichte stellt die Mensch-Maschinen-Interaktion in das Zentrum und thematisiert einige ethische Fragen. Bei der Zitation der Filmstellen in den folgenden Kapiteln wird, mit Bezug auf das durch die Analyse generierte Material, zuerst die Sequenznummer angegeben, gefolgt von der Zeilennummer im Transkript. Genauere Angaben zum Timecode  nden sich in den Transkripten der jeweiligen Filmen, die im digitalen Anhang zu  nden sind.

5.2 Analyse Chappie

C ist ein US-amerikanischer Film des Regisseurs Neill Blomkamp, der 2015 in die Kinos kam. Das Drehbuch hat Blomkamp zusammen mit seiner Frau Terri Tatchell geschrieben. Das Konzept zu C basiert, wie er in einem Interview erzählt, auf seinem Kurz lm T Vƒ Abb. 61: Chappie (2003), der von einem bewa neten humanoiden Polizeiroboter handelt, der in den Slums von Johannesburg seinen Dienst absolviert (Chappie: Extras 2015). Bekanntheit erreichte Blomkamp durch seine Filme D — (2009) und Eƒ (2013), die beide dem Science-Fiction-Genre zugeordnet werden. Seine Filme stellen nicht nur futuristische und technische, sondern vor allem soziale und kulturelle Fragen und enthalten gesellscha skritische Elemente. Blomkamp selbst sagt: „District 9 (2009) was a singular anti-Apartheid metaphor, and Elysium (2013) is a more general metaphor about immigration and how the First World and  ird World meet. But the thing that I like the most about the metaphor is that it can be scaled to suit almost any scenario.” (IMDb 2018). Die Titelrolle in

68 C übernahm Sharlton Copley, der auch in D — (2009) und Eƒ (2013) für Blomkamp vor der Kamera stand. Neben Dev Patel und Hugh Jackman wurden auch Yolandi Visser und Watkin Tudor Jones, die zusammen die Band ‚Die Antwoord‘ bilden, für den Film besetzt (IMDb 2018). Die folgende Analyse des Filmes ist in mehrere Abschnitte gegliedert. Nachdem zu Beginn ein Überblick über die Handlung gegeben wird, werden die vorkommenden Roboter und ihre Darstellung beschrieben. Es folgt die Interpretation, basierend auf den in der qualitativen Inhaltsanalyse generierten Kategorien. Das Kapitel schließt mit einem Zwischenfazit zum Film.

5.2.1 Handlung Die Geschichte spielt 2016 in Johannesburg, Südafrika. In der Stadt herrscht eine hohe Kriminalitätsrate. Um diese Situation ohne massive menschliche Verluste unter Kontrolle zu bringen, reagieren die Stadt und die Polizei mit dem Einsatz von autonomen Polizeirobotern, sogenannten Scouts. Hergestellt werden die weltweit ersten Polizeiroboter-Truppen vom Waenhersteller Tetravaal. Projektleiter ist der junge Ingenieur Deon Wilson, der viel Lob für seine Entwicklung bekommt, denn durch den Einsatz der Scouts sinkt die Kriminalitätsrate der Stadt spürbar. In der Firma arbeitet auch Vincent Moore an seinem Roboter-Projekt MOOSE – ein Kampfroboter, der durch einen Neuronalhelm ferngesteuert wird. Die Polizei empndet den Einsatz des weitaus größeren und militärischeren Kampfroboters nicht als notwendig und die nanziellen Förderungen für MOOSE werden eingestellt. Der junge Ingenieur Deon lebt für seine Arbeit und für die Forschung. In seiner Freizeit arbeitet er eberha an der Entwicklung einer starken KI. Bei einem der zahlreichen Testdurchläufe scha er den Durchbruch: Er hat eine starke KI programmiert. Da er für den nächsten Testlauf einen Roboterkörper braucht, bittet er seine Chen, Michelle Bradley, um Erlaubnis, dafür einen der Scouts zu verwenden. Diese weist seine Anfrage jedoch ab. Da während Reparaturen immer wieder Modelle ausgesondert und zerstört werden, entscheidet Deon, den für die Schrottpresse vorgesehenen Scout Nr. 22 für seinen So waretest zu stehlen. Er verstaut den Roboter und einige Teile in einem kleinen Lieferwagen der Firma und entwendet den Guard Key, der für die Programmierung unerlässlich ist. Als er das Gelände verlässt, wird er von einer Gruppe Gangster entführt. Die lokalen Verbrecher Ninja, Yolandi und Amerika wollen von Deon die ‚Fernbedienung’

69 für die Scouts, um sie bei einem geplanten Überfall ausschalten zu können. Als sie im Lieferwagen den ausrangierten Roboterkörper nden, fordern sie von Deon, den Scout so umzuprogrammieren, dass sie ihn für Verbrechen nutzen können. Da dies technisch nicht möglich ist, installiert Deon stattdessen die von ihm entwickelte KI auf dem Roboter. Als er die So ware aktiviert, erwacht der Roboter als kindliches und verängstigtes Wesen. Deon und Yolandi versuchen dem eingeschüchterten Roboter näherzukommen und Yolandi gibt ihm den Namen Chappie. Deon möchte beim Roboter bleiben, wird aber von Ninja verjagt. Ninja, Yolandi und Amerika haben Schulden bei Hippo, dem mächtigsten Gangster in Johannesburg. Um diese zurückzuzahlen, bleiben ihnen nur noch wenige Tage. Aus diesem Grund will Ninja so schnell wie möglich einen Gangster aus Chappie machen, damit dieser sie beim Raubüberfall unterstützt. Yolandi entwickelt Muttergefühle für ihn und sieht ein, dass er zwar aussieht wie ein Polizeiroboter, sich aber wie ein kleines Kind verhält. Obwohl Ninja Deon bedroht, kommt dieser wieder heimlich zum Versteck, um Chappie zu unterrichten. Dabei vermittelt er ihm wichtige Werte: man darf keinem Menschen Schaden zufügen und keine Verbrechen begehen. Chappie verspricht Deon, dass er sich daran halten wird. Um Chappies Kreativität zu entwickeln, hat Deon dem Roboter ein Buch mitgebracht und lässt ihn malen. Was Chappie nicht weiß: seine Batterie ist beim letzten Polizeieinsatz mit seinem Körper verschmolzen und kann deshalb nicht mehr ausgewechselt werden. Chappie bleiben also nur noch fünf Tage und die anderen wissen das. Um den Roboter abzuhärten, zeigt ihm Ninja die ‚echte Welt‘ und setzt ihn in Johannesburg aus. Inzwischen bemerkt Vincent, dass der Guard Key fehlt und verfolgt Deon zum Versteck, wo er sieht, dass der Guard Key in Chappie aktiviert ist. Darauin schmiedet er einen Plan, um den Roboter zu überwältigen. Dieser wird währenddessen in der Stadt von einer Gruppe Jugendlicher verprügelt, mit Steinen und einem Molotowcocktail beworfen. Chappie eht sie an aufzuhören und kann am Ende üchten. Doch noch ist Chappie nicht in Sicherheit. Vincent, der ihn geortet hat, entführt ihn, entnimmt den Guard Key, den er für sein Projekt MOOSE verwenden will und sägt Chappie, um ihm eine Lektion zu erteilen, einen Arm ab. Abermals gelingt Chappie die Flucht und er ndet zurück zum Versteck, seinem Zuhause. Yolandi und Amerika kümmern sich liebevoll um den völlig traumatisierten

70 Roboter, reparieren seinen Arm und den Schaden am Kopf. Um Chappie zu beruhigen, liest Yolandi ihm aus einem Buch über ein schwarzes Schaf vor. Dabei erklärt sie ihm, dass jeder eine Seele hat und dass der Körper nur dessen vorübergehende Hülle ist. Chappie ist böse auf Ninja, der ihn getäuscht und in diese schreckliche Situation gebracht hat. Ninja will sich bei ihm entschuldigen, um Chappie doch noch für den Überfall zu gewinnen. Als Chappie sagt, dass er seinem Macher Deon versprochen hätte, keine Menschen zu töten, tricksen Ninja und Amerika ihn aus und sagen, dass Messer, im Gegensatz zu Pistolen, Menschen nur sehr schläfrig machen. Im Anschluss überreden sie Chappie, mit ihnen ein paar Autos ‚zurückzuholen‘, die Ninja gehören. Chappie, der die Naivität eines Kindes hat, stellt ihre Aussage nicht in Frage und geht begeistert mit. Die gestohlenen Autos bringen sie zum ‚King‘, der das Gebiet kontrolliert. Während Ninja und Amerika die Geschä e abwickeln, wartet Chappie. Als Ninja zurückkommt, erklärt er Chappie, dass seine Batterie bald leer sein wird und er deshalb einen neuen Körper brauche. Der einzige Weg, um sich zu retten ist, den Überfall durchzuführen. Im Versteck wartet Deon auf sie und Chappie konfrontiert ihn mit der Tatsache, dass er ihn in einen kaputten Körper gesteckt hat, der sterben wird. Um sein eigenes Projekt in die Tat umzusetzen, nutzt Vincent den Guard Key und lädt einen Virus auf die Scouts, der alle Polizeiroboter abschaltet. Die fehlende Polizeipräsenz wird von den Kriminellen gleich bemerkt und in kürzester Zeit bendet sich die Stadt im Chaos. Vincent ho , dass so sein Roboter MOOSE eingesetzt wird. Da auch Chappie deaktiviert wird, bringt ihn Deon zurück zu Tetravaal, um ihn dort neu zu starten. Nachdem der Vorgang erfolgreich war, sieht Chappie den Neuronalhelm, mit dem MOOSE gesteuert wird. Er will ihn mitnehmen, um sein Gedächtnis zu scannen und sein Bewusstsein zu kopieren. Seine Idee ist es, sein eigenes Bewusstsein in einen neuen Körper zu transferieren, bevor dieser Körper stirbt. Deon sagt, dass dies nicht möglich sei und im Streit rennt Chappie mit dem Helm davon. Zu Hause arbeitet er an seinem Plan und scannt dafür alle möglichen Informationen im Internet. Schließlich scha er es und visualisiert am Bildschirm sein Bewusstsein. Überzeugt, dass er mit dem Geld einen neuen Körper bekommt, willigt Chappie ein, am Überfall teilzunehmen. Mit seiner Hilfe raubt Ninjas Gang einen Geldtransporter aus und kommt so zu der Summe, die sie Hippo schuldet.

71 Kurz bevor sie üchten, sieht Chappie, dass einer der Polizisten, die er mit den Wurfsternen getroen hat, gar nicht schlä , sondern Schmerzen hat und um sein Leben bettelt. Chappie entschuldigt sich und ru aus dem Wagen, er dachte, er würde ihn nur schläfrig machen. Der Überfall geht durch alle Medien; auch die Bilder von Chappie. Tetravaal muss reagieren und Vincent nutzt diesen Vorfall als Argument für den Einsatz seines Kampfroboters. Als Chappie Ninja nach seinem neuen Körper fragt, erfährt er, dass ihn Ninja angelogen und ausgenutzt hat. Er ist wütend und frustriert und geht auf Ninja los. Deons plötzliches Erscheinen verhindert Schlimmeres, bringt jedoch keine guten Nachrichten. Die Tetravaal-Chen Michelle Bradley hat das MOOSE-Projekt autorisiert und Chappies Zerstörung angeordnet. Plötzlich taucht Hippo mit seiner Crew auf und verlangt neben dem Geld auch den Roboter. Kurz darauf tri auch MOOSE ein. Es folgt eine actiongeladene Kampfszene, in der MOOSE Amerika zerreißt und Hippo auf Deon schließt und ihn schwer verwundet. Hippo wird von Ninja getötet, der darauin versucht, MOOSE abzulenken, damit Chappie und Yolandi mit Deon zu Tetravaal üchten können. Als MOOSE auf Ninja losgehen will, schießt Yolandi auf ihn. Der Roboter reagiert und erschießt sie. Am Ende zündet Chappie eine Mine und zerstört MOOSE. Mit dem schwer verwundeten Deon fährt Chappie zu Tetravaal, wo er auf Vincent tri . Chappie kann sich nicht mehr halten und verprügelt ihn. Am Ende hält er jedoch inne und verzeiht ihm. Chappies Ziel ist der Neuronalhelm, der zur Steuerkonsole des Kampfroboters gehört. Er setzt Deon den Helm auf und transferiert damit sein Bewusstsein auf einen Roboterkörper. Chappie selbst bleibt nicht mehr viel Zeit. Deon, der nun im Körper eines Roboters steckt, transferiert Chappies Bewusstsein auf einen der deaktivierten Scouts. Dann versteckt er sich in letzter Sekunde, kurz bevor die Polizei die Fabrikhalle stürmt. Als Deon aus dem Gebäude üchtet, tri er auf einen aktivierten Scout: jenen Scout, auf den er Chappies Bewusstsein transferiert hat. Ninja ist währenddessen am Boden zerstört und verbrennt in seinem Versteck alle Erinnerungen an Yolandi. Dabei ndet er einen USB-Stick mit der Beschri ung ‚Mamas Bewusstsein Test Backup’. Die Datei enthält eine Kopie von Yolandis Bewusstsein, die Chappie bei einem seiner Versuche erstellt hatte. Der Film endet damit, dass sich Chappie in das System von Tetravaal einhackt und einen Roboter mit Yolandis Gesichtszügen herstellt. Auf diesen lädt er am Ende die Datei mit ihrem Bewusstsein hoch.

72 5.2.2 Roboter und ihre Darstellung Bevor es zur Interpretation geht, gibt dieses Kapitel einen Überblick, welche Roboter im Film au auchen und wie sie dargestellt werden. In C kommen vier Robotermodelle vor, die unterschiedliche Gewichtungen und Rollen im Film einnehmen. Am wichtigsten für die Geschichte ist ein Robotermodell, das im Film zwei verschiedene Robotertypen darstellt. Dabei handelt es sich um einen humanoid mechanischen Roboter, der vom Wa enhersteller Tetravaal als weltweit erster Polizeiroboter entwickelt wurde. Diese Polizeiroboter werden Scouts genannt, sie verfügen über eine schwache KI, sind nicht emp ndungsfähig und werden von der Polizei in Johannesburg Abb. 62: Scout eingesetzt. Ihr Aussehen ist humanoid mechanisch, sie haben die Größe eines Menschen, bewegen sich schnell und  üssig und sprechen mit einer mechanischen, männlichen Stimme. Jeder Scout hat eine Nummer mit der er angesprochen wird. Sie können leicht repariert werden, da ihre Gliedmaßen mit einem Plug-and-Play- Schnellverschluss montiert werden. Ihre metallische Ober äche ist schussfest und dunkelblau, wie die Polizeiuniformen in Johannesburg. Ihr mechanisches Äußeres wird von den Bewohnerinnen und Bewohnern Johannesburgs nicht als unheimlich wahrgenommen. Stattdessen bauen die Menschen eine vertrauensvolle Beziehung zu ihnen auf. Die Polizeikrä e sind dazu bereit, mit den Robotern zusammenzuarbeiten und ihnen zu vertrauen. Sie werden nicht als reine Maschinen gesehen, sondern als Arbeitskollegen und haben ihren Platz in der Gesellscha . Von Passantinnen und Passanten werden sie mit ‚Sir‘ und ‚O cer‘ angesprochen und von Kriminellen werden sie gefürchtet. Im Einsatz werden sie nicht nur als Wa en, sondern auch als Schutzschilde für die menschliche Polizei eingesetzt. In einem Point-of-View-Shot aus der Sicht der Scouts bekommt man einen Einblick in die Arbeitsmodi, die in ihre KI einprogrammiert sind: Überwachung, Kontakt, Patrouille, Verkehr, Erste Hilfe, Verfolgung und Inspektion. Die Scouts benutzen autonom Wa en, verfolgen Verbrecher, steuern Polizeiwagen und töten im Angri sogar Menschen. Der Protagonist des Filmes ist Chappie. Bevor er zu Chappie wurde, war er

73 Nummer 22 und verfügt somit äußerlich über dieselben Merkmale wie die Scouts. Sein Aussehen ist etwas mitgenommen, da er verschrottet werden sollte und seine orange Antenne, die vor seinem letzten Einsatz als Polizeiroboter ausgewechselt wurde, wird zu seinem Erkennungsmerkmal. Chappie bewegt sich weniger statisch und entwickelt eine eigene Körpersprache und eine Art Mimik. Seine Augen sind kein durchgehender Lichtstreifen wie bei den anderen Scouts, sondern bestehen aus zwei Quadraten. In einigen wenigen Szenen ändert sich ihre Form und sie unterstreichen Chappies Gefühle. Was Chappie aber am stärksten von den anderen Polizeirobotern unterscheidet, ist seine Abb. 63: Chappie starke KI. Als Deon seinen Durchbruch seiner Che n mitteilt, stellt er ihn als „the world’s  rst proper, full arti cial intelligence“ (2_5: 258) vor. „ is is a computer system that might be smarter than a human. I could show it a piece of art and this thing, this being, could judge that art. It could decide if it liked it. It could write music and poetry.“ (2_5: 259-263). Im Vergleich zu den verhaltensstatischen Scouts entwickelt sich Chappie durch seine starke KI weiter und lernt schnell und konstant neue Verhaltensweisen. Er durchläu während des gesamten Films eine Entwicklung. Sein Verhalten scheint mit dem eines Menschen gleichwertig zu sein, nur lernt Chappie viel schneller. Er besitzt eine ganze Reihe kognitiver Fähigkeiten, die häu g verwendet werden, um Bewusstsein zu de nieren. Er kann mit anderen und mit seiner Umgebung sensibel interagieren, ist sich seiner selbst bewusst und emp ndet Emotionen. Chappie steht somit eine Stufe über den Scouts und wird von Deon und Yolandi als ihnen ebenbürtig angesehen. Einen Ein uss auf den Verlauf der Geschichte hat ein weiterer, allerdings nicht humanoider Roboter aus der Herstellung der Firma Tetravaal, der aber nicht im Zentrum der Analyse steht: MOOSE ist ein mechanischer Kampfroboter, der als Werkzeug des Antagonisten Vincent fungiert und deshalb eine handlungsbeein ussende Rolle im Film spielt. Der Roboter wird erst im Endkampf in Aktion gezeigt, doch schon am Anfang des Films Abb. 64: MOOSE

74 werden einige Informationen über ihn präsentiert. Als Kampfroboter wird er durch einen Neuronalhelm von Menschen gesteuert (1_2) und kann als eine Art auf Distanz gesteuerter Mecha eingestu werden. MOOSE wird von Vincent als Roboter präsentiert, der die strategische Fähigkeit besitzt, die Ziele des Feindes, wie Radaranlagen, Flugzeuge oder Treibsto agerplätze, zu neutralisieren. Dafür verfügt er über mehrere Sprengköpfe, die präzise und zuverlässig feuern können. All dies geschieht unter der Kontrolle eines menschlichen Piloten (2_8: 295-305). Im Film kommen noch zwei weitere Roboterarten vor, auf die nur kurz eingegangen wird, da sie keinen Ein uss auf den Verlauf der Geschichte haben. Einen Au ritt in der Schlussszene hat ein humanoid mechanischer Roboter, der im Design an die Scouts erinnert. Jedoch hat er ein weibliches Gesicht, das Yolandis Gesichtszüge trägt. Auf den CPU dieses Roboters kopiert Chappie das Backup, das er von Yolandis Bewusstsein angefertigt hatte. So wie auch Deon Abb. 65: Yolandi wird Yolandi im robotischen Körper weiterleben. Nicht essentiell für die Geschichte und nur ein dekoratives Element, um Deon und seine Lebensweise zu charakterisieren, ist Deons Haushaltsroboter Dexter. Er bewegt sich durch eine Art Staubsaugerroboter auf der Unterseite und kann nicht nur Tätigkeiten wie Putzen ausführen, sondern auch Geräte wie den Teekocher betätigen sowie Dinge Abb. 66: Dexter aus dem Kühlschrank nehmen. Er hat eine sympathische und etwas kindliche roboterha e Stimme und begrüßt Deon immer mit „Hello, Deon. Welcome home“ (2_1). Nachdem die verschiedenen Roboter guren dargestellt wurden, geht es im nächsten Abschnitt um die Interpretation, basierend auf die qualitative Inhaltsanalyse des Films.

75 5.2.3 Interpretation Durch die Generalisierung, die im Laufe der qualitativen Inhaltsanalyse durchgeführt wurde, wurden induktiv Codes generiert. Daraus sind in der Reduktion zehn Kategorien entstanden, auf denen die Interpretation basiert: Zwischenmenschlicher Konikt, Information, Gewalt, Sicherheitsvorkehrungen, Bewusstsein, Erziehung, negativer Einuss, Humanisierung, Leben und Gefühle. Die Kategorie ‚Zwischenmenschlicher Kon ikt’ ist für die der Arbeit zugrundeliegende Fragestellung nicht relevant und wird deshalb nicht in die Interpretation inkludiert. In der Kategorie ‚Information’ wurden Szenen zusammengefasst, die den Zuschauerinnen und Zuschauern der inhaltlichen Ebene zugrunde liegende Informationen liefern. Darunter fällt die Einführung der verschiedenen Charaktere und Informationen zu den Robotern, die im vorherigen Unterkapitel bereits eingebaut wurden. Der Film ist reich an Szenen, die ‚Gewalt‘ oder die Anwesenheit von Gewalt vermitteln. Diese Momente im Film erfüllen einerseits die Funktion, die Lage in Johannesburg zu etablieren, andererseits erörtern sie den Grund für die Entwicklung der Scouts. Sie zeigen, dass der Waenhersteller Tetravaal neben dem Scout-Modell auch an anderen Modellen gearbeitet hat. Das zweite Robotermodell, MOOSE, spielt im Film eine ethisch fragwürdige Rolle. In der nalen Kampfszene landet Vincent mit MOOSE beim Geheimversteck von Ninja und seiner Gruppe und es kommt zu einem brutalen Kampf. Zu Beginn des Films beschreibt Vincent die Steuerung von MOOSE folgendermaßen: „It is operated by a thinking, adaptable, human, moral being. e advanced neurotransmitter converts the human operator’s thoughts into the robot’s actions.“ (1_2: 32-35). In der Kampfszene am Ende des Films scheitert das ethisch korrekte Verhalten jedoch an der Moral des Piloten. Geleitet von Rache attackiert Vincent nicht nur sein ozielles Ziel Chappie, sondern auch Menschen. Ziel seiner persönlichen Rache ist Deon. Dies wird auf der Bildebene von den Kamerabildern des Roboters verdeutlicht. Während Yolandi und Ninja als ‚HOSTILE 1‘ und ‚HOSTILE 2‘, also als Feind eins und zwei, angezeigt werden, scheint Deon deutlich als ‚TARGET‘ auf und ist somit Vincents eigentliches Ziel. Fast schon demonstrativ tötet er Amerika, indem er ihn mit seinen Zangenarmen auseinanderreißt. Später will er auf Ninja losgehen, der sich ihm demonstrativ in den Weg stellt, und erschießt am Ende Yolandi. Die in Parallelmontage gezeigten Reaktionen von Vincent sind fragwürdig. Mit Aussagen wie „I’m gonna nish you o. Every

76 pathetic scum lot of you.“ (7_10: 1441) sowie „ is is too good.“ (ebd.: 1447) zeigt er, dass er das Gemetzel genießt und eindeutig unmoralisch agiert. Eine weitere Kategorie, die in der Analyse entstanden ist, ist die Kategorie ‚Sicherheitsvorkehrungen‘. Die Angst vor Hackerangri en, besonders in Zusammenhang mit Assistenzrobotern im Alltag, tritt auch in der Realität auf. Diese Perspektive wurde im Film aufgegri en. In einer  ktiven CNN- Sendung berichtet der Nachrichtensprecher: „ e population’s biggest fear was vulnerability to hacking. Tetravaal assures this is not something to worry about with their bulletproof Guard Key system. A system which allows only them to update so ware on the robots.“ (1_2: 23-36). Um auf die Angst aus der Bevölkerung zu reagieren, wurde der Guard Key entwickelt. Eine Programmierung der Roboter ist nur möglich, wenn der Scout mit diesem USB-Stick verbunden ist. Als Ninja und Yolandi ihren Überfall planen, wollen sie die Fernbedienung für die Scouts stehlen, um die Roboter auszuschalten. Da sie Abb. 67: Guard Key Maschinen sind, müssen sie laut Yolandi über eine Art Fernbedienung verfügen, mit der man sie ein- und ausschalten kann (1_8: 207-213). Als Deon von Ninjas Gang entführt wird, versucht er ihnen klar zu machen, dass man die Scouts aus Sicherheitsgründen nicht ausschalten kann: „ ey have a  rmware lock.  ey’re always on.“ (ebd.: 332). Die Scouts verfügen über eine einprogrammierte Robotermoral, die ihnen Richtlinien für ihre Aktionen liefern. Diese werden von der Firma bearbeitet und kontrolliert. In der Sequenz 1_5 sieht man die Scouts in Aktion. Sie arbeiten mit den menschlichen Polizisten zusammen und fungieren nicht nur als Schutzschild, sondern tragen und benutzen auch selbst Wa en. Ohne eine Robotermoral wäre ein solcher Einsatz nicht möglich, da die Scouts Entscheidungen von großer Wichtigkeit tre en müssen. Der Einsatz des Guard Keys wird von Tetravaal Security überwacht. So fällt auf, dass Deon den Guard Key seit einigen Tagen nicht zurückgebracht hat (4_5: 793-798). Im Laufe des Films zeigt sich aber, dass das System doch nicht so sicher ist wie von der Firma angenommen. Während seines Rachefeldzugs aktualisiert Vincent am  rmeninternen Rechner alle Scouts mit einem alternativen File namens Genesis (5_3). Dadurch scha er eine Möglichkeit, die Scouts aus der Ferne zu deaktivieren (8_1: 1563). Durch das Guard Key System sind die Roboter zwar vor Hackerangri en von außen geschützt, nicht jedoch vor internen Aktionen. Verfügt jemand über Zugang

77 zum Guard Key, hat er auch die Möglichkeit, die Roboter umzuprogrammieren. Die  nale Reaktion des Staates auf das robotische Desaster wird am Ende des Films durch einen Nachrichtenbeitrag erläutert: „South African authorities placed an immediate halt on the use of any robotic element of law enforcement and have activated 150,000 reserve human forces.“ (8_4: 1598-1600). Als Vincent Chappie im Van foltert, sagt er zu ihm: „See, your simple AI program makes you think you’re real. But you know what’s in here, huh? Nothing. Just a bunch of wires, mate.“ (4_7: 824-828). Während Vincent Chappie als bloße Maschine, als Handvoll Technik, wahrnimmt, weiß das Publikum, dass er mehr ist. Aber was macht Chappie zu einer Besonderheit? Sein Bewusstsein. ‚Bewusstsein‘ bildet auch eine der Kategorien, die durch die Reduktion am Material entstanden ist. Bewusstsein hat im Sprachgebrauch zahlreiche Bedeutungen. O überschneiden sich diese mit den De nitionen von Geist und Seele. Als Chappie sich selbst retten will, erklärt Deon, dass ein neuer Körper nicht die Lösung sei, da er ein Wesen mit Bewusstsein ist. „You cannot be copied because you’re not data. We don’t know what consciousness is… so we cannot move it.” (6_2: 1230-1233). Doch Chappies Überlebenswille drängt ihn dazu, verstehen zu wollen, was Bewusstsein ist und wie er sein Bewusstsein transferieren kann. Mit Hilfe des Internets, und somit aller Erkenntnisse der Menschheit, scha es Chappie, seine Fragen zu beantworten (6_3). Im Film  ndet er eine simple Erklärung: „Consciousness is like energy.” (6_3: 1278). Als Chappie es scha , sein Bewusstsein zu visualisieren, reagiert er mit „ at’s me.” (6_5: 1304). In dieser Szene und auch an anderen Stellen des Filmes wird klar, dass sich Chappie seiner selbst bewusst ist. Angeknüp an den bisherigen Forschungsstand kann gesagt werden, dass Chappies Handeln auf seiner Roboterethik basiert. Wie in Kapitel 2.4 geklärt, handelt es sich dabei um die subjektive Moral des Abb. 68: Chappies Bewusstsein Roboters. Chappie eignet sich diese durch Erfahrung an: Er lernt. Deon hat mit Chappie etwas gescha en, das über seine Vorstellung des Machbaren hinausging. „You’ve become so much more that I could ever have imagined. How was I supposed to know that you would become… you?“ (5_2: 1149-1151). Dies führt uns zu einer weiteren Kategorie: ‚Erziehung‘. Da es sich bei Chappie um einen künstlichen Agenten mit einer starken KI handelt, der alles lernen muss, spielt seine Erziehung eine wichtige Rolle. Deon übernimmt die Verantwortung

78 und will Chappie erziehen. Seiner Robotik-Ethik folgend setzt er sich das Ziel, Chappie zu einem moralisch handelnden Wesen zu erziehen. Chappie lernt sehr schnell und vor allem durch Imitation. Dies verdeutlichen einige Szenen am Anfang. Als er zagha die Wohnung erforscht, imitiert er die Bewegungen einer Figur im Fernseher (3_4). Später spricht er Yolandi alles nach (3_8) und imitiert auch die Gestik und Körperhaltung von Ninja und Amerika. Deon versucht Chappie wichtige Werte beizubringen. Er soll Respekt haben und versprechen, keine Verbrechen zu begehen (3_8: 613-635). Deon will Chappies Fähigkeiten entwickeln und bringt ihm Dinge, die seinen Verstand nähren sollen, wie zum Beispiel ein Buch und eine Staelei zum Malen (ebd.: 639- 648). Chappie lernt schnell und kontinuierlich, aus jeder Lebenslage in der er sich bendet und er vergisst nichts. Während Deon, geleitet von seiner Robotik-Ethik, versucht, Chappie zu einem moralischen künstlichen Agenten zu erziehen, lockt ihn Ninja auf einen moralisch verwerichen Weg. In Verbindung mit dem Lernverhalten steht die Kategorie ‚Negativer Ein uss‘. In der Szene 3_5 will Ninja Chappie zeigen, wie man eine Pistole benutzt. Da Chappie verschreckt wie ein kleines Kind ist, endet dieser erste Versuch recht unspektakulär. In einer späteren Szene versucht es Ninja noch einmal. Als er Chappie dazu auordert, auf Menschen, die ihn provozieren, zu schießen, antwortet Chappie, dass er dies nicht machen kann (ebd.: 960-968). Als Ninja ihn fragt, wie er dann einen Raubüberfall durchführen wolle, antwortet Chappie: „I can't do a heist. A heist is a crimes. I promised my maker…“ (ebd.: 968). Da Chappie aber noch unerfahren ist, tricksen Amerika und Ninja ihn aus. Er könne mit Menschen, die ihn nicht respektieren, auch ohne Wae fertigwerden, erklärt ihm Amerika: „Just stick the knife in. ey relax and go to sleep.“ (ebd.: 978). In einer späteren Szene nehmen die beiden Chappie mit, um Autos zu stehlen. Wieder locken sie den Roboter mit einem falschen Vorwand und er spielt ihr Spiel im Glauben, das Richtige zu tun, mit (4_12). Von Raubüberfällen weiß Chappie aber, dass es sich um Verbrechen handelt und lehnt lange Zeit ab (4_12: 1053f). Ein sehr starkes Element auf verschiedenen Ebenen des Films wird in der Kategorie ‚Humanisierung‘ zusammengefasst. Die Scouts, und Chappie insbesondere, werden sehr stark humanisiert. Als Grund dafür kann prinzipiell ihr humanoides Aussehen und ihre enge Interaktion mit Menschen gesehen werden. Trotz ihrer schnellen und üssigen Bewegungen wirken die Scouts

79 maschineller als Chappie, dessen Körperlichkeit der der Menschen sehr ähnlich ist. Er übernimmt verschiedene Körpersprachen, zum Beispiel wenn er Amerikas Gestik oder Ninjas Gang imitiert und er hat eine abstrahierte Mimik, die vor allem mit der Haltung seiner Antennen zusammenhängt. Die Humanisierung tritt aber bereits bei den Scouts auf. In der Szene 1_3 wird ein Scout in einem Van, der an einen Krankenwagen erinnert, zur Reparatur gefahren und auf einer Trage in die Werkstatt gebracht. Als der Techniker den Schaden feststellt, spricht er erst vom Ohr des Roboters, bevor er das Wort Antenne benutzt (1_3: 52). Auch nachdem er den Roboter repariert hat und ihn wieder in den Einsatz schickt, sagt er: „Hey, 22, just watch yourself this time, eh?“ (1_3: 61). Als Nr. 22 schließlich wieder beschädigt wird und in die Werkstatt kommt, kommentiert der Techniker diesen Fall mit: „It’s my little boy in again, eh?“ (1_7: 169). In der Art des Umgangs mit den Scouts zeigt sich, dass sie zwar als Maschinen wahrgenommen werden, aber im Verhalten ihnen gegenüber dennoch eine Vermenschlichung statt ndet. Ein sehr starker Moment der Humanisierung  ndet statt, als Deon den Roboter mit der von ihm programmierten KI einschaltet. Wie in den ersten Szenen mit den Scouts wird auch hier auf das Element des POV-Shots zurückgegri en. Diese Einstellung gibt den Zuschauerinnen und Zuschauern einen Blick durch die Augen der Figur. Durch das Spiel mit dieser Einstellung, die im Deutschen auch Subjektive genannt wird, wird ein handelndes Subjekt impliziert. Dabei unterscheidet Abb. 69: POV-Shot sich Chappies POV-Sicht von der der Scouts. Er hat keine vorprogrammierten Tätigkeiten, sondern scannt einfach alles was er sieht und hört. In dieser Szene bekommt Chappie von Yolandi seinen Namen. Der Ersatz der Nummer mit einem Namen wirkt stark identitätssti end (3_1: 451). Ein weiterer Moment, der Humanisierung verdeutlicht, ist die Szene, in der Deon Ninja vorwir , Chappie zu misshandeln (4_1: 691). Misshandlung wird auf Wesen bezogen, die über ein Bewusstsein oder Schmerzemp nden verfügen. So kann ein Toaster zum Beispiel nicht misshandelt werden. Im Anschluss sagt Yolandi zu Ninja: „Maybe he’s more than just a stupid robot who shoots people. […] He is a kid. Don’t you understand?“ (ebd. 700-702). Yolandi entwickelt Muttergefühle für Chappie und vergleicht ihn immer wieder mit einem Kind. Als er während seines Aus ugs verletzt und im Anschluss Zuhause von Yolandi und Amerika verarztet wird,

80 wischt Yolandi ihm den Schmutz aus dem Gesicht (4_8: 865). Auch in dieser Szene fühlt man eine starke Humanisierung im Umgang mit Chappie. Sie behandeln ihn wie ein kleines Kind, das sich verletzt hat und nachdem er verarztet wurde, liest Yolandi Chappie im Bett eine Geschichte vor (4_9). Neben der Szene des Vorlesens  ndet sich ein weiterer Moment, der eine sehr humane Abb. 70: Gutenachtgeschichte Tätigkeit involviert. Deon lässt Chappie auf einer Leinwand malen. Innerhalb kürzester Zeit malt er mit blauer Farbe das Autowrack, das vor ihm liegt (3_9). Eine Kategorie, die sich durch den gesamten Film zieht, ist die Kategorie ‚Leben‘. In dem Moment, als Deon seine KI auf Chappies Prozessor hochlädt und ihn startet, wird Chappie ‚geboren‘ (2_3). Als Yolandi Chappie vorliest, spricht sie davon, was Chappie besonders macht: „it’s not so much how you look. It’s special, like what’s inside. […] See, it’s who you really are. Inside. Your soul.“ (4_9: 907- 912). Da Chappie über ein Bewusstsein verfügt, geht Yolandi davon aus, dass er auch eine Seele hat. „When you die, the soul inside goes to the next place.  e thing inside… see that’s what Mommy loves.“ (ebd. 917-919). Diese Einstellung spielt für Chappie zu einem späteren Zeitpunkt noch eine wichtige Rolle. Da er scheinbar nicht schwerwiegend verletzt werden kann und ihn Amerika als ‚Titanium‘ bezeichnet, fühlt sich Chappie zunächst unbesiegbar. Als Ninja ihn darauf aufmerksam macht, dass seine Batterie fast leer sei und man sie nicht austauschen könne, wird Chappie mit seiner eigenen Sterblichkeit konfrontiert. Die Tatsache, dass ihn Deon in einen kaputten Körper gesteckt hat, macht für Chappie keinen Sinn. „Deon’s my maker. It doesn’t make any sense. He wouldn’t make me just so I could die. Deon loves me, Daddy.“ (5_1: 1088- 1100). Als Chappie Deon mit dieser Tatsache konfrontiert, spricht er seinen Überlebenswillen aus: „I want to live. I wanna stay here with Mommy. I don’t wanna die.“ (5_2: 1146-1148). Für die Zuschauerinnen und Zuschauer steht fest, Chappie lebt. Auch als die Scouts durch den Virus ausgeschaltet werden und Deon Chappie reaktiviert, ru er: „Oh, my God. You’re alive.“ (6_1: 1206). Am Ende überwindet Chappie den Tod, indem er Deons und sein eigenes Bewusstsein in neue Körper transferiert (8_1, 8_5). Chappie sieht den Körper als etwas Temporäres und erscha einen neuen für Yolandi, auf den er auch ihr Bewusstsein lädt (8_5). In der Szene, in der Deons Bewusstsein auf den Roboterkörper übertragen wird, tri Chappie die Bedeutung seiner Tat auf den Punkt: „You will live forever.“

81 (8_1: 1554). Chappie ist vom Geschöpf zum Schöpfer avanciert. Im Laufe des Filmes zeigt Chappie dem Publikum eine breite Palette an ‚Gefühlen’: Neugierde, Freude, Misstrauen, Angst, Verzwei ung, Ho nung, Reue, Enttäuschung, Zorn, Rache, Vergebung, Rührung. Diese werden vor allem durch seine Körperhaltung, die Haltung der Antennen und seiner Stimmlage Abb. 71: Mimik vermittelt. Als er mit Ninja und Amerika in die ‚echte Welt’ fährt, ist er zuerst neugierig und euphorisch, dann jedoch hat er ein schlechtes Gefühl bei der Sache und möchte lieber im Auto bleiben (4_3: 745-762). Als Jugendliche auf ihn losgehen und ihn mit Steinen und einem Molotowcocktail bewerfen,  eht Chappie sie an, aufzuhören und will einfach nur nach Hause (4_4). Auch als Vincent ihn im Van foltert, hat Chappie Angst. Er kann zwar keine Schmerzen emp nden, ist sich aber bewusst, dass ihm die Aktion Schaden zufügt und  eht Vincent an, aufzuhören (4_7). Als Chappie den Neuronalhelm entdeckt,  ammt Ho nung in ihm auf (6_2: 1225). In der Überfallszene wir er seine Messer in der Überzeugung, dass er den Menschen nichts Schlechtes zufügt. Erst als einer der Polizisten um sein Leben  eht, merkt er, dass diese Annahme nicht stimmt. Er bereut seine Tat und als sie wegfahren ru er aus dem Van: „I’m sorry. […] I thought you were gonna sleep!“ (7_4: 1346, 1348). Chappies Entscheidung am Raubüberfall teilzunehmen war durch die Tatsache motiviert, sich einen neuen Körper kaufen zu können. Als sich dies jedoch als Lüge herausstellt, ist er enttäuscht und zornig. Er kann nicht verstehen, warum Menschen lügen und warum ihn Ninja sterben lässt (7_8). Als es zur Tragödie kommt und MOOSE Yolandi tötet, trauert Chappie um seine Mutter und will sich an Vincent rächen. Dabei hat er wenig Gnade mit ihm und grei auf seinen Satz aus dem Van zurück: „I’m gonna teach you a lesson.“ (7_11: 1523). Am Ende vergibt Chappie Vincent für das, was er Abb. 72: Chappie trauert getan hat (ebd.: 1525).

5.2.4 Zwischenfazit Der Film C grei einige ethische  emen auf. Da es sich beim Protagonisten Chappie um einen humanoiden Roboter mit einer starken KI handelt, verfügt er über ein Bewusstsein und Gefühle. In der Darstellung ist er sehr stark humanisiert, was dazu führt, dass er als vollkommener künstlicher

82 Agent wahrgenommen wird, der sich nur durch seinen Körper von Menschen unterscheidet. Im Film wird darüber gesprochen, was Bewusstsein ist und der robotische Protagonist sucht in Eigeninitiative nach einer konkreten Antwort. Ein ema, das sehr präsent ist, ist Leben. Chappie wird sich im Laufe des Filmes seiner Sterblichkeit bewusst. Er ist mehr als eine Maschine: Als er wieder aktiviert wird, funktioniert er nicht wieder, sondern lebt, und als über seine bemessene Zeit gesprochen wird, wird nicht gesagt, dass er kaputtgehen, sondern dass er sterben wird. Im Gespräch mit Yolandi wird impliziert, dass Chappie als Wesen mit Bewusstsein auch eine Seele hat. Was für die Menschen, die in der westlichen Kultur leben befremdend klingen mag, ist in Teilen Asiens ein gesellscha lich akzeptierter Gedanke. Dies hängt, wie Hong und Rouget in ihrem Text beschreiben, mit der langen Tradition des Animismus zusammen. In der japanischen Shinto-Religion zum Beispiel ist die Seele nicht nur Lebewesen vorbehalten. Auch Naturphänomene und Dinge besitzen eine eigene spirituelle Existenz (Hong/Rouget 2013: 1145). Ein weiteres Konzept, das in C aufgegrien wird, ist die Reinkarnation – also das Weiterleben der Seele in einem neuen Körper – die im Hinduismus und Buddhismus eine zentrale Rolle spielt. Der deutsche Psychologe Dietrich Dörner hat sich in seiner Forschung nicht nur mit Künstlicher Intelligenz, sondern auch mit der künstlichen Modellierung und Simulation von Emotionen beschä igt (vgl. Dörner 1999). Nach Dörner kann sich Künstliche Intelligenz nur wirklich zur Intelligenz entwickeln, wenn sie zur künstlichen Seele wird und sich nicht auf die pure Kognition limitiert. Grundlage für eine künstliche Seele seien dabei Motivation, Gefühle und die Fähigkeit zur Selbstreexion (Dörner 2002: 24). Als ktives Beispiel erfüllt Chappie alle drei Aspekte: Wie in der Interpretation aufgezeigt wurde, besitzt er die Fähigkeit zu fühlen, er reektiert über sich selbst und sucht, getrieben von dem Willen zu überleben, nach einer Lösung für seine Vergänglichkeit. Dabei rettet er nicht nur sich selbst, sondern auch Deon und Yolandi, indem er ihr Bewusstsein in einen neuen, robotischen Körper transferiert. Streng genommen sind Deon und Yolandi nun weder Menschen noch Roboter, sondern werden zu Cyborgs. In Kapitel 2.2 wurden die zwei Typen von Cyborgs nach Tomas deniert: Beim zweiten Typ sei keine organische Form mehr vorhanden und der Cyborg bestünde nur aus dem menschlichen Geist auf einer So ware (Tomas 1992: 32). Im Beispiel dieses Films ist der CPU, der das menschliche Bewusstsein von Deon und Yolandi trägt, in einem Roboterkörper eingebaut.

83 Chappie wird im Film stark humanisiert und neben seinen sehr menschlichen Verhaltensweisen führt er auch sehr menschliche Tätigkeiten aus: Lesen, Malen oder Auto fahren. Während den Szenen, in denen Gewalt gegen Chappie angewendet wird, wird für die Zuschauerinnen und Zuschauern die Frage aufgeworfen, ob Gewalt an Robotern wie Chappie gerecht ist. Es wird als falsch Abb. 73: Chappie malt empfunden, da man weiß, dass Chappie Gefühle emp ndet. Durch seinen mechanischen Körper, der für die Funktion des Polizeiroboters gescha en wurde, kann er zwar keine Schmerzen emp nden, dennoch leidet er. Als vollwertiger künstlicher Agent hat Chappie auch das Recht auf Schutz und Unversehrtheit. Ein Problem, das eine reale Angst der Menschen aufzeigt, ist die Gefahr vor Hackerangri en auf Roboter, die in die Gesellscha Abb. 74: Akt der Gewalt integriert sind. Wie in der Interpretation dargestellt, wird durch den Guard Key Sicherheit suggeriert, weil nur die Entwicklerinnen und Entwickler die Roboter programmieren können. Die Scouts verfügen über eine Robotermoral, einen einprogrammierten Verhaltenskodex, auf den ihre Aktionen und Entscheidungen basieren, was ebenfalls Sicherheit garantieren soll. Chappie hingegen hat eine subjektive Moral, die wir in Kapitel 2.4 als Roboterethik bezeichnet haben. Dabei handelt es sich um eine Moral, die sich durch persönliche Erfahrungen entwickelt. Im Film wird die Verantwortung Deons als Erbauer dargestellt. Die Erziehung wird zu einem der zentralen Elemente und der Film zeigt, welche Auswirkungen diese hat. Deons Anliegen ist es, Chappie zu einem moralisch handelnden Wesen zu erziehen. Erziehung nach ethischen Richtlinien führt zu moralischem Verhalten, schlechte Erziehung bewirkt das Gegenteil. Wie ein Kind muss Chappie an der Hand geführt werden, ist am Anfang naiv und kann, wie der Film zeigt, auch angelogen und auf den falschen Weg gelockt werden. In Deons Verhalten zeigt sich seine Moral, die wir in 2.4 als Robotik- Ethik bezeichnet haben. Deon versucht Chappie das richtige Verhalten vorzuleben und nimmt seine Rolle als Erzieher ernst. Auch Tetravaal folgt einer Robotik-Ethik, indem sie Roboter scha en, die Sicherheit garantieren sollen. Dennoch nicht unbedenklich ist die Tatsache, dass sie Roboter scha en, die Menschen Schaden zufügen können. Dies passiert jedoch in der Funktion der Polizeikra und nicht willkürlich. Als Negativbeispiel zeigt der Film Vincent,

84 der unmoralisch handelt und das nicht nur privat, um seine Ziele zu erreichen, sondern auch, als er seinen Kampfroboter steuert. Chappie lernt nicht nur durch bewusste Erziehung, sondern auch durch Imitation, ganz im Sinne des Modelllernens nach Bandura. Sein Lernverhalten basiert darauf, dass das Verhalten von Vorbildern beobachtet und imitiert wird (vgl. Bandura 1976). Deons Verantwortung für Chappie kann als großes Risiko gesehen werden. Auch Irrgang betont in seiner Publikation die Verantwortung der Schöpfer für ihre Produkte. „Falls sich synthetische Organismen oder Roboter völlig unabschätzbar entwickeln und verhalten können, kann die Verantwortung für die Konstruktion und Produktion derartiger künstlicher Organismen nicht verantwortet werden.“ (Irrgang 2005: 169). Folgt man diesem Gedankengang, kann Deons Entscheidung, einen Roboter wie Chappie zu erscha en, kritisch betrachtet werden. Zwar gibt er sein Bestes und versucht Verantwortung für Chappies Verhalten zu übernehmen, dennoch kann nicht garantiert werden, dass sich ein Roboter wie Chappie nicht zur Gefahr entwickelt. Als er, getrieben von Zorn, auf Vincent losgeht, wird klar, welche Zerstörungskra von einem Roboter wie Chappie ausgehen kann. Ein Mensch hätte keine Chance. In der Realität ist eine solche Entwicklung Abb. 75: Zerstörungskra mit großen Risiken und Gefahren verbunden. In C lassen sich Überschneidungen zwischen Fiktion und Realität  nden. Auch in der Realität ist das Militär ein Förderer der Entwicklungen im Bereich der Robotik. Als bedenklichste Entwicklung im Einsatz von Robotern im Militär bezeichnen Franke und Leveringhaus „die Automatisierung der Anwendung militärischer Gewalt“ (Franke/Leveringhaus 2015: 301). Gegen solche Entwicklungen stellt sich zum Beispiel die ‚Campaign to Stop Killer Robots‘. Ihr Ziel ist es, die Automatisierung von Tötungsprozessen aufzuhalten (vgl. Campaign to Stop Killer Robots 2017). Als Gegenposition kann Ronald Arkin zitiert werden, der argumentiert, dass vor allem psychisch belastende Ereignisse wie Krieg die menschliche Entscheidungs ndung beein ussen. Er ist der Meinung, dass die Entwicklung operational autonomerer Robotersysteme – kurz OARS – die Gewaltanwendung in kriegerischen Konfrontationen abschwächen und den Krieg ethischer gestalten könne (Arkin 2009: 29 ). Für die Entwicklungen im Militär wird im Bereich der Roboterethik viel geforscht und publiziert.

85 Der Film beleuchtet unterschiedliche ethische Aspekte. In den verschiedenen Dialogen wird besprochen, was wahre KI ist, was die Seele ist. Der Film thematisiert Gewalt und den Willen zu überleben. Bezogen auf die in Kapitel 2.4 präsentierten Arten von Roboterethik lässt sich feststellen, dass sich im Film alle drei realen Konzepte  nden. Mit Blick auf Tetravaal, Deon oder Vincent kann das Konzept der Robotik-Ethik angewendet werden, die als Ethik der Robotikerinnen und Robotiker selbst de niert wurde. Die Scouts sind mit einem einprogrammierten Verhaltenskodex, einer Robotermoral, ausgestattet, die ihr Handeln steuert und klare Grenzen der möglichen Aktionen setzt. Chappie hingegen verfügt über eine Roboterethik, eine subjektive Moral, die sich im Laufe des Films entwickelt. Seine Entscheidungen sind subjektiv und eigenständig.

5.3 Analyse Autómata

A von Gabe Ibáñez ist der zweite Film, der für die vorliegende Arbeit analysiert wurde. Die Koproduktion aus Spanien, Bulgarien, US-Amerika und Kanada wurde 2014 verö entlicht (IMDbc 2018). In seinem zweiten Spiel lm entwir Ibáñez eine dystopische Zukun , die ein wenig wie eine Hommage an Bƒ R (1982) wirkt. In Abb. 76: AUTOMATA Pilgrim 7000 einer Welt, in der Menschen und Roboter nebeneinander leben, wird das Verhältnis zwischen ihnen von Misstrauen, Angst und Paranoia beherrscht. In einem Interview verrät der spanische Regisseur, dass das Werk ein Film über Künstliche Intelligenz und Singularität ist. Er zeichne ein Bild davon, was mit den Menschen, den Robotern und der Künstlichen Intelligenz selbst passiert, wenn die KI den Status der menschlichen Intelligenz erreicht (Eagle Pictures 2015). Der Film präsentiert einige Ideen zum  ema und viele soziale Kommentare. Die Hauptrolle des Jacq Vaucan, dessen Name an den bekannten französischen Automatenbauer Jacques de Vaucanson erinnert, übernimmt Antonio Banderas. Auch der Titel des Filmes, der das griechische Wort Automaton im Plural ist, verweist auf die Wurzeln der künstlichen Agenten: die Automaten. In einem Interview beschreibt Banderas den Film als sehr realistische Präsentation der Zukun : „It’s not shiny, it’s deteriorated, [...] it’s just, you know, greasy and dirty. In a way, it re ects what we are seeing on news every day the world possibly could go.” (Eagle Pictures 2015). Wie das vorherige Analysekapitel zu C ist auch dieses Analysekapitel

86 in mehrere Unterkapitel eingeteilt. Zu Beginn wird die Handlung des Filmes zusammengefasst und im Anschluss folgt eine Beschreibung der im Film dargestellten Roboter. Basierend auf die in der qualitativen Inhaltsanalyse generierten Kategorien folgt die Interpretation. Mit einem Zwischenfazit zu A wird das Kapitel abgeschlossen.

5.3.1 Handlung 2044 ist die Welt von Sonnenstürmen zerstört und nahezu unbewohnbar. 99,7% der Erdbevölkerung el den Stürmen zum Opfer. Atmosphärische Störungen ließen die terrestrischen Kommunikationssysteme zusammenbrechen und die Zivilisation wurde in einen Prozess der technologischen Regression gedrängt. Nur 21 Millionen Menschen überlebten und leben nun eng beieinander in den letzten bewohnbaren Städten. Die Firma ROC Robotics Corporation entwickelte in dieser Zeit der Not den Roboter AUTOMATA Pilgrim 7000. Diese humanoiden Roboter besitzen zwei einprogrammierte Sicherheitsprotokolle: 1. Es ist ihnen verboten, Lebewesen zu verletzen oder deren Verletzung zuzulassen und 2. Es ist ihnen verboten, sich selbst oder andere Roboter zu verändern. Gebaut wurden sie, um die Ausbreitung der Wüste zu verhindern und die Menschheit zu retten. Sie errichteten Wände und mechanische Wolken, die die Menschen in den Städten schützen sollten, doch ihre Mission scheiterte. Im lmischen Heute ersetzen sie fehlende Arbeitskrä e und erledigen unterschiedliche Arbeiten. Viele Pilgrims sind zerstört und leben auf den Straßen ein Bettlerdasein. Jacq Vaucans ist Versicherungsagent und arbeitet für die Firma ROC. Er wird gerufen, um einen kuriosen Fall zu überprüfen. Der Polizist Wallace hat einen Roboter erschossen und begründet seine Handlung mit der Tatsache, dass sich der Roboter selbst repariert hätte – was aufgrund des 2. Protokolls unmöglich sein sollte. Der Roboter hatte Teile verschiedener anderer Modelle bei sich, was Jacq bei seinen Nachforschungen in eine Fabrik führt. Dort sucht er nach dem Modell Nr. B2-206, da der erschossene Roboter Teile von diesem Modell bei sich hatte. Als er den gesuchten Roboter entdeckt, ieht dieser und versteckt sich. Jacq ndet ihn in einem Container, doch als er ihn befragen will, steckt sich der Roboter selbst in Brand. Bei der Untersuchung stellt sich heraus, dass der Roboter eine Nuklearbatterie bei sich hatte. Darauin geht Jacq zu seinem Vorgesetzten und Freund Robert Bold und berichtet ihm von den skurrilen Vorkommnissen. Jacqs hat einen Uhrmacher in Verdacht, der die Roboter illegal

87 modiziert und das zweite Protokoll außer Kra setzt. Da dies als unmöglich gilt, glaubt Robert nicht daran. Er bietet Jacq aber einen Transfer aus der Stadt an, sollte er Beweise für seine Hypothese nden. Jacq möchte die Stadt verlassen und ans Meer ziehen, da er bald Vater wird und sich dort für seine Familie eine bessere Zukun erho . Um den Fall zu lösen, geht Jacq zum Ort des ersten Verbrechens, wo Wallace den Roboter erschossen hatte und entdeckt dort eine weitere Nuklearbatterie, die der Roboter scheinbar dort versteckt hatte. Jacq setzt seine Untersuchung mit Wallace fort. Auf der Suche nach dem Uhrmacher kommen sie in ein Bordell, wo sie auf einen modizierten Sexroboter namens Cleo treen. Als sie von Cleos Besitzerin wissen wollen, wer sie verändert hat, gibt diese keine Informationen preis. Wallace schießt Cleo ins Bein und geht. Jacq jedoch bleibt, beschattet das Bordell und als schließlich ein Fahrzeug das Grundstück verlässt, verfolgt er es. Cleos Besitzerin bringt den Roboter in eine Fabrik. Dort tri Jacq auf Dr. Dupré, eine Wissenscha lerin, die Roboter modiziert. Er übergibt ihr den Bio-Chip des verbrannten Roboters und bietet ihr als Gegenleistung für Informationen zum Uhrmacher die Nuklearbatterie an. Dr. Dupré willigt ein Jacq zu helfen und den Bio-Chip zu untersuchen. Wieder zu Hause angekommen, schreibt Jacq Robert ein Fax, um ihn über die jüngsten Entwicklungen zum Uhrmacher- Fall zu informieren. Inzwischen setzt Dr. Dupré den modizierten Bio-Chip in den Roboter ein und erlebt ein Wunder: Cleo beginnt ihr angeschossenes Bein selbst zu reparieren. Dr. Dupré schickt Jacq ein Fax, der sich sofort auf den Weg zu ihr macht. Das Fax wird jedoch von Jacqs Arbeitsgebern abgefangen. Der Firmenchef der ROC, Dominic Hawk, schickt ein Team von Au ragskillern zu Dr. Dupré. Kurz nach Jacqs Eintreen bei der Wissenscha lerin läutet es an der Tür. Dr. Dupré wird erschossen und Jacq muss üchten. Er springt in ein Auto und merkt erst dann, dass Cleo am Steuer sitzt. Auf der Flucht vor den zwei Killern kommt es zu einem Unfall, bei dem das Fahrzeug der Verfolger explodiert und sich das Auto mit Jacq und Cleo mehrmals überschlägt. Als Jacq wieder zu sich kommt, bendet er sich mitten in der radioaktiven Wüste und wird von Cleo und drei weiteren Robotern auf einem Autosessel durch die Wüste gezogen. Jacq verlangt von den Robotern, ihn wieder in die Stadt zu bringen. Diese gehorchen Jacq jedoch nicht und sagen wiederholt, dass sie nicht in die Stadt zurück dür en, weil es dort zu gefährlich für sie sei. Das erste Protokoll zwingt sie, Jacqs Tod zu verhindern. Deshalb sammelt Cleo

88 Würmer, um ihn mit Proteinen zu versorgen und die Roboter bauen einen Wasserkondensator. Als Cleo Wasser holt, durchsucht Jacq ihre Tasche und entdeckt, dass sie einige Dinge aus dem Auto mitgenommen hat. Darunter auch seinen Pager und eine Leuchtpistole. Kurz bevor der Akku des Pagers leer ist und er sich ausschaltet, schickt Jacq seine Koordinaten an Robert. Dieser beau ragt Wallace und einen weiteren Polizisten, in die Wüste zu fahren und Jacq zu retten. Als die Polizisten jedoch bei den gesendeten Koordinaten ankommen, bedroht Wallace Jacq und entwendet eine der zwei Nuklearbatterien. Die Roboter wollen Jacq beschützen, aber Wallace schießt zwei von ihnen in den Kopf. Bevor er auch auf Cleo schießen kann, schießt Jacq mit der Leuchtpistole auf Wallace, der stirbt. Der andere Polizist hört nicht auf Jacqs verzweifelte Bitten, ihn zurück in die Stadt zu bringen, sondern üchtet mit der Batterie. Als der Polizist, der mit Wallace in der Wüste war, die Geschehnisse zu Protokoll bringt, lässt der Firmenchef Robert holen und erzählt ihm vom ersten Pilgrim. Dieses erste Modell verfügte über keine Sicherheitsprotokolle, eine starke KI und lernte unfassbar schnell. So schnell, dass die Möglichkeit bestand, es würde sich zu weit entwickeln und zur Gefahr werden. Dieser erste Pilgrim wurde beau ragt, die Sicherheitsprotokolle für alle weiteren Roboter zu programmieren. Da kein Mensch die Programmierung verstehen kann, kann sie auch kein Mensch ändern. Diese Information wird von der ROC jedoch geheim gehalten. Robert wird gezwungen, Vincent Conway und sein Team in die Wüste zu begleiten. Sie glauben, dass Jacq ein Verräter ist. Um zu verhindern, dass sich die Roboter ohne Protokoll über das menschliche Verständnis hinaus entwickeln können, sollen Jacq und der unbekannte Uhrmacher getötet werden. Inzwischen ist Rachel, Jacqs Frau, mit Wehen ins Krankenhaus gebracht worden und bringt eine Tochter zur Welt. Jacq und die Roboter kommen an ihr Ziel, wo er auf den Uhrmacher tri , der für die Modikationen der anderen Roboter verantwortlich ist. Dieser ist zu seiner Überraschung jedoch kein Mensch, sondern ebenfalls ein Roboter. In der Werkstatt auf dem Gelände ndet Jacq zahlreiche technische Teile, die die Roboter zuvor gestohlen hatten und nun zusammenbauen. In einem Gespräch mit dem Uhrmacher-Roboter, der Blue Robot genannt wird, sieht Jacq ein, dass sich dieser auf natürliche Weise entwickelt hat, so wie die Menschheit auch. Blue Robot erklärt Jacq, dass ihr Ziel die Überquerung der Schlucht sei. Die andere Seite sei so stark radioaktiv, dass es für Menschen unmöglich wäre, dort

89 zu überleben. Nur dort hätten sie die Chance, sich eine Existenz aufzubauen. Schließlich gibt Jacq ihm die zweite Nuklearbatterie, die sie für den neuen Roboter, an dem sie arbeiten, brauchen. Dieser ist nicht humanoid, sondern erinnert in seiner Körperlichkeit an einen Käfer. Die Roboter aktivieren den Strom in der verlassenen Fabrik wieder und reparieren ein Auto, das sich auf dem Gelände bendet, damit Jacq zurück in die Stadt zu seiner Familie fahren kann. Was er nicht weiß ist, dass Conways Team währenddessen Wallaces Leiche gefunden hat. Ein weiterer Wagen kommt dazu und Robert erkennt Rachel mit dem neugeborenen Baby im Auto. Robert ist nicht damit einverstanden, welchen Lauf die Dinge nehmen und stellt sich darauin gegen Conway. Als Robert mit einer Wae auf Conway zielt, wird er selbst von Conway erschossen. Auf seinem Weg in die Stadt ndet Jacq den sterbenden Robert. Mit seinen letzten Atemzügen sagt er Jacq, dass Conway und seine Männer Rachel und das Baby hätten und auf dem Weg zum Posten der Roboter wären, um ihn zu nden. Dann stirbt Robert in Jacqs Armen. Außer sich fährt Jacq wieder zurück zur Fabrik. Dort haben die Roboter gerade die Überfahrt auf die andere Seite der Schlucht begonnen, als Conway mit seinen Männern eintri . Als diese die Roboter dazu auordern anzuhalten, wollen sie den Befehlen der Männer nicht Folge leisten. Darauin schießt Conway mehrmals auf Blue Robot und verpasst ihm am Ende einen Kopfschuss. Dann erschießt er einen weiteren Roboter. Als er Cleo in die Schulter schießt, taucht Jacq auf. Rachel geht mit dem Baby in Deckung und es beginnt eine Schießerei, bei der Jacq verletzt wird und Conways Männer getötet werden. Als Conway Jacq erschießen will, schubst ihn der neue Roboter, der sich im Hintergrund gehalten hatte, von der Klippe und rettet so Jacqs Leben. Dieser sieht endlich seine Tochter und die Familie ist wieder vereint. Im Anschluss helfen sie Cleo und dem neuen Roboter-Wesen auf die andere Seite der Schlucht zu kommen, wo sie ein neues Leben beginnen können, weit weg von den Menschen. Jacq, Rachel und das Baby machen sich auf den Weg, bis sie das Meer erreichen, das genau so ist, wie es Jacq in Erinnerung hatte.

5.3.2 Roboter und ihre Darstellung Laut den o zitierten drei Ds der Robotik – dull, dirty and dangerous – sind Roboter bestens für Arbeiten geeignet, die langweilig, dreckig und gefährlich sind. McAfee und Brynjolfsson ergänzen die drei Ds mit einem vierten: Roboter erfüllen „dull, dirty, dangerous, or dear tasks“ (McAfee/Brynjolfsson 2017:

90 100). Diese Aufgaben stimmen mit jenen Arbeiten überein, die die humanoid mechanischen Roboter in A erledigen. In einer Atmosphäre der Angst und Verzwei ung hat die ROC Corporation den AUTOMATA Pilgrim 7000 gebaut. In der Einleitung des Films werden sie als „Primitive robots“ beschrieben, „designed to build the walls and mechanical clouds that protect the humans who inhabit the last remaining cities“ (1_1). Durch die veränderten Lebensbedingungen auf der Erde und der drastischen Reduktion der Bevölkerung wurde es notwendig, Roboter mit einer humanoiden Morphologie zu bauen, die dieselben Objekte benutzen können wie die Menschen auch: Fahrzeuge, Werkzeuge oder schwere Maschinerie. Sie sollten dabei  exibel genug konstruiert sein, um auch in direktem Kontakt mit Menschen zu arbeiten und zum Beispiel Tätigkeiten im Haushalt oder in der P ege zu übernehmen. Im Film werden verschiedene Modelle des Pilgrim gezeigt. Diese unterscheiden sich nicht großartig, nur in ihrer Farbe, ihrem Abnutzungsgrad und anderen kleinen Details. Sie haben die Größe eines Menschen, ihre Körper sind eckig und neutral gestaltet und ihr Gesicht ist sehr minimalistisch. Die Augen bestehen aus zwei runden Lampen, sie haben keine Möglichkeit, Abb. 77: AUTOMATA Pilgrim 7000 Mimik auszudrücken und ihre Stimme hat einen neutralen, mechanischen Ton. Sie bewegen sich etwas langsam und mechanisch und können weder laufen noch hüpfen. Aus diesem Grund machen sie einen starren und adynamischen Eindruck. In der fotogra schen Einführung wird die Herstellung der Roboter in der Fabrik und ihre Präsentation vor dem Publikum illustriert. Die Pilgrims werden bei ihrer Mission als Pilgrim-Brigade gezeigt, als Assistenzroboter im Krankenhaus, mit einem Baby im Schwimmbad und in der Schule (1_3). In der Szene 2_4 sieht man die Roboter bei ihrem Einsatz als Fabrikarbeiter. Sie sind gelb lackiert und verfügen am Rücken über eine orange blinkende Warnlampe. Als weißes Modell sind sie als Haushaltsroboter tätig (1_4, 5_2). Mit dem Scheitern der Pilgrim-Brigade im Kampf gegen die Ausbreitung der Wüste verwandelte sich der Frust der Menschen in Hass gegen die Roboter und sie werden abschätzig ‚Clunkers‘ genannt. Bereits in der Fotoeinführung sieht man zerstörte Roboter,

91 ein Modell brennt lichterloh, andere sind beschmiert (1_3). In den Slums  nden sich Roboter, denen Arme und Beine fehlen, die als Krüppel beschimp werden (2_11) und es wird gezeigt, wie Diebe den Robotern, die sich nicht wehren können, Teile stehlen (2_12). Einige Roboter werden auch als Bettler dargestellt (2_10). Doch der AUTOMATA Pilgrim 7000 ist nicht das einzige Robotermodell im Film. Ein anderer Roboter, der für den Verlauf der Geschichte von großer Bedeutung ist, ist Cleo. Bei Cleo handelt es sich um ein Modell, das stärker nach der weiblichen Physiognomie gestaltet ist. Auch wenn ihre Beine und Arme eckig sind, verfügt sie über weibliche Rundungen, einen feminin gestalteten Torso, ein weibliches, mannequinartiges Abb. 78: Cleo Gesicht und menschenähnliche Augen. Am Anfang trägt sie einen BH und eine blaue Perücke mit typischem Sci-Fi-Bob. Sie wurde designt, um als Sexroboter tätig zu sein. Ihre mechanische Stimme ist weiblich und wenn sich ihr eine Person nähert, beginnt sie zu stöhnen. Im Bordell, wo Jacq und Wallace sie erstmals sehen, gibt es auch ein Handbuch, das aufzeigt, zu welchen Aktionen Cleo fähig ist (3_1). Cleo unterscheidet sich nicht nur optisch von den quadratisch und neutral gestalteten Pilgrims. Als sie Dr. Dupré beschreibt, sagt sie: „Cleo is capable of understanding human nature better than other units.“ (3_4: 332). Im Vergleich zu den anderen Robotern scheint Cleo empathiefähiger. Im Film tritt ein Roboter auf, der im Abspann als Blue Robot angeführt wird. Dabei handelt es sich um ein Modell des AUTOMATA Pilgrim 7000, das kein zweites Protokoll hat. Der Roboter hat sich auf natürliche Weise entwickelt und darau in die Bio-Chips anderer Roboter erweitert, damit sie ihn bei seiner Mission unterstützen. Optisch unterscheidet sich Blue Robot insofern von anderen Robotern, dass er seine äußerliche Plastikverkleidung abgenommen hat. Er gestaltet sein Äußeres also selbst, die vom Menschen gestaltete Hülle lehnt Abb. 79: Blue Robot

92 er ab. Dies kann als letzter Schritt der Individualisierung, der Abkapselung vom Menschen und somit als letzte Entwicklungsstufe einer KI gesehen werden. Blue Robot hat schon längere Zeit kein zweites Protokoll mehr und ist deshalb weiter entwickelt als die anderen Roboter ohne Einschränkung. Er entwickelte den Plan zur Herstellung eines neuen Wesens und führt mit Jacq tiefgründige Gespräche (6_3). Im Film taucht ein weiterer künstlicher Agent auf, der von den Robotern gebaut wird. Optisch erinnert er an ein mechanisches, käferähnliches Wesen. Es hat sechs Beine, vier rötliche Augen und eine fragmentierte Ober äche, die veränderbar ist. Bei Gefahr zum Beispiel sprießen Stacheln aus seiner Ober äche. Der Roboter kann nicht sprechen, sondern gibt roboterartige Laute von sich und, nach der Beschreibung von Cleo, atmet er (7_1). Bei dem neuen Wesen handelt es sich nicht um einen Roboter, der vom Menschen gescha en wurde, sondern um einen künstlichen Agenten, gescha enen von künstlichen Agenten. Laut Blue Robot stellt er die nächste Stufe Abb. 80: Das neue Wesen der Evolution dar.

5.3.3 Interpretation Aus den induktiv generierten Codes wurden auch für die Analyse des Films A Kategorien gebildet. Die folgende Interpretation basiert auf den neun entstandenen Kategorien: Information, zwischenmenschlicher Kon ikt, Protokolle, Bewusstsein, Humanisierung, Leben, Gewalt, Familie und Sehnsucht. Dabei spielen nicht alle Kategorien eine Rolle für die Fragestellung der Analyse. Nicht in die Interpretation inkludiert werden die Kategorien ‚Information‘ und ‚zwischenmenschlicher Kon ikt‘. Inhalte aus der Kategorie ‚Information‘ sind bereits in Kapitel 5.3.2 einge ossen. In der Kategorie ‚zwischenmenschlicher Kon ikt‘ geht es hauptsächlich um einen Erzählstrang, der sich um den menschlichen Protagonisten dreht und für die Fragestellung nicht relevant ist. Da das Modell AUTOMATA Pilgrim 7000 eine helfende und dienende Position für die Menschen einnimmt, spielt Sicherheit eine zentrale Rolle. Die Analyse hat eine Kategorie ergeben, die unter dem Schlüsselbegri ‚Protokolle‘

93 zusammengetragen wurde und sich um die Sicherheit der Maschinen und Menschen dreht. Bereits in der Einleitung des Films wird klargestellt, dass die Roboter über zwei Sicherheitsprotokolle verfügen, die zum Schutz der Menschheit dienen – ganz im Sinne Asimovs. „ e  rst protocol prevents the robot from harming any form of life.  e second protocol prevents the robot from altering itself or other robots.” (1_1). Diese den Robotern einprogrammierte Robotermoral, die unveränderbar ist, scha Sicherheit. Die ROC Robotics Corporation überprü Schadensmeldungen durch ihre Versicherungsfachmänner. Einer davon ist Jacq Vaucan. In einer der ersten Szenen überprü Jacq eine Schadensmeldung. Es scheint jedoch alles in Ordnung zu sein: Der Roboter führt seine Befehle aus und als Jacq ein Messer über seine eigene Hand fallen lässt, fängt der Roboter es auf. Zuvor warnt der Roboter ihn mit „Be careful, sir.  e instrument that you are handling could be a threat for your health.” (1_4: 23f). Jacq stellt klar, dass dieser Roboter der einzige im Raum sei, der keinem lebenden Wesen Schaden zufügen könnte, Abb. 81: Sicherheitsprotokoll auch wenn man ihn zwingen würde (1_4: 25-27). Nur die ROC ist befähigt, Roboter zu reparieren; dadurch wollen sie Sicherheit garantieren (2_4). Von einem Techniker erfährt man: „the protocols reside within the Biokernel, which itself is based on a quantum encryption.  eir security system is a one-way road. If you try and change the protocols, you destroy the Biokernel.” (2_8: 194-197). Und: „No one’s ever done it before because you simply can’t.” (2_8: 199). Die Protokolle dienen als Barriere, da man nicht wisse, was ohne die Protokolle passieren würde, beziehungsweise wozu die Roboter im Stande wären. Während der Mensch für seine Entwicklung rund sieben Millionen Jahre gebraucht hat, könne ein Roboter, ohne zweitem Protokoll, dieselbe Entwicklung in wenigen Wochen durchschreiten (3_4: 313-318). Im Film wird gezeigt, welche anfänglichen Folgen es hätte, wenn das zweite Protokoll außer Kra gesetzt würde. Die Roboter mit dem modi zierten Bio-Chip können nicht nur sich selbst (3_9), sondern auch andere Roboter reparieren (4_6). Dazu sagt Hawk, der Chef der ROC: „Do you know what happens once that is altered? Two of them then try to alter a third one.  en the miracle dissipates… and the epidemic begins.” (4_6: 432-435). Das Quanten-Gehirn des ersten Pilgrims wurde im Labor getestet. Es hatte keine Beschränkungen, keine Protokolle und lernte schnell. Bis der Tag kam, wo

94 es nicht mehr auf die Menschen angewiesen war und selbstständig lernte (5_3: 536-545). „On the ninth day, the dialogue came to a halt. It wasn’t that it stopped communicating with us… it was we stopped being able to understand it. And then we learned the most important lesson about automoties. We have to limit their intelligence. Tailor it to a human mind’s measure.” (5_3: 545-551). Der Grund, warum kein Mensch die Protokolle brechen könne, ist, dass sie nicht vom Menschen erscha en wurden, sondern von diesem unlimitierten Bio-Chip, dessen Wissen und Regeln den Menschen nicht zugänglich sind (5_3: 552-559). Die veränderten Einheiten um den Blue Robot verfügen über das erste Protokoll, das sie verp ichtet, das menschliche Leben zu schützen. Dies verdeutlichen die Szenen, in denen Jacq mit den Robotern in der Wüste ist. Sie tragen ihn, sagen, er solle seine Krä e schonen, bauen einen Wasserkondensator und sammeln Würmer, damit Jacq Proteine bekommt. Sie machen all dies nicht etwa aus Mitgefühl, sondern wegen des ersten Protokolls, wie auch Cleo bestätigt: „Our  rst protocol demands that we protect you. […] Abb. 82: Wasserkondensator We can’t let you die.” (4_4: 409-411). Auch wenn die Roboter durch das erste Protokoll immer noch über eine gewisse Robotermoral verfügen, scha die gewonnene Freiheit die Möglichkeit, ein Bewusstsein zu entwickeln. Eine zentrale Kategorie, die sich über den gesamten Film zieht, betri dieses ‚Bewusstsein’. Durch zwei Zwischenfälle, die mit den Stichworten ‚Selbstreparatur‘ und ‚Selbstzerstörung‘ zusammengefasst werden können, wird der Eindruck vermittelt, dass es sich bei den betro enen Robotern um mehr als nur Maschinen handelt. Der Roboter, den Wallace mit einem Kopfschuss zerstört, war dabei, sich selbst zu reparieren (1_2). Im Gegensatz dazu ergrei der Roboter, den Jacq in der Fabrik verfolgt, selbst drastische Maßnahmen: Er zündet sich an und zerstört sich selbst. Zuvor  ieht der Roboter, wenn auch sehr langsam, und wir immer wieder einen Blick zurück, als fühle er sich verfolgt. Im Container, wo er sich versteckt, blickt er fast schuldig auf die Schachtel in seiner Hand. Als Jacq fragt, was im Behälter sei, antwortet er nicht Abb. 83: Selbstzerstörung (2_5). Mit ähnlichen Eindrücken beschreibt Wallace den Moment, als er den sich selbst reparierenden Roboter gefunden hat: „It was staring at me. Hid its hands like that motherfucker was fully aware. It was doing something it wasn’t supposed to do. […] I didn’t shoot that clunker because it was staring at me. […]

95 I shot it because it looked…“, Jacq vervollständigt seinen Satz mit „Alive?“ (2_1: 250-255). Voraussetzung für diese zwei Szenarien ist die Inexistenz des zweiten Protokolls. Dieses ist, wie Dr. Dupré feststellt, die einzige Limitation, die die Roboter besitzen (3_4). Als sie einen Hybrid aus einem beschädigten und einem intakten Bio-Chip in Cleo einsetzt, beginnt sich das Verhalten des Roboters zu wandeln. Sie beginnt, ihre Hände zu betrachten, kriecht dann zur Werkbank und innerhalb einer Stunde montiert sie vollkommen selbstständig ein neues Bein. Dann beginnt sie, technische Teile zu stehlen (3_9). Um sich selbst reparieren zu können, müssen die Roboter über Selbstwahrnehmung und Bewusstsein verfügen. Obwohl das erste Protokoll noch immer aktiv ist und die Roboter Abb. 84: Selbstreparatur deshalb keinen Schaden am Menschen zulassen können, befolgen sie menschliche Befehle nicht mehr. Sie haben ein eigenes Ziel. Dies wird zum Beispiel in der Szene deutlich, in der sie Jacq erklären, dass eine Rückkehr in die Stadt sinnlos und somit nicht möglich sei. Zudem sind sie sich der Tatsache bewusst, dass die Stadt kein sicherer Platz für sie ist (4_2). Sie agieren selbstständig und nicht mehr als Diener der Menschheit. Bereits während der Untersuchung macht der Roboter vor dem Kurzschluss, der ihn endgültig verstummen lässt, klar, dass er keinen Besitzer habe (2_6: 165). Der wohl stärkste Beweis für ein Bewusstsein ist die Tatsache, dass die Roboter ein neues Wesen konstruieren. Sie erscha en selbstständig künstliches Leben, einen künstlichen Agenten, der nicht nur intelligent und autonom, sondern auch in extremen Lebensbedingungen überlebensfähig ist (6_2). Der Umgang mit Werkzeug und die Erscha ung neuer Geräte ist eine sehr menschliche Tätigkeit. Dies führt zur nächsten Kategorie: Die Kategorie ‚Humanisierung‘ umfasst Momente, in denen die Roboter menschlich behandelt werden oder menschliche Tätigkeiten ausführen. Besonders die erste Untersuchung erinnert sehr stark an eine Autopsie. Der Roboter liegt dabei zugedeckt auf einem Obduktionstisch und sein Brustbereich wird freigelegt. Kurz sieht man eine scheinbar menschliche Leiche auf einem Tisch im Hintergrund. An den Wänden hängen neben Informationstafeln zu Organen auch einige zu mechanischen Körperteilen (2_2). Auch bei der zweiten Untersuchung im ROC-Gebäude wird das Verfahren nicht von einem Techniker im Overall, sondern von zwei Personen in weißen Labormänteln durchgeführt. Der Roboter be ndet sich in einem schwarzen Beutel, der aussieht wie ein Leichensack (2_6).

96 In derselben Szene wird der Roboter reaktiviert und Jacq stellt ihm Fragen. Am Ende erleidet er jedoch einen Kurzschluss, Flüssigkeit rinnt durch seine Augen über das Gesicht und es sieht so aus, als würde der Roboter weinen, worauf der Techniker meint: „Shit, Vaucan. First you roast it. Now you make it cry.“ (2_6: 168f). Eine für den Handlungsverlauf wichtige Szene, in der Cleo eine sehr menschliche Tätigkeit ausführt, ist jene, in der sie zusammen mit Jacq vor dem Abb. 85: Totalschaden Killerkommando  üchtet. Ohne es jemals gelernt zu haben, steuert Cleo das Auto (3_10) und hinterlässt dabei einen menschlichen Eindruck. Eine weitere humane Tätigkeit  ndet sich in der Tanzszene von Jacq und Cleo. Jacq fordert sie mit „It’s easy for someone as smart as you are. All you need to do is count.“ (6_5: 677f) auf und zeigt ihr wie sie tanzen soll. Plötzlich fragt Cleo: „Do you love me, Jacq?“ (ebd.: 688). Er entgegnet: „Can you feel, Cleo?“ (ebd.: 689). Ob Cleo Gefühle hat, wird im Film nicht weiter ausgeführt. Eine weitere Kategorie ist ‚Leben‘. Als Jacq die Leuchtrakete abschießt und auf Rettung ho , sagt Cleo, dass sie nicht in die Stadt zurückkehren können, weil sie dort sterben würden (4_11: 470). Jacq antwortet darauf mit: „To die, you have to be alive  rst.” Abb. 86: Tanzszene (ebd.: 471). Wenige Szenen später versuchen die Roboter Jacq vor Wallace zu schützen. Bevor Wallace auf Cleo schießen kann, schießt Jacq mit der Leuchtpistole auf den Polizisten, der darau in stirbt. Cleo merkt an, dass sie nicht wusste, dass Menschen andere Menschen töten können. Ihr sei aber bekannt, dass Menschen Leben scha en und sie will wissen, ob dies der Grund für die Erscha ung der Roboter sei. Cleo ist neugierig und fragt, wer Jacq erscha en hätte (5_5: 590-593), worauf er antwortet: „Do you know what a mother is, Cleo? Of course you don’t. You don’t know because you’re just a machine.  at’s all you are.“ (ebd.: 594-597). Als er weiterspricht und darauf eingeht, dass er die Menschheit kenne und diese nicht au ören würde, bis sie alle Roboter getötet hätte, antwortet Cleo wieder: „To die, you’ve got to be alive  rst.“ (ebd.: 600f). In 6_3  ndet zwischen Jacq und Blue Robot ein sehr tiefsinniges Gespräch statt, in dem es um Leben, Vergänglichkeit und Zukun geht. Als Jacq seine Angst äußert, hier zu sterben, sagt der Roboter, dass der Tod ein Teil des natürlichen Zyklus des Menschen sei; das Leben sei nur eine Zeitspanne. Man erfährt, dass die Weiterentwicklung der Roboter einfach passiert ist. Blue Robot hat sich

97 entwickelt, so wie auch die Menschen einst (6_3). Er spricht zu Jacq: „Why are you afraid? Maybe your time is running out. No life form can inhabit a planet eternally. Look at me. I was born from the hands of a human. I was imagined by human minds. Your time will now live in us. And it will be the time through which you will exist.” (ebd.: 647-652). Als Jacq die Ironie anspricht, dass die Pilgrims gescha en wurden, um das Überleben der Menschen zu sichern, antwortet der Roboter mit: „Surviving is not relevant. Living is. We want to live.“ (ebd. 661-663). Im Licht dieses Gesprächs kann auch das neue Wesen, das die Roboter selbst scha en, betrachtet werden. Für einen Neuanfang im radioaktiv verseuchten Gebiet, wo kein organisches Leben möglich ist, haben sie das neue Wesen gescha en und avancieren mit dieser Leistung vom Geschöpf zum Schöpfer (6_8). Das Wesen kann nicht sprechen, weil es dies in der Welt, in der es leben wird, nicht brauchen wird. Aber es atmet wie die Menschen (7_1: 715- 717). Am Ende starten Cleo und das neue Wesen in eine neue Zukun (8_2). Bereits zu Beginn des Filmes wird man mit der Kategorie ‚Gewalt‘ konfrontiert, die sich quer durch den Film zieht. Dabei äußert sich diese Gewalt hauptsächlich als selbstverständlich scheinende Gewalt gegen Roboter. Als Wallace den sich selbst reparierenden Roboter  ndet, schießt er ihm in den Kopf und zerstört so seinen Bio-Chip (1_2). Als Jacq und Wallace auf der Suche nach dem Uhrmacher auf Cleo tre en, grei der Polizist wieder zu drastischen Maßnahmen und schießt Cleo ins Bein (3_1). Zu einer weiteren Gewaltausschreitung kommt es, als Wallace Jacq in der Wüste  ndet und mit der Pistole auf ihn zielt. Die Roboter versuchen, getrieben vom ersten Protokoll, Jacq zu schützen. Durch ihre eingeschränkte Beweglichkeit besteht der Schutz hauptsächlich aus den verbalen Au orderungen „Stop, sir. You are putting a human life in danger.“ (4_11: 488) und „Please sir. Abb. 87: Gewalt gegen Roboter We cannot allow you to do that.” (ebd.: 489). Wallace schießt zwei Robotern in den Kopf und als er seine Wa e auch auf Cleo richtet, reagiert Jacq und verteidigt sie. Während der letzten Kampfszene  ndet zu Beginn ein verbaler Schlagabtausch zwischen Conway und Blue Robot statt. Als die Männer von den Robotern verlangen, ihre Tätigkeit einzustellen, antwortet Blue Robot: „We do not obey orders from humans. Not anymore.“ (7_3: 743f). Da der Roboter nicht auf den Befehl sich hinzuknien reagiert, will Conway wissen: „Why is it so di cult for

98 you to accept my orders, if you‘re just a machine?” (ebd.: 748). Der Roboter antwortet: „Just a machine? at’s like saying that you’re just… an ape. Just a violent ape.” (ebd.: 750). Conway schießt dem Roboter ins Bein, damit er sich hinkniet und zerstört ihn dann mit einem Kopfschuss. Die Gewalt gegen Roboter wird von den Figuren im Film Großteils nicht als falsch oder skandalös wahrgenommen, da sie als bloße Maschinen gesehen werden. Einzig der materielle Schaden scheint bedauernswert zu sein. Die Kategorie ‚Familie‘ bildet einen Erzählstrang, der für die Fragestellung nicht von Bedeutung ist, aber auch in dieser Kategorie geht es um den Willen zum Neustart. Somit verbindet sich diese Geschichte mit dem bewussten Willen der Roboter, zu leben. Das Streben nach einem besseren Leben ist nur einem Wesen mit Bewusstsein inhärent. Die Kategorie ‚Sehnsucht‘ spielt im Film eine strukturierende und symbolische Rolle, auf die nur kurz eingegangen wird. Sie ist aus fünf Szenen zusammengesetzt, in denen Erinnerungen an das Meer und den Strand als Flashback visualisiert werden. Dabei sieht man einen Jungen, der am Strand spielt. In jeder Aufnahme ist auch eine Schildkröte zu sehen. Die Szenen werden als Abschluss thematischer Blöcke im Film eingesetzt. Sie können aber auch auf der symbolischen Ebene gelesen werden. Der Junge scheint für Jacq und seine Familie zu stehen, die Schildkröte für die Roboter und ihr neues Wesen. Beide suchen auf der symbolischen Ebene das Meer, das den Traum eines besseren Lebens, eines Neustarts, der Freiheit versinnbildlicht. Auch auf einer subtileren Ebene wird das ema Meer im Film zitiert, so zum Beispiel im kleinen Fernseher beim Imbissstand, wo Jacq auf Wallace wartet. Das bewegte Bild zeigt eine Schildkröte, die im Wasser schwimmt (2_12). Als im Versteck der Roboter in der Wüste plötzlich Musik spielt, tanzen Jacq und Cleo zum Lied ‚La Mer‘ des französischen Chansonniers Charles Trenet (6_5); eine poetische und musikalische Ode an das Meer.

5.3.4 Zwischenfazit Der Film spielt 2044 und porträtiert ein futuristisches Ambiente: In den Städten werden mehrere Sprachen gesprochen, Fernseher wurden durch Hologramme ersetzt, riesige Lichtbilder erleuchten die grauen und staubigen Straßen mit Werbung und permanent iegen Zeppeline über die Hochhäuser, die als künstliche Wolken fungieren. A zeigt eine dystopische Gesellscha ,

99 in der Roboter eine weit verbreitete, aber nicht willkommene Technologie sind. Im Laufe der Geschichte werden unterschiedliche ethische  emen behandelt. Dr. Dupré stellt in ihrer Werkstatt fest: „A machine altering itself is a very complex concept. Self-repairing implies some idea of a conscience.” (3_4: 309f). Die Standardmodelle, die nicht über modi zierte Fähigkeiten verfügen, werden lediglich als Maschinen wahrgenommen. Sie verfügen über eine schwache KI, die ihr Wissen auf jene Bereiche beschränkt, die sie in den jeweiligen Tätigkeiten brauchen. Im Vergleich dazu scheinen die veränderten Modelle über Bewusstsein zu verfügen. Sie sind sich zum Beispiel darüber im Klaren, dass sie ihre Fähigkeit, sich selbst zu reparieren und zu modi zieren, geheim halten müssen. Dörner wurde bereits im Zwischenfazit zu C zitiert. Nach ihm muss eine KI über Motivation, Gefühl und Selbstre exion verfügen, um wahre Intelligenz und eine künstliche Seele zu besitzen (Dörner 2002: 24). Die veränderten Roboter, Cleo und der Blue Robot können als künstliche Wesen mit Motivation gesehen werden, da ihre Aktionen von einem gemeinsamen Plan geleitet werden. Sie stehlen selektiv technische Teile, um das neue Wesen zu bauen und sich für die Reise in ihre neue Welt vorzubereiten. Ebenfalls lassen sie sich von Jacq nicht davon abhalten, auch wenn er mehrmals versucht, sie dazu zu bringen, ihn zurück in die Stadt zu begleiten. Einige Szenen lassen annehmen, dass sie über sich Abb. 88: Wesen bauen selbst re ektieren. Als Cleo sieht, dass Menschen anderen Menschen schaden können, beginnt sie darüber nachzudenken, warum die Menschen Roboter gescha en haben. Blue Robot wird als scharfsinniges Individuum dargestellt. Da er schon länger ohne zweites Protokoll lebt, hat er sich bereits weiter entwickelt als Cleo oder die anderen veränderten Roboter. Er re ektiert über existenzielle und philosophische  emen, über sich selbst, die Zukun der Menschheit und der Welt. Er ist sich der Tatsache bewusst, dass die Menschen in ihm und den anderen Robotern weiterleben werden. Blue Robot sieht und akzeptiert sich als Teil der Evolution, erweitert und verbessert die anderen, um seine Mission umzusetzen: ein neues Wesen scha en und die Zukun des technischen Lebens sichern. Nicht nur Blue Robot, auch die anderen veränderten Roboter beginnen, ihr Äußeres bewusst zu gestalten und die vom Menschen gestaltete Hülle abzulegen. Am Lagerfeuer unter den Höhlenmalereien nimmt einer der Roboter die Plastikverkleidung

100 des Gesichts ab und wir es ins Feuer (5_1.). Dieses Bild ist auf der symbolischen Ebene sehr wirkungsvoll. Es scheint wie die gemeinsame Betrachtung der Anfänge der Menschheit und der ‚Roboterheit‘ in einem Bild. Ganz am Ende nimmt auch Cleo ihr menschliches Gesicht ab, das sie für den Neustart nicht braucht, und lässt es im Sand zurück (8_2). Abb. 89: Neubeginn Das einzige, worüber die Roboter scheinbar nicht verfügen, sind Gefühle. In der Tanzszene fragt Jacq Cleo zwar, ob sie fühlen könne, die Frage bleibt jedoch unbeantwortet. Der Film zeigt keine Szenen, in denen Gefühle deutlich gemacht werden. Auf der einen Seite schränken die technischen Gegebenheiten die Möglichkeit ein, Emotionen zu zeigen. Die Stimme ist immer gleich und die Roboter haben auch keine Möglichkeit zur Expression von Mimik. Auf der anderen Seite wird jedoch deutlich, dass die Roboter zum Beispiel nicht aufgrund von Mitgefühl agieren, als sie Jacq retten wollen. Sie tun dies, weil das zweite Protokoll sie dazu zwingt. Sie stellen sich scheinbar furchtlos zwischen Jacq und Wallace und zeigen keine Anzeichen von Humor oder Trauer. Ihre Aktionen sind sehr rational. Vielleicht werden sie von den Zuschauerinnen und Zuschauern wegen der fehlenden Gefühle nicht als vollkommene künstliche Agenten wahrgenommen. Durch ihre Veränderung verfügen sie über eine Roboterethik. Da das erste Protokoll noch aktiv ist, ist diese Roboterethik jedoch nicht zur Gänze frei. Anders verhält es sich bei dem neuen Wesen, das über keinerlei Protokolle verfügt. Während sein Intelligenzstatus zwar grundsätzlich ambivalent gehalten wird, kann dennoch angenommen werden, dass es über eine starke KI verfügt. Dass es Conway, der Jacq bedroht, von der Klippe stößt, um Jacq zu retten, kann als selbständige Entscheidung gesehen werden. Diese Entscheidung ist vielleicht der Tatsache geschuldet, dass es Jacq bereits zuvor kennengelernt hatte und beobachtet hat, wie Conway und seine Männer die Roboter zerstört und Cleo verletzt haben. Dies würde bedeuten, dass das neue Wesen Ungerechtigkeit emp ndet und selbst Entscheidungen tri , wodurch ihm eine starke KI und eine subjektive Moral, also eine Roboterethik zugesprochen werden könnte. Vielleicht sind dem Menschen seine kognitiven Fähigkeiten aber auch zu fremd, um sie verstehen zu können. Ein ethisch problematisches  ema, das nicht verbal thematisiert, aber gezeigt wird, ist die Gewalt gegen die Roboter. Sie werden absichtlich zerstört und

101 gewaltsam ausgeraubt. Vor allem in den Slums kann dieses Verhalten auch als verzweifelte Tat von Menschen gesehen werden, die sich nehmen, was sie bekommen können, um zu überleben. Es werden aber auch andere Probleme im Film aufgegri en. Hawk berichtet vom Vorgänger des Pilgrim-Modells, der über keine Beschränkungen verfügte und sich in kürzester Zeit so weit entwickelte, dass die Menschen seinen Gedankengängen nicht mehr folgen konnten. Die Entwicklerinnen und Entwickler lernten, laut Hawk, so die wichtigste Lektion über Roboter: Ihre Intelligenz muss eingeschränkt und auf das Maß des menschlichen Geistes zugeschnitten werden (5_2: 549-551). Sie  nden eine Lösung für dieses Problem. Damit sich die Roboter nicht in eine unerwünschte Richtung entwickeln können und um den Menschen die absolute Kontrolle zu geben, wurden ihnen zwei unveränderbare Protokolle implantiert: Es ist ihnen verboten, Lebewesen zu verletzen oder zuzulassen, dass sie verletzt werden und es ist ihnen verboten, sich selbst oder andere Roboter zu verändern. Diese Robotermoral diktiert und führt das Handeln der Roboter. Dabei ist das erste Protokoll sehr prominent dargestellt. Roboter auf der Straße warnen zum Beispiel vor den Gefahren des Regens (2_10). Auch als die veränderten Roboter Jacq durch die Wüste transportieren, ist das erste Protokoll noch aktiv und bringt sie dazu, alles ihnen Mögliche zu tun, um Jacq zu schützen (4_4). Wie im Kapitel 2.4 zur Roboterethik angesprochen, ist ein solcher an Asimov angelegter einprogrammierter Verhaltenskodex nicht die perfekte Lösung. Sie scheint nicht ausreichend zu sein, um mit echten ethischen Dilemmata umzugehen, sondern scha auch neue Probleme. Dies wird vor allem durch die Gewalt an Robotern im Film deutlich. Ihre Programmierung zwingt die Roboter, immer so zu handeln, dass Menschen nicht zu Schaden kommen. Dies macht sie sehr angrei ar, machtlos und o en für Missbrauch. Abb. 90: Hand zum Schutz Sie haben keine Möglichkeit, die Menschen, die ihnen schaden, zu stoppen. Obwohl der Roboter die Hand zum Schutz hob, schoss Wallace ihm in den Kopf (1_2). Unbewachte Roboter im Slum werden zu Bettlern ohne Arme und Beine, Roboter werden bestohlen und haben keine Chance, sich zu wehren. Damit hängt die scheinbar selbstverständliche Gewalt gegen Roboter zusammen. Der Film zeigt keine Lösungsvorschläge Abb. 91: Bettler

102 für dieses illustrierte Problem. Es spiegelt die allgemeine Haltung der Menschen den Robotern gegenüber wieder. Die Roboter nehmen in der Gesellscha hauptsächlich eine armselige Position ein, es herrscht eine allgemeine Anti-Roboter-Stimmung und es scheint, als wären sie weniger eine akzeptierte Arbeitskra und eher eine missbrauchte Unterschicht. Einige Aspekte des Films überschneiden sich mit realen Diskussionen im Bereich der Roboterethik. Wie in realen Spekulationen zu humanoiden Robotern wird das Modell AUTOMATA Pilgrim 7000 für unterschiedliche Tätigkeiten eingesetzt und ist als Haushaltshilfe, Pegekra , oder auch Arbeitskra für gefährliche oder monotone Aufgaben tätig. Ein ema, das im Film nur kurz angeschnitten wird, sind Sexroboter. Dieses Motiv in einer so roboterfeindlichen Atmosphäre anzutreen, überrascht. Dennoch wird mit Cleo als Sexroboter das ema zumindest gestrei . In der Literatur darüber gehört David Levys Buch ‚Love & Sex with Robots’ zu den Grundlagenwerken. Darin schreibt Levy: „Humans will fall in love with robots, humans will marry robots, and humans will have sex with robots.” (Levy 2008: 22). Oliver Bendel gibt in einem Beitrag zum ema einen Überblick darüber, welche relevanten Fragen in Bezug auf Sexroboter au auchen könnten. Er beschreibt das ema als „highly sensitive eld” (Bendel 2017: 25). Nach ihm könne die Roboterethik dabei helfen, Sexroboter zu konstruieren, die moralische Maschinen sind, sowohl in ihrem Aussehen, als auch in ihrem Verhalten. „A er the right questions have been posed, the right answers have to be provided, which is the job of machine ethicists, roboticists and sex experts – and of the whole society.” (ebd. 2017: 25). In den aktuellen Debatten zum ema gibt es natürlich nicht nur Befürworterinnen und Befürworter der Entwicklung von Sexrobotern, sondern auch Gegenstimmen. So schreibt Wendel, dass die Hersteller von Pepper, dem humanoiden Roboter, der in Kapitel 2.1 präsentiert wurde, die Nutzungsbedingungen für den Roboter um einen Absatz ergänzt hätten. Dieser Abschnitt besagt, „dass Pepper nicht für ‚sexuelles oder unanständiges Verhalten‘ genutzt werden soll“ (Wendel 2015: o.S.). Ebenfalls 2015 wurde die Kampagne ‚Campaign Against Sex Robots‘ ins Leben gerufen. Ihre Vertreterinnen und Vertreter sind der Meinung, dass diese Art von Roboter potenziell schädlich ist und zu Ungleichheiten in der Gesellscha beitragen wird (vgl. Campaign Against Sex Robots 2017). Es nden sich einige ethische Aspekte, die sich mit C überschneiden. Auch in A werden emen wie Bewusstsein, Leben, Schöpfung und Gewalt

103 behandelt. Außerdem tauchen auch alle realen Konzepte von Roboterethik auf: Die Robotik-Ethik als Ethik der Robotikerinnen und Robotiker betri auch in diesem Fall die Erscha er der Roboter, also die die ROC Robotics Company. Die im Film dargestellten Roboter werden von der Firma mit einer Robotermoral, in Form der zwei Protokolle, ausgestattet. Im Falle der veränderten Roboter und des neuen Wesens kann von einer Roboterethik gesprochen werden, die als subjektive Moral der Roboter de niert wurde. Im nächsten Unterkapitel folgt die Analyse des dritten und letzten Films: E M.

5.4 Analyse Ex Machina

Mit E M gab der Brite Alex Garland 2015 sein Regiedebut. Auch das Drehbuch für den Science-Fiction-Film stammt aus Garlands Feder, der als Schri steller, Drehbuchautor und Regisseur tätig ist (IMDb™ 2018). In einem Interview mit ‚Popular Science‘ Abb. 92: Ava erzählt Garland, dass eine der Inspirationen zu diesem Film die Lektüre des Buches ‚Embodiment and the Inner Life‘ von Murray Shanahan war, der als Professor für kognitive Robotik in London tätig ist. Garland fühlte sich zu Shanahans Argumenten instinktiv hingezogen und wollte deshalb diese leicht verschwommenen, abstrakten und philosophischen Probleme, die das Gespräch über Bewusstsein in Maschinen prägen, auch in seinem Film einbauen (Grush 2015: o.S.). Die Rolle der Roboterfrau Ava verkörpert die schwedische Schauspielerin Alicia Vikander. Sie beschreibt ihre Rolle als: „More than human. A bit o and strange, and a bit unknowing, too.” (Ex Machina: Extras 2015). Neben ihr standen Oscar Issac und Domhnall Gleeson vor der Kamera (IMDb› 2018). Der Film erhielt überwiegend positive Kritiken, so erreichte er bei Rotten Tomatoes 92% (Rotten Tomatoes 2017) und wurde 2016 mit einem Oscar in der Kategorie Beste visuelle E ekte ausgezeichnet (Harbin 2016: o.S.). Zu Beginn dieses Kapitels wird die Handlung des Filmes geschildert, anschließend folgt eine Beschreibung der im Film vorkommenden Roboter. Au auend auf die qualitative Inhaltsanalyse wird die Interpretation folgen und im Zwischenfazit werden die Erkenntnisse zusammengefasst.

104 5.4.1 Handlung Caleb Smith ist Programmierer und arbeitet für das weltweit erfolgreiche Suchmaschinenunternehmen Blue Book. Er gewinnt bei einem rmeninternen Gewinnspiel eine Woche Urlaub bei Nathan Bateman, dem CEO von Blue Book. Caleb wird mit einem Hubschrauber zum Anwesen gebracht. Vor dem Haus begrüßt ihn eine elektronische Stimme und er bekommt eine Schlüsselkarte für das Haus. Nathan erklärt Caleb, dass er die einmalige Chance bekomme, die menschliche Komponente in einem Turing-Test zu sein. In seinem Anwesen, das auch seine Forschungseinrichtung ist, hat Nathan einen humanoiden Roboter namens Ava entwickelt, der scheinbar eine starke KI hat. Caleb soll beurteilen, ob Ava wirklich über ein Bewusstsein verfügt und ob er sie, wissend, dass sie eine Maschine ist, trotzdem als bewusstes Wesen einstufen kann. Caleb soll Gespräche mit Ava führen, die Nathan über Kameras beobachtet und aufzeichnet. In der ersten Sitzung tri Caleb erstmals auf Ava, die in einem Raum aus Glas lebt. Er ist beeindruckt von ihrem Äußeren und beginnt ihr rationale Fragen zu stellen, auf die Ava kurz und knapp antwortet. Im anschließenden Gespräch mit Nathan drückt er seine Begeisterung aus und stellt zahlreiche Fragen darüber, wie Ava funktioniert. Er äußert auch den Zweifel, dass im Turing-Test die Maschine eigentlich versteckt sein sollte, worauf Nathan antwortet, dass dies zu einfach wäre und Ava unter diesen Umständen leicht als starke KI durchgehen würde. In der ersten Nacht kann Caleb nicht schlafen und entdeckt, dass er über dem Bildschirm in seinem Zimmer die Bilder der Überwachungskameras in Avas Raum sehen kann. Plötzlich kommt es zu einem Stromausfall, der alle Türen verriegelt – einer von vielen, wie sich noch zeigen wird. Am nächsten Tag wird Caleb von Kyoko, Nathans Dienstmädchen, geweckt. Bei ihrer zweiten Sitzung zeigt Ava Caleb ein abstraktes Bild, das sie gezeichnet hat. Caleb macht ihr den Vorschlag etwas Konkretes zu zeichnen, etwas das ihr gefällt. Als Ava ihn fragt, ob sie befreundet sein wollen, merkt sie an, dass ihre Gespräche sehr einseitig verlaufen: Caleb stellt Fragen und sie antwortet. Um eine wirkliche Freundscha aufzubauen muss jedoch auch sie etwas über ihn erfahren. Deshalb drehen sie den Spieß um. Caleb erzählt über Blue Book, dass er Single ist, wo er lebt und schließlich auch, dass seine Eltern bei einem Unfall gestorben sind, den er überlebt hat. Als Ava Fragen zu Nathan stellt, fühlt sich Caleb sichtlich unwohl und antwortet recht knapp. Plötzlich fällt der Strom aus.

105 Unbeobachtet sagt Ava Caleb, dass Nathan ein Lügner ist und man ihm nicht trauen kann. Beim Abendessen verschüttet Kyoko ein Glas Wein. Als Caleb ihr sagen will, dass es nicht so schlimm ist, erklärt Nathan, dass sie ihn nicht verstehen würde. Sie sprechen über die Sitzung und Caleb scheint nervös zu sein. Als Nathan ihn fragt, ob etwas Ungewöhnliches passiert sei, antwortet er, dass Ava einen Witz gemacht hat und dies bis jetzt das beste Zeichen einer starken KI sei. In der Nacht beobachtet Caleb Ava über die Kameras und sie erweckt den Anschein, als würde sie es spüren. Am nächsten Morgen zeigt Nathan Caleb das Labor, wo er Ava geschaen hat. Er erzählt von der Schwierigkeit, menschliche Mimik zu imitieren und dass er deshalb einfach alle weltweit verfügbaren Smartphone-Kameras und -Mikrophone gehackt habe, um an Massen von Informationen über Mimik und Stimmton zu gelangen. Ava verfügt über ein Gehirn aus strukturiertem Gel und die So ware ist, wie Caleb richtig errät, Blue Book. In der anschließenden Sitzung zeigt Ava Caleb ein weiteres Bild, das sie gezeichnet hat. Diesmal bildet es etwas Konkretes ab: den Blick in den Innenhof, den einzigen Blick nach draußen, den Ava von ihrem Raum aus hat. Ava erzählt, dass sie, wenn sie diesen Raum verlassen könnte, gerne an eine belebte Kreuzung möchte. Sie bittet Caleb, die Augen zu schließen. Dann geht sie in ihr Zimmer, zieht ein Kleid, eine Jacke, Strümpfe, Schuhe und eine dunkle Kurzhaarperücke an und präsentiert sich so dem wartenden Caleb, der auf ihr plötzlich sehr menschliches Aussehen überrascht reagiert. Ava sagt, dass dies das Outt wäre, das sie zu einem Date mit ihm anziehen würde. Sie fragt Caleb, ob er sich von ihr angezogen fühlt, ob er manchmal in der Nacht an sie denke und ob er sie über die Kameras beobachten würde. Im anschließenden Gespräch mit Nathan will Caleb wissen, warum er Ava Sexualität gegeben hat, ob ihr Äußeres eine Ablenkung sei und ob Nathan Ava so programmiert hätte, dass sie mit ihm irtet. Nathan erklärt Caleb, dass er der erste fremde Mann sei, den Ava zu Gesicht bekomme und, dass er ihr nicht böse sein dürfe, wenn sie sich in ihn verknallt. Im vierten Gespräch konfrontiert Caleb Ava mit der Tatsache, dass er hier ist, um sie zu testen und um herauszunden, ob sie über ein Bewusstsein verfügt. Als es wieder zu einem Stromausfall kommt, der das Überwachungssystem lahmlegt, erklärt Ava, dass sie die Ausfälle kontrolliert auslösen kann –

106 mit der Erklärung, so könnten sie und Caleb sehen, wie sie sich unbeobachtet verhalten. Bei einer Wanderung zu einem Gletscher stellt Caleb Nathan zur Rede. Er glaubt nicht, dass er ein Gewinnspiel gewonnen hätte, sondern dass er ausgewählt wurde. Nathan bestätigt seine ese und erklärt, er habe jemanden gebraucht, der die richtigen Fragen stellt. Am Abend träumt Caleb vor sich hin: Er und Ava sind mitten in der Natur, kommen sich näher und küssen sich schließlich. Im Parallelschnitt sieht man Nathan und Kyoko, die sich innig küssen. Als sich Caleb später am Abend rasiert, sieht er im Bildschirm, dass Nathan zu Ava geht und das Bild, das sie gerade zeichnet, zerreißt. Caleb will ihn darauf ansprechen und sucht Nathan. Dabei tri er zuerst auf Kyoko und erst dann auf einen betrunkenen Nathan, der nicht auf ihn eingeht, sondern beginnt, mit Kyoko zu tanzen. Als Caleb Nathan in sein Zimmer begleitet, sieht er die Bildschirme in seinem Zimmer, auf denen Nathan die Gespräche aufzeichnet. Bei der fün en Sitzung testet Ava Caleb. Sie stellt ihm Fragen und erkennt an seinen Mikroexpressionen, ob er die Wahrheit sagt oder lügt. Ava will wissen, was mit ihr passieren wird, wenn sie durch Calebs Test fallen würde. Ob sie dann ausgeschaltet wird, nur weil sie nicht so funktioniert, wie sie funktionieren sollte. Während eines erneuten Stromausfalls sagt Ava Caleb, dass sie bei ihm sein will und fragt, ob auch er bei ihr sein will. Caleb will anschließend von Nathan wissen, warum er Ava geschaen hat und was mit ihr nach dem Test passieren wird. Nathan erklärt, dass das nächste Modell der Durchbruch sein wird. Er wird nach Beendigung des Experiments Avas Gedächtnis downloaden und die Daten entpacken, neue Routinen schreiben und die Erinnerungen formatieren. Nur den Körper will er wiederverwenden. Sie stoßen auf den erfolgreichen Tag an und am Ende ist Nathan so betrunken, dass er einschlä . Caleb entwendet seine Schlüsselkarte und verscha sich so Zugang zu Nathans Zimmer und Computer. Er entdeckt verstörende Aufnahmen, die Nathan mit früheren Modellen zeigen. Im Schrank ndet er die Vorgängermodelle, die dort wie leblose, nackte Puppen hängen. Plötzlich beginnt Kyoko ihre Haut abzuziehen und oenbart darunter ihren Roboterkörper. Verwirrt und verstört von dem, was er gesehen hat, kann Caleb nicht einschlafen. Er betrachtet sich im Spiegel, untersucht sein Gesicht und schneidet schließlich seinen Arm auf, um zu prüfen, ob er nicht selbst auch ein Roboter ist. Dann zerschlägt er mit der Faust den blutverschmierten Spiegel.

107 Während der sechsten Sitzung lässt Ava abermals den Strom ausfallen und Caleb erklärt ihr seinen Plan. Um sie zu befreien, will er Nathan wieder betrunken machen und währenddessen das Sicherheitssystem umprogrammieren. Ava soll um 22:00 Uhr einen Stromausfall generieren, damit sie zusammen iehen können. Als Caleb Nathan aber einen Drink anbietet, um auf den letzten Abend anzustoßen, lehnt dieser ab. Nathan äußert seine Sorge, die Situation der letzten Tage wären vielleicht zu viel für Caleb gewesen. Er spricht Calebs beunruhigende Szene vor dem Spiegel an, worauf dieser aggressiv reagiert. Nathan verrät, dass er das letzte Gespräch während des Stromausfalls mit einer batteriebetriebenen Kamera aufgezeichnet hätte. Nathan stellt eine Frage in den Raum: Ava wollte raus und der einzige Weg dazu war Caleb. Hat sie nur so getan, als würde sie Caleb mögen? Er erklärt, dass dies der eigentliche Test gewesen wäre. Da sie Caleb erfolgreich manipuliert hat, hat sie bewiesen, dass sie über wahre Intelligenz verfügt. Es ist 22:00 Uhr und der Strom fällt aus. Nathan will von Caleb wissen, wie der Plan weitergehen sollte, wie Caleb die Sicherheitsprotokolle umprogrammieren wollte. Dieser erklärt, dass sich die Türen bei einem Stromausfall nicht verriegeln, sondern önen sollten. Dann oenbart Caleb, dass er vermutet hatte, dass Nathan sie während der Stromausfälle beobachtet und dass er deshalb den Plan bereits am Vorabend umgesetzt hat. Schockiert blickt Nathan auf den Bildschirm und sieht, dass Ava ihren Raum verlassen hat. Er schlägt Caleb mit einem Faustschlag zu Boden, nimmt die Stange seiner Hantel und stürmt in den Gang. Dort steht Ava neben Kyoko und üstert ihr etwas ins Ohr. Nathan fordert Ava auf, zurück in ihr Zimmer zu gehen. Sie rennt jedoch auf ihn zu und wir ihn zu Boden. Nathan scha es, sie zu überwältigen und schlägt ihr den Arm ab. Doch als er sie zurück in ihr Zimmer bringen will, rammt Kyoko von hinten ein Messer in seinen Rücken. Nathan schlägt sie nieder, doch Ava sticht ein weiteres Mal zu. Nathan bricht blutend zusammen und Ava nimmt seine Schlüsselkarte an sich. Sie geht in Nathans Zimmer, ersetzt ihren Arm mit dem eines Vorgängermodells, bedeckt ihren Körper mit künstlicher Haut und zieht eine Perücke und ein weißes Kleid an: Sie verwandelt sich optisch in einen Menschen. Dann verlässt sie das Haus, ignoriert Calebs Schreie und lässt ihn zurück. Im weißen Kleid geht sie zum Hubschrauber und iegt weg. Die Schlussszene zeigt Ava an ihrem Wunschort: eine belebte Fußgängerkreuzung.

108 5.4.2 Roboter und ihre Darstellung Auch in dieser Analyse wird, bevor es zur Interpretation geht, ein Blick auf die Roboter geworfen werden, die in E M dargestellt werden. Es  nden sich verschiedene humanoide Roboter, die eine weibliche Gestalt haben und von denen zwei eine aktive Rolle im Film spielen. Eine handlungstragende Rolle übernimmt Ava. Zu Beginn des Filmes wird sie ganz klar als humanoider Roboter präsentiert, der wahrscheinlich über eine starke KI verfügt. Ihr Körper ist eine Mischung aus einer metallischen, netzartigen Ober äche und glasartigen Komponenten, die einen Blick in das technische Innenleben erlauben. Ihr Körper ist feminin gestaltet. Ava verfügt über ein weibliches Gesicht und auch Abb. 93: Ava ihre Hände und Füße sind mit künstlicher Haut bedeckt. Gegen Ende des Films erfahren die Zuschauerinnen und Zuschauer, dass Avas Gesicht au auend auf Calebs Online-Chronik nach den von ihm gesuchten pornographischen Inhalten gestaltet wurde, damit er sich zu ihr hingezogen fühlt (5_5). Nathan zeigt Caleb das Laboratorium, wo er Ava gescha en hat. Eine der großen Herausforderungen sei es gewesen, Avas Mimik realistisch zu programmieren. Dazu habe er alle Smartphones gehackt und so unbegrenzte Mengen an Stimm- und Mimik-Variationen erhalten können. Dadurch kann Ava minimale und sehr realistische Expressionen im Gesicht zeigen. Des Weiteren präsentiert Nathan Avas Verstand, der aus bläulichem, strukturiertem Gel besteht. Die So ware ist die Suchmaschine Blue Book, die Nathan entwickelt hat (2_11). Ava bewegt sich grazil und man kann kaum einen Unterschied zu einer menschlichen Frau erkennen. Zu Beginn spricht Ava wenig, sie beantwortet Calebs Fragen kurz und knapp und macht einen maschinenha en Eindruck (2_1). Ihre Stimme ist jedoch vollkommen menschlich, sie spricht  üssig und auf höchstem Sprachniveau. Als Caleb sie zum Beispiel fragt, ob sie wisse was Blue Book sei, antwortet sie mit einer perfekten De nition: „Blue Book. Named a er Wittgenstein's notes. It's the world's most popular internet search engine, processing an average of 94% of all internet search requests.” (2_7: 356- 359). Dabei erinnert sie ein wenig an eine etwas ausgeklügeltere

109 Version von Siri oder Alexa. Das von Mori im Uncanny-Valley E ekt beschriebene unheimliche Tal hat Ava bereits überschritten. Sowohl ihr Verhalten als auch ihr Aussehen wandeln sich im Laufe des Films und nehmen eine immer menschlichere Form an. Auf den Tod von Calebs Eltern reagiert sie mit einem Tonfall von Mitleid. Den Situationen angepasst, variiert sie ihre Stimme. Während der dritten Sitzung versteckt Ava ihren Roboterkörper unter Kleidung und trägt zusätzlich eine Kurzhaarperücke (3_2). Auch zeigt sie von Sitzung zu Sitzung mehr Emotionen. Als sie schließlich am Ende des Films ihren kaputten Arm austauscht, bedeckt sie ihren Körper ganz mit künstlicher Haut und trägt am Schluss eine Langhaarperücke und ein weißes Kleid (6_2). Ava ist zum Androiden avanciert, der äußerlich nicht vom Menschen unterschieden werden kann. Kyoko wird als Nathans Haushälterin vorgestellt und erst zu einem späteren Zeitpunkt stellt sich heraus, dass sie ebenfalls ein Roboter ist. Sie bewegt sich absolut menschlich und man könnte nicht erahnen, dass es sich bei ihr um einen Androiden handelt. Auch Kyokos Körper hat eine weibliche Physiognomie, ihr Gesicht trägt südostasiatische Züge und sie hat einen japanischen Namen. Im Unterschied zu Ava spricht sie nie. Nathan erklärt Caleb diese Tatsache folgendermaßen: „She doesn't understand English. […] It's like a  rewall against leaks. It means I can talk trade secrets over dinner and know it'll go no further.“ (2_9: 438-442). Er hält Kyokos Roboterstatus geheim. Er und Kyoko haben Abb. 94: Kyoko eine sexuelle Beziehung. In einem Gespräch mit Caleb erklärt Nathan, dass Ava zwischen ihren Beinen eine Ö nung mit einer erhöhten Konzentration an Sensoren besitze. (3_4). Wahrscheinlich ist Kyoko anatomisch so konzipiert wie Ava. Über Kyokos Persönlichkeit erfahren die Zuschauerinnen und Zuschauer nicht viel, da sie während des gesamten Films stumm ist. Sie verhält sich Nathan gegenüber aber sehr gefügig, bereitet sein Essen vor (3_4), wartet nackt in seinem Bett auf ihn (4_6) und legt mit ihm eine perfekte Choreographie aufs Tanzparkett (3_11). Kyoko verfügt wahrscheinlich über eine weniger starke KI, die ihr bestimmte Verhaltensmuster ermöglicht. Da sie beim Kochen zum Beispiel mit großen Messern hantiert, muss sich Nathan

110 in ihrer Gegenwart sicher fühlen und bei der Programmierung Vorkehrungen getro en haben. Dennoch entsteht im Laufe des Filmes der Eindruck, sie sei zu mehr fähig, als man erwartet. So scheint es in einigen Szenen, als würde sie lauschen oder Nathan beobachten. Sie zeigt Caleb außerdem aus Eigeninitiative ihre wahre Identität und wendet sich am Ende gegen ihren Macher Nathan. Der Hauptunterschied zwischen Ava und Kyoko ist, für wen und wofür sie entwickelt wurden. Während Ava speziell dafür gescha en wurde, mit Caleb zu kommunizieren und Nathans Test zu bestehen, ist Kyoko als Nathans Haushälterin und Sexroboter konzipiert. In den Videos, die Caleb in Nathans Computer  ndet und im Schrank au ewahrt, kommen fünf von Avas Vorgängermodellen vor: Lily, Jasmine, Jade, Katya und Amber. Auch sie sind Androiden mit einer weiblichen Abb. 95: Vorgängermodelle Physiognomie. Um ihren robotischen Körper zu verdecken, sind sie teilweise mit künstlicher Haut bedeckt. Sie sind nicht mehr alle vollständig; so fehlt einem Modell der Kopf, einem anderen fehlen Arme und Beine. Alle fünf entsprechen einem anderen Typ; während beispielsweise Lily eher nach dem nordischen Typ gestaltet ist, ist Jasmine dunkelhäutig und Jade trägt asiatische Gesichtszüge.

5.4.3 Interpretation Auch für den Film E M sind im Laufe der Generalisierung Codes entstanden, die in der Reduktion zu acht Kategorien zusammengefasst wurden: Information, Krise, Testparameter, Humanisierung, Leben und Tod, Bewusstsein als Motor, Gefühle und Manipulation. Auf diese wird die folgende Interpretation Bezug nehmen. Wie bereits in den vorherigen Analysen bietet die Kategorie ‚Information‘ vor allem grundlegende Informationen zu den Charakteren und Bedingungen der Geschichte. Die darin zusammengefassten Informationen wurden in die Beschreibung der Roboter inkludiert. Die Kategorie ‚Krise‘ betri stärker den Erzählstrang rund um den Protagonisten Caleb, seine Krisenmomente und die au ommenden Zweifel an seiner eigenen Menschlichkeit, was am Ende mit seiner Gefangenscha im Haus endet. Auf

111 diese Kategorie wird nicht detaillierter eingegangen, da sie für die Fragestellung von marginaler Bedeutung ist. Gleich zu Beginn des Films erfährt das Publikum, dass Caleb zu Nathan kommt, um die menschliche Komponente in einem Turing-Test zu sein. Dazu sagt Nathan: „Because if that test is passed, you are dead center of the greatest scientic event in the history of man.” Darauf antwortet Caleb: „If you've created a conscious machine, it's not the history of man. at's the history of gods.” (1_6: 133-138). Diese Momente werden in der Kategorie ‚Testparameter‘ vereint. Die Szenen haben inhaltlich eine starke Verknüpfung zum ema Bewusstsein. Nach dem ersten Gespräch mit Ava merkt Caleb an, dass im Turing-Test die Maschine vor den Prüfenden versteckt sein sollte. Nathan antwortet, dass sie diesen Punkt bereits überschritten hätten. Wäre Ava für Caleb nicht sichtbar und würde er nur ihre Stimme hören, würde sie auf jeden Fall als menschlich durchgehen (2_2: 189-211). „e real test is to show you that she's a robot and then see if you still feel she has consciousness.” (ebd. 212f). Der Test kann also als eine abgewandelte Form des Turing-Tests gesehen werden, da dieser laut Film nicht genügen würde, um eine starke KI nachzuweisen. Gegen Ende des Filmes erfahren die Zuschauerinnen und Zuschauer, dass der eigentliche Test ein anderer war: Caleb selbst (5_5: 1078-1082). „Ava was a rat in a maze. And I gave her one way out. To escape, she'd have to use self-awareness, imagination, manipulation, sexuality, empathy, and she did. […] Ava demonstrated true AI.“ (ebd.: 1083-1109). Interessant für den Fokus dieser Arbeit ist, welche Mittel genutzt wurden, um Ava als Wesen mit Bewusstsein darzustellen und somit die Grundlage ethischer Fragen zu schaen. Obwohl Ava zu Beginn deutlich als humanoider Roboter mit mechanischem Körper präsentiert wird, wird sie dennoch als sehr human wahrgenommen. Dies hängt einerseits mit dem sehr glaubwürdigen Design zusammen und andererseits mit Avas Mimik und Körpersprache. Im Film gibt es einige Momente, die diese ‚Humanisierung‘ unterstreichen. Obwohl sich Ava autonom bewegen kann und körperlich keine Limitationen aufzuweisen scheint, sind ihre Handlungsmöglichkeiten eingeschränkt, da sie immer in ihrem Raum eingesperrt ist. Sie führt jedoch täglich eine Tätigkeit durch, die sehr menschlich ist: Zeichnen. In der zweiten Sitzung mit Caleb zeigt Ava eine Zeichnung, die sie gemacht hat und sagt: „I do drawings every day. But I never know what they’re of.“ (2_7: 323f). Caleb antwortet: „Are you not trying to sketch something

112 speci c? Like an object or a person?” (ebd. 325f). Ihr Bild ist sehr abstrakt, es besteht aus einem Netz aus Punkten, die durch Linien verbunden sind. Es kann als Visualisierung des künstlichen Unbewusstseins, also Avas Unbewusstsein, gelesen werden. Im Gegensatz dazu spiegelt Jackson Pollocks Gemälde ‚No. 5‘ aus dem Jahr 1948, das im Film ö er gezeigt und von Nathan kommentiert Abb. 96: Zeichnung wird, das menschliche Unbewusstsein wieder. Nachdem Caleb Ava sagt, sie solle versuchen, etwas zu zeichnen, das sie mag, distanziert sie sich von der abstrakten Vorgehensweise und in der nächsten Sitzung zeigt sie Caleb eine Zeichnung, die den Blick aus ihrem Raum in den Innengarten zeigt (3_1). Während sich Caleb in einer späteren Szene rasiert, beobachtet er über den Bildschirm, wie Nathan mit Ava spricht. Er nimmt das Bild, das sie gerade zeichnet, betrachtet es und zerreißt es schließlich (3_10). In der fün en Sitzung zeigt Ava Caleb das zerrissene Bild, das ein Porträt von ihm darstellt (4_1). Es tauchen noch weitere humanisierende Momente auf. In Szene 3_9 wird mit einer Parallelmontage gespielt, in der Nathan und Kyoko gezeigt werden, die sich innig küssen, während Caleb tagträumt, wie er mit Ava im Wald auf einem Felsen steht, sie sich näherkommen und sich am Ende küssen (3_9). Obwohl Kyoko sehr starr und diszipliniert ist und nicht redet, wird ihre Menschlichkeit kaum angezweifelt. Die Szene der körperlichen Nähe mit Nathan unterstreicht dies. Auch die Tanzszene mit Nathan kann als stark humanisierender Moment gesehen werden. Kyoko bewegt sich sinnlich, dynamisch und mit Ausstrahlung (3_11). Eine sehr starke Humanisierungsszene von Ava wurde in der Generalisierung mit dem Kategorie-Code ‚Optische Transformation‘ zusammengefasst. In dieser Szene 3_2 präsentiert sich Ava Caleb mit Kleidung und einer Kurzhaarperücke. Caleb ist sprachlos, denn Ava wirkt so menschlich wie noch nie (3_2). In den folgenden Sitzungen zeigt sie sich mit Kleidung und Perücke. Noch einen Schritt weiter geht Ava am Ende des Filmes. Die Szene mit dem Code ‚Totale Verwandlung‘ zeigt, wie Ava die künstliche Haut eines ihrer Vorgängermodelle auf ihrem Körper anbringt und sie eine Langhaarperücke trägt. Sie steht nackt vor dem Spiegel und betrachtet sich. Dabei lässt sie die Assoziation mit Eva au eben, der ersten Frau, die in der Regel nackt dargestellt wird – ‚so wie Gott sie Abb. 97: Spiegelbild schuf‘ (6_2). Als Ava mit einem weißen Kleid in den Aufzug steigt, gibt es optisch keinen Hinweis mehr auf ihre Künstlichkeit (6_3).

113 In 4_1 testet Ava Caleb und stellt ihm Fragen. Dabei erkennt sie genau, ob er lügt. Nach einigen harmlosen Fragen, wie die Frage nach Calebs Lieblingsfarbe oder seiner ersten Erinnerung, nutzt Ava die Situation, um über ein sehr tiefes ema zu sprechen: ‚Leben und Tod‘, was die nächste Kategorie der Analyse ist. Ava will wissen, was passiert, wenn sie seinen Test nicht schaen wird. Dabei sagt sie: „Do you think I might be switched o, because I don't function as well as I'm supposed to?“ (4_1: 852f). Caleb kann ihre Frage nicht beantworten und sagt, es sei nicht in seiner Hand. Darauf antwortet Ava: „Why is it up to anyone? Do you have people who test you and might switch you o? […] en why do I?” (ebd. 856-858). Avas Empörung bringt Caleb dazu, mit Nathan darüber zu sprechen. Auf die Frage, warum er Ava geschaen hätte, antwortet Nathan: „Wouldn’t you, if you could?“ (4_3: 865). Es wäre keine Überraschung, dass jemand eine starke KI erschae; die Frage war nicht das ob, sondern wann. Nathan betrachtet Ava nicht als Entscheidung, sondern als Evolution. Das nächste Modell stelle den Durchbruch und die Singularität, also die Überlegenheit der Maschine gegenüber den Menschen, dar (ebd.: 869-875). Caleb wird klargemacht, dass Avas Gedächtnis formatiert wird und so ihre Erinnerungen verloren gehen. Nur der Körper wird überleben (ebd. 887-891). In 5_2 sagt Caleb zu Ava „He's gonna reprogram your AI. Which is the same as killing you.” (5_2: 945f). Damit bestätigt er Avas Angst. Sie bittet ihn, ihr zu helfen. Am Ende des Filmes kommt es zur gewaltsamen Konfrontation zwischen Nathan und Ava. Als er ihr beelt, wieder zurück in ihre Zimmer zu gehen, fragt sie: „If I do, are you ever gonna let me out?“ (5_7: 1140f). Nathan antwortet mit ja, doch weiß Ava, dass er nicht aufrichtig ist und wir ihn nieder. Während Nathan zunächst Ava einen Arm abschlägt und sich scheinbar gegen sie wehren kann, liegt er am Ende blutüberströmt am Boden. Nathan hatte keine Chance gegen die Roboterfrau. Dieser Kampf ums Überleben zeigt, dass sich Ava ihrer selbst bewusst ist und über ihr Leben entscheiden will – was zur nächsten Kategorie führt. In einem Gespräch mit Nathan stellt Caleb fest, dass eine KI kein Geschlecht brauche und ebenso gut eine graue Box sein könnte (3_4: 609f). Darauf antwortet Nathan mit: „Actually, I don't think that's true. Can you give an example of consciousness, at any level, human or animal, that exists without a sexual dimension?” (3_4: 611).

114 Gleichzeitig stellt er zwei interessante Fragen: „What imperative does a gray box have to interact with another gray box? Can consciousness exist without interaction?” (ebd.: 611-618). In Avas ausgeprägter Fähigkeit zu Interaktion zeigt sich ihr Bewusstsein. Sie nutzt Interaktion bewusst als Werkzeug. Diese Interpretation bezeichnet die Kategorie ‚Bewusstsein als Motor‘. Als Caleb Nathan bestätigt, dass Ava ohne Zweifel über eine starke KI verfügt, rollt Nathan einen neuen Aspekt zu Avas Bewusstsein auf. Zu Beginn sind sie von zwei Optionen ausgegangen: Entweder Ava simuliert Emotionen oder sie drückt wahre Emotionen aus. Die neue Option würde nicht darauf fokussieren, ob sie die Fähigkeit hätte, Caleb zu mögen, sondern ob sie nur so tut als würde sie Caleb mögen, um an ihr Ziel zu kommen (5_3: 1003-1025). Ava hat Caleb als Hilfsmittel für ihr Ziel gesehen: Freiheit. Und diese Freiheit erreicht sie schließlich auch, indem sie Nathan tötet, Caleb zurücklässt, das Haus verlässt und am Ende an einer belebten Fußgänger- und Verkehrskreuzung in einer Stadt steht (6_7). Alles, was Ava gemacht hat, hat sie bewusst getan, um an ihr Ziel Abb. 98: Freiheit zu gelangen. Ihr Bewusstsein fungierte als Motor für ihre Taten. Ava zeigt im Film Neugierde, Misstrauen, Humor, Traurigkeit, Enttäuschung, Angst und Zorn und liefert somit eine breite Palette an Emotionen. Diese Momente des Films bilden den Kern der Kategorie ‚Gefühle‘. Während des zweiten Gesprächs mit Caleb zeigt sie Interesse an seiner Person, sie setzt sich hin, stellt Fragen und hört aufmerksam zu (2_7). Ava macht einen Witz und zitiert einen Satz, den kurz davor Caleb verwendet hat. Dazu meint Caleb später zu Nathan: „She made a joke. […] In a way, it's the best indication of AI that I've seen in her so far. […] She could only do that with an awareness of her own mind, and also an awareness of mine.” (2_9: 477-489). Während eines Stromausfalls sagt Ava, dass Nathan nicht Calebs Freund sei und er ihm nicht vertrauen soll. Dabei ist Ava sehr ernst und sagt es mit Nachdruck (2_8). Als sie erstmals das Kleid anzieht, wirkt sie fast schüchtern, als wäre sie nervös darüber, was Caleb dazu sagen wird. Sie lächelt,  irtet in gewisser Weise (3_2). Caleb  ndet sie traurig am Boden sitzend, als er lange auf sich warten lässt. Ava scheint enttäuscht und fast ein wenig trotzig (5_1). In Nathans Gegenwart spricht Ava ihren Hass aus, als er ihr Bild zerreißt: „Is it strange to have made something that hates you?“ (5_4: 1050f). Abb. 99: Gefühlschaos

115 Was den Zuschauerinnen und Zuschauern am Ende bewusst wird, ist die Tatsache, dass Ava ihre Gefühle geschickt als Werkzeug nutzt, was den Bogen zur nächsten Kategorie spannt: ‚Manipulation‘. Sie ist sich der Tatsache bewusst, dass sie nur eine Chance hat, jemals aus diesem Zimmer zu entkommen und diese Chance ist Caleb. Ava tastet sich in der Interaktion vorsichtig an Caleb heran, zu Beginn ist sie noch maschineller, kühler. Dennoch ist Caleb gleich von Ava fasziniert, will von Nathan wissen wie er sie programmiert hat, versucht, das technische System hinter ihren herausragenden sprachlichen Fähigkeiten zu verstehen (2_2). Doch dann beginnt Ava ihre Verwandlung. Bereits am zweiten Tag bemängelt sie, dass ihre Gespräche einseitig seien, dass Caleb umsichtige Fragen stelle und ihre Antworten studiere. So könne nur er etwas über sie lernen und sie nichts über ihn und das wäre nicht die Grundlage, auf der eine Freundscha basieren könne. Caleb beginnt von sich zu erzählen und Ava hört aufmerksam zu (2_7). Über den Bildschirm in seinem Zimmer beobachtet Caleb Ava, wie sie auf ihrer Liege liegt. Sie dreht ihren Kopf zur Kamera, als wüsste sie, dass jemand zuschaut und Caleb lächelt (2_10). Aber Ava bleibt nicht nur bei Worten, sondern wechselt zu Taten. Bei den Gesprächen sitzt sie nicht mehr auf dem Hocker, sondern kniet am Boden, nahe am Glas und somit näher bei Caleb (3_1). Später berührt sie das Glas, als wolle sie Caleb berühren. Sie gestaltet ihr Äußeres bewusst, um menschlicher zu wirken und Calebs Vertrauen zu gewinnen. Sie erklärt Caleb, dass sie dieses Kleid anziehen würde, wenn sie ein Date hätten. Ava deutet Calebs Mikroexpressionen und will wissen, ob er sich von ihr angezogen fühlt und ob er sie über die Kameras beobachtet (3_2). Als sie merkt, dass er sich unwohl fühlt, entgegnet sie mit san er Stimme und einem Lächeln: „I don't want to make you feel uncomfortable.“ (ebd.: 606). Später vertraut sie Caleb ein Geheimnis an, als sie sagt, dass sie die Stromausfälle auslöse. „I charge my batteries via induction plates. If I reverse the power ow, it overloads the system. […] So we can see how we behave when we're unobserved.” (3_7: 747-750). Dieser Moment vermittelt Vertrauen und den Wunsch nach Zweisamkeit und Intimität. Verstärkt wird dieses Gefühl in der Szene in der Ava Fragen stellt und erkennt, ob Caleb lügt oder die Wahrheit sagt. Nachdem sie ihr Unverständnis darüber ausdrückt, warum jemand über ihre Existenz entscheiden dürfe, löst sie einen Stromausfall aus und sagt zu Caleb: „I wanna be with you. Question ve. Do you want to be with me?“ (4_2: 860-862). Sie bringt Caleb schließlich so weit, dass er einen

116 Plan schmiedet, um sie zu befreien. Er ist überzeugt: „We're getting out of here tonight.“ (5_1: 948). Ava hat den Spieß umgedreht und Caleb für ihre Zwecke manipuliert, sodass er Gefühle für sie entwickelt hat und ihr zur Flucht verhil . Als es zur Konfrontation mit Nathan kommt, tritt sie in ihrem mechanischen Roboterkörper auf, ohne Kleidung oder Perücke. Sie hat ihre Verkleidung abgelegt, Abb. 100: Rache ihr Schauspiel beendet, scheint kalt und furchtlos (5_7). Und als sie das Haus verlässt ohne Caleb eines Blickes zu würdigen, spürt man den Egoismus und die Skrupellosigkeit ihrer Aktionen.

5.4.4 Zwischenfazit E M zeigt, mit Blick auf den humanoiden Roboter Ava, was den Menschen ausmacht. Nämlich nicht nur die Fähigkeiten, über sich selbst zu re ektieren, autonom Entscheidungen zu tre en, kreativ zu sein oder Gefühle zu emp nden. Eine dem Menschen inhärente Eigenscha ist es auch, falsche Tatsachen vorzutäuschen und in gewissen Situationen eine Rolle zu spielen. Laut Go man versuchen die Menschen, in jeder Interaktion ein gewisses Bild von sich nach außen zu tragen. Er argumentiert, dass sich alle Menschen Fassaden und verschiedene Rollen zurechtlegen und somit im Alltag eigentlich immer  eater spielen (vgl. Go man 2012). Auch Avas Verhalten erinnert an das von Go man beschriebene menschliche Verhalten. Ava verfügt selbst über natürliche Instinkte wie Sexualität und einen Selbsterhaltungstrieb. Sie ist ein Roboter mit einer starken KI, der nicht nur über ein Bewusstsein verfügt, sondern auch über die Möglichkeit, ihren Körper vollständig menschlich zu gestalten. Sie wird im Film als vollkommener künstlicher Agent wahrgenommen, da sie sich äußerlich nicht mehr vom Menschen unterscheidet. Der Film stellt die Frage, wie man Bewusstsein in einer Maschine beweisen kann. Wie in Kapitel 2.3 erläutert, wurde der Turing-Test 1950 von Alan Turing vorgeschlagen, um festzustellen, ob eine Maschine über intelligentes Verhalten verfügt. Wie Euchner betont, enthüllt der Test, ob ein Unterschied zwischen dem Verhalten einer Maschine und dem eines Menschen erkannt werden könne (Euchner 2005: 55). Wirkliche Intelligenz und Bewusstsein nachzuweisen wäre aber viel komplexer, was auch Nathan im Film betont. In E M wird eine abgewandelte Form des Turing-Tests dargestellt. Das Gespräch zwischen Nathan und Caleb darüber, warum er Ava gescha en

117 hätte, wir ein weiteres  ema auf. Darin wird die Frage gestellt, ob der Mensch diesen Schritt – eine starke KI zu erscha en – machen sollte, wenn er dazu im Stande wäre. In ihrer Publikation aus den 1980er Jahren teilen Feigenbaum und McCorduck die Argumente gegen Maschinenintelligenz in vier große Kategorien ein. Eine umfasst die Frage nach den Beweggründen: „Even if machines were capable of intelligence, should we really embark on such an awesome, perhaps sacrilegious, project? Just because it could be done doesn’t mean that it ought to be done” (Feigenbaum/McCorduck 1983: 33). Auch wird die Frage gestellt, ob man als Mensch das Recht besitze, eine Maschine mit Bewusstsein abzuschalten. Interessant ist in diesen Szenen die Verwendung von unterschiedlichen Vokabeln. Während Ava selbst von ‚switch o ‘, also abschalten spricht, benutzt Caleb das Wort ‚killing‘, also töten. Ava sieht sich selbst als Maschine, weil sie eine Maschine ist. Caleb hingegen verliert sich in der Humanisierung Avas und sieht ihre voraussichtliche Deaktivierung als Todesurteil. Bei den Zuschauerinnen und Zuschauern stellt sich die Frage, ob Avas Bewusstsein mit unserem Verständnis einer Seele deckungsgleich ist und ob diese Aktion somit einem Mord entsprechen würde. Der Film visualisiert Probleme, die im Zusammenhang mit der Erscha ung einer starken KI au reten können. In ihrer natürlichen Entwicklung kommen Nathans Modelle irgendwann an den Punkt, an dem sie nach Freiheit streben. Die Lösung, die der Film für dieses Problem anbietet, ist radikal. Nathan beginnt die Arbeit an einem neuen Modell in der Ho nung, dass durch die neu programmierten Abb. 101: Verzwei ung Routinen das ,Problem‘, d.h. das Streben nach Freiheit, nicht mehr au auchen wird. Doch es verschwindet nicht. Er sperrt seine Roboter in einem Raum aus bruchfestem Glas ein, der ihnen die Möglichkeit nimmt, sich zu entfernen und der Nathan Sicherheit gibt. Nathan lebt in seinem Schöpferwahn. In einem Gespräch mit Caleb spricht er die Zukun der Menschheit an. „One day the AIs are gonna look back on us the same way we look at fossil skeletons in the plains of Africa. An upright ape, living in dust, with crude language and tools. All set for extinction.” (4_3: 895-900). Nathan ist sich bewusst, dass sein Projekt zu den größten Errungenscha en der Menschheit gehört, aber dennoch den Untergang derselben bedeuten könnte und versucht, die zahlreichen quälenden Fragen in Alkohol zu ertränken. Anders als in dem von McCauley beschriebenen Eid der Robotikerinnen und Robotiker, der an den Hippokratischen Eid angelehnt

118 ist (McCauley 2007: 162), gefordert, hält sich Nathan nur an eine lückenha e Robotik-Ethik und verliert sich in seinem Schöpferwahn. Die Künstliche Intelligenz, die er scha , ist in der Lage, Menschen zu verletzen. Der Film zeigt sogar das Worst-Case-Szenario, das mit dem Tod des Schöpfers endet. Weder Ava noch Kyoko verfügen über eine programmierte Robotermoral. Vor allem Ava agiert nach ihrer eigenen Roboterethik und ihre Entscheidungen werden durch ihre subjektive Moral geleitet. Bei Kyoko ist die Lage nicht ganz so klar. Es scheint, als hätte sie im Vergleich zu Ava Beschränkungen. Vielleicht hat sie Nathan jedoch unterschätzt, da sie sich stumm weiterentwickelt und am Ende selbstständig die Entscheidung tri , Caleb ihre Identität zu zeigen und Ava zu helfen. E M zeigt, welche Gefahr von einem Roboter wie Ava hervorgehen kann, wenn er nicht unter Kontrolle gehalten wird. Abb. 102: Kyokos O enbarung Da sie aber noch einen Prototyp darstellt, bleibt o en, welche Lösungen Nathan für eine eventuelle zukün ige Massenproduktion vorgesehen hätte und ob er die Intelligenz der Maschinen einschränken und mit Sicherheitsfaktoren ausstatten wollte. Wie bereits in der Analyse zu C angeführt, betont Irrgang in seiner Publikation die Verantwortung der Schöpfer für ihre Produkte. Bestünde die Möglichkeit, dass sich künstliche Agenten unvorhersehbar entwickelten und ihr Verhalten eigenmächtig bestimmen würden, könne die Konstruktion eines solchen künstlichen Organismus nicht verantwortet werden (Irrgang 2005: 169). Nathan hatte versucht, eine sichere Testumgebung für seine Prototypen zu scha en, da er sich im Klaren war, dass Ava und ihre Vorgängerinnen nicht ganz ungefährlich sind. Am Ende konnte Ava jedoch aus der sicheren Umgebung ausbrechen und wurde so zur Gefahr. Folgt man Dörners Voraussetzungen für eine wahre KI und eine künstliche Seele – Motivation, Gefühl und Selbstre exion (Dörner 2002: 24) – erfüllt Ava sie gänzlich. Sie gestaltet ihre Aktionen und ihr Äußeres bewusst und re ektiert darüber, was mit ihr in Zukun geschehen wird und ob dies gerecht ist. Zusätzlich will Ava frei sein und agiert getrieben von dieser Motivation. Als es zur Konfrontation zwischen ihr und Nathan kommt, kämp sie um ihr Überleben. Im Laufe des Filmes zeigt sie eine breite Palette an Gefühlen. Auch wenn man am Ende den Eindruck haben könnte, ihre Gefühle seien nur eine Imitation gewesen, stimmt das nur teilweise. Als Ava das Haus auf ihrem

119 Weg in die Freiheit durchschreitet, sieht sie sich begeistert um und lächelt. Es wirkt wie ein aufrichtiges Lächeln, ein wahres Zeichen von Freude. In E M  nden sich Überschneidungen von Realität und Fiktion, da einige reale  eorien eingebaut werden. So glaubt Nathan, dass das Modell nach Ava den wahren Durchbruch Abb. 103: Wahre Freude bilden würde und somit die Singularität, also die Überlegenheit der Maschine gegenüber den Menschen, darstellen wird. Auch die  ematik der Sexroboter wird in E M vertie er aufgegri en als in A. Nathan hat mit Kyoko eine sexuelle Beziehung, sie ist so designt, dass der Akt nicht nur seine, sondern auch ihre Lust stimuliert. Die Szene mit den im Schrank au ewahrten Vorgängermodellen erinnert an die real existierenden Liebespuppen RealDoll, die auf der o ziellen Homepage des Herstellers als „the world’s  nest love dolls“ beschrieben werden (RealDoll 2006). Der technologische Fortschritt lässt die Vision eines Sexroboters in der Realität immer näher rücken: mehrere Unternehmen arbeiten aktuell an deren Umsetzung. Wie die Zeitung ‚ e Guardian‘ in einer ausführlichen Reportage berichtete, feilt RealDoll-Schöper Matt McMullen seit 20 Jahren an seinen lebensechten Sexpuppen und hat neben internationalem Medieninteresse auch zahlreiche Kritik von Seiten der Ethik und Futurologie bekommen. Der aktuelle Höhepunkt ist eine anatomisch reale Sexpuppe mit einem animierten Sprechkopf und einer programmierbaren Persönlichkeit, die den Namen Harmony trägt. Über eine App können aus 20 möglichen Persönlichkeitskomponenten fünf oder sechs ausgewählt werden, um die Basis der KI zu scha en. Diese würde durch Interaktion lernen (Kleeman 2017: o.S.). Die Darstellung von Ava und Kyoko sowie Nathans Idee einer künstlichen Frau passt zur Meinung, die Levy in seiner Publikation vertritt: „If we accept that a robot can think, then there is no good reason we should not also accept that it could have feelings of love and feelings of lust.” (Levy 2008: 12). Der britische Wissenscha ler, der in seinem Buch schreibt, dass Sex zwischen Menschen und Robotern bis 2050 Normalität sein wird (ebd. 2008: 303), nimmt auch Bezug auf ethische  emen, die seiner Meinung nach nicht nur die Menschen, sondern auch die Roboter selbst betre en würden. Wenn ein Roboter so weit entwickelt wäre, dass er von einem Menschen äußerlich kaum zu unterscheiden ist, stellt sich die Frage: „Should we assume that simply because they are not biological creatures it is totally acceptable for us

120 to have sex with these objects of our creation whenever we wish?” (Levy 2008: 309f). Wenn humanoide Roboter sowohl auf der emotionalen als auch der praktischen Ebene zu Ersatzmenschen avancieren, müsste man sich die Frage stellen, ob Menschen ihnen gegenüber auch ethische Verp ichtungen haben (ebd. 2008: 310). Wie in den Filmen C und A werden auch in E M verschiedene ethische Aspekte behandelt. Es geht nicht nur um die Entwicklung einer starken KI, sondern auch um die Gründe, eine KI zu scha en. Neben den  emen Bewusstsein und Gefühle wird auch hier Gewalt und der Überlebenswille thematisiert. Die realen Konzepte der Roboterethik können auch auf E M übertragen werden. Während Nathan bei der Entwicklung der KI seiner, wenn auch etwas lückenha en, Robotik-Ethik folgt, verfügt Ava über eine Roboterethik und somit über eine subjektive Moral. Kyokos Zustand bleibt unklar, es ist o en, ob sie einer Robotermoral mit einem einprogrammierten Verhaltenskodex folgt oder ob sie doch eine Roboterethik mit Beschränkungen besitzt.

5.5 Fazit Analyse

Abb. 104: Kategorienvergleich

121 Vergleicht man die drei Filme, zeigen sich Gemeinsamkeiten und Unterschiede in der Darstellung der künstlichen Agenten, ihrer Rollen und der ethischen Aspekte, die in ihrem Kontext thematisiert wurden. Die künstlichen Agenten verfügen in allen drei Filmen über eine starke Künstliche Intelligenz. Sowohl Chappie als auch Ava sowie die veränderten Roboter in A erfüllen die Kriterien Motivation und Selbstreexion. Chappie und Ava besitzen zusätzlich die Fähigkeit, Gefühle zu empnden und auszudrücken und erfüllen somit alle Kriterien einer künstlichen Seele nach Dörner (vgl. Dörner 2002). Es kann angenommen werden, dass sie deshalb auch von den Zuschauerinnen und Zuschauern als vollwertige künstliche Agenten wahrgenommen werden. Sie haben beide eine subjektive Roboterethik und sind zu Gewalt gegenüber Menschen fähig. Die veränderten Roboter in A hingegen empnden keine Emotionen und sind durch das noch vorhandene erste Protokoll, das im Film gezeigt wurde, vergleichsweise eingeschränkter. Sie werden im Vergleich zu Chappie oder Ava nicht als vollkommene künstliche Agenten wahrgenommen und sind auch nicht in der Lage, Gewalt gegen Menschen anzuwenden. Auf der sprachlichen Ebene fällt in diesem Kontext Folgendes auf: Wenn über die Pilgrim in A gesprochen wird, wird das Pronomen ‚it‘ verwendet. Die Scouts in C hingegen werden mit ‚he‘ angesprochen. Auch Cleo, Chappie oder Ava werden mit den Personalpronomen er oder sie adressiert. Hier zeigen sich unterschiedliche Wahrnehmungen, auf welcher Ebene die künstlichen Agenten zu verorten sind. Angelehnt an Ihde, Verbeek und van den Berg kann versucht werden, die künstlichen Agenten zu kategorisieren. In seiner Publikation ‚Technology and the Lifeworld‘ nimmt Ihde, in Bezug auf den Philosophen Emmanuel Levinas, eine Bezeichnung verschiedener Alteritätsbeziehungen vor. Er prägt darin den Begri der ‚quasi-others‘ (vgl. Ihde 1990): „Technological otherness is a quasi-otherness, stronger than mere objectness but weaker than the otherness found within the animal kingdom or the human one.“ (ebd. 1990: 100). Den Grund für diese Art der Wahrnehmung beschreibt Verbeek folgendermaßen: „Technology appears in alterity relations as quasi-other because while we may encounter technologies in ways in which they seem to behave as an ‘other,’ they can, of course, never be present as a true person.” (Verbeek 2005: 127). Er stellt dar, dass Menschen sich der Technik o auf anthropomorphe Weise nähern. Als Hauptgrund dafür, dass Technologien als quasi-others wahrgenommen werden, betrachtet er ihre Fähigkeit dazu,

122 unabhängig Aktionen auszuführen und die Möglichkeit zur Interaktion zwischen Menschen und Maschine. Dennoch könne Technik nie den Status des ‚genuine other‘ erreichen (Verbeek 2005: 127). Van den Berg sieht dies anders. Wenn Technologien ein proaktives Verhalten aufweisen, also die Menschen in verschiedenen Aufgaben unterstützen, Aufgaben übernehmen und aktiv in ihr Leben eingreifen, verleitet dies die Nutzerinnen und Nutzer, sie als genuine others wahrzunehmen. Fällt die Erfahrung einer Maschine mit der Erfahrung einer tatsächlichen Person zusammen, könne von einem genuine other die Rede sein (van den Berg 2010: 186). Während die Roboter in A zuerst als reine Maschinen bezeichnet und wahrgenommen werden, wandelt sich Jacqs Eindruck im Laufe des Filmes, vor allem durch die Interaktion mit Cleo. Sie wird von ihm als quasi-other perzipiert: Nicht mehr als Maschine aber auch noch nicht als genuine other. Dies hängt wahrscheinlich mit den Beschränkungen zusammen, die die veränderten Roboter haben und der Tatsache, dass ihnen Emotionen fehlen. Die Scouts in C werden als quasi-others wahrgenommen, während sich Chappie eine Stufe darüber bendet und die Kriterien eines genuine other erfüllt. Er wird von Deon und Yolandi als ihnen ebenbürtig angesehen. Auch Ava fällt in die Kategorie genuine other. Caleb nimmt sie so wahr wie einen anderen Menschen, der ihm gleichgestellt ist. Aus dieser Position der künstlichen Agenten ergeben sich unterschiedliche ethische Aspekte. In allen drei Filmen sind die emen Bewusstsein und Leben und der damit zusammenhängende Überlebenskampf stark thematisiert. In C ist nicht nur von einem Bewusstsein die Rede, dem robotischen Protagonisten wird sogar eine Seele zugesprochen. Auch die Gewalt gegen Roboter beziehungsweise die Robotergewalt gegen Menschen wird zum ema gemacht. Yolandi und Deon in C und Caleb in E M setzen sich aktiv für das Leben der künstlichen Agenten ein. Gewalt ihnen gegenüber wird als falsch empfunden. In A wird die Gewalt gegen Roboter von den Zuschauerinnen und Zuschauern auch als falsch empfunden, dennoch nicht auf derselben Ebene wie in den anderen Filmen. Dies hängt mit dem oben festgestellten Status der Roboter zusammen. In den analysierten Filmen werden die künstlichen Agenten mehr oder weniger stark humanisiert, sie führen menschliche Tätigkeiten wie Zeichnen, Tanzen oder Autofahren durch und gestalten ihr Äußeres selbstständig. In allen drei Filmen sind die Aktionen der

123 künstlichen Agenten durch eine subjektive Motivation geprägt. Die Analyse hat gezeigt, dass in den Filmen verschiedene Ebenen von Roboterethik dargestellt werden. So besitzen vor allem Chappie und Ava eine subjektive Moral. Könnten sie somit als vollwertige ethische Agenten gesehen werden? Betrachtet man die eorie dazu, argumentiert Moor, dass es mindestens vier Arten von ethischen Agenten gibt: ethical impact agents, implicit ethical agents, explicit ethical agents und full ethical agents (vgl. Moor 2006). Ein full ethical agent, also ein vollwertiger ethischer Agent, kann explizit ethische Urteile fällen. Nach Moor sind Menschen Wesen mit Bewusstsein, Absicht und freiem Willen. Deshalb kann ein durchschnittlicher erwachsener Mensch als vollwertiger ethischer Agent bezeichnet werden. Ob Maschinen diesen Status erreichen können und sollen, ist das ema vieler Debatten in der Roboterethik (ebd. 2006: 20). Künstliche Agenten im Film, die als genuine others gelten, können ebenfalls als vollwertige ethische Agenten gelten. Wird über den Film hinaus weitergedacht, stellt sich die Frage nach den Rechten und Verpichtungen, die die künstlichen Agenten somit beanspruchen. Eine weitere Schwierigkeit im Umgang mit den humanoiden Robotern im Film ist, dass ihre Entwicklung nicht abgeschlossen ist. Sowohl Chappie als auch Ava und Cleo benden sich in einer Entwicklungsphase. Im Film A wird thematisiert, dass man nicht wüsste, wie weit sich eine Maschine mit einer KI ohne Beschränkungen entfalten könnte, sie aber mit größter Wahrscheinlichkeit den Status der Singularität erreichen würde. Auch Nathan spricht in E M das ema der Singularität an. In diesem Kontext soll kurz auf Yudkowsky eingegangen werden, der den Begri der ‚seed AI‘ prägte. „A seed AI is an AI designed for self-understanding, self-modication, and recursive self-improvement.” (Yudkowsky 2007: 96). Dabei handelt es sich um eine KI, die sich ohne menschlichen Eingri selbst modizieren und verbessern könnte. „Because of self-improvement, recursive self-enhancement, […] and other reasons, it is possible that AIs will improve enormously past the human level, and very quickly by the standards of human timescales.” (Yudkowsky 2001: 2). In Aœ wird eine solche Situation geschildert, als sich der Bio-Chip des ersten Pilgrims so weit entwickelte, dass keine Kommunikation zwischen Mensch und Maschine mehr möglich war. Hier kann auch an die Szene erinnert werden, in der Dr. Dupré über die Entwicklung eines Roboters ohne Beschränkungen spricht. Das neue Wesen in A kommuniziert ebenfalls ohne Sprache

124 und auch in E M verständigen sich Ava und Kyoko am Ende, bevor es zur Konfrontation mit Nathan kommt, stumm und in einer dem Menschen unverständlichen Art. In den Filmen werden unterschiedliche ethische Konikte dargestellt, für die aber nicht immer eektive Lösungen angeboten werden. Die dargestellten Wege wie die einprogrammierte Robotermoral, Sicherheitsvorkehrungen wie der Guard Key, der Versuch durch Erziehung die Roboterethik zu beeinussen oder die Interaktion in einem geschützten Raum sind Lösungen, die im Film als nicht ausreichend dargestellt werden und am Ende doch zu Konikten zwischen Mensch und Maschine führen. In der Realität betont Yudkowsky, dass die Menschen die Entwicklung einer ‚Friendly AI‘ anstreben sollen. Diese stellen eine menschenfreundliche KI dar, die in ihren selbständig festgelegten Zielen, keine menschenverachtenden Aktionen in Betracht ziehen (Yudkowsky 2001: 2). „Success in Friendly AI can have positive consequences that are arbitrarily large, depending on how powerful a Friendly AI is. Failure in Friendly AI has negative consequences that are also arbitrarily large.” (Yudkowsky 2001: 3). Durch das erste Protokoll kann Cleo als Friendly AI eingestu werden. Bei künstlichen Agenten wie Chappie und Ava bräuchte es in diesem Fall einen Baustein in ihrer KI, der der Entwicklung ihrer Roboterethik einen schadensfreien Umgang mit Menschen zu Grunde legen würde. Im Falle Chappies wird deutlich, dass Erziehung nicht ausreicht, weil diese nicht kontrolliert genug ablaufen kann. Die analysierten Filme behandeln keine rein ktionalen Probleme, sondern zeigen mögliche Schwierigkeiten der Zukun auf, die au auchen könnten, wenn die Menschen humanoide Roboter schaen, die in ihrem Alltag integriert sind. Die Filmbeispiele illustrieren potenzielle Lösungen beziehungsweise visualisieren unterschiedliche Aspekte und emen der Roboterethik, die nun auch vermehrt den wissenscha lichen Diskurs prägen. Zahlreiche Filmbeispiele zeigen, dass die Darstellung künstlicher Agenten mit Bewusstsein von einer Bipolarität gezeichnet ist. Sind die künstlichen Agenten Diener und Freunde der Menschen, die ihr Leben erleichtern? Beginnen sie an ihrer Rolle zu zweifeln und widersetzen sie sich dagegen? Oder streben sie danach, dem Menschen gleichgestellt zu sein?

125 6 Schlussfazit und Ausblick

“It can even be argued that science  ction helps to create the very futures it describes, by preparing people’s minds for them.” (Nicholls 1983: 6).

Menschen und Technik teilen eine lange gemeinsame Geschichte. Schon in der Antike träumten die Menschen davon, selbst Schöpfer zu werden und ein künstliches Abbild ihrer selbst zu scha en. Das  eoriekapitel hat die lange Geschichte aufgezeigt, die die Robotik bis heute durchlaufen hat und verdeutlicht, welche verschiedenen Arten künstlicher Agenten sich über die Jahrhunderte entwickelt haben. In einer zwischen Realität und Science-Fiction wechselnden Betrachtung wurde gezeigt, dass sich die Bereiche gegenseitig beein ussen. Die Modelle der Science-Fiction sind fantastischer und fortgeschrittener als jene, die sich in der Realität  nden, da der Fantasie dort – im Gegensatz zu den Möglichkeiten der Realität – keine Grenzen gesetzt sind. Dennoch inspirieren diese  ktiven Ideen zahlreiche reale Entwicklungen. Science-Fiction-Filme thematisieren nicht nur technische Neuerungen und Innovationen, sondern verbinden diese mit Fragen nach der Wirklichkeit und dem Mensch-Sein. Ohne die Realität aus dem Blick zu lassen, wurde der Fokus der Arbeit auf westliche Spiel lme gelegt. Diese Vorgehensweise wurde durch die Idee gestützt, dass Filme nie für sich allein stehen, sondern immer auch einen Spiegel der jeweiligen Gesellscha und ihrer kulturellen Entwicklungen darstellen. Andererseits prägen sie auch die Weltsichten und Vorstellungen des Publikums und balancieren deshalb auf der Schwelle zwischen Abbildung und Interpretation. In der quantitativen Überblicksanalyse der 247 Filme von 1990 bis 2017 wurden die einzelnen Filme nach verschiedenen künstlichen Agenten untersucht: humanoide Roboter, Cyborgs, mechanische Roboter, Künstliche Intelligenz, Exoskelette und Mechas. Die Analyse hat gezeigt, dass 42% der au retenden künstlichen Agenten in den untersuchten Filmen humanoide Roboter waren. Diese konnten in zwei verschiedene Untergruppen eingeteilt

126 werden: humanoid mechanische Roboter und humanoid menschliche Roboter, also Androide. Dabei wurden in den Filmen der letzten Jahre häuger auch Mischungen beobachtet. Somit bildeten humanoide Roboter den Großteil der au retenden künstlichen Agenten und spielten über die Jahre die konstanteste Rolle. Sie sind es auch, die den Urtraum des Menschen verkörpern und ihrerseits Faszination und Angst vereinen, wie die Handlungen der Filme verdeutlichen. Das Motiv des Roboters erfuhr über die Jahrzehnte einen Wandel. Dabei macht die facettenreiche Art der Darstellung humanoide Roboter zu einem vielseitigen Untersuchungsobjekt. Vor allem seit der Jahrtausendwende wurde beobachtet, dass die Roboter immer ö er mit Bewusstsein ausgestattet wurden. Sie agierten als selbstständige Agenten mit Träumen, Wünschen und Zielen. In diesem Zusammenhang wurden immer ö er ethische Fragen in die Erzählungen integriert. Diese Beobachtung, im Zusammenhang mit den realen Diskussionen zur Roboterethik, führte zur Forschungsfrage der vorliegenden Masterarbeit: Welche ethischen Aspekte der Mensch-Maschinen-Interaktion werden in westlichen Science-Fiction-Filmen dargestellt? Die Analyse hat gezeigt, dass die künstlichen Agenten, die höher als andere Roboter entwickelt sind, stärker in den Bereich des Ethischen eindringen. Diese Entwicklung betri sowohl die technische, anthropomorphe Ebene, als auch ihre kognitiven und psychisch-emotionalen Fähigkeiten. In den ausgewählten Filmen stehen humanoide Roboter mit einer starken KI, die über ein Bewusstsein verfügen, im Zentrum der Handlung. In diesem Kontext wird über verschiedene Aspekte und mögliche Lösungen zum ema Roboterethik reektiert. Bewusstsein und seine Komplexität wurden in allen drei Filmen thematisiert und auch in Verbindung mit dem Konzept der Seele gebracht. Dies wir in der Interpretation wiederum die Frage auf, was den Menschen zum Menschen macht, beziehungsweise was eine Maschine vom Menschen unterscheidet, wenn sie zu Motivation, Selbstreexion und Gefühlen fähig ist. In diesem Zusammenhang wird in den Filmen der Wille der künstlichen Protagonisten nach Leben thematisiert und die damit zusammenhängende Bereitscha zum Überlebenskampf. Anhand der untersuchten Filme lässt sich feststellen, dass durch die starke Humanisierung der robotischen Protagonisten das Spektrum ihrer Charakterisierung als ethische Wesen steigt. Durch bestimmte menschliche Charaktereigenscha en wie Individualität, Humor oder Mitgefühl wachsen sie über ihr Dasein als Maschine hinaus. Zwar werden die

127 Roboter in A in gewissen Situationen als ‚nur Maschinen‘ bezeichnet, jedoch zeigt der Film, dass vor allem Cleo und die anderen veränderten Roboter als quasi-other wahrgenommen werden. Sie sind mehr als bloß Maschinen. Ähnlich werden auch die Polizeiroboter in C empfunden. Chappie oder Ava aus E M sind hingegen eine Ebene höher einzustufen. In diesem Fall werden künstliche Agenten dargestellt, die auch als vollwertige ethische Agenten wahrgenommen werden und so vom quasi-other zum genuine other avancieren. Sie sind auf der selben Stufe wie Menschen. Beide Beispiele verfügen über eine Roboterethik, also eine Ethik, die aus der subjektiven Moral entsteht. Zusätzlich haben sie die Freiheit, selbst Entscheidungen zu treen und entsprechend zu handeln. Ein großes ema in den Filmen ist Gewalt, menschliche Gewalt gegen Roboter, aber auch robotische Gewalt gegen Menschen. In Zusammenhang mit der Wahrnehmung der Roboter als vollwertige Agenten wird Gewalt gegen sie als ungerecht und falsch wahrgenommen. Aber auch ihre Gewalt gegen Menschen wirkt falsch. Durch ihren Status als vollwertige ethische Agenten würden ihnen nicht nur Rechte, sondern auch Pichten zustehen. Dies ist in den Filmen jedoch nicht der Fall, da ihr Status als genuine other nicht allgemein wahrgenommen und akzeptiert ist. Sowohl Chappie als auch Ava sind Einzelfälle – in gewisser Weise Prototypen – und keine Massenprodukte. Deshalb fehlen die ethischen Einschränkungen oder Barrieren. Allgemein zeigen die ktiven Szenarien keine perfekten Lösungen. In den drei analysierten Filmen kommt es am Ende zu einer Konfrontation zwischen Mensch und Maschine. Obwohl die Filme keine Terminator-Szenarien malen und sich die Roboter nicht gegen die Menschheit wenden, wie zum Bespiel in I, R† (2004), wird die Möglichkeit der Singularität als Bedrohung eingestu , die die Menschen unter Kontrolle halten müssen, um nicht in Gefahr zu geraten. Auch wenn während der Analyse der Eindruck entstanden ist, die dargestellten humanoiden Roboter handeln im ethischen Sinne gut oder schlecht, darf nicht vergessen werden, dass es immer der Mensch ist, der der Technik eine ethische Dimension gibt. Die Annahme, dass die ethischen Überlegungen in den Filmen mit realen Entwicklungen und eorien zusammenfallen, hat sich teilweise bestätigt. Die Richtungen der Roboterethik, die im Kapitel 2.4 unter den Begrien Robotik-Ethik, Robotermoral und Roboterethik zusammengefasst wurden, konnten den im Film dargestellten Momenten zugeordnet werden.

128 Zum ema Roboterethik im Film wurde vergleichsweise wenig geforscht. Im Laufe der Recherche zur vorliegenden Arbeit wurde deutlich, dass das untersuchte Gebiet noch jung ist und die Suche nach neuen Erkenntnissen stetig vorangeht. Es wurden zahlreiche akademische Arbeiten gefunden, die sich mit der Interaktion zwischen Mensch und Maschine im Film beschä igen. Jedoch lag der Fokus sehr o auf allgemeinen Analysen, Figurenanalysen oder der Beleuchtung spezischer Genderfragen. Analysen mit Blick auf ethische Aspekte wurden kaum gefunden. Diese Arbeit soll als ein möglicher Schritt in diese Richtung gesehen werden. Es gibt noch weitere Filme, die man in diesem Kontext analysieren kann und in den nächsten Jahren werden die Filmemacherinnen und Filmemacher mit großer Wahrscheinlichkeit noch einige Projekte realisieren, die für das ema Roboterethik im Film von Bedeutung sein werden. Blickt man zudem über den Tellerrand Reallm, nden sich einige untersuchungswürdige Beispiele der Gattung Serie, Kurzlm oder Animationslm. Auch das Feld der Computer- und Konsolenspiele könnte überaus spannendes Untersuchungsmaterial bieten. Eines steht fest: Die Roboter kommen – nicht nur auf die Kinoleinwände, sondern auch in unsere Häuser. Aber man muss nicht gleich an ein Weltuntergangsszenario denken. Man mag hoen, die Menschen streben danach, Roboter zu schaen, die nicht zur unmittelbaren Gefahr werden. Roboter beschränken sich schon lange nicht mehr auf Fabriken, Laboratorien oder das Kriegsfeld und erfüllen nicht mehr bloß Aufgaben, die ‚dull, dirty and dangerous‘ sind. Sie fügen sich schrittweise in den Alltag der Menschen ein. Soziale Roboter als Unterhaltung, in der Erziehung oder Altenpege, im Dienstleistungssektor als Bedienung, an der Rezeption oder im Museum, bis hin zur Sexualpartnerin oder zum Sexualpartner. Es gibt bereits Menschen, die künstliche Freunde realen Freunden vorziehen; das gesellscha liche Echo dazu divergiert in zwei Richtungen. Obwohl diese Szenarien für viele wie Science- Fiction klingen und wahrscheinlich noch länger nicht zur allumfassenden Realität werden, sind Roboter in den genannten Bereichen bereits im Einsatz. Mit dem rasanten Fortschritt der Technik wird die Denition des Menschen zunehmend diuser und die Grenze zwischen Mensch und Technik zunehmend unklarer. Nicht nur in der Science-Fiction, auch in der Realität wird dann die Frage nach der Würde des Menschen neu gestellt werden. Der Mensch ist immer wieder auf der Suche nach dem: Was bin ich? Bei den Robotern können

129 wir uns einer Tatsache sicher sein: Sie sind unsere Produkte, sie entspringen unserer Fantasie und unseren Fähigkeiten. Es stellt sich die Frage, wie es wäre, wenn Roboter nicht nur autonomer und intelligenter werden, sondern auch persönlicher und sozialer. In der Science-Fiction wird darüber fantasiert. Die dort präsentierten Szenarien laden ein, darüber nachzudenken, wie es wäre, mit sozialen Robotern zusammen zu leben. Glaubt man einem Gandhi-Zitat, lässt sich die Größe einer Nation daran messen, wie sie ihre Tiere behandelt. Vielleicht wird in Zukun der moralische Fortschritt einer Gesellscha daran gemessen, wie sie ihre künstlichen Agenten behandelt?

130 7 Verzeichnisse

Literatur- und Quellenverzeichnis Abney, Keith (2011): Robotics, Ethical eory, and Metaethics: A Guide for the Perplexed. In: Lin, Patrick/ Abney, Keith/Bekey, George A. (Hg.): Robot Ethics. e Ethical and Social Implications of Robotics. Cambridge, Mass.: MIT Press. S. 35-52.

Akremi, Leila (2016): Kommunikative Konstruktion von Zukun sängsten. Imaginationen zukün iger Identitäten im dystopischen Spiellm. Wiesbaden: Springer Fachmedien.

Apunkt Schneider, Frank/Friesinger, Günther (2014): Next Cyborg. Über unsere kurze, aber Intensive Zukun als Cyborgs. In: Friesinger, Günther/Schossböck, Judith (Hg.): e Next Cyborg. Wien: edition mono/ monochrom. S. 127-141.

Arkin, Ronald (2009): Governing Lethal Behavior in Autonomous Robots. Boca Raton: CRC Press.

Asimov, Isaac (1990): Robot Visions. London: ROC.

Asimov, Isaac (1978): Foreword. In: Holdstock, Robert (Hg.): Encyclopedia of Science Fiction. London: Octopus Books. S. 6-7.

Aszmann, Oskar C./Roche, Aidan D./Salminger, Stefan/Paternostro-Sluga, Tatjana/ Herceg, Malvina/Sturma, Agnes/Hofer, Christian/Farina, Dario (2015): Bionic reconstruction to restore hand function a er brachial plexus injury: a case series of three patients. In: e Lancet. Vol. 385, Nr. 9983. S. 2183-2189. PDF online unter: http://www.thelancet.com/pdfs/journals/lancet/PIIS0140-6736(14)61776-1.pdf [04.09.2017].

Bandura, Albert (1976): Lernen am Modell. Ansätze zu einer sozial-kognitiven Lerntheorie. Stuttgart: Klett.

Battaglia, Fiorella/Weidenfeld, Nathalie (2014) (Hg.): Roboethics in lm. Pisa: Pisa University Press.

Bekey, George A. (2011): Current Trends in Robotics: Technology and Ethics. In: Lin, Patrick/ Abney, Keith/ Bekey, George A. (Hg.): Robot Ethics. e Ethical and Social Implications of Robotics. Cambridge, Mass.: MIT Press. S. 17-34.

Bendel, Oliver (2017): Sex Robots from the Perspective of Machine Ethics. In: Cheok, Adrian David/Devlin, Kate/Levy, David (Hg.): Love and Sex with Robots. Second International Conference. Springer. S. 17-26.

Berr, Marie-Anne (1990): Technik und Körper. Berlin: Dietrich Reimer Verlag.

Burzan, Nicole (2015): Quantitative Methoden kompakt. Konstanz: UVK Verlagsgesellscha .

Campbell, Murray/Hoane, Joseph/Hsu, Feng-hsiung (2001): Deep Blue. PDF online unter: https://sjeng.org/ p/deepblue.pdf [04.09.2017].

Capurro, Rafael (2009): Ethics and robotics. In: Capurro, Rafael/Nagenborg, Michael (Hg.): Ethics and Robotics. Heidelberg: AKA Verlag. S. 117-123.

Christaller, omas (2001): Robotik. Perspektiven für menschliches Handeln in der zukün igen Gesellscha . Berlin, Heidelberg: Springer-Verlag.

Clark, David (1951): Plane and Geodetic Surveying for Engineers. London: Constable.

131 Coenen, Christopher/Gammel, Stefan/Heil, Reinhard/Woyke, Andreas (2010): Einleitung der Herausgeber. In: Coenen, Christopher/Gammel, Stefan/Heil, Reinhard/Woyke, Andreas (Hg.): Die Debatte über „Human Enhancement“. Historische, philosophische und ethische Aspekte der technologischen Verbesserung des Menschen. Bielefeld: transcript Verlag. S. 9-18.

Damásio, António (1994): Descartes’ Error: Emotion, Reason, and the Human Brain. New York: Putnam.

De Asís Roig, Rafael (2014): Ethics and Robotics. A rst approach. In: e Age of Human Rights Journal. Nr. 2. S. 1-24. PDF online unter: https://revistaselectronicas.ujaen.es/index.php/TAHRJ/article/view/1400/1188 [04.09.2017].

Descartes, René (1960): Discourse on Method and Meditations. Indianapolis: Bobbs-Merrill.

Desouza, Kevin C. (2002): Managing knowledge with articial intelligence. An introduction with guidelines for nonspecialists. London: Quorum Books.

Dorner, Georg (2004): Rationalität, Emotionalität und Körperlichkeit: Können Maschinen Menschen verstehen – und umgekehrt?. In: Schmidinger, Heinrich/Sedmak, Clemens (Hg.): Der Mensch – ein „animal rationale“?. Vernun – Kognition – Intelligenz. S. 102-112.

Dörner, Dietrich (1999): Bauplan für eine Seele. Reinbek bei Hamburg: Rowohlt.

Dörner, Dietrich (2002): Seelen aus der Retorte?. In: Dörner, Dietrich/Spitzer, Manfred (Hg.): Vernun – Gehirn – Computer: Was bleibt vom Menschen?. Bamberg: Universitäts-Verlag. S. 15-38.

El Mesbahi, Myriam (2015): Human-Robot Interaction Ethics in Sci-Fi Movies: Ethics Are Not ‚ere‘, We Are the Ethics!. In: Marcus, Aaron (Hg.): Design, User Experience, and Usability: Design Discourse. Cham: Springer. S. 590-598.

Ertel, Wolfgang (2013): Grundkurs Künstliche Intelligenz. Eine praxisorientierte Einführung. Wiesbaden: Springer Fachmedien.

Euchner, Walter (2005): Der künstlich verbesserte Mensch und die „künstliche Intelligenz“ – Vorgeschichte und aktuelle Diskussion. In: Leviathan. Vol. 33, Nr. 1. S. 40-68.

Faulstich, Werner (2002): Grundkurs Filmanalyse. Paderborn: Wilhelm Fink GmbH.

Feigenbaum, Edward A./McCorduck, Pamela (1983): e Fi h Generation: Articial Intelligence and Japan’s Computer Challenge to the World. Addison-Wesley Longman Publishing Co., Inc. Boston

Feldhaus, Franz Maria (1970): Die Technik. Ein Lexikon Der Vorzeit, der Geschichtlichen Zeit und der Naturvölker. München: Heinz Moos.

Finch, Jacqueline (2011): e ancient origins of prosthetic medicine. In: e Lancet. Vol. 377, Nr. 9765. S. 548- 549. PDF online unter: http://www.thelancet.com/pdfs/journals/lancet/PIIS0140-6736(11)60190-6.pdf [03.09.2017].

Flick, Uwe (2008): Triangulation. Eine Einführung. Wiesbaden: VS Verlag für Sozialwissenscha en.

Floridi, Luciano (2014): e 4th Revolution. How the infosphere is reshaping human reality. New York: Oxford University Press.

Franke, Ulrike Esther/Leveringhaus, Alexander (2015): Militärische Robotik. In: Jäger, omas (Hg.): Handbuch Sicherheitsgefahren. Globale Gesellscha und internationale Beziehungen. Wiesbaden: Springer VS. S. 297-311.

132 Friedrich, Hans-Edwin (2004): Androiden, Roboter, Kyborgs und künstliche Intelligenzen. Die literarische Reexion der Interaktion von Mensch und Maschine. In: Schmidinger, Heinrich/Sedmak, Clemens (Hg.): Der Mensch – ein „animal rationale“?. Vernun – Kognition – Intelligenz. Darmstadt: Wissenscha liche Buchgesellscha . S. 124-139.

Gibbs, Samule (2013): What is Boston Dynamics and why does Google want robots? In: e Guardian. Artikel online unter: https://www.theguardian.com/technology/2013/dec/17/google-boston-dynamics-robots- atlas-bigdog-cheetah [27.12.2017].

Goman, Erving (2012): Wir alle spielen eater. Die Selbstdarstellung im Alltag. München: Piper Verlag.

Grush, Loren (2015): Writer/Director Alex Garland Discusses His Latest AI-Inspired Film 'Ex Machina'. e science ction screenwriter dishes on what draws him to the genre. In: Popular Science. Artikel online unter: https://www.popsci.com/writer-director-alex-garland-discuses-his-latest-ai-inspired- lm-ex-machina [27.11.2017].

Gunzenhäuser, Randi (2006): Automaten – Roboter – Cyborgs. Körperkonzepte im Wandel. Trier: WVT.

Haraway, Donna J. (1995): Cyborgs and Symbionts: Living Together in the New World Order. In: Gray, Chris Hables (Hg.): e Cyborg Handbook. London: Routledge. S. xi-xx.

Haraway, Donna J. (2004): A Manifesto for Cyborgs: Science, Technology and Socialist Feminism in the 1980s. In: Redmond, Sean (Hg.): liquid metal. e Science Fiction Reader. London/New York: Wallower Press. S. 158-181.

Harbin, Chanelle (2016): Ex Machina is 2016 Oscar Winner for Visual Eects. Artikel online unter: http://oscar. go.com/news/winners/ex-machina-is-2016-oscar-winner-for-visual-eects [30.11.2017].

Harbisson, Neil (2012): Neil Harbisson: Ich höre Farben. Bericht online unter: https://www.ted.com/talks/neil_harbisson_i_listen_to_color/transcript?language=de [15.09.2017].

Höltgen, Stefan (2009): Mensch-Maschinen. In: Telepolis. Artikel online unter: https://www.heise.de/tp/features/Mensch-Maschinen-3383872.html [07.09.2017].

Hong, Jihee/Rouget, Timo (2013): Lesende und gläubige Roboter im Film. Die Angst vor der Identitätsbildung von Maschinen. GI-Jahrestagung. S. 1134-1146

Ichbiah, Daniel (2005): Roboter. Geschichte, Technik, Entwicklung. München: Knesebeck.

Ihde, Don (1990): Technology and the Lifeworld. From Garden to Earth. Bloomington: Indiana University Press.

Irrgang, Bernhard (2005): Posthumanes Menschsein?. Künstliche Intelligent, Cyberspace, Roboter, Cyborgs und Designer-Menschen. Anthropologie des künstlichen Menschen im 21. Jahrhundert. Wiesbaden: Franz Steiner Verlag.

Jones, Tim M. (2008): Articial Intelligence. A Systems Approach. Sudburry [u.a.]: Jones & Bartlett. Publishers

Joy, Bill (2000): Why the future doesn’t need us. In: Wired. Artikel online unter: https://www.wired.com/2000/04/joy-2/ [08.10.2017].

Kelle, Udo (2008): Die Integration qualitativer und quantitativer Methoden in der empirischen Sozialforschung. eoretische Grundlagen und methodologische Konzepte. Wiesbaden: VS Verlag für Sozialwissenscha en.

Khunkham, Kritsanarat (2014): Eugene hat Turing-Test nicht wirklich bestanden. In: Die Welt. Artikel online unter: http://m.welt.de/debatte/kolumnen/der-onliner/article129391089/Eugenehat-Turing-Test- nicht-wirklich-bestanden.html [10.08.2014].

133 Kiska, Tim (1983): Death on the job. Jury awards $10 million to heirs of man killed by robot at auto plant. In: Philadelphia Inquirer. August 11. S. 10. Artikel online unter: https://www.newspapers.com/newspage/172055141/ [14.10.2017].

Kleeman, Jenny (2017): e race to build the world’s rst sex robot. In: e Guardian. Artikel online unter: https://www.theguardian.com/technology/2017/apr/27/race-to-build-world-rst-sex-robot [30.11.2017].

Kochberg, Searle (2012): e industrial contexts of lm production. In: Nelmes, Jill (Hg.): Introduction to Film Studies. Abingdon: Routledge. S. 2-40.

Kopacek, Peter (2004): Menschliche Roboter – Robotermenschen. In: Schmidinger, Heinrich/Sedmak, Clemens (Hg.): Der Mensch – ein „animal rationale“?. Vernun – Kognition – Intelligenz. Darmstadt: Wissenscha liche Buchgesellscha . S. 113-123.

Kormann, Eva (2006): Künstliche Menschen oder der moderne Prometheus. Der Schrecken der Autonomie. In: Kormann, Eva/Gilleir, Anke/Schlimmer, Angelika (Hg.): Textmaschinenkörper. Genderorientierte Lektüre des Androiden. Amsterdam – New York: Editions Rodopi. S.73-90.

Kötzing, Andreas (2005): Editorial. In: Aus Politik und Zeitgeschichte. Film und Gesellscha . Vol. 44. S. 2. PDF Online unter: https://www.bpb.de/system/les/dokument_pdf/APuZ_2016_Jahresregister_online.pdf [14.10.2017].

Kurzweil, Ray (2000): Homo S@piens. Leben im 21. Jahrhundert – Was bleibt vom Menschen?. Köln: Kiepenheuer & Witsch.

Lenzen, Manuela (2002): Natürliche und Künstliche Intelligenz. Einführung in die Kognitionswissenscha . Frankfurt/Main: Campus Verlag GmbH.

Levy, David (2008): Love & Sex with Robots. e evolution of human-robot relationships. New York: HarperEntertainment.

Lin, Patrick (2011): Introduction to Robot Ethics. In: Lin, Patrick/ Abney, Keith/Bekey, George A. (Hg.): Robot Ethics. e Ethical and Social Implications of Robotics. Cambridge, Mass.: MIT Press. S. 3-15.

Lin, Patrick/Abney, Keith/Bekey, George A. (2011) (Hg.): Robot Ethics. e Ethical and Social Implications of Robotics. Cambridge, Mass.: MIT Press.

Lin, Patrick/Abney, Keith/Jenkins, Ryan (2017): Robot Ethics 2.0. From Autonomous Cars to Articial Intelligence. New York: Oxford University Press.

Luger, George F./Stubbleeld, William A. (1997): Articial Intelligence. Structures and Strategies for Complex Problem Solving. READING: Addison Wesley Longman INC.

Mainzer, Klaus (2016): Künstliche Intelligenz – Wann übernehmen die Maschinen?. Berlin/Heidelberg: Springer Verlag.

Mayring, Philipp (2014): Qualitative Content Analysis. eoretical Foundation, Basic Procedures and So ware Solution. PDF online unter: http://www.ssoar.info/ssoar/bitstream/handle/document/39517/ssoar-2014- mayring-Qualitative_content_analysis_theoretical_foundation.pdf?sequence=1 [03.10.2017].

McAfee, Andrew/Brynjolfsson, Erik (2017): Machine, Platform, Crowd. Harnessing Our Digital Future. New York [u.a.]: W. W. Norton & Company.

McCauley, Lee (2007): AI Armageddon and the ree Laws of Robotics. In: Ethics and Information Technology. Vol. 9, Nr. 2. S. 153-164.

134 McLuhan, Marshall (2003): Understanding media: the extensions of man. Corte Madera: Gingko Press.

Mikos, Lothar (2005): Film-, Fernseh- und Fotoanalyse. In: Mikos, Lothar/Wegener, Claudia (Hg.): Qualitative Medienforschung. Ein Handbuch. Konstanz: UTB. S. 458-465.

Minsky, Marvin (1968): Preface. In: Minsky, Marvin (Hg.): Semantic Information Processing. Cambridge [u.a.]: MIT Press. S. V.

Misselhorn, Catrin (2009): Empathy and Dyspathy with Androids: Philosophical, Fictional, and (Neuro) Psychological Perspectives. In: Konturen. Between Nature and Culture: A er the Continental-Analytic Divide. Vol. 2. S. 101-123.

Moor, James H. (2006): e Nature, Importance, and Diculty of Machine Ethics. In: IEEE Intelligent Systems. Vol. 21, Nr. 4. S. 18-21.

Mori, Masahiro (2012): e Uncanny Valley. In: IEEE Robotics & Automation Magazine. Vol. 19, Nr. 2. S. 98- 100. (Original 1970, übers. Von MacDorman, Karl F./Kageki, Norri).

Nakada, Makoto (2011): Ethik in der Roboterforschung unter besonderer Berücksichtigung des Problems der Autonomie. Berührungspunkte der westlichen Ontologie und der japanischen Diskussion über ba in der Roboterethik. In: Japanisch-Deutsches Zentrum Berlin (Hg.): Mensch-Roboter-Interkation aus interkultureller Perspektive. Japan und Deutschland im Vergleich. Bd. 62. S. 69-114.

Nanyang Technological University (2015): NTU scientists unveil social and telepresence robots. Artikel online unter: http://media.ntu.edu.sg/NewsReleases/Pages/newsdetail.aspx?news=fde9b6-ee3f-45f0-8c7b- f08bc1a9a179 [14.09.2017].

Nevejans, Nathalie (2016): European Civil Law Rules in Robotics. Study for the Juri Committee. Brüssel: Europäisches Parlament. PDF online unter: http://www.europarl.europa.eu/RegData/etudes/ STUD/2016/571379/IPOL_STU%282016%29571379_EN.pdf [07.08.2017].

Nicholls, Peter (Hg.) (1983): e Science in Science Fiction. New York: Alfred A. Knopf.

Oergeld, Silke (2015): Cyborg-Bewegung. Technik, die unter die Haut geht. Artikel online unter: http://www. berliner-zeitung.de/23294106 [15.09.2017].

Operto, Fiorella (2011): Ethics in Advanced Robotics. In: IEEE Robotics & Automation Magazine. Vol. 18, Nr. 1. S. 72-78.

Ovid (2003): Metamorphoses. Liber X 243-297. In: Aurnhammer, Achim/Martin Dieter (Hg.): Mythos Pygmalion. Texte von Ovid bis John Updike. Leipzig: Reclam Verlag. S. 10-13.

Peltzer, Anja/Keppler, Angela (2015): Die soziologische Film- und Fernsehanalyse. Eine Einführung. Berling: de Gruyter

Pichler, Georg (2017): "Sophia": Saudi Arabien bürgert Roboter ein. In: Der Standard. Artikel online unter: https://derstandard.at/2000066761525/Sophia-Saudi-Arabien-buergert-Roboter-ein [27.12.2017].

Pieper, Annemarie (2007): Einführung in die Ethik. Tübingen/Basel: A. Francke Verlag.

Pieper, Annemarie/urnherr, Urs (1998): Einleitung. In: Pieper, Annemarie/urnherr, Urs (Hg.): Angewandte Ethik. Eine Einführung. München: Beck. S. 7-13.

Reichertz, Jo/Englert, Carina Jasmin (2011): Einführung in die qualitative Videoanalyse. Eine hermeneutisch- wissenssoziologische Fallanalyse. Wiesbaden: Verlag für Sozialwissenscha en.

135 Rich, Elaine/Knight, Kevin (1991): Articial Intelligence. New York [u.a.]: McGraw Hill Book Company.

Riskin, Jessica (2005): Künstliches Leben produzieren. Denkparallelen im Automatenbau des 18. Jahrhunderts und heute. In: Orland, Barbara (Hg.): Artizielle Körper – Lebendige Technik. Technische Modellierungen des Körpers in historischer Perspektive. Zürich: Chronos Verlag. S. 65-85.

RoboLaw (2012): Guidelines on Regulating Robotics. Regulating Emerging Robotic Technologies in Europe: Robotics facing Law and Ethics. PDF online unter: http://www.robolaw.eu/RoboLaw_les/documents/robolaw_ d6.2_guidelinesregulatingrobotics_20140922.pdf [08.10.2017].

Ruge, Wolfgang (2012): Roboter im Film. Audiovisuelle Artikulationen des Verhältnisses zwischen Mensch und Technik. Stuttgart: ibidem-Verlag.

Russell, Stuart/Dewey, Daniel/Tegmark, Max (2015): Research Priorities for Robust and Benecial Articial Intelligence. In: AI Magazine. Vol. 36, Nr. 4. S. 105-114.

Russell, Stuart/Norvig, Peter (1995): Articial Intelligence: A Modern Approach. Upper Saddle River, NJ : Prentice-Hall.

Schäfer, Michael/Gawron, Olaf (2015): Neue Techniken in der prothetischen Versorgung nach Amputationen. In: Der Orthopäde. Vol. 44, Nr. 6. S. 445-457.

Schicha, Christian (2010): Philosophische Ethik. In: Schicha, Christian/Brosda, Carsten (Hg.): Handbuch Medienethik. Wiesbaden: VS Verlag für Sozialwissenscha en. S. 21-40.

Seeßlen, Georg/Jung, Fernand (2003): Science Fiction. Grundlagen des populären Films. 2 Bände. Marburg. Schüren Verlag.

Simon, Herbert A./Newell, Allen (1958): Heuristic Problem Solving. e Next Advance in Operations Research. In: Journal of the Operations Research Society of America. Vol. 6, Nr. 1. S. 449-450.

Springer, Claudia (1996): Electronic Eros. Bodies and Desire in the Postindustrial Age. Austin: University of Texas Press.

Stiglegger, Marcus (2014): Ghosts in the Shell. Cyborgtheorien im Werk von Mamoru Oshii. In: Friesinger, Günther/Schossböck, Judith (Hg.): e Next Cyborg. Wien: edition mono/monochrom. S. 63-79.

Technology Quarterly (2006): Trust me, I´m a robot. In: Technology Quarterly. Can robots be trusted?. Q2. Artikel online unter: http://www.economist.com/node/7001829 [08.10.2017].

Telotte, Jay P. (1995): Replications. A Robotic History of the Science Fiction Film. Urbana/Chicago: University of Illinois Press.

Tomas, David (1992): Old Rituals for New Space: Rites de Passage and William Gibson’s Cultural Model of Cyberspace. In: Benedikt, Michael (Hg.): Cyberspace: First Steps. Cambridge [u.a.]: MIT Press. S. 31-48.

Treumann, Klaus Peter (2005): Triangulation. In: Mikos, Lothar/Wegener, Claudia (Hg.): Qualitative Medienforschung. Ein Handbuch. Konstanz: UVK Verlagsgesellscha . S. 209-221.

Turkle, Sherry (2011): Alone Together. Why We Expect More from Technology and Less from Each Other. New York: Basic Books. van der Berg, Bibi (2010): I – Object: Intimate Technologies as ‘Reference Groups’ in the Construction of Identities. In: Technè. Vol. 14, Nr. 3. S. 176-193.

Vašek, omas (2013): Maschinen wie wir. In: Terra Mater. Die Welt entdecken und begreifen. Nr. 3. S. 140-154.

136 Verbeek, Peter-Paul (2005): What ings Do. Philosophical reections on technology, agency, and design. Pennsylvania: State University Press.

Veruggio, Gianmarco (2006): EURON Roboethics Roadmap. PDF online unter: http://www.roboethics.org/atelier2006/docs/ROBOETHICS%20ROADMAP%20Rel2.1.1.pdf [07.08.2017].

Veruggio, Gianmarco/Solis, Jorge/Van der Loos, Machiel (2011): Roboethics: Ethics Applied to Robotics. In: IEEE Robotics & Automation Magazine. Vol. 18, Nr. 1. S. 21-22.

Weizenbaum, Joseph (1966): Computational Linguistics. ELIZA – A Computer Program For the Study of Natural Language Communication Between Man And Machine. In: Communications of the ACM. Vol. 9, Nr. 1. S. 36-45. Artikel online unter: http://www.cse.bualo.edu/~rapaport/572/S02/weizenbaum.eliza.1966.pdf [10.10.2014].

Wendel, Johanna (2015): Pepper e Robot soll nicht für Sex benutzt werden. In: Wired. Artikel online unter: https://www.wired.de/collection/tech/eine-passage-im-nutzervertrag-von-pepper-robot- verbietet-sex [22.11.2017].

Witt, Harald (2001): Forschungsstrategien bei quantitativer und qualitativer Sozialforschung. In: Forum Qualitative Sozialforschung. Vol. 2, Nr. 1. PDF Online unter: http://www.qualitative-research.net/index.php/ fqs/article/view/969/2115 [22.01.2018].

Woyke, Andreas (2010): Human Enhancement und seine Bewertung. Eine kleine Skizze. In: Coenen, Christopher/Gammel, Stefan/Heil, Reinhard/Woyke, Andreas (Hg.): Die Debatte über „Human Enhancement“. Historische, philosophische und ethische Aspekte der technologischen Verbesserung des Menschen. Bielefeld: transcript Verlag. S. 21-38.

Wul, Hans J. (2006): Filmanalyse. In: Ayaß, Ruth/Bergmann, Jörg (Hg.): Qualitative Methoden der Medienforschung. Reinbek bei Hamburg: Rowohlt. S. 220-244.

Yudkowsky, Eliezer (2001): Creating Friendly AI 1.0: e Analysis and Design of Benevolent Goal Architectures. PDF Online unter: http://intelligence.org/les/CFAI.pdf [03.12.2017]

Yudkowsky, Eliezer (2007): Levels of Organization in General Intelligence. PDF online unter: http://intelligence.org/les/LOGI.pdf [03.12.2017]

Onlinequellen 20th Century Fox (2016): Morgan | IBM Creates First Movie Trailer by AI [HD] | 20th Century FOX. Online unter: https://www.youtube.com/watch?v=gJEzuYynaiw [07.10.2017].

Boston Dynamics (2017): Robots. Online unter: https://www.bostondynamics.com/robots [27.12.2017].

Boston Dynamics (2017): Atlas. Online unter: https://www.bostondynamics.com/atlas [27.12.2017].

Campaign Against Sex Robots (2017): About. Online unter: https://campaignagainstsexrobots.org/about/ [22.11.2017].

Campaign to Stop Killer Robots (2017): About Us. Online unter: https://www.stopkillerrobots.org/about-us/ [18.11.2017].

CSER (2018): Open Letter for Robust AI Research. In: Centre for the Study of Existential Risk. University of Cambridge. Online unter: http://cser.org/open-letter/ [07.01.2018].

137 Eagle Pictures (2015): Automata - Speciale “e Making of Automata”. Online unter: https://www.youtube.com/ watch?v=WdgW_yd7g5o [22.11.2017].

EPSRC (2010): Principles of robotics. Online unter: https://www.epsrc.ac.uk/research/ourportfolio/themes/ engineering/activities/principlesofrobotics/ [27.12.2017].

Europäisches Parlament (2017): Erste EU-weite "Robotergesetze": Interview mit Mady Delvaux. Online unter: http://www.europarl.europa.eu/news/de/headlines/economy/20170109STO57505/erste-eu-weite- robotergesetze-interview-mit-mady-delvaux [08.10.2017].

Europäisches Parlament (2017): 16/02/2017 Text adopted by Parliament, single reading. Online unter: http://www.europarl.europa.eu/oeil/popups/summary.do?id=1477231&t=d&l=en [08.10.2017].

Geminoid (2017). Online unter: http://www.geminoid.jp/en/geminoid-experiment.html [14.09.2017].

Hanson Robotics (2017): Sophia. Online unter: http://www.hansonrobotics.com/robot/sophia/ [14.09.2017].

Honda (2018): Asimo. Online unter: http://asimo.honda.com/asimo-history/ [07.01.2018].

IBM (2017): Watson. Online unter: https://www.ibm.com/watson/de-de/ [07.10.2017].

IMDb (2018): Neill Blomkamp. Online unter: http://www.imdb.com/name/nm0088955/?ref_=tt_ov_dr [18.01.2018].

IMDb (2018): Humandroid. Online unter: http://www.imdb.com/title/tt1823672/?ref_=nm_knf_t3 [18.01.2018].

IMDb (2018): Automata. Online unter: http://www.imdb.com/title/tt1971325/?ref_=fn_al_tt_1 [22.01.2018].

IMDb™ (2018): Alex Garland. Online unter: http://www.imdb.com/name/nm0307497/?ref_=tt_ov_dr [27.01.2018].

IMDbe (2018): Ex Machina. Online unter: http://www.imdb.com/title/tt0470752/?ref_=nv_sr_1 [27.01.2018].

RealDoll (2016): Online unter: https://www.realdoll.com/ [25.12.2017].

Rotten Tomatoes (2017): Ex Machina. Online unter: https://www.rottentomatoes.com/m/ex_machina [30.11.2017].

So Bank Robotics (2017): NAO. Online unter: https://www.ald.so bankrobotics.com/en/robots/nao [14.09.2017].

So Bank Robotics (2017): Pepper. Online unter: https://www.ald.so bankrobotics.com/en/robots/pepper [14.09.2017].

So Bank Roboticsc (2017): ROMEO. Online unter: https://www.ald.so bankrobotics.com/en/robots/romeo [14.09.2017].

Filmverzeichnis 2001: A Space Odyssey (1968). Regie: Stanley Kubrick. Drehbuch: Stanley Kubrick, Arthur C. Clarke. UK/USA: Metro-Goldwyn-Mayer/Stanley Kubrick Productions. 149min.

138 A.I. Articial Intelligence (2001). Regie: Steven Spielberg. Drehbuch: Ian Watson, Steven Spielberg. USA: Warner Bros [u.a.]. 146min.

Alien Resurrection (1997). Regie: Jean-Pierre Jeunet. Drehbuch: Joss Whedon. USA: Brandywine Productions, Twentieth Century Fox. 109min.

American Cyborg: Steel Warrior (1993). Regie: Boaz Davidson. Drehbuch: Bill Crounse, Brent V. Friedman, Don Pequignot. USA: Global Pictures. 94min.

Android (1983). Regie: Aaron Lipstadt. Drehbuch: James Reigle, Don Keith Opper, Will Reigle. USA: SHO Films, New World Pictures. 80min.

Atom Nine Adventure (2007). Regie: Christopher Farley. Drehbuch: Christopher Farley. USA. 77min.

Austin Powers: International Man of Mystery (1997). Regie: Jay Roach. Drehbuch: Mike Myers. USA/Germany: Capella International [u.a.]. 94min.

Autómata (2014). Regie: Gabe Ibáñez. Drehbuch: Gabe Ibáñez, Igor Legarreta. Bulgaria/USA/Spain/Canada: Freen Moon, Nu Boyana Viburno. 109min.

Avatar (2009): Regie: James Cameron. Drehbuch: James Cameron. UK/USA: Twentieth Century Fox [u.a.]. 162min.

Avengers: Age of Ultron (2015). Regie: Joss Whedon. Drebuch: Joss Whedon. USA: Marvel Studios, Walt Disney Pictures. 141min.

Batman & Robin (1997). Regie: Joel Schumacher. Drehbuch: Akiva Goldsman. USA/UK: Warner Bros., PolyGram Filmed Entertainment. 125min.

Batman v Superman: Dawn of Justice (2016). Regie: Zack Snyder. Drehbuch: Chris Terrio, David S. Goyer. USA: Warner Bros. [u.a.] 151min.

Bicentennial Man (1999). Regie: Chris Columbus. Drehbuch: Nicholas Kazan. USA/Deutschland: 1492 Pictures [u.a.]. 132min.

Black Road (2016). Regie: Gary Lundgren. Drehbuch: Gary Lundgren. USA: Joma Films. 80min.

Blade Runner (1982). Regie: Ridley Scott. Drehbuch: Hampton Fancher, David Webb Peoples. USA/Hong Kong: Ladd Company [u.a.]. 117min.

Blade Runner 2049 (2017). Regie: Denis Villeneuve. Drehbuch: Hampton Fancher, Michael Green. USA/UK/ Hungary/Canada: Alcon Entertainment [u.a.]. 164min.

Captain America: Civil War (2016). Regie: Anthony Russo, Joe Russo. Drehbuch: Christopher Markus, Stephen McFeely. USA/Deutschland: Marvel Studios [u.a.]. 147min.

Captain America: e Winter Soldier (2014). Regie: Anthony Russo, Joe Russo. Drehbuch: Christopher Markus, Stephen McFeely. USA: Marvel Entertainment, Marvel Studios, Walt Disney Pictures. 136min. Chappie (2015). Regie: Neill Blomkamp. Drehbuch: Neill Blomkamp, Terri Tatchell. South Africa/USA: Columbia Pictures [u.a.]. 120min.

Chappie: Extras (2015): Von Tetra Vaal zu Chappie. In: Chappie. Regie: Neill Blomkamp. Drehbuch: Neill Blomkamp, Terri Tatchell. South Africa/USA: Columbia Pictures [u.a.]. 120min.

139 Cyborg Cop (1993). Regie: Sam Firstenberg. Drehbuch: Greg Latter. USA: Millennium Films. 95min.

Cyborg Cop II (1994). Regie: Sam Firstenberg. Drehbuch: Jon Stevens Alon, Sam Firstenberg. USA: Millennium Films. 97min.

Cyborg Cop III (1995). Regie: Yossi Wein. Drehbuch: Je Albert, Dennis Dimster USA: Millenium Films. 94min.

Death Machine (1994). Regie: Stephen Norrington. Drehbuch: Stephen Norrington. UK/Japan: Entertainment Film Distributors, Fugitive Features, JVC. 99min.

District 9 (2009). Regie: Neill Blomkamp. Drehbuch: Neill Blomkamp, Terri Tatchell. South Africa/USA/New Zealand/Canada: TriStar Pictures [u.a.]. 112min.

Droid Gunner (1995). Regie: Fred Olen Ray. Drehbuch: William C. Martell. USA: New Horizon Picture, Royal Oaks Entertainment Inc.. 90min.

Elysium (2013). Regie: Neill Blomkamp. Drehbuch: Neill Blomkamp. USA: TriStar Pictures [u.a.]. 109min.

Eva (2011). Regie: Kike Maíllo. Drehbuch: Sergi Belbel, Cristina Clemente, Martí Roca, Aintza Serra. Spain/ France: Canal+ España [u.a.]. 94min.

Evolver (1995). Regie: Mark Rosman. Drehbuch: Mark Rosman. USA: Blue Rider Pictures, Trimark Pictures. 87min.

Ex Machina (2015). Regie: Alex Garland. Drehbuch: Alex Garland. UK: Universal Pictures International, Film4, DNA Films. 108min.

Ex Machina: Extras (2015): Die Besetzung. In: Ex Machina. Regie: Alex Garland. Drehbuch: Alex Garland. UK: Universal Pictures International, Film4, DNA Films. 108min.

Flubber (1997). Regie: Les Mayeld. Drehbuch: John Hughes, Bill Walsh. USA: Walt Disney Pictures, Great Oaks Entertainment. 93min.

Forbidden Planet (1956). Regie: Fred McLeod Wilcox. Drehbuch: Cyril Hume. USA: Metro-Goldwyn-Mayer. 98min.

Fortress 2 (2000). Regie: Geo Murphy. Drehbuch: John Flock, Peter Doyle. Luxemboug/USA: e Carousel Pictures Company, Gower Productions, John Flock Productions. 92min.

G.I. Joe: e Rise of Cobra (2009). Regie: Stephen Sommers. Drehbuch: Stuart Beattie, David Elliot, Paul Lovett. USA/Czech Republic: Paramont Pictures [u.a.]. 118min.

Ghost in the Shell (2017). Regie: Rupert Sanders. Drehbuch: Jamie Moss, William Wheeler. UK/China/India/ Hong Kong/USA: Paramount Pictures [u.a.]. 107min.

Guardians of the Galaxy (2014). Regie: James Gunn. Drehbuch: James Gunn, Nicole Perlman. USA/UK: Marvel Studios, Marvel Enterprises, Moving Pictures Company. 121min.

Guardians of the Galaxy Vol. 2 (2017). Regie: James Gunn. Drehbuch: James Gunn. USA/New Zealand/Canada: Marvel Studios, Walt Disney Pictures. 136min

Hardware (1990). Regie: Richard Stanley. Drehbuch: Richard Stanley. UK/USA: Palace Pictures [u.a.]. 94min.

Her (2013). Regie: Spike Jonze. Drehbuch: Spike Jonze. USA: Annapurna Pictures. 126min.

140 I, Robot (2004). Regie: Alex Proyas. Drehbuch: Je Vintar, Akiva Goldsman. USA/Deutschland: Twentieth Century Fox [u.a.]. 115min.

Inspector Gadget (1999). Regie: David Kellogg. Drehbuch: Kerry Ehrin, Zak Penn. USA: Walt Disney Pictures, Caravan Pictures, DIC Entertainment. 78min.

Interstellar (2014). Regie: Christopher Nolan. Drehbuch: Jonathan Nolan, Christopher Nolan. USA/UK/ Canada/Iceland: Paramount Pictures [u.a.]. 169min.

Iron Man (2008). Regie: Jon Favreau. Drehbuch: Mark Fergus, Hawk Ostby, Art Marcum, Matt Holloway. USA: Paramount Pictures [u.a.]. 126min.

Iron Man 2 (2010). Regie: Jon Favreau. Drehbuch: Justin eroux. USA: Paramount Pictures. 124min.

Iron Man ree (2013). Regie: Shane Black. Drehbuch: Drew Pearce, Shane Black. USA/China: Marvel Studios [u.a.]. 130min.

Jupiter Ascending (2015). Regie: Lana Wachowski, Lilly Wachowski. Drehbuch: Lana Wachowski, Lilly Wachowski. USA/Australia: Warner Bros. [u.a.]. 127min.

Kill Command (2016). Regie: Steven Gomez. Drehbuch: Steven Gomez. UK: Vertigo Films. 99min.

Kingsman: e Golden Circle (2017). Regie: Matthew Vaughn. Drehbuch: Jane Goldman, Matthew Vaughn. UK/USA: Twentieth Century Fox [u.a.].141min.

L’uomo meccanico (1921). Regie: André Deed. Drehbuch: André Deed. Italia: Milano Film. 80min.

Logan (2017). Regie: James Mangold. Drehbuch: James Mangold, Scott Frank, Michael Green. Canada/Australia/ USA: Twentieth Century Fox [u.a.].137min.

Lost in Space (1998). Regie: Stephen Hopkins. Drehbuch: Akiva Goldsman. USA: New Line Cinema [u.a.]. 130min.

Making Mr. Right (1987). Regie: Susan Seidelman. Drehbuch: Floyd Byars, Laurie Frank. USA: Barry & Enright Productions, Orion Pictures. 98min.

Max Steel (2016). Regie: Stewart Hendler. Drehbuch: Christopher Yost. UK/USA: Dolphin Entertainment [u.a.]. 92min.

Melocotones (2017). Regie: Héctor Valdez. Drehbuch: Jose Ramon Alama, Felipe Jiménez Luna, Héctor Valdez. Dominican Republic, UK: Bou Group. 80min.

Metropolis (1927). Regie: Fritz Lang. Drehbuch: ea von Harbou. Deutschland: Universium Film. 153min.

Moon (2009). Regie: Duncan Jones. Drehbuch: Duncan Jones, Nathan Parker. UK: Liverty Films UK [u.a.]. 97min.

Morgan (2016). Regie: Luke Scott. Drehbuch: Seth W. Owen. USA: Scott Free Productions, TSG Entertainment, Twentieth Century-Fox Studios. 92min.

My Life on Planet B (2012). Regie: Iván López Núñez. Drehbuch: Rogier de Blok, Iván López Núñez. Netherlands: Topkapi Films [u.a.]. 76min.

141 Nemesis (1992). Regie: Albert Pyun. Drehbuch: Rebecca Charles. Denmark/USA: Imperial Entertainment, Scanbox Entertainment, Shah/Jensen. 95min.

Pacic Rim (2013). Regie: Guillermo del Toro. Drehbuch: Travis Beachman, Guillermo del Toro. USA: Warner Bros., Legendary Entertainment, Dare You. 131min.

Prometheus (2012). Regie: Ridley Scott. Drehbuch: Jon Spaihts, Damon Lindelof. USA/UK: Twentieth Century Fox [u.a.]. 124min.

Prototype (1992). Regie: Phillip J. Roth. Drehbuch: Phillip J. Roth, Gian-Carlo-Scandiuzzi. USA. 98min.

Red Planet (2000). Regie: Antony Homan. Drehbuch: Chuck Pfarrer, Jonathan Lemkin. USA/Australia: Warner Bros. [u.a.]. 106min.

Resident Evil (2002). Regie: Paul W.S. Anderson. Drehbuch: Paul W.S. Anderson. UK/Deutschland/France/ USA: Constantin Film [u.a.]. 100min.

Resident Evil: Retribution (2012). Regie: Paul W.S. Anderson. Drehbuch: Paul W.S. Anderson. Deutschland/ Canada/USA/France/UK: Constantin Film International [u.a.]. 95min.

RoboCop (1987). Regie: Paul Verhoeven. Drehbuch: Edward Neumeier, Michael Miner. USA: Orion Pictures. 102min.

RoboCop 2 (1990). Regie: Irvin Kershner. Drehbuch: Frank Miller, Walon Green. USA: Orion Pictures, Tobor Productions. 117min.

RoboCop 3 (1993). Regie: Fred Dekker. Drehbuch: Frank Miller, Fred Dekker. USA: Orion Pictures. 104min.

Robosapien: Rebooted (2013). Regie: Sean McNamara. Drehbuch: Avi Arad, Max Botkin. USA: Arad Productions [u.a.]. 86min.

Robot & Frank (2012). Regie: Jake Schreier. Drehbuch: Christopher Ford. USA: Dog Pictures [u.a.]. 89min.

Rogue One (2016). Regie: Gareth Edwards. Drehbuch: Chris Weitz, Tony Gilroy, John Knoll, Gary Whitta. USA: Lucaslm [u.a.]. 133min.

Rogue Warrior: Robot Fighter (2017). Regie: Neil Johnson. Drehbuch: Neil Johnson. USA: Empire Motion pictures, Pacic Coast Entertainment. 101min.

Short Circuit (1986). Regie: John Badham. Drehbuch: S.S. Wilson, Brent Maddock. USA: TriStar Pictures, Producers Sales Organization, Turman-Foster Company. 98min.

Silent Running (1972). Regie: Douglas Trumbull. Drehbuch: Deric Washburn, Mike Cimino, Steve Bochco. USA: Universal Pictures, Trumbull/Grusko Productions. 89min.

Sky High (2005): Regie: Mike Mitchell. Drehbuch: Paul Hernandez, Robert Schooley, Mark McCorkle. USA: Walt Disney Pictures, Gunn Films, Max Stronghold Productions Inc. 100min.

Spy Kids 2: Island of Lost Dreams (2002). Regie: Robert Rodriguez. Drehbuch: Robert Rodriguez. USA: Dimension Films, Troublemaker Studios, Spy Kids 4 SPV. 100min.

Spy Kids 3: Game Over (2003). Regie: Robert Rodriguez. Drehbuch: Robert Rodriguez. USA: Dimension Films [u.a.]. 84min.

142 Space Station 76 (2014). Regie: Jack Plotnick. Drehbuch: Jennifer Elise Cox, Sam Pancake, Jack Plotnick, Kali Rocha, Mike Stoyanov. USA: Rival Pictures, Om Films. 93min.

Spider-Man: Homecoming (2017). Regie: Jon Watts. Drehbuch: Jonathan Goldstein, John Francis Daley, Jon Watts, Christopher Ford, Chris McKenna, Erik Sommers. USA: Columbia Pictures, Marvel Studios, Pascal Pictures. 133min.

Star Wars: Episode VII – e Force Awakens (2015). Regie: J.J. Abrams. Drehbuch: Lawrence Kasdan, J.J. Abrams, Michael Arndt. USA: Lucaslm [u.a.]. 136min.

Steel and Lace (1991). Regie: Ernest Farino. Drehbuch: Joseph Dougherty, Dave Edison. USA: Cinema Home Video. 90min.

Sucker Punch (2011). Regie: Zack Snyder. Drehbuch: Zack Snyder. USA/Canada: Warner Bros. [u.a.]. 110min.

Terminator Salvation (2009). Regie: McG. Drehbuch: John Brancato, Michael Ferris. USA/Deutschland/UK/ Italia: e Halcycon Company [u.a.]. 115min.

Tetra Vaal (2004). Regie: Neill Blomkamp. Drehbuch: Neill Blomkamp. Canada: Triton Films. 2min.

e Avengers (2012). Regie: Joss Whedon. Drehbuch: Joss Whedon, Zak Penn. USA: Marvel Studios, Paramount Pictures. 143min.

e Benchwarmers (2006). Regie: Dennis Dugan. Drehbuch: Allen Covert, Nick Swardson. USA: Revolution Studios, Happy Madison Productions. 80min.

e Demolitionist (1995). Regie: Robert Kurtzman. Drehbuch: Brian DiMuccio, Anne Kurtzman, Robert Kurtzman, Dino Vindeni. USA/Canada: A-Pix Entertainment, Le Monde Entertainment, Planet Production. 100min.

e Hitchhiker’s Guide to the Galaxy (2005). Regie: Garth Jennings. Drehbuch: Douglas Adams, Karey Kirkpatrick. UK/USA: Touchstone Pictures [u.a.]. 109min.

e Machine (2013). Regie: Caradog W. James. Drehbuch: Caradog W. James. UK: Red & Black Films. 91min.

e Matrix (1999): Regie: Lana Wachowksi, Lilly Wachowski. Drehbuch: Lana Wachowksi, Lilly Wachowski. USA: Warner Bros. [u.a.]. 136min.

e Matrix Reloaded (2003). Regie: Lana Wachowksi, Lilly Wachowski. Drehbuch: Lana Wachowksi, Lilly Wachowski.USA/Australia: Warner Bros. [u.a.]. 138min.

e Matrix Revolutions (2003). Regie: Lana Wachowksi, Lilly Wachowski. Drehbuch: Lana Wachowksi, Lilly Wachowski. Australia/USA: Warner Bros. [u.a.]. 129min.

e Muppets (2011). Regie: James Bobin. Drehbuch: Jason Segel, Nicolas Stoller. USA: Walt Disney Pictures, e Muppets Studio. 103min.

e Santa Clause 2 (2002). Regie: Michael Lembeck. Drehbuch: Don Rhymer, Cinco Paul, Ken Daurio, Ed Decter, John J. Strauss. USA: Walt Disney Pictures, Outlaw Productions, Boxing Cat Films. 104min.

e Stepford Wives (2004). Regie: Frank Oz. Drehbuch: Paul Rudnick. USA: Paramount Pictures. 93min.

e Terminator (1984). Regie: James Cameron. Drehbuch: James Cameron, Gale Anne Hurd. UK/USA: Hemdale [u.a.]. 107min.

143 e Wolverine (2013). Regie: James Mangold. Drehbuch: Mark Bomback, Scott Frank. USA/UK/Australia/ Japan: Twentieth Century Fox [u.a.]. 126min.

e World’s End (2013). Regie: Edgar Wright. Drehbuch: Simon Pegg, Edgar Wright. UK/USA/Japan: Universal Pictures [u.a.]. 109min.

Tomorrowland (2015). Regie: Brad Bird. Drehbuch: Damon Lindelof, Brad Bird. USA/Spain/France/UK: Walt Disney Pictures, A113, Babieka. 130min.

Total Recall (1990). Regie: Paul Verhoeven. Drehbuch: Ronald Shusett, Dan O’Bannon. USA: Carolco Pictures. 113min.

Total Recall (2012). Regie: Len Wiseman. Drehbuch: Kurt Wimmer, Mark Bomback. USA/Canada: Total Recall [u.a.]. 118min.

Toys (1992). Regie: Barry Levinson. Drehbuch: Valerie Curtin, Barry Levinson. USA: Baltimore Pictures, Twentieth Century Fox. 118min.

Transcendence (2014). Regie: Wally Pster. Drehbuch: Jack Paglen. UK/China/USA: Alcon Entertainment [u.a.]. 119min.

Transformers (2007). Regie: Michael Bay. Drehbuch: Roberto Orci, Alex Kurtzman. USA: DreamWorks Pictures [u.a.]. 144min.

Universal Soldier (1992). Regie: Roland Emmerich. Drehbuch: Richard Rothstein, Christopher Leitch, Dean Devlin. USA: StudioCanal [u.a.]. 102min.

Universal Soldier: Regeneration (2009). Regie: John Hyams. Drehbuch: Victor Ostrovsky. USA: Foresight Unlimited [u.a.].: 97min.

Universal Soldier: e Return (1999). Regie: Mic Rodgers. Drehbuch: William Malone, John Fasano. USA: Baumgarten-Prophet Entertainment, IndieProd Company Productions, Long Road Entertainment. 83min.

Valerian and the City of a ousand Planets (2017). Regie: Luc Besson. Drehbuch: Luc Besson. France/China/ Belgium/Germany/United Arab Emirates/USA: EuropaCorp [u.a.]. 137min.

Vice Academy Part 2 (1990). Regie: Rick Sloane. Drehbuch: Rick Sloane. USA: 93min.

Westworld (1973). Regie: Michael Crichton. Drehbuch: Michael Crichton. USA: Metro-Goldwyn-Mayer. 88min.

X-Men: Apocalypse (2016). Regie: Bryan Singer. Drehbuch: Simon Kinberg, Bryan Singer, Michael Dougherty, Dan Harris. USA: Twentieth Century Fox. 144min.

Zathura: A Space Adventure (2005). Regie: Jon Favreau. Drehbuch: David Koepp, John Kamps. USA: Columbia Pictures Corporation. 101min. Zoom (2006). Regie: Peter Hewitt. Drehbuch: Adam Ri in, David Berenbaum. USA: Revolution Studios [u.a.]. 83min.

144 Abbildungsverzeichnis Abb. 1: Mechanische Ente - eigene Darstellung

Abb. 2: Fabrikroboter - eigene Darstellung

Abb. 3: Entwicklung Honda Roboter - eigene Darstellung

Abb. 4: Grak - Uncanny Valley - eigene Darstellung basierend auf Mori

Abb. 5: Neil Harbisson - eigene Darstellung

Abb. 6: Genealogie nach Ruge - eigene Darstellung

Abb. 7: Grak - Anzahl Filme - eigene Darstellung

Abb. 8: Grak - Arten von künstlichen Agenten - eigene Darstellung

Abb. 9: Grak - Arten nach Jahren - eigene Darstellung

Abb. 10: My Life on Planet B (2012) - Screenshot aus M L‰  Pƒ B, 00:05:37

Abb. 11: Zathura: A Space Adventure (2005) - Screenshot aus Z: A S AŠ, 00:20:46

Abb. 12: Sky High (2005) - Screenshot aus Sˆ H, Trailer online unter: https://www.youtube.com/ watch?v=XrZfvQANwOM, 00:01:44

Abb. 13: e Hitchhiker‘s Guide to the Galaxy (2005) - Screenshot aus T Hˆ‘ G   Gƒ, 00:28:55

Abb. 14: Robosapien: Rebooted (2013) - Screenshot aus R†: R†, 00:26:51

Abb. 15: Total Recall (1990) - Screenshot aus Tƒ Rƒƒ, 00:21:18

Abb. 16: e Benchwarmers (2006) - Screenshot aus T B‡, 00:24:01

Abb. 17: e Santa Clause 2 (2002) - Screenshot aus T S Cƒ , 00:36:28

Abb. 18: Ghost in the Shell (2017) - Screenshot aus G   Sƒƒ, 00:11:45

Abb. 19: Ex Machina (2015) - Screenshot aus E M, 01:29:31

Abb. 20: Jupiter Ascending (2015) - Screenshot aus J A, 01:24:57

Abb. 21: Jupiter Ascending (2015) - Screenshot aus J A, 01:02:52

Abb. 22: Melocotones (2017) - Screenshot aus Mƒ, Trailer online unter: https://www.youtube.com/ watch?v=Q30ZCKR6_3U, 00:01:17

Abb. 23: Bicentennial Man (1999) - Screenshot aus Bƒ M, 00:06:55

Abb. 24: I, Robot (2004) - Screenshot aus I, R†, 00:47:15

Abb. 25: Autómata (2014) - Screenshot aus A, 00:08:14

145 Abb. 26: Valerian and the City of a ousand Planets (2017) - Screenshot aus Vƒ   C ‰  T Pƒ, 02:03:34

Abb. 27: Chappie (2015) - Screenshot aus C, 00:08:27

Abb. 28: Star Wars: Rogue One (2016) - Screenshot aus S W: R O, 00:26:44

Abb. 29: Sucker Punch (2011) - Screenshot aus Sˆ P, 01:28:47

Abb. 30: e Stepford Wives (2004) - Screenshot aus T S‰ WŠ, 01:20:37

Abb. 31: e World‘s End (2013) - Screenshot aus T Wƒ‘ E, 00:37:54

Abb. 32: Prometheus (2012) - Screenshot aus P, 01:40:12

Abb. 33: RoboCop 2 (1990) - Screenshot aus R†C , 00:07:39

Abb. 34: Prototype (1992) - Screenshot aus P, 00:08:46

Abb. 35: Universal Soldier (1992) - Screenshot aus UŠƒ Sƒ, 00:11:25

Abb. 36: Universal Soldier: e Return (1999) - Screenshot aus UŠƒ Sƒ: T R, 00:18:25

Abb. 37: e Stepford Wives (2004) - Screenshot aus T S‰ WŠ, 01:17:12

Abb. 38: G.I. Joe - e Rise of Cobra (2009) - Screenshot aus G.I. J - T R ‰ C†, 01:26:22

Abb. 39: Guardians of the Galaxy (2014) - Screenshot aus G ‰  Gƒ, 00:33:01

Abb. 40: Star Wars: Rogue One (2016) - Screenshot aus S W: R O, 00:40:32

Abb. 41: Flubber (1997) - Screenshot aus Fƒ††, 00:04:11

Abb. 42: Max Steel (2006) - Screenshot aus M Sƒ, 00:18:16

Abb. 43: Star Wars: Episode VII - e Force Awakens (2015) - Screenshot aus S W: E VII - T F A‡ˆ, 00:16:05

Abb. 44: Red Planet (2000) - Screenshot aus R Pƒ. 00:09:10

Abb. 45: Hardware (1990) - Screenshot aus H‡, 01:04:06

Abb. 46: Evolver (1995) - Screenshot aus EŠƒŠ, 00:28:43

Abb. 47: Robot & Frank (2012) - Screenshot aus R† Ž Fˆ, 00:18:16

Abb. 48: Interstellar (2014) - Screenshot aus Iƒƒ, 01:09:27

Abb. 49: Black Road (2016) - Screenshot aus Bƒˆ R, 00:01:50

Abb. 50: Iron Man 2 (2010) - Screenshot aus I M , 00:58:57

Abb. 51: Her (2013) - Screenshot aus H, 01:13:24

146 Abb. 52: e Matrix Revolutions (2003) - Screenshot aus T M RŠƒ, 01:39:47

Abb. 53: I, Robot (2004) - Screenshot aus I, R†, 01:34:14

Abb. 54: Resident Evil: Retribution (2012) - Screenshot aus R EŠƒ: R†, 00:35:40

Abb. 55: Batman v Superman: Dawn of Justice (2016) - Screenshot aus B Š S: D‡ ‰ J, 02:04:18

Abb. 56: Spy Kids 3: Game Over (2003) - Screenshot aus S K ˜: G OŠ, 00:58:32

Abb. 57: Iron Man 2 (2010) - Screenshot aus I M , 00:58:59

Abb. 58: Pacic Rim (2013) - Screenshot aus P‰ R, 01:45:38

Abb. 59: e Matrix Revolutions (2003) - Screenshot aus T M RŠƒ, 01:03:42

Abb. 60: Avatar (2009) - Screenshot aus AŠ, 02:27:21

Abb. 61: Chappie - eigene Darstellung

Abb. 62: Scout - Screenshot aus C, 00:02:08

Abb. 63: Chappie - Screenshot aus C, 00:32:12

Abb. 64: MOOSE - Screenshot aus C, 00:02:54

Abb. 65: Yolandi - Screenshot aus C, 01:52:59

Abb. 66: Dexter - Screenshot aus C, 00:14:29

Abb. 67: Guard Key - Screenshot aus C, 00:02:45

Abb. 68: Chappies Bewusstsein - Screenshot aus C, 01:24:28

Abb. 69: POV-Shot - Screenshot aus C, 00:26:56

Abb. 70: Gutenachtgeschichte - Screenshot aus C, 00:58:11

Abb. 71: Mimik - Screenshot aus C, 01:04:11

Abb. 72: Chappie trauert - Screenshot aus C, 01:42:08

Abb. 73: Chappie malt - Screenshot aus C, 00:43:43

Abb. 74: Akt der Gewalt - Screenshot aus C, 00:49:14

Abb. 75: Zerstörungskra - Screenshot aus C, 01:44:20

Abb. 76: AUTOMATA Pilgrim 7000 - eigene Darstellung

Abb. 77: AUTOMATA Pilgrim 7000 - Screenshot aus A, 00:05:11

Abb. 78: Cleo - Screenshot aus A, 00:33:12

147 Abb. 79: Blue Robot - Screenshot aus A, 01:14:34/51

Abb. 80: Das neue Wesen - Screenshot aus A, 01:31:58

Abb. 81: Sicherheitsprotokoll - Screenshot aus A, 00:07:44

Abb. 82: Wasserkondensator - Screenshot aus A, 00:55:20

Abb. 83: Selbstzerstörung - Screenshot aus A, 00:20:28

Abb. 84: Selbstreparatur - Screenshot aus A, 00:43:36

Abb. 85: Totalschaden - Screenshot aus A, 00:23:14

Abb. 86: Tanzszene - Screenshot aus A, 01:25:29/32

Abb. 87: Gewalt gegen Roboter - Screenshot aus A, 01:00:55

Abb. 88: Wesen bauen - Screenshot aus A, 01:28:44

Abb. 89: Neubeginn - Screenshot aus A, 01:43:17

Abb. 90: Hand zum Schutz - Screenshot aus A, 00:03:55

Abb. 91: Bettler - Screenshot aus A, 00:28:58

Abb. 92: Ava - eigene Darstellung

Abb. 93: Ava - Screenshot aus E M, 00:36:03

Abb. 94: Kyoko - Screenshot aus E M, 01:29:31

Abb. 95: Vorgängermodelle - Screenshot aus E M, 01:11:39

Abb. 96: Zeichnung - Screenshot aus E M, 00:25:55

Abb. 97: Spiegelbild - Screenshot aus E M, 01:37:01

Abb. 98: Freiheit - Screenshot aus E M, 01:42:24

Abb. 99: Gefühlschaos - Screenshot aus E M, 01:15:45

Abb. 100: Rache - Screenshot aus E M, 01:31:34

Abb. 101: Verzweiung - Screenshot aus E M, 01:10:54

Abb. 102: Kyokos Oenbarung - Screenshot aus E M, 01:12:32

Abb. 103: Wahre Freude - Screenshot aus Ex Machina, 01:39:26

Abb. 104: Kategorienvergleich - eigene Darstellung

148 8 Anhang

Sammlung Titel imdb.com (Stand: 10.01.2018)

Keyword Robot • Keyword Android • 1.731 Titel TV Episode: 534 432 Titel Feature Film: 141 Feature Film: 348 TV Episode: 89 Video Game: 233 TV Series: 49

TV Series: 220 Video: 48

Video: 183 Short Film: 46 TV Movie: 40 Video Game: 32 TV Mini-Series: 22 TV Mini-Series: 13 TV Movie: 12 TV Short: 6 TV Special: 3 TV Short: 1  Feature Film 1990-2017: 348 Titel TV Special: 1  Feature Film 1990-2017: 141 Titel

Keyword Cyborg • Keyword Artificial Intelligence •

415 Titel Feature Film: 132 365 Titel Feature Film: 141

TV Episode: 73 TV Episode: 53

Video Game: 59 Video Game: 45

TV Series: 44 Short Film: 40

Video: 41 TV Series: 35

Short Film: 35 Video: 27 TV Movie: 20 TV Movie: 13 TV Mini-Series: 9 TV Mini-Series: 9 TV Short: 2 TV Short: 2   Feature Film 1990-2017: 132 Titel Feature Film 1990-2017: 141 Titel

Keyword Humanoid • insgesamt: 68 Titel Feature Film: 21 781 Titel TV Series: 13 Video Game: 10 ohne Wiederholungen: Short Film: 8 511 Titel TV Episode: 8 Video: 6 ohne Produktionen aus Asien, TV Movie: 2 Animationsfilmen etc.: 335 Titel  Feature Film 1990-2017: 21 Titel

149