HAL 9000 ist eine der bekanntesten artifiziellen Intelligenzfiguren des modernen Films. Diese überlegene Form des empfindungsfähigen Computers begibt sich zusammen mit einer menschlichen Crew in Stanley Kubricks ikonischem Film 2001: A Space Odyssey, der derzeit sein 50-jähriges Bestehen feiert, auf eine Mission zum Jupiter.
HAL ist in der Lage, Sprache zu produzieren und zu verstehen, Gesichtserkennung, Lippenlesen – und Schach zu spielen. Seine überlegene Rechenfähigkeit wird auch durch einzigartig menschliche Merkmale verstärkt. Es kann emotionales Verhalten interpretieren, Vernunft und Kunst schätzen.Indem er HAL Emotionen gab, machten der Schriftsteller Arthur C. Clarke und der Filmemacher Stanley Kubrick es zu einer der menschenähnlichsten fiktiven Technologien, die jemals geschaffen wurden. In einer der schönsten Szenen der Science-Fiction-Geschichte heißt es, es habe „Angst“, als Missionskommandant Dr. David Bowman nach einer Reihe mörderischer Ereignisse beginnt, seine Speichermodule zu trennen.
HAL ist so programmiert, dass es die Besatzung des Raumschiffs Discovery optimal unterstützt. Es hat die Kontrolle über das gesamte Schiff und erstaunliche Intelligenz, um es bei seiner Aufgabe zu unterstützen. Doch bald nachdem wir HAL kennengelernt haben, können wir nicht anders, als das Gefühl zu haben, dass es besorgt ist – es behauptet sogar, Angst zu haben – und dass es die Fähigkeit hat, sich einzufühlen, wie klein es auch sein mag. Aber obwohl es nichts gibt, was die Idee ausschließt, dass eine solche emotionale KI das Licht der Welt erblicken könnte, müssten sie völlig gefälscht sein, wenn eine solche Tiefe von Gefühlen in die Technologie der realen Welt einbezogen werden sollte.
Eine „perfekte“ KI
Als Bowman während des Films beginnt, HALS Funktionen manuell zu überschreiben, bittet er ihn aufzuhören, und nachdem wir Zeuge einer faszinierenden Auslöschung von HALS „mentalen“ Fähigkeiten geworden sind, versucht die KI scheinbar, sich selbst zu trösten, indem sie Daisy Bell singt – angeblich das erste Lied, das jemals von einem Computer produziert wurde.
Tatsächlich beginnen die Zuschauer zu spüren, dass Bowman HAL tötet. Die Trennung fühlt sich wie eine rachsüchtige Beendigung an, nachdem sie die früheren Ereignisse des Films miterlebt hat. Aber obwohl HAL emotionale Aussagen macht, wäre eine reale KI sicherlich darauf beschränkt, nur die Fähigkeit zu haben, zu argumentieren und Entscheidungen zu treffen. Die kalte, harte Wahrheit ist, dass wir – trotz allem, was Informatiker sagen – niemals in der Lage sein werden, Emotionen so zu programmieren, wie es die fiktiven Schöpfer von HAL getan haben, weil wir sie nicht verstehen. Psychologen und Neurowissenschaftler versuchen sicherlich zu lernen, wie Emotionen mit Kognition interagieren, aber sie bleiben immer noch ein Rätsel.
Nehmen wir zum Beispiel unsere eigene Forschung. In einer Studie, die mit chinesisch-englischen Zweisprachigen durchgeführt wurde, haben wir untersucht, wie der emotionale Wert von Wörtern unbewusste mentale Prozesse verändern kann. Wenn wir unseren Teilnehmern positive und neutrale Wörter wie „Urlaub“ oder „Baum“ präsentierten, haben sie diese Wortformen unbewusst auf Chinesisch abgerufen. Aber wenn die Wörter eine negative Bedeutung hatten, wie „Mord“ oder „Vergewaltigung“, blockierte ihr Gehirn den Zugang zu ihrer Muttersprache – ohne ihr Wissen.
Vernunft und Emotion
Andererseits wissen wir viel über das Denken. Wir können beschreiben, wie wir zu rationalen Entscheidungen kommen, Regeln schreiben und diese Regeln in Prozesse und Code umwandeln. Emotionen sind jedoch ein mysteriöses evolutionäres Erbe. Ihre Quelle ist die Quelle von allem und nicht einfach ein Attribut des Geistes, das durch Design implementiert werden kann. Um etwas zu programmieren, müssen Sie nicht nur wissen, wie es funktioniert, sondern auch, was das Ziel ist. Vernunft hat Ziele, Emotionen nicht.
In einem 2015 durchgeführten Experiment konnten wir dies auf den Prüfstand stellen. Wir haben Muttersprachler von Mandarin-Chinesisch, die an der Bangor University studieren, gebeten, ein Glücksspiel um Geld zu spielen. In jeder Runde mussten sie eine vorgeschlagene Wette annehmen oder verlassen, die auf dem Bildschirm angezeigt wurde – zum Beispiel eine 50% ige Chance, 20 Punkte zu gewinnen, und eine 50% ige Chance, 100 Punkte zu verlieren.
Wir stellten die Hypothese auf, dass es für sie emotionaler wäre, ihnen Feedback in ihrer Muttersprache zu geben, und dass sie sich daher anders verhalten, als wenn sie Feedback in ihrer zweiten Sprache, Englisch, erhalten hätten. In der Tat, wenn sie positives Feedback in chinesischer Sprache erhielten, waren sie 10% wahrscheinlicher, eine Wette in der nächsten Runde zu nehmen, unabhängig vom Risiko. Dies zeigt, dass Emotionen das Denken beeinflussen. Zurück zur KI: Da Emotionen nicht wirklich in einem Programm implementiert werden können – egal wie ausgeklügelt es auch sein mag -, kann die Argumentation des Computers niemals durch seine Gefühle verändert werden. Eine mögliche Interpretation von Hals seltsamem „emotionalem“ Verhalten ist, dass es programmiert wurde, um Emotionen in extremen Situationen zu simulieren, in denen es Menschen nicht auf der Grundlage von Argumenten manipulieren müsste, sondern indem es ihr emotionales Selbst anruft, wenn die menschliche Vernunft versagt. Nur so kann ich sehen, dass die KI der realen Welt unter solchen Umständen Emotionen überzeugend simulieren kann.
Meiner Meinung nach werden wir niemals eine Maschine bauen, die fühlt, hofft, Angst hat oder glücklich ist. Und weil dies eine absolute Voraussetzung für jede Behauptung ist, dass wir künstliche allgemeine Intelligenz erzeugt haben, werden wir niemals einen künstlichen Geist außerhalb des Lebens erschaffen.
Genau hier liegt die Magie von 2001: Odyssee im Weltraum. Für einen Moment werden wir dazu gebracht, das Unmögliche zu glauben, dass reine Science-Fiction die Fakten der Welt, in der wir leben, außer Kraft setzen kann.