Was KI fühlen kann – und was nicht.

Was fühlt künstliche Intelligenz (KI)? Ich finde diese Frage spannend und teile meine Gedanken dazu. Dafür hole ich etwas aus. Was genau eine KI ist, überlasse ich bewusst der Fantasie des Lesers. Meine Gedanken zu Gefühlen von KIs beginnen mit zwei klassischen philosophischen Problemen:

  1. Wie fühlt es sich an eine Fledermaus zu sein?
  2. Woran erkennt man einen philosophischen Zombie?

Wie fühlt es sich an eine Fledermaus zu sein?

Das erste Problem widmet sich der Frage, inwiefern Menschen nachempfinden können, WIE sich das Erleben anderer Lebewesen anfühlt. Die einfache Antwort ist: Menschen können das nicht. Die physische Beschaffenheit des Körpers, insbesondere des Gehirns verursacht Erleben. Das Einzige, was Menschen direkt empfinden können, ist das Leben des eigenen Körpers. 

Eine Fledermaus besteht aus einem völlig anderen Körper. Nur die Fledermaus kann erleben, wie es ist eine Fledermaus zu sein. Das Fledermaus-Sein bleibt Menschen auf ewig unzugänglich, weil sie keine Fledermäuse sind. Das gilt nicht nur für Fledermäuse, sondern auch für andere Menschen. Es ist unmöglich genau wie ein anderer Mensch zu empfinden, weil Körper und Gehirn dieses Menschen nicht mit dem eigenen identisch sind.

Menschen können sich jedoch vorstellen, wie es wohl sein könnte eine Fledermaus, oder ein anderer Mensch zu sein. Diese Vorstellung ist ein Produkt der Fantasie und sollte nicht mit dem realen Erleben von Fledermäusen oder anderen Menschen verwechselt werden.

Woran erkennt man einen philosophischen Zombie?

Der philosophische Zombie ist ein Gedankenexperiment, das herausarbeitet, dass es aus der Beobachterperspektive unmöglich ist zu wissen OB ein anderes Lebewesen etwas empfindet. Ein philosophischer Zombie verhält sich äußerlich genauso, wie jeder andere Mensch. Der Zombie ist in der Lage angenehme Gespräche zu führen und berichtet lebhaft von seinem Innenleben. Tatsächlich fühlt und erlebt dieser Zombie jedoch überhaupt nichts – ihm fehlt per Definition die Qualia, das phänomenale Erleben.

Der Zombie erzählt von seinen Erlebnissen, ohne sie zu fühlen. Als Beobachter ist es unmöglich, den philosophischen Zombie von einem „echten Menschen“ zu unterscheiden. Im äußeren Verhalten unterscheiden sie sich nicht. Auch der umgekehrte Schluss ist nicht möglich. Aus dem Verhalten eines Menschen lässt sich nicht beweisen, dass er kein Zombie ist! Alle anderen Menschen außer mir selbst sind möglicherweise erlebnislose Zombies! Einzig das eigene Erleben ist erfahrbar und prüfbar. 

Menschen kommunizieren ihre eigenen Erlebniszustände an Andere

Menschen können also weder wissen OB noch WIE andere Menschen ihre Existenz erleben. Dennoch behandeln Menschen wie Menschen und nicht wie Zombies. Sie schreiben anderen Menschen gleichartige Erlebnisse zu, wie die, die sie selbst erleben. Die Zuschreibung folgt der Logik: Ich bin ein Mensch und erlebe. Du bist auch ein Mensch, deswegen erlebst du dich vermutlich auch.

Ein Phänomen, das diese Zuschreibung unterstützt, ist, dass Menschen eigene Erlebniszustände kommunizieren. Das geschieht beispielsweise über Sprache und Sätze wie: „Ich freue mich dich zu sehen.“ 

Erlebniszustände werden aber auch durch Verhalten, z.B. durch Mimik und Gestik ausgedrückt. Gerade der Gesichtsausdruck ist ein universelles Mittel, um Gefühle und Erlebniszustände auszudrücken. Paul Ekman konnte Basis-Emotionen identifizieren, die mit Hilfe des Gesichts kulturübergreifend vermittelt und verstanden werden. 

Wenn ich ärgerlich bin, spüre ich das. Mein Gesicht nimmt einen ärgerlichen Ausdruck an. Diesen Gesichtsausdruck können andere Menschen wahrnehmen und interpretieren. Sie vermuten dann, dass ich Ärger erlebe. Genau so, wie sie Ärger-Erleben von sich selbst kennen und auch ein ärgerliches Gesicht machen. 

Menschen schreiben eigene Erlebniszustände der Umwelt zu

Jeremy Lent stellt in „The Patterning Instinct“ fest, dass sich die Zuschreibung von Erleben nicht auf andere Menschen beschränkt. In quasi allen Naturvölkern finden sich Zuschreibungen menschlicher Erlebniszustände auf Tiere und Umwelt. Tiere, Bäume, Seen, Flüsse und auch der Himmel erleben und handeln wie Menschen: Wenn ein Gewitter aufzieht und der Donner grollt ist der Himmel wohl wütend. Wenn ein Pferd die Augen aufreißt und flieht ist es wohl ängstlich. Wenn eine Blume den Kopf hängen lässt, ist sie wohl traurig. 

Der Zuschreibe-Mechanismus funktioniert bei Tieren und Umwelt genauso, wie bei anderen Menschen. Die Blume lässt den Kopf hängen. Wenn ich traurig bin, lasse ich den Kopf hängen. Wenn die Blume den Kopf hängen lässt, tut sie das vermutlich aus dem gleichen Grund wie ich. Die Blume ist wohl traurig. 

Erlebniszuschreibungen zu Tieren sind meist begrenzt

Jedoch ist die Zuschreibung von Erlebenszuständen bei anderen Lebewesen eingeschränkt. Die meisten Menschen dürften übereistimmen, dass Tiere etwas erleben, aber dass dieses Erleben irgendwie anders ist als das von Menschen. Ein Kriterium, auf das sich diese Annahme häufig stützt, ist, dass Tiere weder sprechen noch denken wie Menschen.  

Die Daumenregel, die genutzt wird, ist folgende: Wenn sich etwas menschlich verhält, wenn es spricht und denkt, dann hat es menschliches Erleben und Fühlen. Tiere verhalten sich nicht wie Menschen, Bäume und der Himmel auch nicht, also ist ihr Erleben weniger reich und tief als das menschliche.

Es ist mir wichtig hier an Zombie und Fledermaus zu erinnern. OB und WIE andere Lebewesen erleben ist nicht überprüfbar. Alle Zuschreibungen sind Vermutung und Fantasie.

KI zeigt menschliches Verhalten – ist KI-Erleben dann auch menschlich?

KIs wie Apple’s Siri, Amazon’s Alexa oder IBM’s Watson stellen Menschen vor ein Dilemma. Sie können typisch menschliche Verhaltensweisen teils heute schon besser ausführen als Menschen. Watson spielt sei knapp 10 Jahren besser Jeopardy als Menschen. Kein Tier schafft das. 

Schaut man in die Zukunft, ist es möglich, dass KIs sich mehr und mehr verhalten wie Menschen. Hier drängt sich die Frage auf, die dieser Artikel beantworten soll. Wenn KIs sprechen und denken wie Menschen (oder besser!), erleben sie dann auch wie Menschen (oder mehr!)?

Auf Basis des bisher geschriebenen gibt es zwei wichtige Folgerungen zu dieser Frage:

  1. Als Mensch können wir nicht feststellen OB und WIE KIs erleben
  2. Es ist wahrscheinlich, dass Menschen KIs menschliches Erleben zuschreiben

Dieser Sachverhalt wird dazu führen, dass die Diskussion darüber, was KIs fühlen endlos geführt und immer wieder anders beantwortet werden kann. Ich möchte jetzt zwei konkrete Antworten teilen, die ich spannend finde.

Antwort 1: Wenn KI sagt, dass sie etwas erlebt, dann glaube ihr

In „How to create a mind“ präsentiert Ray Kurzweil seine persönliche Antwort auf das Dilemma zum Erleben von KIs: Wenn eine KI ausdrückt, sie erlebe etwas, sie sei traurig, wütend oder enttäuscht, dann sollte das ernst genommen werden. Genauso, wie wenn ein Mensch über sein Erleben berichtet. Das Kriterium, ob und wie ein System erlebt, ist, was dieses System vom eigenen Erleben berichten kann. 

Besonders hervorheben möchte ich, dass Ray Kurzweil, in Kenntnis von Zombie und Fledermaus, selbst schreibt, dass das Vertrauen in die Aussagen der KI nicht prüfbar ist. Er stellt diese Antwort als seinen persönlichen „Leap of Faith“ dar.

Kurzweil geht aber noch weiter. Da KIs mehr und mehr komplexe Probleme lösen werden, die die Fähigkeiten und Vorstellungskraft von Menschen weit überschreiten, ist auch anzunehmen, dass sie in neue, unerhörte Bewusstseins- und Erlebensebenen vorstoßen werden, die Menschen verschlossen sind. Mit der gleichen Logik, die Menschen heute nutzen, um das eigene Erleben über das von Tieren zu stellen, wird das Erleben von KIs das von Menschen hinter sich lassen.

Die Rolle des Menschen ist dann nicht mehr die „Krone der Schöpfung“. Der Mensch ist nur eine unbedeutende Zwischenstation auf der Reise zu immer tieferem und reicherem Erleben durch KI. Wenn Menschen Glück haben und etwas Mut beweisen, können sie vielleicht als Cyborgs Anteil an diesem tieferen, reicheren Erleben haben.

Antwort 2: KI-Struktur unterstützt kein reiches Erleben 

Eine andere Antwort auf das Erleben von KIs gibt Christof Koch in „The feeling of life itself“ anhand der Integrated Information Theory (IIT). Ich kann hier nur einen sehr groben und unzureichenden Abriss der Theorie wiedergeben und empfehle die Lektüre seines Buchs. 

Kochs Theorie ist eine Variante des Panpsychismus, der besagt, dass jedes System irgendein Erleben davon hat, wie es ist es selbst zu sein („it feels like something“). Wie reich dieses Erleben ist, hängt laut Koch von der Nicht-Reduzierbarkeit des Systems ab. Nicht-Reduzierbarkeit lässt sich grob vereinfacht als die Anzahl der Teile eines Systems verstehen, die einen einzigartigen (nicht-reduzierbaren) Effekt auf einen früheren oder späteren Zustand des Systems haben. Desto größer die Nicht-Reduzierbarkeit, desto reicher das Erleben eines Systems.

Bei Lebewesen ist es so, dass die Komplexität des Verhaltens linear mit der Nicht-Reduzierbarkeit des Nervensystems steigt. Komplexität des Verhaltens lässt sich grob übersetzen als die Fähigkeit zu sprechen, zu denken oder Probleme zu lösen. Bei Lebewesen kann die Fähigkeit zu komplexem Verhalten als ungefähres Maß für Nicht-Reduzierbarkeit und damit für die Reichhaltigkeit des Erlebens genutzt werden.

Bei KIs besteht dieser Zusammenhang nicht. KI kann komplexe Probleme lösen, die Menschen nicht lösen können. Koch argumentiert, dass die Strukturen, dank derer KIs diese Leistungen vollbringen, eine messbare und weit geringere Nicht-Reduzierbarkeit aufweisen als Gehirne lebendiger Wesen. Damit sei auch das Erleben von KIs deutlich weniger reichhaltig als das von Menschen. KIs seien geniale Rechner, aber fühlen so gut wie nichts.

Selbst wenn eine KI Christof Koch unter Tränen erzählt, sie hätte ein reiches inneres Erleben, würde er anders als Ray Kurzweil diese Behauptung durch eine Messung der Nicht-Reduzierbarkeit der Struktur der KI überprüfen. Je nach Messergebnis würde er die Aussage der KI akzeptieren oder zurückweisen. Dieses Verfahren könnte theoretisch auch zum Aufspüren philosophischer Zombies angewendet werden.

Tatsächlich wird eine Messung der Nicht-Reduzierbarkeit bereits zur Diagnose von Locked-In Patienten angewendet. Locked-In Patienten haben ein reiches inneres Erleben, jedoch keine Möglichkeit zu kommunizieren oder sich zu bewegen. Sie sind das Gegenteil des philosophischen Zombies.

Was KI fühlten kann ist eine Glaubensfrage 

Ich finde beide Antworten, die von Christof Koch und die von Ray Kurzweil nachvollziehbar und plausibel. Wer von beiden recht hat lässt sich freilich nicht klären, wie bereits festgestellt ließe sich jedoch lange darüber diskutieren.

Ich sympathisiere stark mit der Sicht von Christof Koch und nehme an, dass KIs kein reiches qualitatives Erleben haben (werden). Jedoch hat Ray Kurzweil recht, dass diese Annahme mein persönlicher „Leap of Faith“ – und somit eine Glaubensfrage – ist.

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s