zum Hauptinhalt wechseln zum Hauptmenü wechseln zum Fußbereich wechseln Universität Bielefeld Play Search
  • Philosophie für die Öffentlichkeit

    Logo Community of Practice Public Humanities
    Campus der Universität Bielefeld
    © Universität Bielefeld

Versteht Künstliche Intelligenz „Chinesisch“?

Ein Essay von Andre Krutemeyer

Bearbeitetes Foto eines Blatt Papiers, welches unter einer Tür hindurch geschoben wurde. Auf dem Blatt steht handschriftlich und in vereinfachten Schriftzeichen 你好 (Nǐ hǎo) geschrieben.
你好 (Nǐ hǎo) ist chinesisch und bedeutet soviel wie „Hallo“. | Foto: Andre Krutemeyer

Mitte letzten Jahres stolperte ich beim Überfliegen der Schlagzeilen eines einschlägigen Newsfeeds über einige besonders kuriose Meldungen. „KI von Google: Chatbot LaMDA soll Bewusstsein entwickelt haben" schrieb etwa das Onlineoutlet der Berliner Zeitung. „Chatbot LaMDA: Hat diese Google-Software wirklich ein Bewusstsein entwickelt?" fragte Heise Online wiederum. Dies sind freilich nur zwei Beispiele von dutzenden Meldungen zum Thema, die im Sommer 2022 im Web zu finden waren.

Meldungen über künstliches Bewusstsein, welche sich nicht nur mit der rein theoretischen Möglichkeit auseinandersetzen, sondern die Frage stellen, ob ein solches Bewusstsein bereits in den Startlöchern steht oder schon heute existieren könnte – und das auf großen Onlinepublikationen. Klar, die großen Online Magazine kommen auch nicht ohne ihren Anteil an Clickbait aus, aber mein Interesse war trotz allem geweckt.

Die Debatte um LaMDA

Den Hintergrund dieser und weiterer Meldungen stellen die Aussagen des suspendierten Google-Ingenieurs Blake Lemoine dar. Lemoines Aussagen wurden zunächst in den US-amerikanischen Medien aufgegriffen, nach dem dieser über soziale Netzwerke behauptet hatte, dass Googles „LaMDA“-Chat-KI ein Bewusstsein entwickelt habe.

„LaMDA“ ist ein sogenannter Chat-Bot, welcher darauf trainiert ist möglichst natürliche Mensch-Maschinen-Interaktionen zu ermöglichen. Eine Besonderheit der KI ist dabei ihre Möglichkeit, bestimmte Rollen einzunehmen, etwa von Personen oder gar Gegenständen. LaMDA ist zum Beispiel in der Lage, aus der Position einer politischen Autorität heraus zu diskutieren oder aus der Sicht eines Toasters Fragen zu beantworten.

Es lässt sich vermuten, dass es Lemoine eigentlich um etwas anderes (wenn auch verwandtes) geht, als das von ihm behauptete Bewusstsein des von Google entwickelten Chat-Algorithmus. So wirft er in einem Interview mit dem US TV-Magazin „Bloomberg Technology“ einige sehr interessante ethische Fragen zum Umgang mit und der Entwicklung von KI auf. Neben seiner Forderung, den Entstehungsprozess für die Öffentlichkeit transparenter zu gestalten, fordert Blake unter Anderem auch die Etablierung des sogenannten „Turing Test“.

KI, Philosophie und der Turing-Test

Doch was genau hat das Ganze mit Philosophie zu tun?  Abgesehen von einer Vielzahl ethischer Fragen, die aus der Entwicklung und der Verbreitung solcher KI-Systeme hervorgehen, stellt die Frage die sich aus dem weiteren Kontext ergibt, eine der ältesten Fragen der Philosophie überhaupt dar – die Frage nach dem Wesen des Geistes und Bewusstseins selbst.

Von den Seelenlehren der Antike über den Dualismus von Körper und Seele bei Descartes bis hin zum Funktionalismus, welcher Körper und Geist im Sinne einer Analogie von Hardware und Software begreift, war und ist das Thema das zentrale Augenmerk der Philosophie des Geistes.

Auch der von Blake geforderte und von Alan Turing entwickelte „Turing Test“ ist ein Thema, welches rege in der Philosophie diskutiert wurde. Es bietet sich daher durchaus an, einen Blick auf den „Turing-Test“ zu werfen, wenn man verstehen möchte welche Relevanz die Philosophie bei einem so aktuellen Thema, wie es künstliche Intelligenz ist, hat.

Turing, seines Zeichens Mathematiker und Logiker, gilt heute als Computerpionier und Wegweiser der Informatik. Während seiner Zeit an der Universität von Manchester in den späten 40er und frühen 50er Jahren, arbeitete Turing unter Anderem an Begriffen zur Beschaffenheit von künstlicher Intelligenz.

In seiner Arbeit „Computing Machinery and Intelligence“ aus dem Jahr 1950 stellte er den besagten „Turing Test“ vor. Der „Turing Test“ ist ein durchführbares Experiment zur Feststellung von künstlicher Intelligenz. Der Grundaufbau des Experimentes kann als eine Art Spiel verstanden werden, in dem mehrere Spieler getrennt voneinander per Tastatureingaben miteinander kommunizieren müssen. Die Kommunikation wird von einer weiteren nicht in das Spiel integrierten Person beaufsichtigt und einer der Spieler wird durch den zu testenden Computer ersetzt.

Turings Hypothese ist, dass eine Maschine beziehungsweise ein Computer dann über einen bestimmten Grad von Intelligenz verfügt, wenn die beaufsichtigende Person nicht in der Lage ist den Computer von den menschlichen Spielern zu unterscheiden.

Ob eine Maschine über eine starke Intelligenz verfügt, wenn sie den Test besteht oder gar auf eine Form von Bewusstsein bei ihr geschlossen werden kann, ist umstritten. Von starker künstlicher Intelligenz spricht man im Übrigen, wenn Absichten und Bewusstsein vorhanden sind, eine schwache künstliche Intelligenz muss hingegen „nur“ in der Lage sein Aufgaben selbständig auszuführen.

Das „Chinesische Zimmer“

Eine prominente Gegenargumentation stammt vom Philosophen John Searle. Searle kam auf Basis seines Gedanken-Experiment vom „Chinesischen Zimmer“ aus dem Jahr 1980 zu dem Ergebnis, dass das Bestehen des „Turing Test“ alleine kein ausschlaggebendes Kriterium für starke Intelligenz darstellen könne.

Kurz zusammengefasst lässt sich das Gedankenexperiment wie folgt beschreiben: Eine Person befindet sich in einem Zimmer mit einer Tür und einer Vielzahl an Kisten, welche mit Karten gefüllt sind. Auf den Karten finden sich chinesische Schriftzeichen. Diese sind für die Person völlig unverständlich. Neben den Kisten im Raum findet sich auch ein Buch mit Anweisungen in der Muttersprache der Person im Raum. Dieses Buch enthält eine Gegenüberstellung verschiedener chinesischer Schriftzeichen, welche korrekte Antworten auf Fragen und ähnliches darstellen. Würde nun eine andere Person deren Muttersprache Chinesisch ist, Karten mit zum Beispiel Fragen unter der Tür durchschieben, so wäre die Person im Raum in der Lage, mithilfe der Anweisungen im Buch, eine korrekte Antwort zu geben – und das ohne zu verstehen was gerade geantwortet wurde. Für die Person außerhalb des Raumes würde somit die Illusion einer Unterhaltung entstehen.

Das „chinesische Zimmer“ suggeriert, dass egal wie gut eine Maschine darin ist eine Kommunikation vorzutäuschen, sie nicht den Inhalt ihrer Antworten und Äußerungen versteht, sondern rein algorithmisch und ohne eigene Intention kommuniziert.

Searles Gedanken-Experiment blieb nicht ohne Kritik. Gerade vor dem Hintergrund der Entwicklung von neuronalen Netzwerken, welche einmal die Simulation des gesamten menschlichen Gehirns ermöglichen sollen, verliert seine Argumentation zunehmend an Bedeutung.

Jedoch erscheint das „Chinesische Zimmer“ gerade im Hinblick auf die Forderung Blake Lemoines weiterhin aktuell. Sollten sich Chat-Bots wie „LaMDA“ von den eher rudimentären Algorithmen der letzten Jahrzehnte nur dadurch unterscheiden, dass sie ausgeklügelter geworden sind menschliche Kommunikation zu imitieren, so wäre Searles Gedanken-Experiment immer noch eine Berücksichtigung wert.

Quellen

A. M. Turing, 1950, „Mind“, „Computing machinery and intelligence“, Manchester, Oxford University Press und Mind Association

John Searle, 1986, „Geist, Hirn und Wissenschaft“, Frankfurt am Main, Suhrkamp  

Christian Gehrke, 2022, „KI von Google: Chatbot LaMDA soll Bewusstsein entwickelt haben", Berliner Zeitung (Online), 14.06.2022

Martin Holland, 2022, „Chatbot LaMDA: Hat diese Google-Software wirklich ein Bewusstsein entwickelt?", Heise Online, 13.06.2022

Emily Chang und Blake Lemoine, 2022, Video Interview: „Google Engineer on His Sentient AI Claim", Bloomberg Technology, 24.06.2022


Zurück zur Übersicht


Zum Seitenanfang