Warum künstliche Intelligenz wie ein chinesisches Zimmer ist

Warum künstliche Intelligenz wie ein chinesisches Zimmer ist
Foto: Alession Lin on Unsplash

Stellen Sie sich vor, Sie sitzen in einem geschlossenen Raum. Durch den Türschlitz werden Ihnen Zettelchen zugesteckt, auf denen chinesische Schriftzeichen stehen. Gehen wir davon aus, dass Sie selbst kein Wort Chinesisch sprechen. Aber im Zimmer gibt es Handbücher, Regeln und Anweisungen, mit denen Sie die Zeichen verarbeiten und daraus passende Antworten erzeugen können.

Da Sie kein Wort Chinesisch verstehen, müssen Sie sich bei Ihren Antworten komplett auf die Anweisungen verlassen und ihnen Schritt für Schritt folgen. Sie schreiben also die entsprechenden chinesischen Zeichen auf den Zettel und geben sie durch den Schlitz wieder heraus. Sie machen nichts anderes als ein Computer (natürlich sehr viel langsamer): Sie verarbeiten einen Input anhand von vorher festgelegten Algorithmen und geben das Ergebnis aus.

Stellen Sie sich weiter vor, dass vor der Tür ein chinesischer Muttersprachler steht, der die Zettel liest. Aufgrunddessen hat er den Eindruck, dass Sie die Sprache beherrschen. Sie selbst wissen aber, dass Sie keine Ahnung haben, was Sie da „beantwortet“ haben.

Dieses Gedankenexperiment ist unter dem Namen „Das chinesische Zimmer“ ein wichtiger Bezugspunkt für die Diskussion um künstliche Intelligenz (KI). Ausgedacht hat es sich der Sprachphilosoph John Searle. Er wollte damit zeigen, dass das Beherrschen und Befolgen von Regeln noch kein Verständnis – weder des Inputs noch des Outputs – beinhaltet. Damit stellt er sich denjenigen entgegen, die glauben, dass eine starke künstliche Intelligenz prinzipiell möglich ist. Für Searle ist echte Intelligenz immer mit Bewusstsein und Intentionalität verbunden, etwas, was mehr ist als Komplexität und Geschwindigkeit von Prozessoren.

Heutige intelligente Systeme fallen alle unter die sogenannte schwache künstliche Intelligenz – sie sind gut darin, bestimmte begrenzte Aufgaben zu erledigen: zum Beispiel das Internet durchsuchen und passende Ergebnisse ausgeben, Schach spielen, Zusammenhänge in großen Textkorpora finden oder aus medizinischen Datenbanken Korrelationen zwischen Krankheiten und Verhaltensweisen herausbekommen und neue Behandlungsmethoden vorschlagen.

Die Vertreter der starken KI glauben, dass wir nicht mehr weit davon entfernt sind, dass aus der schwachen KI eine starke wird, wenn man die technischen Entwicklungen von Hard- und Software in die Zukunft projiziert. Bewusstsein ist dabei ein Nebenprodukt von Komplexität und wird automatisch auftauchen.

Der Turing-Test im Chinesischen Zimmer

Die Geschichte vom chinesischen Zimmer ist dabei eine Variante des Turing-Tests. Man kommt an ihm nicht vorbei, wenn man sich mit KI beschäftigt. Turing dachte darüber nach, wie man feststellen kann, ob eine Maschine denken kann. Wir erinnern uns: In einem Zimmer sitzt ein Mensch und unterhält sich mit zwei unsichtbaren Gegenübern über eine Tastatur. Einer ist ein Mensch und der andere ein Computer. Nur: wer ist was? Der Turing-Test gilt als bestanden, wenn der Computer bei einer fünfminütigen Unterhaltung mehr als 30 Prozent der Tester täuschen kann. Bisher ist das noch keiner Maschine gelungen. Die Ausgangsfrage „Kann eine Maschine denken?“ muss bisher mit Nein beantwortet werden.

Im Gegensatz zu Searle machte es für Turing keinen Unterschied, ob die Maschine wirklich intelligent ist oder ob sie es nur meisterhaft vorspielen kann. Seiner Meinung nach ist diese Unterscheidung bedeutungslos, da wir nicht definieren können, was Denken überhaupt ist. Für Searle würde eine Maschine, die den Turing-Test besteht, einfach nur besonders gut programmiert sein, nicht aber selbstständig denken können. Es ist seiner Meinung nicht das Gleiche, ob wir vorgeben zu denken oder wirklich denken. Im ersten Falle folgen wir einem Programm, im zweiten können wir Chinesisch.

Künstliche Intelligenz ist Sprachverarbeitung im großen Stil

Sprache steht im Mittelpunkt, wenn wir über künstliche Intelligenz (KI) reden. Als Mittel der Kommunikation und als Medium des Denkens ist sie zentral für unser Selbstverständnis als Menschen. Durch Sprache machen wir uns ein Bild von der Welt und setzen uns in Beziehung zu ihr. Wir können mit anderen zusammenarbeiten und uns koordinieren. Dazu dienen nicht nur natürliche Sprache, sondern auch formalisierte, künstliche Sprachen wie Programmiersprachen.

In den letzten Jahren treten immer mehr scheinbar intelligente Anwendungen in unseren Alltag.

Bei vielen sind wir uns gar nicht bewusst, dass sie unter künstliche Intelligenz fallen: der Google-Suchalgorithmus zum Beispiel. Die meisten von uns benutzen ihn täglich dutzendfach. Mithilfe von mehr als 200 Kriterien sortiert Google die Suchergebnisse bei einer Stichwortsuche. Mit Rankbrain ist auch ein selbstlernender Algorithmus dabei, aber schon die Auswahl anhand von Kontext, vorherigen Suchen, Standort, semantischer Volltextanalyse, Relevanz der Domain, Markenautoritität, Linkqualität und -quantität ist software-technisch auf höchstem Niveau. Alle Internetservices von Google – Search, Maps, Books, Images und viele mehr – bestehen aus mehr als 2 Milliarden Zeilen Code[1], alle gespeichert in einem einzigen Repository[2]. Darin liegt die Technik, die entscheidet, was die relevanteste Antwort etwa bei einer Suche nach „chinesisches Zimmer“ ist: ein Artikel über Innenarchitektur in Peking oder die oben angeführte Erklärung.

Was Google mit seiner Suche macht – aber auch Facebook mit seinem Newsfeed oder Apple mit Siri – ist Verarbeitung von Sprache in einer bis vor kurzem unvorstellbaren Größenordnung. Denn um nichts anderes geht es hier: Webseiten – geschriebene Sprache – werden analysiert, die Anfrage bearbeitet, die Antwort ausgespuckt. Ein riesiges chinesisches Zimmer.

Versteht mich der Google-Algorithmus?

Ob der Google-Algorithmus wirklich versteht, was ich meine, wenn ich nach etwas suche, ist mir als Nutzer im Prinzip egal, solange die Antwort für meine Suche relevant ist. In ähnlicher Weise verarbeitet Facebook die Links, Likes, Postings, Bilder unserer engen und nicht so engen Freunde. Es bietet uns täglich eine Auswahl von Nachrichten und Feel-Good-Posts (was zum Lachen, was zum Schaudern, was zum Gutfühlen), die dem entsprechen, was wir vorher schon gut fanden und die uns auf der Seite halten. Auch Big-Data-Analysen von Nutzerverhalten oder Programme zur Maschinenübersetzung machen nichts anderes als Textverarbeitung, nur in einer Geschwindigkeit, die Menschen nicht erreichen können. Daraus entstehen Effekte, bei denen Quantität in Qualität umzuschlagen scheint.

Die digitalen Assistentinnen Siri (Apple) und Alexa (Amazon) versuchen sich daran, gesprochene Sprache zu verstehen und all unsere Wünsche zu erfüllen. Im Film Her von Spike Jonze verliebt sich der Protagonist Theodore, der in seinem Job Briefe schreibt für Leute, die es nicht so mit Worten haben, in sein Betriebssystem (cum Sprachassistentin) Samantha, die deutlich an Siri angelehnt ist. Die Liebe der beiden (denn sie wird erwidert) beruht rein auf dem sprachlichen Austausch. Sein Beruf ist wesentlich für das Auftauchen dieser Liebe zwischen Mensch und Maschine – jedenfalls so lange, bis sie ihn verlässt, weil sie mit anderen Betriebssystemen die materielle Ebene des Seins aufgibt.

Wir sollten nicht vergessen: Siri, Alexa und Cortana, sind heute (noch) nicht intelligent. Sie haben kein Bewusstsein und keinen Willen außerhalb dessen, was ihnen von ihren Programmierern vorgegeben wird. Die Technik ist noch ein ganzes Stück davon entfernt – trotz des Hypes um Deep Learning und neuronale Netze. Wie weit entfernt wir von der allgemeinen künstlichen Intelligenz sind – darüber streiten sich die AI-Experten. Die einen sagen, dass die künstliche Superintelligenz kurz bevorsteht. Ray Kurzweil, der bekannteste Vertreter der sogenannten Singularität, dem Zeitpunkt, wo Maschinen intelligent werden und nichts mehr ist, wie es war, spricht von 2025, andere meinen 2040 wäre es so weit. Und John Searle glaubt gar nicht dran (oder ist jedenfalls sehr skeptisch)[3]. Seiner Meinung nach wird es den Maschinen immer an dem letzten Quäntchen fehlen – dem Bewusstsein.

Facebook-Bots erfinden eine neue Sprache

Ist Bewusstsein das Resultat von ausreichender Komplexität? Entsteht es automatisch, wenn die Rechner, ihre Hard- und Software, schnell und vernetzt genug geworden sind? Das sind Fragen, auf die wir noch keine Antwort haben. Dass Software aber kreativ werden kann, ist schon länger bekannt: Von Twitter-Bots, die mit ausreichend großen Text-Datenbanken gefüttert werden und daraus Regeln für das Schreiben von Gedichten ableiten – und das dann mit Erfolg tun – bis zu den Facebook-Bots, die vor kurzem durch die Presse gingen.

Facebooks Artificial Intelligence Research Team (FAIR) stellte fest, dass Chatbots angefangen haben, die Regeln der englischen Grammatik zu missachten und in einer eigenen Sprache zu sprechen. Die Effekte traten während ihres Trainings auf, wo sie lernen sollten, später selbstständig mit Menschen Verhandlungen zu führen.

Ein Dialog sah so aus:
Bob: „I can can I I everything else.“
Alice: „Balls have zero to me to me to me to me to me to me to me to me to.“

Die Wiederholungen übernahmen semantische Funktionen – sie bedeuteten etwas und waren nicht einfach ein Glitsch im System. Im Laufe der Zeit wurden die Veränderungen der Sprache allerdings so groß, dass auch die Programmierer nichts mehr verstanden. Dieses Phänomen ist reproduzierbar, denn andere Chatbots zeigten dasselbe Verhalten.

Künstliche Intelligenz ist anders, als wir glauben

Viele Journalisten berichteten darüber unter dem Tenor „Die Roboter erfinden eine eigene Sprache und verschwören sich gegen die Menschheit“. Sie folgten einem Topos, den unzählige Science-Fiction-Filme, von Terminator bis Westworld, in unser kollektive Bewusstsein gebracht haben. Die eigentliche Erklärung ist einfacher[4]: Die Programmierer erklärten, dass es im Code keine Anweisung dafür gab, bei verständlichem Englisch zu bleiben. Deshalb fingen die Chatbots an, eigene Kürzel und Codes zu entwickeln, um ihre Aufgabe, das Verhandeln, besser zu lösen. Dass sie dadurch für die Objekte des Verhandelns nicht mehr verständlich waren, haben die Programmierer übersehen. In der nächsten Version der Software wurde das dann nachgeholt.

Auf der anderen Seite: Haben die Programmierer dadurch, dass sie die Software der Bots anpassten, die ersten zarten Triebe von Maschinenintelligenz brutal niedergetrampelt? Wir Menschen neigen ja schon seit langem dazu, Gegenständen, Tieren – und jetzt auch Maschinen menschliche Eigenschaften zuzusprechen. Vor allem, wenn sie Sprache benutzen. Es kann aber sein, dass wir eine echte künstliche Intelligenz gar nicht wahrnehmen würden, weil sie so ganz anders wäre als alles, was wir gewöhnt sind.

Dieser Text ist eine leicht bearbeitete Version des Textes „Maschinen sprechen, Maschinen denken“ in der Versorgerin, September 2017.

[1] Das menschliche Genom hat 3300 Zeilen Code – wenn man es in Zeilen schreiben würde. Vgl. Jeff Desjardins: How Many Millions of Lines of Code Does It Take?, Visual Capitalist, 8.2.2017.
[2] Wie Google diesen riesigen Haufen Code managt und koordiniert, hat Cade Metz für Wired beschrieben. Cade Metz: Google Is 2 Billion Lines of Code — And It’s All in One Place, Wired, 16.9.2915.
[3] Einen guten Überblick über den Stand der KI-Diskussion findet man im Blog Waitbutwhy. Der Autor Tim Urban nimmt eher einen optimistischen Standpunkt ein. Tim Urban: The AI Revolution: The Road to Superintelligence, Wait but why, 22.1.2015.
[4] Fact Check: Did Facebook Shut Down an AI Experiment Because Chatbots Developed Their Own Language?, Snopes, 1.8.2017.