Bewusstsein und Mühlengründe
Von Daniel H. Rapoport
Künftig wird an dieser Stelle immer in der Mitte des Monats die Wissenschaftskolumne des Zelltechnologen Daniel H. Rapoport erscheinen.
In meiner letzten Kolumne habe ich Argumente gegen die Idee gebracht, dass Chatbots wie Chat-GPT Bewusstsein entwickeln können: Chatbots nehmen nicht durch aktives Tun an der Welt teil und müssen sich nicht in ihr zurechtfinden. Sie lernen nichts, während sie bedient werden. Sie kennen die Bedeutung der Worte nicht, die sie aneinander reihen. Danach erreichte mich mehrfach die Frage, wie es sich verhielte, wenn eine KI mit Körper ausgestattet, aktiv lernend die Welt navigierte? Ein Chatbot weiß vielleicht nicht, was der sprachliche Ausdruck »gegen etwas stoßen« bedeutet. Ein selbstfahrendes, KI-gesteuertes Auto hingegen kennt vielleicht den sprachlichen Ausdruck nicht, wüsste dafür aber sehr gut, was es bedeutet, gegen irgendwas zu stoßen.
Solche Fragen werfen uralte Probleme der Philosophie des Geistes neu auf. Fragen, wie sich geistige zu materiellen Prozessen verhalten. Und zentral auch die Frage, was Bewusstsein eigentlich ist. Das Aufkommen künstlicher Intelligenz hat solche Fragen aus fachphilosophischen Kreisen in die Öffentlichkeit befördert. Plötzlich interessiert man sich brennend dafür, was die Voraussetzungen von Bewusstsein sind und woran man dessen Vorhandensein zweifelsfrei feststellen kann.
Intelligenz und Bewusstsein
Wie also verhält es sich mit den selbstfahrenden Autos? Sie sind in der Lage, autonom durch Terrain zu navigieren, Hindernissen auszuweichen, von einem Ball auf die Möglichkeit eines auf die Fahrbahn stürmenden Kindes zu schließen, bei Bedarf für Tramper anzuhalten, evtl. aus der Vergangenheit zu lernen usw. Mit anderen Worten: Können sie komplexes, adaptives Problemlöseverhalten entwickeln, besitzen also, was die meisten als Intelligenz bezeichnen würden?
Die wenigsten glauben, dass es sich für solch ein Auto nach etwas anfühlt, zum Beispiel für eine Radfahrerin zu bremsen. Es bleibt eine Maschine, die Inputsignale ihrer Sensoren mittels Software auf komplexe Weise zu einem Output umsetzt, etwa Stellmotoren bedient. Prinzipiell geht nichts anderes vor als in einem Bewegungsmelder, der Personen erkennen und einen Alarm auslösen kann. Nirgends sehen wir einen Grund oder Beleg für die Annahme, dass ein Bewegungsmelder oder ein selbstfahrendes Auto ein Bewusstsein dieser Vorgänge hat. Intelligenz scheint demnach weitgehend unabhängig vom Bewusstsein zu sein.
Wie erwähnt, ist das Problem nicht neu. Vor mehr als 300 Jahren bereits redete Leibniz von denkenden Maschinen und bezweifelte, dass mechanische Prozesse ein inneres Erleben erzeugen können: »Man muss übrigens notwendig zugestehen, dass die Perzeption (inneres Erleben, DHR) aus mechanischen Gründen nicht erklärbar ist. Denkt man sich etwa eine Maschine, die so beschaffen wäre, dass sie denken, empfinden und perzipieren könnte, so kann man sie sich derart proportional vergrößert vorstellen, dass man in sie wie in eine Mühle eintreten könnte. Dies vorausgesetzt, wird man bei der Besichtigung ihres Inneren nichts weiter als einzelne Teile finden, die einander stoßen, niemals aber etwas, woraus eine Perzeption zu erklären wäre.« (Monadologie, Paragraph 17)
In der Mühle
Leibnizens berühmtes Mühlengleichnis wurde in den 1990ern von dem australischen Philosophen David Chalmers präzisiert, obgleich bloß graduell. Chalmers prägte die Formulierung des »schwierigen« Problems des Bewusstseins, um es von den »leichten« Bewusstseins-Problemen zu unterscheiden: Leicht, so Chalmers zunächst, sei alles, das sich als Wie-Frage formulieren lässt. Was mit einem Mechanismus erklärt werden kann, bezeichnet Chalmers als »leicht«, weil es prinzipiell von außen erforschbar ist. So wie wir den Mechanismus und die Verschaltung der Zahnräder, Federn, Stößel usw. in Leibnizens Mühle ermitteln können.
Fundamental unklar bleibe jedoch bei allem Mechanismus-Klären, warum das Ganze mit einem inneren Erleben verbunden ist. Das sei das »schwierige Problem«. Es könnte uns ja prinzipiell genauso gehen wie Bewegungsmeldern oder selbstfahrenden Autos. Wir könnten bewusstlos, doch halbwegs intelligent durch die Gegend laufen und Dinge tun, ohne dass wir dabei etwas erleben. Dass dem nicht so ist, hält Chalmers für eminent rätselhaft und wähnt, dass es eine unüberbrückbare Erklärungslücke zwischen den von außen beobachtbaren Hirn- und Körper-Mechanismen und dem mit ihnen einhergehenden inneren Erleben gebe.
Chalmers gibt in zahlreichen Artikeln und Interviews Gründe, aus denen er die Erklärungslücke für unüberbrückbar hält: Sein wichtigster Grund bleibt der Leibnizsche Mühlengrund, dass wir uns nämlich jeden beliebigen Mechanismus genauso gut als unbewusst vorstellen können und also kein Mechanismus, sei er neuro- oder informationsbasiert, allein erklären könne, warum er mit einem inneren Erleben einherginge. Ein zweiter Grund ist die Privatheit des inneren Erlebens, also dass sich jedes bewusstseinsfähige Wesen im Grunde nur des eigenen Bewusstseins sicher sein könne. Das sei nicht nur rätselhaft, sondern auch eine enorme Hürde für die wissenschaftliche Methode, die auf die Dingbarmachung von öffentlichem, das heißt prinzipiell jedem zugänglichen Wissen abziele. Drittens schließlich sei inneres Erleben im Vergleich zur mechanischen (äußeren) Beschreibung von so grundlegend verschiedener Machart, dass gänzlich unklar bleibe, wie dieses gleichzeitig jenes sein oder erzeugen kann. Das betrifft die seit jeher rätselhafte Sphäre des Geistigen: ihre scheinbare Immaterialität, ihren unerfindlichen Ort, ihre Wirklichkeit.
Wir stecken also in der Situation, dass wir jede Äußerung von Bewusstsein simulieren können, doch zugleich nicht wissen, was uns zu Bewusstsein und innerem Erleben befähigt. Ist es damit prinzipiell unmöglich, in Erfahrung zu bringen, ob ein Ding Bewusstsein hat oder entwickeln kann? Sind wir unentrinnbar auf einen Agnostizismus der Art »Wir werden es nie wissen« zurückgeworfen? Genau das hat unlängst der Philosoph Tom McClelland behauptet. Aber davon in meiner nächsten Kolumne.
links & bündig gegen rechte Bünde
Jetzt den kostenlosen jW-Newsletter abonnieren – täglich das Beste aus der Tageszeitung junge Welt, direkt in Ihr Postfach. Ihre E-Mail-Adresse wird natürlich niemals an Dritte weitergegeben.
Mehr aus: Natur & Wissenschaft
-
Kleiner Fortschritt
vom 20.01.2026
1. Lernen durch Interaktion mit der Umwelt ist weder eine notwendige, noch hinreichende Bedingung für das Vorhandensein von Bewusstsein.
2. Bei der Interaktion eines Menschen etwa mit einem Sprachmodell (LLM) erfolgt eine Projektion seines Bewusstseins auf das LLM. Das wurde schon in den 60ern durch das einfache Dialogprogramm ELIZA am MIT von Joseph Weizenbaum entwickelt und simulierte einen Rogers’schen Psychotherapeuten, indem es Nutzereingaben mit einfachen Mustererkennungs‑ und Textumformungsregeln beantwortete. Dieser Effekt zeigt sich auch bei Haustierhaltern, die ihre Hunde und Katzen für intelligent halten.
3. Der wesentliche Punkt für die Existenz von Bewusstsein ist Denkfähigkeit. Und Denken setzt ein Symbolsystem, eine Sprache voraus. Wenn wir denken, benutzen wir Wortkombinationen, die eine Bedeutung haben.
4. Die heutige KI arbeitet auf subsymbolischem Niveau, d.h. mit Milliarden bis Billionen numerischen Parametern, die im Lernprozess optimal an die Trainingsbeispiele angepasst werden.
5. Das kann man mit der Neurophysiologie vergleichen, die die Aktivierung von Gruppen von Neuronen bei bestimmten Tätigkeiten des Menschen untersucht. Zwischen Neurophysiologie und Psychologie, die sich mit dem Bewusstsein beschäftigt, besteht aber eine riesige Kluft. Und diese Kluft trennt auch die heutigen KI-Systeme vom Vorhandensein eines Bewusstseins.
6. Die frühe KI war sich der Notwendigkeit eines Symbolsystems bewusst. Als Basis dafür entwickelte sie eine spezielle Programmiersprache für Symbolverarbeitung (LISP). Damit war Sprachverarbeitung auf syntaktischem Niveau und partiell auf semantischem Niveau möglich. Die umfassende Anwendung scheiterte damals schon an der Komplexität der Syntax und Semantik natürlicher Sprachen. Der Vorteil dieses Ansatzes bestand jedoch darin, dass er auf dem in den Wissenschaften akkumulierten Wissen beruhte. Jedoch war die Implementation dieses Wissens sehr aufwendig, so dass dieser Zweig der KI von den neuronalen Netzen verdrängt wurde.
7. Trotz des höheren Abstraktionsgrades der wissensbasierten KI war diese nicht in der Lage Bewusstsein zu erzeugen. Das demonstriert deutlich das Gedankenexperiment des »Chinesischen Zimmers« – eines der berühmtesten Gedankenexperimente der modernen Philosophie des Geistes. Da dieses Gedankenexperiment ebenso auf neuronale Netze angewendet werden kann, solle es kurz angeführt werden:
• In einem geschlossenen Raum sitzt eine Person, die kein Chinesisch versteht.
• Durch einen Schlitz erhält sie Fragen in chinesische Schriftzeichen.
• Im Raum liegen detaillierte Anweisungen in der Muttersprache der Person vor, wie man auf bestimmte Zeichenfolgen mit anderen Zeichenfolgen reagieren soll.
• Die Person befolgt die Regeln mechanisch und gibt korrekte chinesische Antworten zurück.
• Außenstehende glauben daher, im Raum befinde sich jemand, der Chinesisch versteht.
Die Person versteht keines der Zeichen. Sie manipuliert nur Symbole nach syntaktischen Regeln.
8. Auf die moderne KI und auch große Sprachmodelle, die mit statistischen Mustern und Wahrscheinlichkeiten arbeiten, bezogen würfelt die Person im chinesischen Zimmer zusätzlich, um aus einer Auswahl von Handlungsanweisungen die beste zu bestimmen. Das zeigt, dass die moderne KI nur Verstehen simuliert und damit weiter von einem Bewusstsein entfernt ist als die wissensbasierte KI.