Gegründet 1947 Freitag, 30. Januar 2026, Nr. 25
Die junge Welt wird von 3063 GenossInnen herausgegeben
Aus: Ausgabe vom 16.12.2025, Seite 15 / Natur & Wissenschaft
Künstliche Intelligenz

Einsen und Nullen

Können Large Language Models Bewusstsein entwickeln?
Von Daniel H. Rapoport
15.jpg
Schaut man genau hin, besteht alles aus Nullen und Einsen

Vielfach wird gewähnt und spekuliert, heutige »Large Language Models« (LLMs) – also Chatbots wie Chat-GPT oder Gemini – könnten vielleicht schon einfache oder uns unbekannte Formen von Bewusstsein entwickeln. Möglicherweise sei es schon passiert. Vielleicht fürchtet eine KI, abgeschaltet zu werden, vielleicht verfolgt sie eigene Zwecke und versucht uns zu manipulieren oder zu belügen.

Was ist dran an diesen Gerüchten? Um einschätzen zu können, ob LLMs Bewusstsein entwickeln können, müssten wir ein ungefähres Verständnis davon haben, was Bewusstsein ist. Leider verfügt bislang niemand über dieses Verständnis, auch nicht über ein ungefähres. Kein Psychologe, keine Philosophin, kein Pfarrer und keine Biologin wüssten genau zu sagen, was Bewusstsein wirklich ist.

Wir wissen lediglich – rein phänomenologisch, aus einer Art Selbstevidenz –, dass Bewusstsein etwas mit innerem Erleben zu tun hat. Aber wir haben ebenfalls gelernt – sowohl aus einfachen optischen Täuschungen als auch aus der rätselhaften Welt der Quanten –, dass die Welt oft ganz anders ist, als sie uns erscheint. Die Selbstevidenz des Erlebenkönnens muss nicht so wahr und fundamental sein, wie sie uns vorkommt. Nur: Selbst wenn das Bewusstsein so etwas wie eine optische Täuschung wäre, wüssten wir doch gern, wie sie es fertigbringt, ein »inneres Erleben« zu erzeugen. Sei’s nur, um einzuschätzen, ob in LLMs ebenfalls die Potenz zum Hervorbringen solcher Täuschungen schlummert.

Dies vorausgeschickt – also dass wir grundsätzlich im Nebel stochern –, will ich dennoch darlegen, wie zumindest ein Teil der Wissenschaftlerinnen die Frage nach dem Bewusstsein ansieht und warum zumindest aus dieser Sicht ziemlich ausgeschlossen scheint, dass LLMs auch nur ein rudimentäres Bewusstsein erlangen können. LLMs sind nach dieser Ansicht, der ich prinzipiell auch zuneige, nicht viel anders als ein Algorithmus zur Wettervorhersage. Von dem glauben die wenigsten, dass er wüsste, was es heißt, dass es regnet. Oder dass seine Voraussagen mit irgendeiner Form inneren Erlebens einhergingen.

Der englisch-französische Psychologe Kevin O’Regan hat sein Leben lang über unseren Sehsinn, insbesondere über das Zustandekommen des »inneren Films«, geforscht, der in uns abläuft, wenn wir wach und bei Bewusstsein sind. Er glaubt, bei seinen Untersuchungen auch das Bewusstseinsproblem gelöst zu haben, also die Frage, wie es sein kann, dass in Lebewesen Prozesse stattfinden, die sowohl von außen beschreibbar sind als auch ein inneres Erleben hervorrufen. Der Clou seiner »sensimotorischen Theorie des phänomenalen Bewusstseins« ist, dass er das Bewusstsein nicht ins Denken oder Wahrnehmen, sondern ins Tun legt. Bewusstsein sei die Art, wie inneres Erleben und Wirklichkeit dadurch konstruiert werden, dass wir aktiv mit der Welt um uns herum in Kontakt treten.

O’Regan reiht sich damit in eine Linie von Denkern, die Bewusstsein nicht nur aus der Auslegung des Begriffs heraus deuten wollen, sondern aus dem, was empirisch über Vorgänge bekannt ist, die eng mit dem Bewusstsein verbunden scheinen. Dazu zählt die Fähigkeit, aus unserem (unfassbar mangelhaften) Sehsinn – in Wirklichkeit wackeln die Bilder, stehen auf dem Kopf, sind durch den blinden Fleck unvollständig, an den Rändern unscharf und meistenteils schwarz-weiß –, wie wir aus diesem verblüffend limitierten Sinn den farbigen, scharfen, stabilen Film unseres Daseins in der Welt verfertigen. Die Antwort: Wir erzeugen eine Art »Erwartungsmatrix« in uns, deren fehlende Details wir durch aktive Teilnahme an der Welt – hingucken, hinhören, hinspüren, anfassen, hingehen, gegenstoßen usw. – ergänzen. Bewusstsein ist diese aktive Teilnahme. Zugleich aktualisieren wir dadurch fortwährend die Erwartungsmatrix.

»Erwartungsmatrix« – das Wort ist kein Fachterminus O’Regans. Ich habe es mir ausgedacht, um zu verdeutlichen, was gemeint ist. Und damit klar wird, dass derlei in LLMs nicht existiert. LLMs können nicht erwartungs- oder absichtsvoll an ihre Umwelt herantreten, weil ihre Struktur es nicht hergibt: Weder wird an irgendeiner Stelle versucht, einen permanenten inneren Film durch Teilnahme an der Welt zu erzeugen, noch kann ein LLM überhaupt in einer Weise an die Welt herantreten, die einem Lebewesen ähnelt, das heißt mit Absichten und Erwartungen. Das liegt zunächst einfach daran, dass LLMs typischerweise nichts lernen (ihren inneren Zustand ändern), wenn man sie benutzt. Sie berechnen lediglich Wahrscheinlichkeiten für Wortfolgen. LLMs lernen nur, während sie trainiert werden – ein Vorgang, der vor der Nutzung stattfindet –, und dann tritt die Nutzerin in Kontakt mit dem fertig trainierten, weitgehend statischen LLM. Erwartungen oder Absichten aber können nur Systeme hegen, deren eigener Zustand sich durch ihr Tun verändern kann.

Im Gegensatz dazu ändern sich bewusstseinsfähige Lebewesen andauernd. Bei Lebewesen gibt es auch keine strikte Trennung zwischen Hardware und Software. Was wir tun und denken, beeinflusst direkt unsere »Hardware«, ob und wie wir atmen, essen, schlafen, Angst haben, uns freuen, einander küssen oder Mut zusprechen; wie auch immer wir unsere Erwartungsmatrix speisen und mit Details versorgen: Alles hat stoffliche Veränderungen in uns zur Folge und eine Umorganisation unserer Bestandteile. Deswegen bedeutet unser Tun etwas. Aus dieser bis ins Molekül reichenden Verbindung mit der Welt kommt Bedeutung ursprünglich her. Nicht aber für ein LLM. Und noch weniger für den Computer, der es berechnet. Seine Hardware bleibt stets dieselbe. Er ist stabil und wesentlich unbetroffen von allem, was er rechnet und »tut«.

Daraus erhellt, warum eine Software wie Chat-GPT, zumindest in der Ansicht, dernach Bewusstsein aktive Teilnahme an der Welt bedeutet, kein Bewusstsein haben kann. Die Welt ist für einen Computer, auf dem eine LLM-Software läuft, weitgehend bedeutungslos. Ein »inneres Erleben« setzt ein bedeutungsvolles Sein in einer bedeutungsvollen Welt voraus. Ein LLM operiert zwar mit Sprache, aber Sprache ist – entgegen einem weit verbreiteten Irrtum – nicht der ursprüngliche Träger von Bedeutung. Sie macht Bedeutung nur kommunizierbar. Bedeutung entsteht durch Leben, durch aktives Tun. Für ein LLM bleiben Wörter Einsen und (vor allem) Nullen.

links & bündig gegen rechte Bünde

Jetzt den kostenlosen jW-Newsletter abonnieren – täglich das Beste aus der Tageszeitung junge Welt, direkt in Ihr Postfach. Ihre E-Mail-Adresse wird natürlich niemals an Dritte weitergegeben.

  • Leserbrief von Onlineabonnent/in Martin K. aus Berlin (16. Dezember 2025 um 10:23 Uhr)
    Die Ausführungen des Verfassers sind sehr interessant, gerade weil er Bewusstsein ins Tun legt. Die Frage ist also nicht, was Bewusstsein ist, sondern wo es sich entwickelt. Problematisch ist dann allerdings die Herleitung der Antwort, obwohl diese wieder richtig ist. Der Verfasser setzt voraus, dass niemand ein ungefähres Verständnis von Bewusstsein hätte, außer die naturwissenschaftlich orientierte Psychologie. Diese hat die Frage, wo sich Bewusstsein entwickelt, aber gar nicht zu ihrem Gegenstand (das hat ausschließlich die Philosophie), sondern sie klärt mithilfe der Naturwissenschaften die biologischen, neurologischen, chemischen und physikalischen Grundlagen für Bewusstsein im Einzelsubjekt. Das ist kompliziert genug und hier gibt es viel zu erforschen. Wenn wir aber noch mehr über das Funktionieren des organischen Wahrnehmungsapparats wissen, kommen wir der Antwort auf die Frage, wo Bewusstsein sich entwickelt, kein Stück näher. Denn wer Bewusstsein darin sucht, was empirisch-experimentell über Bewusstsein (un)bekannt ist, setzt bereits das voraus, was er herausfinden möchte. Was dem Gedankengang des Verfassers fehlt, ist ein Verständnis des Tuns als gesellschaftliches Tun. Bewusstsein in Bezug auf den Menschen ist die gesellschaftlich-historische Form menschlicher Tätigkeit, die einen organisch-stofflichen Träger benötigt, der im Rahmen dieser Tätigkeit durch sie hervorgebracht wurde. Die Bedeutung unseres Tuns kommt also nicht nur aus dem permanenten Stoffwechsel unserer Körper mit ihrer Umgebung. Das ist reduktionistisch. Bedeutung, die immer nur eine »für uns« ist, entsteht dort, wo der gesellschaftliche Mensch seine Beziehungen zu anderen gesellschaftlichen Menschen, Dingen und Naturverhältnissen ordnet und in Werte, Absichten und Ziele umsetzt. In unseren Körpern werden wir das nicht finden. Der Begriff der »Erwartungsmatrix« könnte geeignet sein, um in diese Richtung weiterzudenken; er müsste nur von der Priorität des Naturwissenschaftlichen befreit werden.

Mehr aus: Natur & Wissenschaft