Gegründet 1947 Dienstag, 16. Dezember 2025, Nr. 292
Die junge Welt wird von 3063 GenossInnen herausgegeben
Aus: Ausgabe vom 16.12.2025, Seite 15 / Natur & Wissenschaft
Künstliche Intelligenz

Einsen und Nullen

Können Large Language Models Bewusstsein entwickeln?
Von Daniel H. Rapoport
15.jpg
Schaut man genau hin, besteht alles aus Nullen und Einsen

Vielfach wird gewähnt und spekuliert, heutige »Large Language Models« (LLMs) – also Chatbots wie Chat-GPT oder Gemini – könnten vielleicht schon einfache oder uns unbekannte Formen von Bewusstsein entwickeln. Möglicherweise sei es schon passiert. Vielleicht fürchtet eine KI, abgeschaltet zu werden, vielleicht verfolgt sie eigene Zwecke und versucht uns zu manipulieren oder zu belügen.

Was ist dran an diesen Gerüchten? Um einschätzen zu können, ob LLMs Bewusstsein entwickeln können, müssten wir ein ungefähres Verständnis davon haben, was Bewusstsein ist. Leider verfügt bislang niemand über dieses Verständnis, auch nicht über ein ungefähres. Kein Psychologe, keine Philosophin, kein Pfarrer und keine Biologin wüssten genau zu sagen, was Bewusstsein wirklich ist.

Wir wissen lediglich – rein phänomenologisch, aus einer Art Selbstevidenz –, dass Bewusstsein etwas mit innerem Erleben zu tun hat. Aber wir haben ebenfalls gelernt – sowohl aus einfachen optischen Täuschungen als auch aus der rätselhaften Welt der Quanten –, dass die Welt oft ganz anders ist, als sie uns erscheint. Die Selbstevidenz des Erlebenkönnens muss nicht so wahr und fundamental sein, wie sie uns vorkommt. Nur: Selbst wenn das Bewusstsein so etwas wie eine optische Täuschung wäre, wüssten wir doch gern, wie sie es fertigbringt, ein »inneres Erleben« zu erzeugen. Sei’s nur, um einzuschätzen, ob in LLMs ebenfalls die Potenz zum Hervorbringen solcher Täuschungen schlummert.

Dies vorausgeschickt – also dass wir grundsätzlich im Nebel stochern –, will ich dennoch darlegen, wie zumindest ein Teil der Wissenschaftlerinnen die Frage nach dem Bewusstsein ansieht und warum zumindest aus dieser Sicht ziemlich ausgeschlossen scheint, dass LLMs auch nur ein rudimentäres Bewusstsein erlangen können. LLMs sind nach dieser Ansicht, der ich prinzipiell auch zuneige, nicht viel anders als ein Algorithmus zur Wettervorhersage. Von dem glauben die wenigsten, dass er wüsste, was es heißt, dass es regnet. Oder dass seine Voraussagen mit irgendeiner Form inneren Erlebens einhergingen.

Der englisch-französische Psychologe Kevin O’Regan hat sein Leben lang über unseren Sehsinn, insbesondere über das Zustandekommen des »inneren Films«, geforscht, der in uns abläuft, wenn wir wach und bei Bewusstsein sind. Er glaubt, bei seinen Untersuchungen auch das Bewusstseinsproblem gelöst zu haben, also die Frage, wie es sein kann, dass in Lebewesen Prozesse stattfinden, die sowohl von außen beschreibbar sind als auch ein inneres Erleben hervorrufen. Der Clou seiner »sensimotorischen Theorie des phänomenalen Bewusstseins« ist, dass er das Bewusstsein nicht ins Denken oder Wahrnehmen, sondern ins Tun legt. Bewusstsein sei die Art, wie inneres Erleben und Wirklichkeit dadurch konstruiert werden, dass wir aktiv mit der Welt um uns herum in Kontakt treten.

O’Regan reiht sich damit in eine Linie von Denkern, die Bewusstsein nicht nur aus der Auslegung des Begriffs heraus deuten wollen, sondern aus dem, was empirisch über Vorgänge bekannt ist, die eng mit dem Bewusstsein verbunden scheinen. Dazu zählt die Fähigkeit, aus unserem (unfassbar mangelhaften) Sehsinn – in Wirklichkeit wackeln die Bilder, stehen auf dem Kopf, sind durch den blinden Fleck unvollständig, an den Rändern unscharf und meistenteils schwarz-weiß –, wie wir aus diesem verblüffend limitierten Sinn den farbigen, scharfen, stabilen Film unseres Daseins in der Welt verfertigen. Die Antwort: Wir erzeugen eine Art »Erwartungsmatrix« in uns, deren fehlende Details wir durch aktive Teilnahme an der Welt – hingucken, hinhören, hinspüren, anfassen, hingehen, gegenstoßen usw. – ergänzen. Bewusstsein ist diese aktive Teilnahme. Zugleich aktualisieren wir dadurch fortwährend die Erwartungsmatrix.

»Erwartungsmatrix« – das Wort ist kein Fachterminus O’Regans. Ich habe es mir ausgedacht, um zu verdeutlichen, was gemeint ist. Und damit klar wird, dass derlei in LLMs nicht existiert. LLMs können nicht erwartungs- oder absichtsvoll an ihre Umwelt herantreten, weil ihre Struktur es nicht hergibt: Weder wird an irgendeiner Stelle versucht, einen permanenten inneren Film durch Teilnahme an der Welt zu erzeugen, noch kann ein LLM überhaupt in einer Weise an die Welt herantreten, die einem Lebewesen ähnelt, das heißt mit Absichten und Erwartungen. Das liegt zunächst einfach daran, dass LLMs typischerweise nichts lernen (ihren inneren Zustand ändern), wenn man sie benutzt. Sie berechnen lediglich Wahrscheinlichkeiten für Wortfolgen. LLMs lernen nur, während sie trainiert werden – ein Vorgang, der vor der Nutzung stattfindet –, und dann tritt die Nutzerin in Kontakt mit dem fertig trainierten, weitgehend statischen LLM. Erwartungen oder Absichten aber können nur Systeme hegen, deren eigener Zustand sich durch ihr Tun verändern kann.

Im Gegensatz dazu ändern sich bewusstseinsfähige Lebewesen andauernd. Bei Lebewesen gibt es auch keine strikte Trennung zwischen Hardware und Software. Was wir tun und denken, beeinflusst direkt unsere »Hardware«, ob und wie wir atmen, essen, schlafen, Angst haben, uns freuen, einander küssen oder Mut zusprechen; wie auch immer wir unsere Erwartungsmatrix speisen und mit Details versorgen: Alles hat stoffliche Veränderungen in uns zur Folge und eine Umorganisation unserer Bestandteile. Deswegen bedeutet unser Tun etwas. Aus dieser bis ins Molekül reichenden Verbindung mit der Welt kommt Bedeutung ursprünglich her. Nicht aber für ein LLM. Und noch weniger für den Computer, der es berechnet. Seine Hardware bleibt stets dieselbe. Er ist stabil und wesentlich unbetroffen von allem, was er rechnet und »tut«.

Daraus erhellt, warum eine Software wie Chat-GPT, zumindest in der Ansicht, dernach Bewusstsein aktive Teilnahme an der Welt bedeutet, kein Bewusstsein haben kann. Die Welt ist für einen Computer, auf dem eine LLM-Software läuft, weitgehend bedeutungslos. Ein »inneres Erleben« setzt ein bedeutungsvolles Sein in einer bedeutungsvollen Welt voraus. Ein LLM operiert zwar mit Sprache, aber Sprache ist – entgegen einem weit verbreiteten Irrtum – nicht der ursprüngliche Träger von Bedeutung. Sie macht Bedeutung nur kommunizierbar. Bedeutung entsteht durch Leben, durch aktives Tun. Für ein LLM bleiben Wörter Einsen und (vor allem) Nullen.

Friedenspropaganda statt Kriegsspielzeug

Mit dem Winteraktionsabo bieten wir denen ein Einstiegsangebot, die genug haben von der Kriegspropaganda der Mainstreammedien und auf der Suche nach anderen Analysen und Hintergründen sind. Es eignet sich, um sich mit unserer marxistisch-orientierten Blattlinie vertraut zu machen und sich von der Qualität unserer journalistischen Arbeit zu überzeugen. Und mit einem Preis von 25 Euro ist es das ideale Präsent, um liebe Menschen im Umfeld mit 30 Tagen Friedenspropaganda zu beschenken.

links & bündig gegen rechte Bünde

Jetzt den kostenlosen jW-Newsletter abonnieren – täglich das Beste aus der Tageszeitung junge Welt, direkt in Ihr Postfach. Ihre E-Mail-Adresse wird natürlich niemals an Dritte weitergegeben.

Mehr aus: Natur & Wissenschaft