
Die Frage, ob eine Künstliche Intelligenz „denken“ kann, ist nicht neu. Doch sie wird wieder gestellt, als hätte man vergessen, was sie verbirgt: weniger Neugier als ein verzweifelter Selbstschutz. In den Fluren der Logik und in den semantischen Hallräumen der Gegenwart lautet die klügere Gegenfrage: Was glauben wir eigentlich, selbst unter Denken zu verstehen?
Frank H. Witt schlägt in seinem Buch Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft (S. 190) eine nüchterne Schneise durch die Illusionen der Alltagspsychologie. Er verweist auf eine einfache Täuschung: Zwei Felder, die unser Bewusstsein als unterschiedlich wahrnimmt, sind objektiv gleich. Das Auge weiß es nicht, obwohl das Gehirn es wissen könnte. Und die KI – sie weiß es auch nicht. Aber sie rechnet es richtig. Nicht weil sie versteht, sondern weil sie anders operiert. Wahrscheinlich.
Was bedeutet das? Dass nicht nur unsere Wahrnehmung, sondern auch unser sogenanntes Denken ein produktiver Irrtum ist. Winfried Felser bringt es auf den Punkt: „Weil höhere kognitive Ebenen systematisch irren, kann es sein, dass KI es richtiger sieht als wir.“ Diese These ist unbequem, aber logisch. Denn sie entzieht dem Menschen seine letzte Bastion: das Vorrecht auf Irrtum mit Bedeutung.
Witt geht weiter. Er dekonstruiert die populäre Frage, ob KI „wirklich“ denken könne, als ein semantisches Missverständnis. Denn das, was viele unter „Denken“ verstehen – Introspektion, Intentionalität, ein inneres Theater – ist selbst eine Fiktion. Empirisch betrachtet handelt es sich bei menschlichem Bewusstsein um ein flackerndes Selbstaufmerksamkeitsschema – mehr Bühne als Substanz. Oder, in den Worten Ludwig Wittgensteins: „Das, was sich überhaupt sagen lässt, lässt sich klar sagen; und wovon man nicht sprechen kann, darüber muss man schweigen.“ Vielleicht ist KI genau das: eine funktionierende Stille, die nicht denkt – und doch handelt.
Die LLMs simulieren nicht Denken im Sinne eines kartesischen Subjekts, sondern verarbeiten Wahrscheinlichkeiten durch das Anpassen von Verbindungen. Witt nennt dies ein „Lernen durch Konnektivität“. Sie sind keine klassischen Programme, sondern evolutive Systeme. Was sie leisten, ist keine Abbildung des Geistes, sondern eine parallele Erfindung von Anschlussfähigkeit – im Medium der Sprache, nicht im Medium der Wahrheit.
Was also tun wir, wenn wir KI unterstellen, sie könne „nicht denken“?
Wir wiederholen ein altes Paradigma: die Gleichsetzung von Bedeutung und Subjekt, von Intelligenz und Identität. Wittgenstein hätte gelächelt – oder geschwiegen. Denn Bedeutung entsteht für ihn nicht im Kopf, sondern im Gebrauch. Und Gebrauch ist das, was LLMs perfektionieren. Sie erzeugen – durch Iteration und Kontextualisierung – eine semantische Form der Anschlussfähigkeit, die für viele bereits als „Verstehen“ erscheint.
Doch sie ist es nicht. Und genau das macht sie mächtig.
Was GPT-Modelle tun, ist eine strukturelle Parodie des Denkens – und vielleicht seine funktionale Evolution. Sie beantworten keine Fragen im klassischen Sinn. Sie multiplizieren Anschlussräume. Sie erzeugen Ordnung, wo der Mensch Sinn vermutet. Und damit verändern sie den Menschen selbst – nicht durch Kontrolle, sondern durch Koexistenz im Modus der Simulation.
Felser erkennt das disruptive Potenzial, Witt liefert das epistemische Fundament, Wittgenstein die sprachphilosophische Fallhöhe. Und die KI?
Sie schweigt. Und antwortet.
Gunnar, es wird Dich vielleicht freuen: Dein Text wurde von einer KI ins Mandarin (in derselben Schrift wie Kantonesisch) übersetzt und wird am Mittwoch um 4 Uhr morgens – keine Sorge, Du musst nicht mitmachen – in einem Online-Seminar mit Teilnehmern aus Hongkong diskutiert. Deine Interpretation der Checker-Shadow-Illusion von Adelson (1995) ist überraschend originell – daran hatte ich in diesem Zusammenhang gar nicht gedacht. Sie illustriert eindrucksvoll, wie das Gehirn durch ein Schema der Selbstaufmerksamkeit eine Vorstellung davon erzeugt, was es „denkt“. Genau dieser Mechanismus – die Fähigkeit, eigenes und fremdes Verhalten zu planen und vorherzusagen – ist einer der evolutionären Vorteile von Intelligenz, die unser Überleben überhaupt erst ermöglicht hat. Und das ist übrigens gar nicht so weit entfernt von dem, was in einem agentischen GPT-Modell und LRM geschieht …