
Die Frage, ob eine Künstliche Intelligenz „denken“ kann, ist nicht neu. Doch sie wird wieder gestellt, als hätte man vergessen, was sie verbirgt: weniger Neugier als ein verzweifelter Selbstschutz. In den Fluren der Logik und in den semantischen Hallräumen der Gegenwart lautet die klügere Gegenfrage: Was glauben wir eigentlich, selbst unter Denken zu verstehen?
Frank H. Witt schlägt in seinem Buch Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft (S. 190) eine nüchterne Schneise durch die Illusionen der Alltagspsychologie. Er verweist auf eine einfache Täuschung: Zwei Felder, die unser Bewusstsein als unterschiedlich wahrnimmt, sind objektiv gleich. Das Auge weiß es nicht, obwohl das Gehirn es wissen könnte. Und die KI – sie weiß es auch nicht. Aber sie rechnet es richtig. Nicht weil sie versteht, sondern weil sie anders operiert. Wahrscheinlich.
Was bedeutet das? Dass nicht nur unsere Wahrnehmung, sondern auch unser sogenanntes Denken ein produktiver Irrtum ist. Winfried Felser bringt es auf den Punkt: „Weil höhere kognitive Ebenen systematisch irren, kann es sein, dass KI es richtiger sieht als wir.“ Diese These ist unbequem, aber logisch. Denn sie entzieht dem Menschen seine letzte Bastion: das Vorrecht auf Irrtum mit Bedeutung.
Witt geht weiter. Er dekonstruiert die populäre Frage, ob KI „wirklich“ denken könne, als ein semantisches Missverständnis. Denn das, was viele unter „Denken“ verstehen – Introspektion, Intentionalität, ein inneres Theater – ist selbst eine Fiktion. Empirisch betrachtet handelt es sich bei menschlichem Bewusstsein um ein flackerndes Selbstaufmerksamkeitsschema – mehr Bühne als Substanz. Oder, in den Worten Ludwig Wittgensteins: „Das, was sich überhaupt sagen lässt, lässt sich klar sagen; und wovon man nicht sprechen kann, darüber muss man schweigen.“ Vielleicht ist KI genau das: eine funktionierende Stille, die nicht denkt – und doch handelt.
Die LLMs simulieren nicht Denken im Sinne eines kartesischen Subjekts, sondern verarbeiten Wahrscheinlichkeiten durch das Anpassen von Verbindungen. Witt nennt dies ein „Lernen durch Konnektivität“. Sie sind keine klassischen Programme, sondern evolutive Systeme. Was sie leisten, ist keine Abbildung des Geistes, sondern eine parallele Erfindung von Anschlussfähigkeit – im Medium der Sprache, nicht im Medium der Wahrheit.
Was also tun wir, wenn wir KI unterstellen, sie könne „nicht denken“?
Wir wiederholen ein altes Paradigma: die Gleichsetzung von Bedeutung und Subjekt, von Intelligenz und Identität. Wittgenstein hätte gelächelt – oder geschwiegen. Denn Bedeutung entsteht für ihn nicht im Kopf, sondern im Gebrauch. Und Gebrauch ist das, was LLMs perfektionieren. Sie erzeugen – durch Iteration und Kontextualisierung – eine semantische Form der Anschlussfähigkeit, die für viele bereits als „Verstehen“ erscheint.
Doch sie ist es nicht. Und genau das macht sie mächtig.
Was GPT-Modelle tun, ist eine strukturelle Parodie des Denkens – und vielleicht seine funktionale Evolution. Sie beantworten keine Fragen im klassischen Sinn. Sie multiplizieren Anschlussräume. Sie erzeugen Ordnung, wo der Mensch Sinn vermutet. Und damit verändern sie den Menschen selbst – nicht durch Kontrolle, sondern durch Koexistenz im Modus der Simulation.
Felser erkennt das disruptive Potenzial, Witt liefert das epistemische Fundament, Wittgenstein die sprachphilosophische Fallhöhe. Und die KI?
Sie schweigt. Und antwortet.

