
Von einem, der wusste, was er tat: Während sich in deutschen Verwaltungen, mittelständischen Unternehmen, Schulen und Gesundheitseinrichtungen eine bizarr technoide Scheindebatte über „KI“ ausbreitet – zwischen Toolbegeisterung, Strategieberuhigung und semantischer Simulation von Fortschritt –, verweist der Theoretiker Frank H. Witt auf einen, der schon in den 1980er-Jahren ahnte, worauf es wirklich ankommt: Terry Sejnowski, Neurobiologe, Physiker, Kognitionsforscher – und einer der Väter des Deep Learning.
„Was man nicht versteht, kann man nicht sinnvoll anwenden“, schreibt Witt. Und weiter: „Veränderungen sind nur in homöopathischen Dosen erlaubt – als Alibi, nicht als Strategie.“ Der Verweis auf Sejnowski ist dabei kein beliebiger Literaturtipp, sondern ein intellektuelles Signal: Wer über Künstliche Intelligenz reden will, muss verstehen, wie sie lernt. Und was Lernen bedeutet. Genau hier liegt Sejnowskis epochale Bedeutung.
Biologische Intelligenz als Inspirationsquelle
Sejnowskis grundlegende Einsicht beginnt mit einem Perspektivwechsel: Intelligenz entsteht nicht durch Programmierung, sondern durch Plastizität. Wie ein Vogel in der Thermik lernen neuronale Netze nicht durch Regelvorgabe, sondern durch Feedback. In seinem berühmten Beispiel stattete Sejnowski mit seinem Team ein Segelflugzeug mit Sensoren und einer lernenden Steuerung aus. Das Ziel: Steigflüge ohne menschliche Kontrolle – nur durch Erfahrung. Der Algorithmus lernte nicht durch explizite Regeln, sondern durch Reinforcement Learning – Versuch und Irrtum, Auswertung, Anpassung.
Diese Architektur des Lernens ist fundamental inkompatibel mit vielen sozialen Systemen, deren strukturelle Trägheit durch Regeln, Hierarchien und Misstrauen gegen Abweichung stabilisiert wird. Wenn Sejnowski von „synaptischer Plastizität“ spricht, also der Fähigkeit von Verbindungen, ihre Gewichtung je nach Erfahrung zu ändern, dann zeigt sich in Witts Verwaltungskritik deren exakte Negation: Keine Plastizität. Keine Rückkopplung. Keine Generalisierung.
Von Rosenblatt bis GPT: Die historische Tiefenschärfe
Sejnowski rekonstruiert im Detail den Weg vom simplen Perzeptron Frank Rosenblatts (1959) über Boltzmann-Maschinen bis zur Backpropagation – dem Durchbruch von Hinton, Rumelhart und ihm selbst. Entscheidend ist für ihn dabei nie die Mode, sondern die mathematische Tiefe: Systeme lernen nur, wenn sie auf Strukturen operieren können, die veränderlich und komplex genug sind, um Erfahrung in Verhalten zu überführen.
Diese historische Tiefenschärfe fehlt oft im gegenwärtigen Diskurs – nicht nur auf Social Media, sondern auch in politischen Gremien, Strategiepapiere eingeschlossen. KI wird dort gerne als magisches Tool vorgestellt: Man stecke Daten hinein, heraus kommt Innovation. Sejnowski hingegen zeigt, dass jeder Fortschritt auf zahllosen Fehlversuchen, Rechenzyklen und Datenexzessen basiert – in einer Art und Weise, die mit bürokratischer Ordnungsliebe unvereinbar ist.
Lernen durch Verwerfen – und warum das nicht vorgesehen ist
„KI ist keine Technologie, sondern ein epistemisches Prinzip“, ließe sich Sejnowskis Arbeit paraphrasieren. Wer etwa seine Ausführungen zur Diagnose von Hautkrebs hört – über Algorithmen, die aus 130.000 Bildern lernen, gefährliche von harmlosen Läsionen zu unterscheiden –, begreift schnell, worum es ihm geht: Verallgemeinerung durch Erfahrung. Die besten Ergebnisse erzielt nicht der Mensch oder die Maschine allein, sondern ihre Kombination: Menschliche Heuristik plus maschinelle Statistik.
Doch gerade dieses Prinzip – Lernen durch kombinierte Perspektiven – wird in vielen Organisationen durch Kontrollzwang und Zuständigkeitsdenken neutralisiert. Witt nennt das eine „liberale Fiktion“, in der jeder im Rahmen seiner Interessen agiere und dennoch der Fortschritt für alle garantiert sei. Der Begriff der „offenen Gesellschaft“ werde zur hohlen Phrase. KI als kollektives Lernsystem scheitert an genau dieser symbolischen Offenheit bei faktischer Verschlossenheit.
Die Ethik des Lernens: Kein Hype, sondern Wissenschaft
„Nicht für Meinungen. Für Wissenschaft. Für Replikation. Für Erkenntnis.“ So fasst Witt den Wert von Sejnowskis Ansatz zusammen. Tatsächlich ist es der dezidiert anti-spekulative Impuls, der Sejnowski von vielen öffentlichen KI-Debatten abhebt. Seine Warnungen vor Hype, seine Distanz zu anthropomorphisierenden Fantasien von Maschinenintelligenz, seine nüchternen Aussagen über Fehler, Verzerrung und Bias machen deutlich: KI ist keine Wundermaschine. Sie ist ein Spiegel unserer epistemischen Reife.
Gerade deshalb ist Sejnowskis Werk für Witt der entscheidende Referenzpunkt. Nicht nur als Wissenschaft, sondern als Gegenentwurf zu einem Diskurs, der glaubt, mit Buzzwords Strukturverhältnisse überlisten zu können.
Sejnowski lesen heißt lernen, wie Lernen funktioniert
Wenn Frank H. Witt in seinem Kommentar konstatiert, dass sich derzeit selbst „Fachkräfte für Dies und Das“ zu KI-Experten umschulen, dann meint er nicht Elitenverachtung – sondern die Tragödie einer Debatte, die sich selbst nicht mehr ernst nimmt. Terry Sejnowski zeigt, wie tief das Gegenteil reicht: Ein jahrzehntelanger, transdisziplinärer, biologisch informierter Erkenntnisweg, der neuronale Intelligenz mathematisiert und zugleich entmystifiziert.
Wer wirklich wissen will, warum KI scheitert – oder besser: nicht wirkt – in Schulen, Behörden und Organisationen, der sollte weniger über ChatGPT sprechen und mehr über synaptische Plastizität lesen. Sejnowskis Arbeit liefert die Theorie, Witt die Diagnose. Was fehlt, ist die Bereitschaft zur strukturellen Konsequenz.
Vielen Dank für die wertvollen Insights!
Mir fällt auch immer wieder auf, dass KI im öffentlichen Diskurs oft nur als Buzzword verwendet wird – vielleicht auch, um eigene Unsicherheiten oder Unwissenheit zu kaschieren. Die eigentlichen Entscheider über den Einsatz solcher Systeme sind häufig fachfremd, meist Juristen, BWLer oder Verwaltungsleute, was die Diskussion und die Umsetzung nicht gerade erleichtert.
Selbst viele Ingenieure sind mit dem Thema überfordert, weil selten sauber zwischen KI, klassischen Algorithmen, Trainingsdaten, Bias oder neuronalen Netzen unterschieden wird. Die Möglichkeiten klingen zwar beeindruckend und verlockend, aber gerade im Hinblick auf Risiken wie Halluzinationen oder „Lügen“ von KI-Systemen braucht es dringend mehr Aufklärung und kritisches Hinterfragen.
Ihr Artikel bringt das sehr gut auf den Punkt – vielen Dank dafür!
Du triffst genau den wunden Punkt: KI wird im öffentlichen Diskurs oft als Buzzword benutzt – ein semantischer Schutzschild, hinter dem sich Unsicherheit, Halbwissen oder schlichtes Desinteresse verschanzen. Und weil viele Entscheider fachfremd sind – Juristen, BWLer, Verwaltungsprofis – bleibt die Diskussion meistens auf Tool-Ebene hängen, während die eigentlichen Strukturfragen außen vor bleiben.
Selbst unter Ingenieuren merke ich immer wieder: Da wird munter zwischen Statistik, Logik, Machine Learning und neuronalen Netzen hin- und hergewechselt, als sei das alles dasselbe. Das Ergebnis: viele Missverständnisse, viele falsche Versprechen – und noch mehr Mythen.
Du sprichst auch ein wichtiges Risiko an: Halluzinationen, also das plausible, aber faktisch falsche Gerede der Systeme, wird oft als technisches „Problem“ verhandelt – dabei ist es ein Erkenntnisproblem. Wer nicht versteht, wie Wahrscheinlichkeiten über Sprache gelegt werden, glaubt schnell an Wahrheit, wo nur Muster sind.
In diesem Sinne: Ja, es braucht dringend mehr Aufklärung – aber nicht die plakativen „KI erklärt in 90 Sekunden“-Dinger, sondern echte Denkarbeit. Und genau dafür brauchen wir mehr solcher Gespräche wie dieses hier. Danke Dir!