Über den diskreten Charme literarischer Ranglisten #SignaturenMagazin

Es gehört zu den kleinen Zumutungen des digitalen Zeitalters, dass es selbst dort zu zählen beginnt, wo man früher noch unterschied. Auch die Literatur bleibt von diesem Hang zur Numerisierung nicht verschont. Was gelesen wurde, wird geklickt; was geklickt wurde, wird gelistet; und was gelistet ist, darf sich, für einen flüchtigen Augenblick jedenfalls, des Anscheins erfreuen, es habe damit schon etwas wie Geltung erlangt. Man sollte darüber nicht allzu entrüstet sein. Denn selbst dort, wo Zahlen den Ton angeben, verraten sie bisweilen mehr, als ihnen lieb sein kann.

Die Charts 2025 des Signaturen Magazins lese ich daher weder als Triumphregister noch als demokratisierte Form des Jüngsten Gerichts, sondern als eine jener aufschlussreichen Nebenerscheinungen literarischer Öffentlichkeit, in denen sich, halb zufällig und halb doch mit innerer Folgerichtigkeit, die Temperatur eines Jahres anzeigt. Fünf meiner Beiträge finden sich in den vorderen Rängen. Das schmeichelt dem Autor, ohne ihn ernsthaft zu verderben. Interessanter als die Platzierung ist ohnehin die Nachbarschaft der Texte untereinander. Denn sie bilden, wenn ich es recht sehe, weniger eine Serie als ein Kaleidoskop: eine literarische Reise durch Denkformen, Tonlagen, Abschiede, Komik, Poesie und jene eigentümlichen Begegnungen, aus denen sich ein Lesejahr erst zusammensetzt.

Von der selten gewordenen Kunst, zu urteilen

Am Anfang stand Herbert Anton. Genauer: ein Abend zu seinen Ehren, in dessen Verlauf sich einmal mehr bestätigte, dass literarische Erinnerung dann am lebendigsten ist, wenn sie nicht den Fehler begeht, sich bloß ehrfürchtig zu verhalten. „Die Urteilskraft der Dichtung“ lautete der Titel meines Beitrags, und er meinte, gegen alle Gewohnheiten des routinierten Kulturbetriebs, tatsächlich genau das, was er sagte. Es ging nicht um den dekorativen Nachvollzug einer akademischen Biographie, nicht um den gepflegten Nachruf mit Bildungsfirnis, sondern um die Rückkehr einer Haltung, die inzwischen beinahe altertümlich wirkt: der Fähigkeit nämlich, Literatur ernst zu nehmen, ohne sie zu sakralisieren, und über sie nachzudenken, ohne sie in methodischen Spezialzonen verschwinden zu lassen.

Herbert Anton erschien an diesem Abend nicht als Denkmal, das man mit den üblichen Kränzen versieht und dann der institutionellen Ewigkeit überlässt, sondern als gegenwärtige Figur eines Denkens, das auf Unterscheidung beharrt. Das ist in Zeiten, in denen vieles Meinung heißt und nur weniges Urteil ist, keine Nebensächlichkeit. Literatur war hier nicht Ornament, nicht Seminarfolklore, nicht der gehobene Restbestand einer besseren Vergangenheit, sondern Erfahrungsraum, Widerlager, Schule der Freiheit. Man darf solche Abende, die weder geschniegelt noch gefällig daherkommen, mit einem gewissen Recht Glücksfälle nennen. Sie erinnern daran, dass Urteilskraft keine Strengepose ist, sondern die zivilisierte Form geistiger Beweglichkeit.

Von Raumforderungen äußerer und innerer Art

Ganz anderer Art, wenn auch nicht geringer an Eindringlichkeit, war die Begegnung mit Willi Achten und seinem Roman „Die Einmaligkeit des Lebens“. Mein Text über diesen Abend kreiste um das Wort „Raumforderung“, jenes klinisch trockene und gerade deshalb so beunruhigende Wort, das im medizinischen Vokabular eine Diagnose tarnt und doch längst eine Metapher auf Vorrat bereithält. Denn plötzlich stand es doppelt im Raum: als Tumor im Körper und als Verwüstung einer Landschaft, die vom Tagebau in Besitz genommen wird. Der Leib und das Land, die Krankheit und der Verlust, das Innere und das Äußere begannen, einander in einer Weise zu spiegeln, die man, wäre sie nicht so genau beobachtet, fast schon für zu kunstvoll halten könnte.

Achtens Roman hat mich gerade deshalb so beschäftigt, weil er sich jeder billigen Verstärkung verweigert. Er macht aus Abschied kein Spektakel und aus Vergänglichkeit keinen sentimentalen Großverbrauch. Was ihn trägt, ist jene seltene literarische Souveränität, die weiß, dass das Schwere umso mehr Gewicht bekommt, je weniger man daran zerrt. Die Brüder Simon und Vinzenz, das Dorf, dessen Zukunft unter Abbruchvorbehalt steht, Martha mit ihrer stillen Präsenz: Das alles ist nicht auf Effekte angelegt, sondern auf Genauigkeit. Man liest oder hört davon und begreift, dass Literatur dort ihre stärkste Form gewinnt, wo sie das Unabwendbare nicht dramatisiert, sondern ihm eine Gestalt gibt. Das ist mehr als Erzählkunst; es ist, im besten Sinne, eine Form der Disziplin des Gefühls.

Jenseits der Sprachglätte

Mit Wolfgang Schiffer verschob sich das Bild erneut. Der Beitrag „Jenseits der Sprache“ war mein Versuch, Poesie und Übersetzung aus jener höflichen Randständigkeit zu befreien, in die der Betrieb sie so gern abschiebt, wenn er sich seiner eigenen Betriebsamkeit nicht gerade allzu deutlich schämen möchte. Wir leben, wie man weiß und täglich besichtigt, in einer Epoche der permanenten Kommunikation, was nicht ausschließt, dass das Gesagte dabei zunehmend an Kontur verliert. Es wird formuliert, aber selten gedacht; es wird gesendet, aber wenig gesagt; und wo Sprache einmal Widerstand leisten könnte, wird sie meist schon im Vorfeld zu Anschlussfähigkeit erzogen.

Schiffer interessierte mich, weil er sich dieser Glättung entzieht, ohne daraus einen Kult des Hermetischen zu machen. Er weiß, was Sprache kann, und vielleicht noch genauer, was sie nicht kann. Eben darin liegt ihre Würde. Übersetzung erschien mir in diesem Zusammenhang nicht als mustergültige Überführung eines Sinnbestands von hier nach dort, sondern als riskante Annäherung, als Arbeit an Brüchen, Verlusten, Verschiebungen. Man gewinnt nicht, ohne zu verlieren; und bisweilen ist es gerade der Verlust, der den Blick schärft. Das ist, mit Verlaub, mehr als Kulturvermittlung. Es ist ein Einspruch gegen die freundliche Verarmung, mit der sich unsere Gegenwart so oft zufrieden gibt.

Poesie, das wurde mir an diesem Abend erneut klar, ist kein hübsches Nebengewerbe des Geistes, sondern die Störung seiner Bequemlichkeit. Sie verlangsamt, wo alles beschleunigt; sie verdunkelt, wo alles sofort verständlich zu sein hat; sie widerspricht dem stillschweigenden Vertrag der Gegenwart, wonach nur gelten soll, was sich umstandslos verwerten lässt. Eben deshalb bleibt sie notwendig, auch — oder vielleicht gerade — wenn man ihr dies kaum noch anmerkt.

Wenn der Irrsinn Verwaltungssprache annimmt

Nun wäre es unerquicklich, wollte man ein literarisches Jahr ausschließlich in ernsten Tonarten bilanzieren. Denn zur Wahrheit der Literatur gehört bekanntlich auch ihre Fähigkeit, die Welt mit dem Mittel des Lachens zu entlarven. Thomas Frankes gläserner Aufzug in die Hölle war in diesem Sinne eine höchst willkommene Erinnerung daran, dass Satire keine leichtere Gattung ist, sondern die heiterere Schwester der Erkenntnis.

Was mich an diesem Text und dem dazugehörigen Abend so amüsierte wie beunruhigte, war die frappierende Gegenwärtigkeit des Absurden. Die Welt von Ilf und Petrow, von Franke in ein heutiges Licht gerückt, wirkte keineswegs wie ein ferner sowjetischer Sonderfall, den man mit historischer Gelassenheit betrachten dürfte. Im Gegenteil: Sie kam einem stellenweise verdächtig bekannt vor. Unfallrenten als Geschäftsmodell, Wunderquellen aus geplatzten Rohren, moralisch geschniegelt auftretende Geschäftigkeit, Prestigeprojekte mit eingebauter Bruchlandung — das alles besitzt, sobald man den Staub der Zeiten ein wenig abklopft, eine erstaunliche Nähe zur bundesrepublikanischen Normalität. Kolokolamsk, so stellte sich heraus, liegt nicht am Ende der Welt, sondern mitunter gleich hinter dem nächsten Verwaltungsflur.

Gerade darin liegt die hohe Kunst der Satire: Sie erlaubt dem Leser das Lachen und entreißt ihm zugleich die Unschuld. Man amüsiert sich, gewiss; aber man amüsiert sich auf eigene Kosten. Das ist angenehmer, als es klingt, und nützlicher noch dazu.

Über die merkwürdige Zähigkeit der Lyrik

Vielleicht am nachhaltigsten beschäftigt hat mich in diesem Jahr der Abend mit Michael Krüger. Mein Text über die „verschwundene Lyrik“ ging von einem durchaus hübschen Paradox aus: Eine Gattung, deren öffentliche Sichtbarkeit seit Jahren mit routinierter Grabesstimme beklagt wird, vermag es immer noch, eine Buchhandlung bis auf den letzten Platz zu füllen. Das ist mindestens unerquicklich für die Untergangsverwalter und erfreulich für alle, die Gedichten noch mehr zutrauen als dekorative Randexistenz.

Krüger sprach nicht als kulturpessimistischer Hohepriester des Verlorenen, sondern als einer, der lange genug im Literaturbetrieb gelebt hat, um dessen Eitelkeiten, Amnesien und Ausschlussmechanismen ohne jede Illusion zu kennen. Vielleicht war gerade das der Grundton des Abends: keine Klage, sondern Nüchternheit; keine Pose, sondern Erfahrung. Es ging um Dichter am Rand, um Namen wie Günter Bruno Fuchs, Wolfgang Bächler oder Oskar Pastior, um Biographien, denen das Zentrum des Betriebs bestenfalls noch pflichtschuldig zunickt, sofern es sie nicht längst vergessen hat.

Und doch ist es ja gerade diese Randständigkeit, in der die Lyrik ihre eigentümliche Überlebenskunst entfaltet. Sie verschwindet nicht; sie zieht sich zurück. Sie wechselt nur den Aufenthaltsort: aus den großen Sichtbarkeitsmaschinen in Buchhandlungen, in kleine Kreise, in beharrliche Leserschaften, in jene Köpfe, die auf das Urteil des Marktes aus Gründen geistiger Hygiene nur begrenzt Wert legen. Dass eine solche Gattung immer wieder totgesagt wird, gehört beinahe schon zu ihren traditionellen Lebenszeichen.

Kein Programm, sondern eine Bewegungsfigur

Wenn ich diese fünf Beiträge heute nebeneinander sehe, dann erkenne ich darin weniger ein geplantes Vorhaben als eine Bewegungsfigur des Lesens. Da ist Herbert Anton und mit ihm die Frage nach der Urteilskraft; da ist Willi Achten und die Zumutung des Abschieds; da ist Wolfgang Schiffer und der Widerstand gegen die Glätte der Sprache; da ist Thomas Franke und die rettende Schärfe des Komischen; da ist Michael Krüger und die stille, beinahe störrische Beharrlichkeit der Lyrik. Das ist kein Programm im engeren Sinn, und Gott sei Dank keines. Programme altern rasch. Tonlagen, wenn sie gut gewählt sind, halten länger.

Vielleicht erklärt gerade das die Resonanz dieser Texte. Sie wollten nicht gefallen, jedenfalls nicht vorrangig. Sie wollten etwas sichtbar machen: Denkstile, Gefährdungen, Verluste, Gegenkräfte. Abenteuerlich waren diese Entdeckungen nur für jene, die unter Abenteuer ausschließlich äußere Bewegung verstehen. In Wahrheit sind die besten literarischen Expeditionen bekanntlich jene, die in eine Sprache, eine Haltung, ein Bewusstsein führen. Und großartige Begegnungen sind es dann, wenn man aus ihnen nicht bloß mit einer Notiz, sondern mit einer Verschiebung des eigenen Blicks hervorgeht.

Gute Gesellschaft, wie man sagt

Dass ich mich mit diesen Beiträgen unter den Top Ten in Gesellschaft von Kafka, Shakespeare, Enzensberger und Morgenstern wiederfinde, ist, ich räume es ohne falsche Bescheidenheit ein, eine charmante Konstellation. Zugleich ist es eine, die die Proportionen sogleich wiederherstellt. Denn wer neben Kafka rangiert, gewinnt vielleicht eine hübsche Zeile für die eigene Eitelkeit, aber gewiss keinen Anlass zur Verwechslung. Franz Kafka mit dem Steuermann, Shakespeare mit den Sonetten, Enzensberger mit dem Lesebuch für die Oberstufe, Morgenstern mit dem Knie — das ist keine Gesellschaft, in der man sich breitmachen sollte. Es ist vielmehr eine, in der man sich mit Vergnügen etwas gerader hinsetzt.

Und vielleicht liegt gerade darin der eigentliche Charme solcher Listen: dass sie, für einen kurzen Moment, Gegenwart und Überlieferung auf derselben Seite zusammenführen, ohne deshalb ihre Unterschiede zu verwischen. Die Literatur kennt, anders als der Betrieb, keine peinliche Hierarchie des Tagesaktuellen. Sie lebt von Gleichzeitigkeit. Das Vergangene spricht ins Gegenwärtige hinein, und das Gegenwärtige darf, im Glücksfall, antworten.

Was am Ende bleibt

Man muss literarische Charts nicht überschätzen, um ihren diskreten Mitteilungswert zu erkennen. Sie zeigen, dass es noch Leser gibt, die sich nicht mit der flottesten Oberfläche zufriedengeben. Leser, die sich auf einen Abend über Herbert Anton einlassen, auf Abschiedsräume bei Willi Achten, auf sprachskeptische Präzision mit Wolfgang Schiffer, auf das satirische Furioso eines gläsernen Aufzugs und auf Michael Krügers melancholisch nüchternen Blick auf die Lyrik. Das ist, in Zeiten allseitiger Beschleunigung, alles andere als selbstverständlich.

Vielleicht ist das die freundlichste und zugleich genaueste Deutung dieser Liste: Sie dokumentiert nicht den Sieg des Klicks, sondern die fortdauernde Möglichkeit der Auswahl. Und das heißt eben auch: der Urteilskraft.

So gesehen, hat diese kleine Rangliste etwas Tröstliches. Nicht weil sie Zahlen produziert, sondern weil sie erkennen lässt, dass Literatur auch 2025 noch gefunden werden kann — als Reise, als Kaleidoskop, als Gespräch, als Zumutung, als Heiterkeit, als Form geistiger Anwesenheit in einer Welt, die sich ihrer eigenen Zerstreuung sonst nur allzu bereitwillig überlässt.

Wenn der Staat im Buchladen Gesinnung schnüffelt

Und vielleicht wäre damit auch der unerquicklichste Befund dieses Literaturjahres benannt: dass ausgerechnet ein Kulturstaatsminister meint, Buchhandlungen nach politischer Zuträglichkeit sortieren zu dürfen, drei von einer Fachjury nominierte Läden unter Berufung auf nicht öffentlich gemachte „verfassungsschutzrelevante Erkenntnisse“ von der Preisliste nimmt und, als der Widerspruch daraufhin nicht wie gewünscht verstummt, gleich auch noch die Preisverleihung absagt. Das verrät ein bemerkenswert kleinkariertes Verständnis von Büchern, Buchhandlungen und überhaupt von Kultur: als sei Literatur ein behördlich zu beaufsichtigender Gesinnungsraum und nicht jenes widerspenstige, offene, oft anstrengende Gespräch, das gerade in unabhängigen Buchhandlungen seine lebendigste Form findet. Wer Buchhandlungen nicht als Orte der geistigen Entfaltung, des Dissenses und der Zumutung begreift, sondern vor allem als potenzielle Fälle administrativer Misshelligkeit, hat vom Eigenleben der Literatur offenbar weniger verstanden, als in einem Ministeramt für Kultur unerquicklich sichtbar werden sollte.

Paul Feyerabend: Was die privaten Tonaufnahmen von 1984 bis 1993 über den berühmtesten Unruhestifter der Wissenschaftsphilosophie verraten

Von Paul Feyerabend ist viel Lärm im Umlauf. Der Name ruft sofort die bekannten Reizwörter auf: Wissenschaftsanarchismus, Methodenfeindschaft, „Anything goes“, Angriff auf den Szientismus. Das sitzt fest, so fest, dass man darüber leicht übersieht, was für ein Ton in diesem Denken eigentlich herrschte. Denn Feyerabend war nie bloß ein Sprengmeister der Methode. Er war, tiefer und eigensinniger, ein Mann des Hörens: der Stimme, des Rhythmus, der Szene, des Auftritts, des Abgangs, der dramatischen Pause. Erst die privaten Aufnahmen aus den Jahren 1984 bis 1993 lassen das mit aller Deutlichkeit hervortreten.

Diese unter dem Titel Private Recordings 1984–1993 veröffentlichten Bänder sind ein Sonderfall. Das Material, so heißt es in der editorischen Vorbemerkung von Grazia Borrini-Feyerabend, stammt aus persönlichen Kassetten, die Paul Feyerabend ihr schickte; sie waren nie für Veröffentlichung oder fremde Ohren bestimmt. Gerade das macht ihren Rang aus. Hier spricht keiner für das Seminar, das Podium, die Zunft. Hier spricht einer für einen einzelnen Menschen. Kein Manuskript knistert dazwischen. Keine akademische Kulisse schützt den Satz. Die Stimme läuft frei, springt, stockt, beschleunigt, macht Umwege, verliert sich mit Lust im Detail und trifft gerade deshalb ins Zentrum.

Wer nur den öffentlichen Feyerabend kennt, trifft hier auf sein Gegenbild: nicht den Mann mit der intellektuellen Abrissbirne, sondern einen Erzähler von stupender Anschaulichkeit; nicht den Feind der Wissenschaft, als den ihn schlichte Gemüter gern archiviert haben, sondern einen Liebhaber von Formen, Gesten und Temperamenten; nicht den kalten Relativisten, sondern einen Redner mit Wärme, Witz und einer beinahe altmodischen Fähigkeit zur Bewunderung.

Philosophie ohne Hörsaalton

Die eigentliche Sensation dieser Aufnahmen liegt im Registerwechsel. Feyerabend doziert nicht, er erzählt und singt. Und im Erzählen verwandelt sich auch seine Philosophie. Sie kommt herunter vom Katheder, zieht die Schuhe aus, setzt sich an den Küchentisch und fängt an, von Verdi, Shakespeare, Fritz Lang, Schrödinger, Xenophanes, Paul Robeson und Joe Louis zu sprechen, als gehörten sie alle in dasselbe große, etwas unordentliche, aber hochlebendige Zimmer des Geistes.

Das ist keine beiläufige Bildungsgeste. Hier tritt ein Zug hervor, der in der Fachszene oft unterbelichtet bleibt: Feyerabends Denken war nie nur erkenntniskritisch, es war immer auch physiognomisch. Ihn interessierten nicht bloß Theorien, sondern Temperamente; nicht bloß Wahrheitsansprüche, sondern die Lebensformen, in denen sie auftreten. Man könnte auch sagen: Er dachte weniger wie ein Buchhalter der Begriffe als wie ein Regisseur der Perspektiven.

Darum gewinnen auf diesen Bändern Nebensachen plötzlich Gewicht. Die Art, wie eine Szene gespielt wird. Der Ausdruck in einem Gesicht. Der Unterschied zwischen Gesang und Geste. Das Misstrauen gegen jede Darstellung, die den Menschen glättet. In der akademischen Philosophie wird der Mensch meist geschniegelt hereingebeten: als rationales Wesen, als Sprecher von Sätzen, als Träger von Gründen. Feyerabend bringt ihn zerzaust zurück.

Falstaff, oder: Gegen die geschniegelt Menschheit

Besonders schön lässt sich das an seinen Ausführungen zu Verdis Falstaff hören. Da spricht kein Opernliebhaber im Nebenberuf, der ein wenig Kulturglanz über philosophische Materie streuen möchte. Da spricht einer, der an einer komischen Figur anthropologische Wahrheit entdeckt. Falstaff ist für ihn nicht bloß ein dicker Intrigant mit Restcharme. Er ist eine menschliche Grunderfahrung auf zwei Beinen: lächerlich, verwundbar, eitel, hungrig, taktlos, erschütternd lebendig.

Feyerabend erzählt die Geschichte mit sichtlichem Vergnügen, aber das Vergnügen hat eine Klinge. Denn in dieser Figur erscheint etwas, das den großen Allgemeinbegriffen entgeht. Der Mensch ist eben nicht nur Würde und Vernunft, nicht nur Autonomie und Normfähigkeit. Er ist auch Fehltritt, Posse, Selbsttäuschung, Rausch, Aufschneiderei, der Sturz ins nasse Tuch. Gerade im Komischen entdeckt Feyerabend eine Genauigkeit, die vielen moralisch geschniegelt auftretenden Philosophien abgeht. Falstaff wird gedemütigt, doch nicht vernichtet; er wird bloßgestellt, doch nicht ausgelöscht. Das Gelächter ist hier keine Vernichtungsmaschine, sondern eine Erkenntnisform.

Bemerkenswert ist, wie rasch Feyerabend von der Oper zur Gesellschaft überblendet. Aus der Narrenfigur wächst eine harsche Diagnose dessen, was unter „Menschheit“ gewöhnlich firmiert. Das Wort, so legt er nahe, bezeichnet in Wahrheit oft nur einen sehr kleinen, sehr gut beleuchteten Ausschnitt: die westliche, artikulationsstarke, kulturell privilegierte Vorderbühne. Und dann fällt dieser eine Satz aus Brecht, an dem sich Feyerabend hörbar festbeißt: „Und die einen stehen im Dunkel, und die anderen stehen im Licht.“ In seinen Händen wird daraus mehr als ein theatralischer Effekt. Es wird eine Theorie der Sichtbarkeit.

Gegen das Scheinwerferlicht

In diesen privaten Reden zeigt sich ein politischer Impuls, der mit Feyerabends Ruf als bloßem Provokateur kaum zu fassen ist. Sein eigentlicher Gegner ist nicht einfach „die Wissenschaft“, sondern jede Instanz, die aus einem beleuchteten Teilstück das Ganze macht. Das gilt für wissenschaftliche Methoden ebenso wie für kulturelle Repräsentationen, mediale Aufmerksamkeitsökonomien oder moralische Selbstfeiern. Feyerabend misstraut dem Scheinwerfer.

Darin steckt eine feine, heute erstaunlich aktuelle Einsicht. Nicht alles, was sichtbar ist, ist wichtig; und vieles, was wichtig ist, bleibt unsichtbar, weil es nicht auf die Bühne passt. Die Millionen, von denen er spricht – jene, die „smiling, crying, dying, being born“ im Dunkel leben –, sind keine rhetorische Kulisse. Sie markieren die Grenze jeder Rede, die sich selbst zu schnell für universell hält. Feyerabends Pluralismus ist daher nicht nur methodisch. Er ist moralisch. Er verteidigt nicht die Willkür, sondern die Vielheit der Wirklichkeiten gegen die Arroganz des einen Formats.

Schrödinger ohne Denkmal

Von besonderem Wert sind die Passagen über Erwin Schrödinger. Auch hier verrät die private Form mehr als mancher gelehrte Aufsatz. Feyerabend spricht nicht über eine Ikone der Physikgeschichte, sondern über einen Menschen, den er gekannt hat: beim Essen, beim Gehen, im Gespräch. Die Wissenschaftsgeschichte verliert ihr Museumsglas. Schrödinger wird wieder konturiert, störrisch, anständig, unerquicklich in den Augen der Angepassten.

Gerade diese Schilderungen legen eine wenig bekannte Seite Feyerabends frei. Der angebliche Feind der Wissenschaft erweist sich als Bewunderer großer Wissenschaftler – allerdings nur dann, wenn sie mehr sind als Spezialisten. Er schätzt Schrödinger nicht nur wegen der Wellenmechanik, sondern wegen des Muts, unzeitgemäß zu sein; wegen der Weigerung, sich in den Betrieb zu falten; wegen seiner frühen Skepsis gegenüber einer industrialisierten Kernenergie; wegen seiner Überzeugung, dass eine Wissenschaft, die sich der Öffentlichkeit nicht mehr verständlich machen kann, ihr Daseinsrecht verspielt.

Das ist bemerkenswert. Feyerabend, den man gern als Patron der epistemischen Unordnung ablegt, verteidigt hier nichts so sehr wie intellektuellen Charakter. Er lobt den Wissenschaftler nicht für saubere Fachgrenzen, sondern für zivilen Eigensinn. Die Größe der Wissenschaft liegt, so hört man heraus, nicht in ihrer methodischen Reinheit, sondern in der Qualität der Menschen, die sie betreiben.

Oper, Film, Boxkampf: Die große Gegenakademie

Wer diese Bänder hört, stößt auf eine geistige Ordnung, die an den Universitäten kaum noch vorkommt. Verdi steht neben Schrödinger, Fritz Lang neben Xenophanes, Paul Robeson neben der Quantenmechanik, Joe Louis neben der Religionskritik der Vorsokratiker. In einem ordinären Betrieb wäre das Dilettantismusverdacht genug. Bei Feyerabend wirkt es dagegen wie eine Wiederherstellung verlorener Proportionen.

Denn die Trennung der Sphären – hier Wissenschaft, dort Kunst; hier Erkenntnis, dort Darstellung; hier Theorie, dort Biographie – war ihm immer suspekt. Er wusste, dass Menschen nicht in Disziplinen leben. Sie leben in Bildern, Stimmen, Loyalitäten, Affekten, Erinnerungen. Wer das Denken aus all dem herauspräpariert, macht es nicht klarer, sondern ärmer.

Darum ist sein Interesse an Paul Robeson und Joe Louis mehr als eine private Marotte. Feyerabend hört in Robesons Stimme nicht nur künstlerische Größe, sondern einen moralischen Bass: Weltzugewandtheit, Würde, politische Empfindlichkeit. Und er betrachtet Joe Louis nicht nur als Boxer, sondern als Kristallisationsfigur sozialer Energien, als jemand, in dessen Sieg und Niederlage sich weit mehr bündelt als ein sportlicher Ausgang. Diese Aufmerksamkeit für Existenzen außerhalb des akademischen Lichtkreises ist kein ornamentaler Zug. Sie gehört zum innersten Kern seiner Philosophie.

Die Form denkt mit

Vielleicht ist das Unterschätzteste an diesen Aufnahmen überhaupt die Form. Feyerabend spricht oft so, als müsse man eine Sache nicht nur verstehen, sondern im richtigen Rhythmus sagen können. Das gilt für seine Ausführungen zu Verdis Macbeth ebenso wie für seine Bemerkungen über Xenophanes. Immer wieder kehrt der Gedanke zurück, dass Inhalt allein noch nichts ist; dass Tonfall, Tempo, Gestik, ja selbst die richtige Rauheit einer Stimme zum Wahrheitsgehalt gehören.

Hier verrät sich ein Denker, der gegen die Verarmung des wissenschaftlichen Prosaideals anschreibt. Trockene Eindeutigkeit ist nicht sein Ideal. Er bevorzugt eine Sprache, die etwas riskiert: Abschweifung, Überblendung, Szene, Pathos, Ironie. Nicht, weil sie ungenau wäre, sondern weil manche Genauigkeit ohne Bild gar nicht zu haben ist. Feyerabends Denken ist in diesem Sinn zutiefst antiaszetisch. Es hungert nicht nach Reduktion, sondern nach Fülle.

Das erklärt vielleicht auch, warum diese Bänder nicht wie Nachlassware klingen, sondern wie eine späte Selbstentfaltung. Einer, der in der gedruckten Philosophie häufig als Störenfried auftrat, findet in der gesprochenen Form seinen eigentlichen Aggregatzustand. Hier muss er keine Fronten markieren. Hier darf er glänzen, ohne zu posieren.

Ein anderer Feyerabend

Die Private Recordings, herausgegeben von Grazia Borrini-Feyerabend und Klaus Sander, produziert 2001 bei supposé, korrigieren daher ein verfestigtes Bild. Man hört nicht bloß den Autor von Against Method im privaten Modus. Man hört einen anderen Feyerabend. Einen, der erzählt statt zu dekretierten; der staunt statt bloß zu attackieren; der liebt, was er beschreibt. Die editorische Notiz Grazia Borrini-Feyerabends trifft den Kern, wenn sie von seiner Liebe zu Oper, Theater und Kino spricht sowie von seinem Respekt, seiner Anteilnahme, seiner Bewunderung, seinem Staunen gegenüber vielen Menschen. Genau diese Bewegungen sind es, die auf den Bändern den Ton angeben.

Das ist der eigentliche Ertrag: Nicht eine neue These, sondern eine neue Hörbarkeit. Feyerabend erscheint hier als Philosoph der Aufmerksamkeit. Einer, der gegen geistige Monokulturen nicht nur mit Argumenten vorging, sondern mit einer ganzen Lebensform des Wahrnehmens. Er hört genauer, als viele Theoretiker sehen. Und vielleicht liegt eben darin seine bleibende Zumutung für den Wissenschaftsbetrieb: dass Erkenntnis nicht dort am größten ist, wo sie am saubersten abgegrenzt wird, sondern dort, wo sie den Mut hat, sich von der Welt affizieren zu lassen.

Am Ende bleibt von diesen Bändern weniger ein Lehrsatz als eine Stimme. Rauh, sprungbereit, zärtlich im Urteil, boshaft gegen Pomp, plötzlich gerührt, plötzlich komisch, dann wieder von einer fast kindlichen Begeisterung. Eine Stimme, die das Denken aus der Uniform holt. Und gerade deshalb noch immer frisch klingt: nicht wie ein System, sondern wie ein Mensch.

Wenn der Sturm kommt: Warum Corporate Influencing an Organisationen scheitert – und woran es wächst #ZukunftPersonalNord

Überlegungen zu Winfried Ebners These, warum Corporate-Influencer-Initiativen an Organisationen scheitern

Winfried Ebner macht in seiner zweiten Episode „Corporate Influencer Kompakt“ eine Beobachtung, die man in vielen Unternehmen inzwischen fast als Naturgesetz behandeln muss: Corporate Influencing wird zu oft als Plattform- und Contentfrage diskutiert – Profil, Reichweite, Postingplan – und zu selten als Organisationsfrage. Sein Kernargument ist sauber: Sobald Mitarbeitende sichtbar miteinander vernetzt agieren, verändern sich Arbeitsweisen. Informationen zirkulieren schneller, Hierarchien werden durchlässiger, Dialoge werden öffentlicher. Genau deshalb scheitern viele Programme nicht an engagierten Menschen, sondern am Kontext, in dem diese Menschen agieren sollen.

Ebner nennt diesen Kontext den „organisationalen Boden“: Guidelines, rechtliche/technologische Rahmenbedingungen, Schulungen, Rollen und Strukturen, die Community-Arbeit systematisch stützen. Fehlt das, entstehen Freigabeschleifen, Unsicherheit, Reibung, Verantwortungsdiffusion – und die Community verdorrt, bevor sie wurzeln kann.

Das ist richtig. Und es ist erst die halbe Wahrheit.

Denn der eigentliche Stresstest für diesen Boden kommt nicht im Sonnenschein, sondern im Sturm.

Der Boden ist nicht nur Infrastruktur – er ist ein Machtarrangement

Guidelines, Trainings und Rollen sind die sichtbaren Teile. Der unsichtbare Teil ist Governance: Wer darf im Zweifel sprechen? Was passiert bei Fehlern? Wer schützt wen – und wie verbindlich ist dieser Schutz?

Corporate Influencing erzeugt eine zweite Öffentlichkeit innerhalb der Organisation: ein Netzwerk, das schneller ist als die Linie und glaubwürdiger wirkt als die Pressemitteilung. In Schönwetter-Zeiten wird diese Öffentlichkeit gefeiert. In Krisenzeiten wird sie als Risiko empfunden – und dann zeigt sich, ob das Programm Kulturarbeit war oder nur Kommunikationsarbeit.

Wenn man Ebners „Boden“ ökonomisch liest, dann ist das kein „Soft Factor“, sondern ein Produktionsfaktor: Vertrauen als Produktivkapital. Ohne Vertrauen steigen Transaktionskosten: mehr Abstimmung, mehr Kontrolle, mehr Zögern, weniger Initiative. Corporate Influencing ist in diesem Sinn kein Kampagnenformat, sondern eine Investition in Geschwindigkeit und Lernfähigkeit – aber nur, wenn die Organisation die Machtverschiebung, die damit einhergeht, toleriert.

Das Henne-Ei-Problem ist real – aber es wird oft falsch gelöst

Ebner beschreibt das klassische Dilemma: Muss die Organisation kulturell bereit sein, bevor eine Community entsteht? Oder entsteht Veränderung erst durch die Community?

In der Praxis scheitern viele Programme, weil Unternehmen dieses Dilemma mit einem Trick umgehen: Sie tun so, als könnten sie Kultur „kommunizieren“. Dann wird Corporate Influencing als Change-Symbol inszeniert, während die Regeln der alten Welt im Hintergrund unangetastet bleiben: Freigaben, Sanktionsangst, politische Karrierelogik, die Reibung bestraft und Anpassung belohnt.

Eine Community kann Kultur verändern – ja. Aber nur, wenn sie nicht als Ornament behandelt wird, sondern als Organisationsbaustein mit klaren Rechten: Entscheidungskorridore, Eskalationswege, Schutzmechanismen. Sonst entsteht keine „Bewegung“, sondern Zynismus: außen modern, innen vorsichtig.

Kotters duales Betriebssystem – und die harte Kopplung zur Hierarchie

Ebner holt zurecht Kotter ins Spiel: Hierarchie liefert Stabilität, das Beschleunigernetzwerk liefert Dynamik. Corporate-Influencer-Communities bewegen sich genau in diesem Raum – 5–10 % engagierte Freiwillige können spürbare Wirkung erzeugen.

Der Punkt, an dem viele Unternehmen stolpern, ist die Kopplung: Ein Beschleunigernetzwerk darf nicht zum Parallelbetrieb werden, der zwar Stimmung macht, aber keine Wirksamkeit hat. Community braucht Anschlussfähigkeit an die Linie:

Brückenrollen (Community Management, Legal/Comms-Liaison, HR/People Partner) mit Mandat, nicht nur mit „Bitte“.

Klare Entscheidungspfad-Definition: Was ist frei bespielbar? Was ist sensibel? Was ist tabu?

Verbindliche Feedback-Schleifen: Wenn die Community Reibung meldet, muss die Organisation sichtbar reagieren – sonst ist die Beteiligung eine Einbahnstraße.

Ohne diese Kopplung passiert das, was Ebner beschreibt: Energie ist da, Geschichten sind da – aber es entsteht keine lebendige Community. Nicht aus Mangel an Motivation, sondern aus Mangel an Wirksamkeit.

Der Schlechtwetter-Test: Skandal, Stellenabbau, Kontrollwende

Hier liegt der Teil, den viele CI-Diskussionen ausblenden, und der genau in deine Frage zielt: Was passiert bei heiklen Themen?

Skandale & Compliance-Fälle
Dann reicht eine Guideline nicht. Dann braucht es Krisen-Governance: Wer darf wie reagieren, wie schnell, mit welchen Eskalationsregeln? Fehlt das, entstehen zwei schlechte Optionen: „Alles nur nach Freigabe“ (Tod der Authentizität) oder „Jeder macht, was er will“ (Risiko ohne Sicherheitsnetz).

Stellenabbau & Restrukturierung
Hier wird Corporate Influencing zur Glaubwürdigkeitsprüfung. Wenn Mitarbeitende nach außen Kultur und Zukunft verkörpern sollen, während intern Angst und Unklarheit regieren, kollidieren zwei Realitäten. Programme scheitern dann nicht am Content, sondern am psychologischen Vertrag: „Sei authentisch“ ist nicht haltbar, wenn die Organisation im gleichen Moment Authentizität sanktioniert.

Autoritärer Führungsstil / Kontrolle / Überwachung
Das ist die toxischste Wetterlage. Sobald Führung auf Kontrolle und Loyalitätstests umstellt, werden Corporate Influencer entweder eingefroren oder instrumentalisiert. Beides zerstört die Community: Im ersten Fall aus Angst, im zweiten aus Unglaubwürdigkeit.

Wenn Ebner sagt „Corporate Influencing braucht Vertrauen“, dann meint er damit nicht nur Wohlwollen – er meint strukturelle Verlässlichkeit auch dann, wenn Machtfragen im Raum stehen.

Was wäre ein „wetterfestes“ Corporate-Influencer-Programm?

Aus Ebners Rahmen (Guideline, Training, Rollen, Struktur) folgt eine Erweiterung um drei harte Prinzipien:

Nicht-Retaliation als Policy, nicht als Stimmung
Kritik, auch konstruktive Reibung, darf nicht karriereschädlich sein. Das muss explizit, trainiert und im Einzelfall verteidigt werden.

Krisenmodus definiert, bevor die Krise da ist
Ein Ampelsystem für Themen (grün/gelb/rot), Eskalationswege, rechtliche Leitplanken, klare Reaktionszeiten – damit im Ernstfall nicht die Freigabepanik die Organisation übernimmt.

Freiwilligkeit ohne KPI-Druck
Sobald Posten zur impliziten Leistungserwartung wird, kippt das ganze Modell in Compliance-Kommunikation. Community ist kein Vertriebskanal – sie ist ein Vertrauenssystem.

    „Inspired by AI“: hilfreich – aber governance-pflichtig

    Ebners AI-Passage ist ein sinnvoller Reality-Check: KI kann Impulse liefern, Struktur geben, bessere Fragen erzwingen – aber Stimme entsteht beim Menschen. Aus Organisationssicht kommt noch etwas hinzu: KI erhöht die Notwendigkeit des Bodens, nicht die Kür. Denn Prompting berührt Datenschutz, Vertraulichkeit, IP, Tonalität, Faktenprüfung. Wer KI in Community-Arbeit integriert, braucht nicht weniger, sondern mehr Klarheit: was darf rein, was darf raus, was wird geprüft, was wird geloggt.

    Ebner hat recht – und das Entscheidende ist der Moment, in dem er recht behalten muss

    Ebners These ist im Kern ein Governance-Argument: Corporate Influencer scheitern an Organisationen, wenn der organisationale Rahmen fehlt. Meine Ergänzung lautet: Der Rahmen ist nicht vollständig, solange er nur den Normalbetrieb beschreibt.

    Corporate Influencing ist kein Format für gutes Wetter. Es ist ein Instrument, das in der Krise entweder Vertrauen verzinst – oder Vertrauen verbrennt. Und daran entscheidet sich, ob eine Corporate-Influencer-Community tatsächlich Kotters Beschleunigernetzwerk wird: ein wirksames, lernfähiges, resilientes Netzwerk – oder nur eine Kampagne, die beim ersten Machtsturm einknickt.

    Man hört, sieht und streamt sich auf der Zukunft Personal Hamburg am 25. und 26. März

    Wenn man Ebners These vom „organisationalen Boden“ ernst nimmt, dann lohnt sich ein Blick ins Programm der Zukunft Personal Nord in Hamburg am 25. und 26. März 2026 wie in ein Labor: Die Session „Scaling Authenticity bei Beiersdorf: Corporate Influencing von lokaler Relevanz zur globalen Wirkung“ (25.03., 10:00–10:30, Employer Branding Stage) verspricht genau das Kernproblem zu adressieren, an dem Programme oft sterben – die Übersetzung von Pilot-Charme in skalierbare Governance (Rahmen, Training, Community, Krisenmodus) ohne die Stimme zu normieren. Direkt daneben zeigen Formate wie CEWE mit „internem Lobbying & Kick-off“ (25.03., 10:40–11:10), GOLDBECK mit einem mehrstufigen Inhouse-Brand-Ambassador-Programm (25.03., 11:20–11:50) oder HAMBURG WASSER mit dem TikTok-Spannungsfeld „Vertrauen vs. Marke“ (25.03., 12:00–12:30), dass der eigentliche Erfolgsfaktor nicht Content ist, sondern Entscheidungsfähigkeit unter Sichtbarkeit: Wer darf was, wann, wie – und wer schützt wen, wenn es unangenehm wird? Und wenn am 26.03. im „Ask Us Everything“ (15:50–16:30) die Risiken offen auf den Tisch kommen, ist das im besten Sinne Ebners Pointe: Corporate Influencing ist kein Hochglanzprojekt, sondern ein Stresstest für Führung, Kultur und interne Demokratie – und genau deshalb ist es klug, diese Diskussion dort zu führen, wo Employer Branding und Organisationsrealität endlich wieder aufeinandertreffen.

    Wir sollten das im Messe-TV-Studio in Hamburg vertiefen 🙂

    Siehe dazu auch:

    Exkurs: Macht entzaubern – warum Führung ohne Machtverständnis scheitert

    Macht ist das Betriebssystem jeder Organisation – und zugleich ihr bestgehütetes Tabu. Genau diese Schieflage adressiert Prof. Carsten C. Schermuly im Kontext seiner Arbeiten zur „Psychologie der Macht“: Nicht Macht an sich sei das Problem, sondern ihre Verdrängung. Wo man nicht offen über Macht spricht, wirkt sie trotzdem – nur eben informell, unreguliert und häufig zulasten von Lernfähigkeit und Innovation.

    Organigramme zeigen Positionen – nicht Machthaber

    Schermulys Vorschlag einer Machtlandkarte statt eines klassischen Organigramms trifft einen wunden Punkt deutscher Organisationskultur: Wir bilden Positionsmacht penibel ab, übersehen aber systematisch, wer tatsächlich Einfluss hat – durch Netzwerke, Expertise, Kontrolle über Ressourcen, Entscheidungshoheit oder Sanktionsmöglichkeiten. Machtlandkarten sollen diese Cluster „aus der Dunkelheit ins Licht holen“ und damit erstmals diskutierbar machen: Wie ist Macht verteilt – und wie sollte sie verteilt sein, damit die Organisation gut funktioniert?

    Das ist mehr als ein Diagnose-Tool. Es ist ein Kulturbruch: Denn wer Macht sichtbar macht, nimmt ihr den Mythos – und zwingt die Organisation, über Fairness, Wirksamkeit und Fehlanreize zu sprechen, statt sie nur zu spüren.

    Warum Expertise-Macht erodiert – und Charisma wieder gewinnt

    In Schermulys Perspektive verschiebt sich Macht nicht nur innerhalb von Organisationen, sondern auch zwischen Machtformen. Gerade Expertise-Macht – also Einfluss durch Wissen und Kompetenz – gerät unter Druck, wenn Unsicherheit steigt, Faktenlage strittig wird und kommunikative Dominanz (Charisma, moralische Signale, einfache Erzählungen) mehr Wirkung erzielt als belastbare Evidenz. Das ist für Unternehmen deshalb gefährlich, weil es die Anreizstruktur verändert: Wer gut erklärt, gewinnt – nicht zwingend, wer recht hat.

    Und in Krisen kippt das System oft in Richtung „starker Mann / starke Hand“: Zentralisierung wird als Effizienz verkauft. Tatsächlich steigt damit aber das Risiko klassischer Informationspathologien: Informationen werden vorgefiltert, unangenehmes Wissen wird nicht produziert oder nicht weitergegeben, Entscheidungen werden schlechter – während die Organisation zugleich passiver wird, weil sie auf „oben“ wartet.

    Autoritäre Führung ist kein „harter Kurs“ – sondern ein Innovationskiller

    Wenn Macht sich konzentriert, entsteht nicht nur ein moralisches Problem, sondern ein ökonomisches: weniger Initiative, weniger Korrektur, weniger Frühwarnsignale. In Schermulys Argumentation ist das nicht idealistisch, sondern psychologisch und strukturell: Macht kann euphorisieren, abhängig machen und Empathie sowie Impulskontrolle negativ beeinflussen – ein toxischer Cocktail, wenn zugleich die Organisation gelernt hat, lieber zu folgen als zu widersprechen.

    Der Witz ist: Viele Firmen reagieren auf Komplexität mit mehr Kontrolle – und erzeugen damit genau jene Trägheit, die sie dann als Rechtfertigung für noch mehr Kontrolle benutzen. Ein selbsterhaltender Machtkreis.

    Welche „Gewaltenteilung“ braucht ein Unternehmen?

    Schermulys praktische Konsequenz ist unbequem, aber klar: Macht muss reguliert werden – über Regeln und Kultur. Ein Beispiel: Gerade dort, wo Macht am stärksten wirkt – bei Auswahl, Aufstieg, Besetzung von Schlüsselrollen – sind die Verfahren oft am schwächsten. Er plädiert dafür, Machtkompetenz in die Diagnostik zu holen: Wer in Führung kommt, sollte nicht nur fachlich überzeugen, sondern zeigen, dass er/sie Macht verantwortungsvoll handhaben kann.

    Das ist im Kern eine Governance-Forderung: weniger Habitus- und Netzwerk-Lotterie, mehr systematische Auswahl; weniger „wer passt ins Bild“, mehr „wer schützt die Organisation vor den Nebenwirkungen konzentrierter Macht“.

    Machtverzicht als Status – nicht als Makel

    Der vielleicht modernste Gedanke ist der zum Machtverzicht: Organisationen belohnen Machtbesitz, aber kaum je Machtabgabe. Wer Verantwortung teilt, Entscheidungen dezentralisiert oder Transparenz erhöht, verliert oft kurzfristig Status – obwohl genau das langfristig Resilienz erzeugt. Schermuly argumentiert daher für eine Kultur, die Machtteilung und Empowerment sichtbar wertschätzt – weil sie Innovation, Gesundheit und Leistungsfähigkeit stützen können.

    Brücke zum Corporate Influencing

    Übertragen auf Corporate Influencing wird der Exkurs plötzlich sehr konkret: Ein Corporate-Influencer-Programm ist nicht nur Kommunikation, sondern Machtverschiebung durch Sichtbarkeit. Es stärkt Netzwerk-Macht, potenziell auch Expertise-Macht – und kratzt an Positionsmacht, weil die Deutungshoheit nicht mehr ausschließlich „oben“ liegt. Wer diese Machtlogik nicht versteht, wird im Schlechtwetter reflexhaft auf Kontrolle umstellen: Freigaben, Monitoring, Loyalitätsprüfungen. Und genau dann scheitert das Programm „an der Organisation“ – nicht an den Menschen.

    Wer liest, liegt nicht bequem: Buchvorstellung in Bonn zum 10. Todestag von Roger Willemsen mit seinem Lektor Jürgen Hosemann – Lesung der Texte: Hektor Haarkötter

    Es beginnt mit einer Frage, die in Wahrheit keine Höflichkeit ist, sondern eine Zumutung: „Liegen Sie bequem?“ Wer sie hört, glaubt zunächst, es gehe um eine Haltung des Körpers. Roger Willemsen aber wusste, dass jede wahre Lektüre mit dem Gegenteil beginnt: mit einer kleinen Störung der Bequemlichkeit. Nicht der Leser soll es sich gemütlich machen im Text; der Text soll sich, wenn er etwas taugt, in den Leser einnisten, ihn verrücken, verunsichern, neu disponieren. Dass ein solcher Satz nun, zehn Jahre nach Willemsens Tod, zum Titel eines neuen Bandes geworden ist, besitzt eine stille Notwendigkeit.

    In der Bonner Buchhandlung Böttger, wo Jürgen Hosemann, sein langjähriger Lektor im S. Fischer Verlag, den Band vorstellte und Prof. Dr. Hektor Haarkötter Texte daraus las, war an diesem Abend zu spüren, dass hier nicht einfach Nachlasspflege betrieben wurde. Es ging um die Rückkehr einer Stimme, die noch immer gegenwärtiger wirkt als viele, die heute sprechen. Hosemann selbst sagte, Willemsen komme ihm „als Toter viel lebendiger vor als viele andere lebendig“. Das ist kein Gedenksatz. Es ist eine Diagnose.

    Ein Buch als begehbare Bibliothek

    Denn „Liegen Sie bequem? Vom Lesen und von Büchern“ ist nicht bloß eine Sammlung verstreuter Texte, keine pietätvolle Resteverwertung, keine editorische Blumenablage. Das Buch ist, wie Hosemann treffend sagte, „die Bibliothek seiner Texte über Literatur“; auf dem Umschlag sieht man Willemsens Bibliothek in seinem letzten Haus, und schon darin liegt eine melancholische Wahrheit: Man betritt dieses Buch wie einen Raum, in dem einer eben noch gewesen ist.

    Herausgegeben von Insa Wilke, versammelt es erstmals in diesem Umfang Willemsens Schreiben über Literatur, über Autoren, über den Buchmarkt, über Moral, Humanität, Übersetzen, Verstehen – und über jene kurzen, funkelnden Empfehlungen, in denen seine Kunst der Verdichtung fast noch deutlicher hervortritt als im großen Essay. Dieses Buch zeigt den eigentlichen Willemsen: nicht den Fernsehmann, als den ihn die bequemere Öffentlichkeit allzu lange verwaltete, sondern den Leser als Autor, den Autor als Vermittler, den Vermittler als Liebenden.

    Herkunft aus der Nähe

    Diese Liebe zur Literatur hatte einen denkbar unprätentiösen, ja geradezu rheinischen Ursprung. In der Gesprächsrunde wurde daran erinnert, dass Willemsen in der Bonner Umgebung aufwuchs, zunächst in der Nähe von Alfter, später in Oedekoven, und mit Unterbrechungen das Helmholtz-Gymnasium in Bonn-Duisdorf besuchte. Der Weltbürger des Feuilletons, der später mit einer Leichtigkeit zwischen Musil, Beckett, Goethe und den politischen Verwüstungen der Gegenwart wechselte, hatte seine topographische Schule nicht in der Abstraktion, sondern in der Nähe: zwischen Alfter, Oedekoven und Bonn-Duisdorf.

    Wer dort zur Schule ging, wer dort las, wer dort anfing, der weiß vielleicht früher als andere, dass Bildung kein Dekor ist, sondern Arbeit, Reibung, Herkunft. Und wenn man hört, dass der kleine Roger seiner Mutter beim Schneidern Weltliteratur vorlas, dann begreift man plötzlich, dass diese später so mühelos wirkende Belesenheit nie das Produkt akademischer Pose war, sondern Ergebnis einer frühen, fast häuslichen Askese: Literatur nicht als Distinktionsmittel, sondern als Lebensform.

    Die Arbeit des Lektors, der Widerstand des Satzes

    Jürgen Hosemann hat an diesem Abend etwas ausgesprochen, was man über Schriftsteller selten so präzise hört. Willemsen, sagte er sinngemäß, reichte die Sprache manchmal nicht aus; dann habe er sie sich selbst gemacht. Darin steckt mehr Wahrheit über Autorschaft als in vielen Poetikvorlesungen. Der wirkliche Schriftsteller erkennt sich nicht daran, dass er den vorhandenen Wortschatz geschickt verwendet, sondern daran, dass er an dessen Grenzen gerät.

    Willemsens sprachliche Neuerfindungen waren, wie Hosemann schilderte, keine Manier, sondern Folge eines Sehens, das sich mit den abgenutzten Münzen der Rede nicht abspeisen ließ. Und hier beginnt das eigentliche Drama des Lektorats: Der Lektor setzt Punkte, wo der Autor Atem holen sollte; der Autor setzt den Satz fort, weil der Gedanke noch nicht fertig ist. Hosemann bekannte, er habe natürlich oft versucht, lange Sätze zu kürzen – manchmal mit Erfolg, oft ohne. Man sieht darin das schöne, unaufhebbare Kräftespiel zwischen Formwillen und Formwiderstand. Der Lektor will Helligkeit; der Autor will die ganze Bewegung seines Denkens retten. Im besten Fall gewinnt beides. Bei Willemsen gewann oft der Satz – und gerade dadurch der Leser.

    Wenn Texte eine zweite Stimme finden

    Hektor Haarkötter wiederum gab diesen Texten an diesem Abend jene zweite Geburt, die nur durch eine große Lesung geschieht. Der Goethe-Text, „Der Tausendkünstler“, wurde in seinem Vortrag zu dem, was er bei Willemsen immer ist: eine Befreiung des Klassikers aus der Gedenkstarre. Dieser Goethe ist kein bronzener Olympier, sondern ein Meister des Selbstmanagements, ein Geniekalkulierer, ein früher Regisseur der eigenen Nachwelt. Willemsen schreibt nicht gegen Goethe; er rettet ihn vor der deutschen Verehrungsindustrie.

    Ähnlich im Text auf Robert Gernhardt: Hier erscheint das Komische nicht als kleine Schwester des Ernstes, sondern als dessen schärfste Form. Und in den „Schrift-Typen“ wie in den „10 Regeln für Leserinnen und Leser“ zeigt sich vielleicht am deutlichsten, wie Willemsen dachte: nie bloß ornamental, nie bloß gelehrt, sondern immer mit jener Mischung aus Intelligenz und Charme, die den Leser nicht herablassend belehrt, sondern in eine höhere Aufmerksamkeit hineinlockt. Literatur ist für ihn keine schöne Nebensache, sondern ein diagnostisches Medium für alles, was die Conditio humana betrifft. Wer so über Bücher schreibt, empfiehlt nicht einfach Lektüre. Er verteidigt eine Zivilisationsform.

    Gegen die Bequemlichkeit des Lesens

    Darin liegt auch die eigentliche Aktualität dieses Bandes. In einer Zeit, in der Lesen immer häufiger entweder als Kompetenztraining oder als Wellnessübung missverstanden wird, kehrt Willemsen auf die denkbar unmodische Weise zum Ernst des Lesens zurück. Nicht zur pädagogischen Verkrampfung, sondern zu jenem Ernst, der Freude erst möglich macht. Seine Buchempfehlungen sind deshalb so kostbar, weil sie nie konsumistische Hinweise sind. Sie sind Miniaturen der Aufmerksamkeit. In wenigen Zeilen skizzieren sie ein Werk so, dass man nicht bloß neugierig wird, sondern sich beinahe schon beschenkt fühlt.

    Das Schaufenster als literarische Geste

    Alfred Böttgers Gedanke, diese Empfehlungen im Schaufenster der Buchhandlung mit kleinen Zetteln sichtbar zu machen, trifft ins Zentrum: Literaturkritik, von Willemsen betrieben, ist keine Instanz des Urteils von oben, sondern eine Kunst des Zeigens. Schau her, sagt sie, dieses Buch könnte dein Leben berühren. Mehr muss über Bücher nicht gesagt werden. Aber weniger auch nicht.

    Die höflichste Form der Unruhe

    So bleibt von diesem Bonner Abend nicht nur die Erinnerung an einen Lektor, der klug, diskret und zärtlich von seinem Autor sprach, und nicht nur die Bewunderung für einen Vorleser, der Willemsens Rhythmus ohne Nachahmung in Stimme verwandelte. Es bleibt vor allem die Erkenntnis, dass dieses neue Buch den Toten nicht archiviert, sondern ihn erneut ins Gespräch bringt.

    Roger Willemsen ist in ihm noch einmal gegenwärtig: als Leser, der sich nicht mit Oberflächen zufriedengab; als Autor, der deutsche Sätze dehnte, bis sie wieder etwas wagten; als Intellektueller, der Literatur und Menschlichkeit nie gegeneinander ausspielte. „Liegen Sie bequem?“ – das ist am Ende die höflichste Form einer Unruhe. Und vielleicht die schönste Aufforderung, die von Büchern ausgehen kann.

    KI-Vormärz, KI-Biedermeier, KI-Apokalyptik?

    Es gehört zu den eigentümlichen Ritualen der deutschen Gegenwart, dass fast jede neue Technologie zuerst von ihren Kommentatoren moralisch eingekesselt wird, bevor man sich mit ihr praktisch beschäftigt. Kaum taucht etwas auf, das Arbeitsweisen, Märkte und Machtverhältnisse verändert, wird nicht etwa gefragt, wie man es produktiv macht, sondern ob es uns geistig korrumpiert, sozial entwurzelt, politisch entmündigt oder gleich die Gattung auslöscht. Die Debatte trägt hierzulande noch immer den Sound der pädagogischen Gefahrenabwehr.

    So nun auch bei der Künstlichen Intelligenz.

    Da wird von „KI-Biedermeier“ gesprochen, als säße die Republik bereits unter einer digitalen Häkeldecke und lasse sich von Silicon-Valley-Milliardären in die algorithmische Stube treiben. Da wird die Figur des „KI-Vormärz“ bemüht, als befänden wir uns in einer Epoche verheißungsvoller technischer Aufbrüche, die am Ende doch nur in Enttäuschung, Oligarchie und gesellschaftlicher Regression münden könne. Und da wird, mit dem apokalyptischen Furor spätmoderner Intellektueller, behauptet, KI sei in Wahrheit gar keine Zukunftstechnologie, sondern eine konservative Maschine des Vergangenen: lernend aus dem Gestern, blind für das Morgen, nützlich allenfalls für Routinen, aber unfähig, Antworten auf die drängenden Fragen unserer Zeit zu geben.

    Das klingt gewichtig. Es ist aber, bei näherem Hinsehen, vor allem eines: eine Denkfigur des Rückzugs. Man spricht über KI, als sei sie vor allem ein kulturphilosophisches Problem. Man redet über sie, als ginge es primär um Diskurse, Narrative, Machtcamouflage, Ideologiekritik. Man betrachtet sie aus sicherer Distanz, mit jener Mischung aus Ironie, Bildungsgestus und Unbehagen, die in Deutschland oft dort beginnt, wo andere Länder längst Geschäftsmodelle bauen.

    Der eigentliche Skandal liegt nicht in der Technologie. Er liegt im Blick auf sie.

    Die historische Metapher als Nebelmaschine

    Der große Fehler des „KI-Vormärz“-Arguments besteht darin, dass es historische Analogie mit historischer Erkenntnis verwechselt. Der Vormärz war eben nicht bloß eine Phase der Vertröstung, des Rückzugs ins Private und der symbiotischen Allianz von ökonomischer Modernisierung und politischer Apathie. Er war vielmehr ein hochdynamischer Möglichkeitsraum: Eisenbahn, Telegrafie, Lesegesellschaften, Vereinswesen, Presseöffentlichkeit, wissenschaftliche Vernetzung, Bildungsaufstieg. Eine Epoche unter Spannung, nicht unter einer Decke.

    Wer aus dieser Zeit vor allem ein Menetekel gegen technologische Euphorie destillieren will, macht aus Geschichte ein Dekor für Gegenwartsangst. Das Problem ist nicht, dass man Analogien zieht. Das Problem ist, dass man sie so zieht, dass die Pointe schon vorher feststeht: Fortschritt enttäuscht, Technik konserviert Macht, große Versprechen enden in großer Ernüchterung. Das ist kein analytischer Befund. Das ist ein Weltgefühl.

    Und dieses Weltgefühl wirkt seltsam unberührt von jener Realität, die sich jenseits der Feuilletons und Debattenräume längst formiert. Denn während Ramge und Mayer-Schönberger mit erheblichem intellektuellem Aufwand die Grenzen maschinischer Zukunftsfähigkeit beschreiben, haben Unternehmen die Frage längst anders gestellt. Nicht: Kann KI die großen Menschheitsprobleme lösen? Sondern: Wo verbessert sie heute Entscheidungen, Prozesse, Service, Qualität, Wissenstransfer, Produktivität?

    Das ist die realwirtschaftliche Perspektive. Und sie ist, wie so oft, weniger spektakulär als die kulturkritische Erzählung – aber belastbarer.

    Die Wirklichkeit in den Werkhallen kennt keinen KI-Vormärz

    Es ist ein merkwürdiges Schauspiel: Während draußen die Nebelmaschinen der Dystopie kreisen, erfindet der deutsche Mittelstand mit fast trotzig-preußischer Disziplin seine Produktivität neu. KI zieht ein in Vertrieb, Produktion, Service, Entwicklung, Backoffice. Nicht als ästhetisches Versprechen, nicht als Weltformel, sondern als operative Infrastruktur.

    Die Daten sprechen eine klarere Sprache als die Debatte. Unternehmen berichten von messbaren Effizienzgewinnen, von Produktivitätssteigerungen zwischen 20 und 80 Prozent, von beschleunigten Entscheidungen, besseren Servicelevels, sofort verfügbarem Wissen. Jeder fünfte Digital-Euro fließt inzwischen gezielt in KI-Initiativen. Und der entscheidende Satz lautet: KI ersetzt nicht menschliche Arbeit, sie verstärkt menschliche Handlungsfähigkeit.

    Das ist der Punkt, an dem sich die Theorieblase vom Maschinenraum trennt.

    Denn natürlich haben Ramge und Mayer-Schönberger in einem Punkt recht: KI lernt aus Vergangenem. Sie extrapoliert, rekombiniert, verdichtet Muster. Sie ist kein metaphysischer Zukunftsfühler. Aber daraus zu schließen, sie könne nur Routine und sei im Kern konservativ, ist eine bemerkenswerte Verwechslung von epistemischer Herkunft und ökonomischer Wirkung. Auch der Taschenrechner „weiß“ nichts von der Zukunft – und doch verändert er Entscheidungen. Auch das ERP-System blickt nicht prophetisch voraus – und doch strukturiert es Unternehmen. Auch die Elektrizität enthält keine Moral und keine politische Theorie – und dennoch hat sie Gesellschaften transformiert.

    Technologien müssen nicht die Welt „verstehen“, um sie zu verändern. Es reicht, wenn sie die Handlungsmöglichkeiten derer verändern, die mit ihnen arbeiten.

    Das Missverständnis der Routine

    Die vielleicht folgenreichste Untertreibung in der skeptischen KI-Kritik ist der beiläufige Hinweis, KI sei eben für Routinesituationen nützlich. Als wäre Routine eine triviale Randzone der Wertschöpfung. Als bestünde Wirtschaft vor allem aus großen originellen Geistesblitzen und nicht aus Abertausenden wiederkehrender Reibungen, Suchbewegungen, Abstimmungsschleifen, Dokumentationslasten, Servicevorgängen, Wissenslücken, Übergabefehlern und Wartezeiten.

    Wer Routine kleinredet, hat nie ein Unternehmen geführt.

    Routine ist kein Randphänomen. Sie ist das Massiv, an dem Produktivität gewinnt oder verliert. Wenn KI diese Routinen beschleunigt, präzisiert und entlastet, dann ist das keine kleine Hilfestellung, sondern ein struktureller Eingriff in die Ökonomie. Wer dort 20, 30 oder 50 Prozent Zeit spart, verändert Kostenstrukturen, Reaktionsgeschwindigkeit, Kundenerlebnis und Innovationsspielräume zugleich.

    Gerade alternde Gesellschaften wie die deutsche können sich den Luxus gar nicht leisten, diese Hebel geringzuschätzen. Wenn weniger Erwerbstätige mehr Komplexität bewältigen müssen, ist jede Technologie, die kognitive Lasten senkt und Wissen breiter verfügbar macht, keine Gefahr, sondern ein Standortfaktor.

    KI ist nicht konservativ. Sie ist eine Losgröße-1-Maschine

    Die eigentliche Blindstelle der Dystopiker liegt jedoch tiefer. Sie betrachten KI als Wiederkäuerin der Vergangenheit. Dabei übersehen sie, dass ihre größte ökonomische Kraft gerade darin liegt, Standardisierung und Individualisierung zugleich zu ermöglichen.

    Industriegeschichte war lange die Geschichte der Skalierung durch Vereinheitlichung. Erst Serienfertigung, dann Massenmärkte, dann Plattformen. KI aber eröffnet eine neue Logik: Losgröße 1 für Wissen, Lernen, Service und Interaktion. Siehe dazu auch das Interview mit Professor Wolfgang Wahlster zur :

    Ein digitaler Assistent interessiert sich nicht für Herkunft, Dialekt, Habitus, Bildungsbiografie oder Lebenslaufpathos. Er bewertet nicht nach Titel, Auftreten oder Netzwerk. Er reagiert auf Anfrage, Kontext, Aufgabe. Das ist noch keine Gerechtigkeit. Aber es ist ein technologischer Hebel gegen viele tradierten Privilegien der Informationsökonomie.

    Hier liegt eine zutiefst demokratische Möglichkeit: Zugang zu Wissen wird entformalisiert. Lernen wird situativer. Kompetenz wird weniger an Zertifikaten gemessen als an der Fähigkeit, mit Werkzeugen Ergebnisse zu erzielen. Der Lebenslauf verliert seine sakrale Autorität. Wichtiger wird die Frage: Was kannst du heute? Was lernst du morgen? Was lässt sich jetzt lösen?

    Das ist kein Ende des Menschen. Das ist die Entmachtung erstarrter Organisationsrituale.

    Nicht die KI depolitisiert – die Erschöpfung tut es

    Man kann der Skepsis zugestehen, dass Technologien immer auch Machtstrukturen stabilisieren können. Plattformmärkte konzentrieren. Datenmonopole verzerren. Kapital sucht Rendite, nicht Demokratie. All das ist wahr. Aber daraus folgt nicht, dass KI notwendig Teil einer großen Depolitisierungserzählung ist.

    Die politische Müdigkeit unserer Zeit kommt nicht primär aus Maschinen. Sie kommt aus institutioneller Trägheit, strategischer Orientierungslosigkeit und einer Öffentlichkeit, die das Gefühl verloren hat, Zukunft gestaltend zu denken. KI ist nicht die Ursache dieses Defizits. Sie macht es nur sichtbarer.

    Denn plötzlich steht eine Technologie im Raum, die von Unternehmen, Verwaltungen, Bildungseinrichtungen und Individuen eine Entscheidung verlangt: Wollen wir gestalten oder kommentieren? Wollen wir uns organisieren oder moralisch absichern? Wollen wir Kompetenz aufbauen oder skeptische Souveränität simulieren?

    Die bequeme Antwort der Kulturkritik lautet: erst einmal entzaubern. Die produktive Antwort der Praxis lautet: erst einmal anwenden, verstehen, verbessern, skalieren.

    Nicht Science-Fiction manipuliert uns. Die größere Manipulation ist die Angst, die wir uns selbst als Klugheit verkaufen.

    Die Zukunftsmacher handeln nach einer anderen Logik

    Die Unternehmen, die bei KI vorankommen, folgen keiner Erlösungsreligion. Sie handeln nach einer nüchternen Grammatik:

    Experiment vor Exegese.
    Nicht erst den Weltlauf deuten, sondern einen Use Case definieren, Daten sichern, testen, messen, verbessern.

    Organisation vor Tool.
    KI funktioniert nicht als App-Fetisch. Sie braucht Kultur, Datenbasis, Plattformarchitektur, Governance und Verantwortlichkeiten.

    Wert vor Wunder.
    Nicht die große Vision entscheidet zuerst, sondern der klare Beitrag: mehr Umsatz, weniger Aufwand, bessere Qualität, schnellere Antwort, höherer Servicelevel.

    Das ist die eigentliche Antithese zum „KI-Biedermeier“: nicht blinde Euphorie, sondern operative Entschlossenheit.

    Deshalb ist die entscheidende Dystopie auch nicht die, dass KI den Menschen ersetzt. Die eigentliche Dystopie besteht darin, dass wir aus lauter Angst vor Übertreibung die reale Transformation verpassen. Dass andere die Produktivitätsgewinne heben, neue Geschäftsmodelle bauen, Lernkurven beschleunigen – und wir uns derweil an historisch halbgar aufgeladenen Metaphern berauschen.

    Lest mehr Turing. Und endlich wieder Wittgenstein.

    Vielleicht wäre der Debatte geholfen, wenn man ihre intellektuellen Koordinaten neu sortierte. Alan Turing wusste, dass die Frage nach dem „Denken“ von Maschinen oft mehr über die Sprache der Fragenden verrät als über die Maschinen selbst. Wittgenstein wiederum hätte uns daran erinnert, dass Bedeutung im Gebrauch entsteht. Vielleicht sollten wir KI deshalb weniger ontologisch und mehr praktisch betrachten: nicht als Wesen, sondern als Werkzeug in Sprach-, Arbeits- und Handlungsspielen.

    Dann würde auch klarer, warum so viele kulturkritische Einwände ins Leere laufen. KI muss nicht „verstehen“ wie ein Mensch, um nützlich zu sein. Sie muss nicht politisch sein, um politische Folgen zu haben. Und sie muss nicht genial sein, um Produktivität fundamental zu verändern.

    Die Frage ist nicht, ob sie aus Vergangenem lernt. Die Frage ist, was wir mit diesem Lerninstrument in der Gegenwart anfangen.

    Der Mittelstand hat diese Lektion schneller verstanden als ein Teil des öffentlichen Gesprächs. Er wartet nicht auf Wunder. Er baut die Bedingungen dafür. Er weiß, dass Produktivität kein philosophischer Begriff ist, sondern die Grundlage von Wohlstand, Beschäftigung, Investitionsfähigkeit und am Ende auch sozialer Stabilität.

    In einer Volkswirtschaft, die sich Wachstum kaum noch leisten kann, ist KI nicht bloß ein Technikthema. Sie ist eine Frage wirtschaftlicher Selbstbehauptung.

    Darum ist das Gerede vom KI-Biedermeier am Ende selbst biedermeierlich: ein Rückzug in die Pose des skeptischen Beobachters, während andere handeln. Das mag geistreich klingen. Es ist nur leider eine schlechte Industriestrategie.

    Nicht die KI macht uns dumm.
    Aber die Angst vor ihr macht uns klein.

    Und klein ist, was sich Deutschland in dieser Lage am wenigsten leisten kann.

    Vielleicht braucht die deutsche KI-Debatte deshalb weniger kulturpessimistische Großmetaphern – und mehr praktische Erfahrung. Genau darum geht es auch im neuen Buch „Mut zur KI“ von Friedrich Arnold und Philipp Depiereux, das in Kürze im Gabal Verlag erscheint. Es ist kein Manifest der Technikgläubigkeit, sondern ein Plädoyer für unternehmerischen Gestaltungswillen: KI nicht als Bedrohung betrachten, sondern als Werkzeug, das Organisationen produktiver, lernfähiger und widerstandsfähiger machen kann. Über diese Perspektive – und darüber, wie aus Technologie tatsächlich wirtschaftlicher Impact wird – diskutieren Praktiker aus Industrie, Medien und Mittelstand auch beim Leadership Forum „From AI to Impact“ am 24. März 2026 auf dem Convidera Campus in Köln-Müngersdorf. Vielleicht ist das der sinnvollste Ort, um die Debatte wieder zu erden: nicht im Schatten der großen Dystopien, sondern im Licht konkreter Erfahrungen. Denn die Zukunft der KI entscheidet sich nicht im Feuilleton – sondern dort, wo Unternehmen beginnen, sie wirklich einzusetzen.

    Vom Buch zur Siliziummacht: Ein Gespräch zwischen Lischka und Kittler über Medien jenseits des Sinns

    Das Gespräch zwischen Gerhard Johann Lischka und Friedrich Kittler ist nicht einfach ein Interview über Medien. Es ist selbst schon eine kleine Szene jener historischen Verschiebung, die Kittler beschreibt: Die Theorie löst sich vom Primat des Sinns und wendet sich den materiellen Bedingungen zu, unter denen Sinn überhaupt erst zirkulieren kann. Lischka fragt noch aus einer Tradition der Geistes- und Kunstwissenschaft heraus nach Inhalten, Herkunft, Epochen und Geschlechterordnungen; Kittler antwortet mit einer radikalen Verschiebung des Blicks. Nicht das, was gesagt wird, ist zuerst entscheidend, sondern das, wodurch, worin und unter welchen technischen Bedingungen etwas überhaupt sagbar, speicherbar und übertragbar wird. In dieser Perspektive erscheinen Schreibmaschine, Telefonie, Grammophon und Computer nicht als neutrale Hilfsmittel einer schon bestehenden Kultur, sondern als Einschnitte, die Wahrnehmung, Macht, Arbeit, Geschlechterverhältnisse und Begriffsbildung selbst neu organisieren.

    Technik als Geschichte überraschender Wirkungen

    Gerade darin liegt die Brillanz des Gesprächs: Kittler erzählt Technik nicht als Fortschrittsgeschichte, sondern als Geschichte überraschender Wirkungen. Medien tun nie nur das, wofür sie erfunden wurden. Sie erzeugen Seiteneffekte, Rückkopplungen, Verwerfungen. Eine Schreibmaschine beschleunigt nicht bloß das Schreiben; sie verschiebt die soziale Geometrie des Büros. Telefonie verbindet nicht einfach Stimmen über Distanz; sie installiert ein neues Regime der Frequenzen, der Vermittlung und der Arbeitsteilung. Der Computer vereinheitlicht nicht lediglich Daten; er hebt die alten Grenzziehungen zwischen Bild, Ton und Schrift auf, weil ihre Outputs an denselben universellen Diskretapparat anschließbar werden. Kittlers Denken ist deshalb so folgenreich, weil es Technik nicht funktionalistisch, sondern genealogisch auffasst: Jede mediale Innovation produziert Wirkungen, die ihre Erfinder weder planen noch kontrollieren.

    Von Foucault zum medientechnischen Archiv

    Lischkas erste große Frage zielt auf Kittlers Herkunft: Woher kommt das Interesse an Medien als Medien? Kittlers Antwort ist aufschlussreich. Er setzt bei Foucault an, aber gerade an der Stelle, an der Foucault für ihn nicht weit genug geht. Wenn Archive bis in die Moderne die „letzte reelle Basis“ sind, dann wird entscheidend, dass sich seit dem späten 19. Jahrhundert das Archiv vervielfacht und technisch ausdifferenziert: Nicht mehr alles schreibt sich in Alltagssprache, Buch und Bibliothek ein; Töne, Bilder, Signale und maschinenschriftliche Texte treten als eigene Speicher- und Übertragungsformen hinzu. Kittlers berühmte Geste besteht darin, Bücher „differenzialdiagnostisch“ gegen andere Medien abzusetzen. Das Buch verliert seinen metaphysischen Nimbus und wird zu einem Medium unter anderen. Damit ist die romantische Illusion angegriffen, Literatur könne die Welt unmittelbar vergegenwärtigen, als höre oder sähe man sie selbst. Gerade weil Bücher um 1800 so selbstverständlich lesbar geworden sind, können sie diese Halluzination stiften. Die Pointe Kittlers ist dann kühn: Vielleicht hat gerade diese psychische Verheißung der Romantik den Wunsch nach technischen Apparaten induziert, die Wahrnehmung nicht mehr imaginär, sondern maschinell implementieren. Das 19. Jahrhundert baut dann jene Maschinen, die die Literatur versprochen, aber nie materiell eingelöst hatte.

    Die Maschine als materialisierte Sehnsucht

    Hier wird die Erfindungsgeschichte des Grammophons oder der Fotografie auf verblüffende Weise entromantisiert und zugleich vertieft. Kittler insistiert darauf, dass manche dieser Apparate technisch durchaus früher hätten gebaut werden können. Ihre verspätete Ankunft verlangt also keine bloß ingenieurwissenschaftliche, sondern eine kulturhistorische Erklärung. Nicht weil die Mechanik fehlte, sondern weil der Wunsch fehlte, erscheinen sie erst dann, als eine Epoche bereits gelernt hat, Sinnesdaten als reproduzierbar zu begehren. Technik entsteht damit nicht aus nackter Rationalität, sondern aus historisch erzeugten Imaginationen. Die Maschine ist nie nur kalte Apparatur; sie ist materialisierte Sehnsucht. Genau in diesem Sinn ist Kittlers Mediengeschichte eine Geschichte überraschender Wirkungen: Nicht die Erfindung allein erklärt ihre Folgen, sondern umgekehrt die symbolischen und psychischen Regime, die erst den Drang erzeugen, Wahrnehmung technisch zu externalisieren.

    Die Schreibmaschine und der Umbau des Büros

    Am eindringlichsten wird diese Logik am Beispiel der Schreibmaschine. Kittler beschreibt nicht bloß einen Wechsel des Schreibwerkzeugs, sondern einen Strukturbruch. Solange Schrift an Handschrift gebunden ist, bleibt sie in den kulturellen Prestigeordnungen männlicher Bildung verankert. Das 19. Jahrhundert erscheint in seiner Lesart als Herrschaft schreibender Männer, als Allianz von Bildungsstaat, Beamtenschaft und Buchkultur. Um 1800 sind Frauen von den strategischen Positionen der Schreibmacht weitgehend ausgeschlossen, selbst wenn sie private Briefe und Gefühlsprosa verfassen dürfen. Dann jedoch tritt die Schreibmaschine auf — und gerade ihre zunächst unterschätzte Banalität wird historisch explosiv. Männer in Büros wollen bei der Handschrift bleiben; arbeitslose junge Frauen entdecken das Gerät und drängen mit ihm in die Verwaltung, in Kontore, in die Börse. Binnen kürzester Zeit dreht sich das Geschlechterverhältnis im Büro. Der Apparat demokratisiert hier nicht einfach, sondern eröffnet eine Lücke, die eine zuvor ausgeschlossene Gruppe besetzen kann. Technik emanzipiert nicht aus sich selbst; aber sie destabilisiert alte Monopole, gerade weil ihre neuen Möglichkeiten von den etablierten Akteuren zunächst verkannt werden.

    Telefonie, Stimme und neue Arbeitskörper

    Ähnlich liest Kittler die Telefonie. Auch sie ist nicht bloß Kommunikationsfortschritt, sondern eine Maschine sozialer Neuverteilung. Aus „Frequenzgründen“, wie er lakonisch sagt, werden Frauen massenhaft in die Vermittlungsämter eingestellt. Die Stimme wird zur technischen Ressource; Geschlecht erscheint nicht mehr nur als soziale Rolle, sondern als variable im Dispositiv der Übertragung. Das ist medienwissenschaftlich von größter Bedeutung. Denn hier zeigt sich, dass Technik nicht auf einen abstrakten Menschen trifft, sondern auf Körper, deren Eigenschaften in Apparatesysteme eingelesen werden. Die berühmte Telefonistin, die Stenotypistin, die Schreibmaschinistin: Das sind keine Randfiguren der Moderne, sondern ihre Interfaces aus Fleisch und Blut. Kittler macht sichtbar, dass technische Systeme um 1900 menschliche Bedien- und Vermittlungsinstanzen benötigen und diese Instanzen ihrerseits neue Machtpositionen, Berufsbilder und Selbstverhältnisse erzeugen. Was wie eine bloße Rationalisierung der Kommunikation aussieht, erweist sich als Umbau des Sozialen.

    Mediengeschichte als Mikropolitik

    Gerade an diesem Punkt wird die eigentliche Schärfe von Kittlers Denken sichtbar: Medienwandel ist nie nur Medienwandel. Er ist Umbau von Arbeitsformen, Wahrnehmungsordnungen und Subjektformen. Deshalb erscheint auch die Episode um Nietzsche und Lou Andreas-Salomé im Gespräch nicht als Anekdote, sondern als Symptom. Die defekte Schreibmaschine, der halb blinde Philosoph, die erbetene Sekretärin, die Zürcher Studentin: In dieser Konstellation kondensiert, was Kittler zeigen will. Die Maschine ersetzt den Körper nicht einfach; sie reorganisiert die Umgebung des Körpers, die Delegation von Schreibarbeit, die Nähe zwischen Intellekt und Assistenz, die Geschlechtercodierung von Bildung. Mediengeschichte ist hier Mikropolitik. Aus Apparaten gehen neue Intimitäten, neue Abhängigkeiten und neue Rollen hervor. Die technische Neuerung handelt gleichsam hinter dem Rücken ihrer Benutzer. Ihre überraschende Wirkung besteht darin, dass sie nicht dort eingreift, wo man sie vermutet — im Werkzeuggebrauch —, sondern dort, wo eine Gesellschaft ihre Grenzen zieht: zwischen geistiger und mechanischer Arbeit, zwischen öffentlich und privat, zwischen männlich und weiblich.

    Turing, Computer und die herrschende Siliziummacht

    Mit Turing und dem Computer radikalisiert sich diese Entwicklung. Kittler liest das Turing-Spiel nicht nur als Testfall für künstliche Intelligenz, sondern als symptomatische Matrix einer doppelten Auslöschung. Im ersten Modell des Spiels geht es um Mann und Frau; im zweiten um Mensch und Maschine. Der Clou seiner Lesart liegt darin, dass die spätere Ununterscheidbarkeit von Mensch und Computer auf einer bereits vorausgesetzten Kommunizierbarkeit über Teleprinter, also über entkörperlichte Schrift, aufruht. Das Interface der Moderne ist nicht länger die leibhaftige Sprecherin im Stöpselamt, sondern das diskrete Zeichen im Netz. Wenn sich Mensch und Maschine unter diesen Bedingungen nicht mehr sicher unterscheiden lassen, dann wird auch die Geschlechterdifferenz für Kittler sekundär gegenüber der Macht des Siliziums. Sein drastischer Satz, die „herrschende Siliziummacht“ interessiere sich nicht weiter für unsere Unterscheidungen, benennt eine historische Schwelle: Dort, wo Maschinen nicht mehr nur Teil eines Mensch-Maschine-Systems sind, sondern Operationen selbständig verarbeiten, verliert das humanistische Vokabular seine Selbstverständlichkeit.

    Der Computer als Metamedium

    Das heißt allerdings nicht, dass Kittler einen simplen Technodeterminismus vertritt. Seine Pointe ist subtiler. Je universaler der Computer wird, desto weniger lassen sich Medien noch als voneinander getrennte Sphären behandeln. Grammophon, Film und Schreibmaschine waren für ihn um 1900 die elementaren Speichertechniken jenseits des Buches. Seit der Turing-Maschine aber werden ihre Outputs in einen gemeinsamen Verarbeitungsraum übersetzt. Bilder, Töne, Texte, Messwerte: alles kann Eingang in dieselbe diskrete Operation finden. Genau darin liegt die eigentliche Revolution. Medien verschwinden nicht; sie werden komputabel. Der Computer ist deshalb nicht nur ein weiteres Medium, sondern ein Metamedium, das die alten Differenzen auf einer höheren Ebene neu ordnet. Mit dieser Diagnose verschiebt sich auch die Aufgabe der Medienwissenschaft. Sie darf nicht bei der Ikonographie der Oberflächen stehenbleiben, sondern muss an die Architekturen der Verarbeitung, an Bus-Systeme, Adressierungsformen, Taktungen, Codierungen heran. Medienkritik wird zur Kritik der Operationsketten.

    Von der Inschrift zum blätterbaren Buch

    Bemerkenswert ist, dass Kittler trotz aller Radikalität nie die longue durée aus dem Blick verliert. Im letzten Teil des Gesprächs führt er das Problem der Schrift weit vor 1800 zurück: auf Transportabilität, Blätterbarkeit, Adressierbarkeit. Nicht zufällig hebt er die Überlegenheit des transportierbaren Buches gegenüber ortsfesten Inschriften und die Überlegenheit des Kodex gegenüber der Rolle hervor. Hier zeigt sich ein Prinzip, das das ganze Gespräch durchzieht: Mediengeschichte ist die Geschichte von Zugriffserleichterungen. Ein Medium setzt sich nicht durch, weil es „wahrer“ wäre, sondern weil es beweglicher, adressierbarer, anschlussfähiger ist. In dieser Perspektive erscheint selbst Gutenberg nur noch als ein Moment in einer viel längeren Genealogie, in der die Blätterbarkeit des Kodex vielleicht folgenreicher ist als der Druck mit beweglichen Lettern. Wieder ist es die überraschende Wirkung, die zählt: Kleine technische Formen — die Seite, die Fußnote, das standardisierte mathematische Zeichen — verändern ganze Wissensordnungen. Friedrich_Kittler_lektoriert

    Die Genealogie der Nebenfolgen

    Vielleicht ist dies die tiefste Lehre des Gesprächs zwischen Lischka und Kittler. Technologische Veränderungen wirken selten dort, wo ihre zeitgenössischen Beschreibungen sie verorten. Die Schreibmaschine ist nicht nur eine schnellere Feder; sie ist ein Hebel der Feminisierung bürokratischer Arbeit und der Entkopplung von Schrift und Handschrift. Die Telefonie ist nicht nur Fernsprechen; sie ist die Einrichtung eines akustischen Regimes, das Stimmen sortiert und Arbeitskörper neu disponiert. Der Computer ist nicht nur Rechenmaschine; er ist die universale Operationsform, in der sich die bisherigen Medien ineinander übersetzen lassen. Und das Buch selbst war nie bloß Träger von Inhalten, sondern immer schon eine transportable, adressierbare, blätterbare Technik. Mediengeschichte ist deshalb keine Nebengeschichte zur Ideen- oder Sozialgeschichte. Sie ist deren oft unsichtbare Infrastruktur. Kittlers Größe im Gespräch mit Lischka liegt darin, diese Infrastruktur nicht bloß zu benennen, sondern ihre paradoxen, oft unerwarteten Effekte freizulegen. Wer nach der „Wirkung“ technischer Erfindungen fragt, erhält von ihm keine lineare Antwort. Er erhält eine Genealogie der Nebenfolgen — und damit vielleicht die präziseste Form, in der Medientheorie überhaupt historisch denken kann.

    Zur Quelle des Gesprächs

    Dass dieses Gespräch heute überhaupt in seiner historischen Dichte lesbar und hörbar wird, verdankt sich dem Kontext von „Am Nerv der Zeit“, jener vom ZKM | Zentrum für Kunst und Medientechnologie, Karlsruhe, zugänglich gemachten Sammlung von Tondokumenten aus dem Archiv des Kulturphilosophen Gerhard Johann Lischka. Über 14 Stunden digital überarbeitetes Audiomaterial aus den Jahren 1974 bis 1990 versammeln dort Gespräche, Vorträge und performative Formate an der Schnittstelle von Kunst, Medien und Theorie; das Interview mit Friedrich Kittler steht somit nicht isoliert, sondern gehört in ein größeres Dispositiv des „aktuellen Denkens“, das Lischka mit bemerkenswerter Konsequenz aufgebaut hat. Wenn Lischka rückblickend davon spricht, Kunst, Medien und Theorie so vermischt haben zu wollen, dass der „Nerv der Zeit“ getroffen werde, dann bezeichnet dies präzise auch den Erkenntniswert des Kittler-Gesprächs: Es ist nicht nur ein Dokument einer Theorie, sondern selbst ein Medium jener intellektuellen Konstellation, in der Mediatisierung zum Namen einer Epoche wird. Gerade deshalb besitzt diese Quelle mehr als archivischen Wert — sie erlaubt, die Genealogie medientheoretischen Denkens nicht bloß nachzulesen, sondern in ihrer akustischen, zeitgeschichtlichen und institutionellen Situiertheit zu erfahren.

    Siehe auch:

    Mein Exkurs auf LinkedIn: Bücher als Männerwelt: Wie technische Medien die alte Schriftordnung durchbrachen

    Die Konservierungs-Illusion: Warum Industriepolitik die Zukunft nicht retten kann, indem sie die Vergangenheit stützt

    Industriepolitik hat sich an ein Ritual gewöhnt: Wenn Produktion sinkt, sollen Strukturen „gerettet“ werden. Gemeint sind Werke, Lieferketten, Produktlinien, Beschäftigung – möglichst so, wie sie gestern waren. Das klingt bodenständig. Es ist oft der teuerste Weg, weil er am Kern vorbeigeht: Nicht die Industrie verschwindet, sondern ihre alte Zusammensetzung. Wer Strukturen konserviert, konserviert meist Klumpenrisiken.

    Der Pioneer-Text „Wohlstand von Unten“ von Guido Schmidt und Winfried Felser setzt genau an dieser Stelle an. Gleich am Anfang steht ihr programmatischer Satz: „Das alte Top-down-Modell in Deutschland muss abgelöst werden, um wieder wettbewerbsfähig zu werden. Statt zentraler Macht braucht es dezentrale Innovation und neue wirtschaftliche Spielregeln.“
    Das ist keine Stilfrage. Es ist eine Standortdiagnose.

    Wohlstand von unten statt große Lösung

    Schmidt und Felser legen den Finger auf eine politische Selbsttäuschung: die Vorstellung, Wohlstand sei das Ergebnis einer großen Entscheidung „oben“, die dann im Land nach unten durchgereicht wird. Ihr Zwischenruf heißt nicht „weniger Staat“, sondern „anderer Staat“: weniger Inszenierung, mehr Ermöglichung; weniger Gipfel, mehr Ökosystem.

    Sie nennen diese Erwartung ausdrücklich „Die Illusion der großen Lösung“ und schreiben: „Die Politik will uns erklären, dass Wohlstand ein Top-Down Ergebnis ist.“ Und sie fassen die politische Pose in acht Wörtern zusammen: „Das Versprechen der Politik lautet ‚Wir machen das‘.“

    Im Text wird diese Pose an den Instrumenten festgemacht, die gerade Konjunktur haben: Kanzlergipfel, Bazooka-Rhetorik, Sondervermögen. Schmidt und Felser nennen eine Zahl, die als Zauberformel durch die Debatten wandert: Investitionen von 631 Milliarden Euro, die – so das Versprechen – „uns … in eine glorreiche Zukunft führen“ sollen. Der Einwand der Autoren ist nicht kleinlich. Er ist strukturell: Die großen Bilder ersetzen keine Antwort auf Kosten, Tempo, Bürokratie, Kapitalbildung, Technologiepfade.

    Ihre Pointe ist schärfer: „In Anzug und Krawatte strahlt uns … eine sauber geordnete Vergangenheit an und will sich uns als Zukunft verkaufen.“ Das ist der Kern der Konservierungs-Illusion: Vergangenheit wird als Zukunft etikettiert.

    Der lange Schatten der Deindustrialisierung

    Wer heute über sinkende Industrieproduktion klagt, tut oft so, als beginne die Geschichte mit der letzten Statistik. Das stimmt nicht. Der Trend ist alt. Mein Schumpeter-Text für den Metropolis-Band, der hier als Folie dient, fasst ihn knapp: „Den Gipfelpunkt hatte das produzierende Gewerbe 1960 erreicht, seitdem geht es stetig bergab.“ Und: Seit den neunziger Jahren entsteht der Löwenanteil von Beschäftigung und Wertschöpfung durch immaterielle und nachindustrielle Produktion.

    Das ist keine Einladung zur Industrie-Verachtung. Es ist eine Warnung vor falscher Politik. Wer den Trend ignoriert, nimmt das Symptom – weniger Produktion – für die Krankheit. Die Krankheit heißt eher: fehlende Neukombination, zu wenig neue Märkte, zu wenig Kapital für Skalierung, zu wenig Geschwindigkeit in der Umsetzung.

    Schumpeter hat das Prinzip dafür geliefert. Entscheidend ist nicht Routine, sondern neue Kombination. Der Satz fällt im Text wörtlich: „Nur dann erfüllt er … die wesentliche Funktion …, wenn er neue Kombinationen realisiert.“ Konservierung ist das Gegenteil davon.

    Warum „Industrie retten“ oft Industrie schwächt

    Schmidt und Felser kritisieren nicht nur die Erzählung, sondern die Wirkungsmechanik. Sie zeigen, dass die „große Lösung“ am Ende häufig eine große Umverteilung von Zeit und Aufmerksamkeit ist: Gipfelbilder, Förderkulissen, Beruhigungsreden – während Unternehmen die reale Kosten- und Wettbewerbsfrage anders beantworten: mit Verlagerung, Automatisierung, internationaler Aufstellung.

    Sie sprechen von strukturellen Kostennachteilen und den „Behinderungen durch Bürokratie“, die von den etablierten Akteuren nicht einfach wegmoderiert werden. Und sie liefern die harte Arbeitsmarktfolie: „Allein seit 2019 sind etwa 217.000 Arbeitsplätze in der Industrie verloren gegangen.“
    Dazu der Satz, der im Ohr bleibt: „Aktuell rechnet man mit ca. 10.000 Arbeitsplätzen pro Monat.“

    Im selben Beitrag zeigt eine Grafik, wohin Beschäftigung wächst: Pflege und Soziales (+73 Tsd.), Gesundheitswesen (+65), öffentliche Verwaltung (+44) – während Industrie unter Druck steht.
    Die Konsequenz ist unbequem: Wer Industriepolitik als Bestandsschutz betreibt, arbeitet gegen die Richtung der Volkswirtschaft und wundert sich über wachsende Friktion.

    Baden-Württemberg: Vom Erfolgsmodell zum Klumpenrisiko

    Baden-Württemberg war lange der Beweis, dass Deutschland Mittelstand kann: Maschinenbau, Automobil, Zuliefernetze, Export. Genau deshalb wirkt der jüngste Umsatzknick so aufschlussreich. Die von dir zitierte Datev-Analyse beschreibt einen Rückgang der Mittelstandsumsätze nach dem Hoch 2022; über Jahre nur Seitwärtsbewegung. Der Kern des Problems ist die enge Fixierung auf zwei Branchen: Auto und Maschinenbau. Die Mechanik ist bekannt und trotzdem politisch unterschätzt.

    Der Umbau der Autoindustrie trifft die Zulieferer doppelt: Erst sinkt die Nachfrage nach klassischen Komponenten; dann verschieben sich Wertschöpfungsanteile in Richtung Software, Leistungselektronik, Batterieketten – oft außerhalb der bisherigen regionalen Logik. Gleichzeitig leidet der Maschinen- und Anlagenbau unter Auftragsrückgängen und unter einer Investitionsschwäche, die im Inland besonders sichtbar ist. Und wenn investiert wird, landet ein Teil der Vorhaben im Ausland; die heimische Zulieferbasis folgt nicht automatisch.

    Hinzu kommt der zweite Schlag: Wenn große Arbeitgeber abbauen, fällt regionale Kaufkraft. Dann geraten auch die „unsichtbaren“ Teile des Mittelstands unter Druck: Handwerk, Dienstleistungen, lokale Zulieferer. Deindustrialisierung ist nicht nur weniger Werkstor, sondern weniger Nachfrage im Umkreis.

    Dass sich einzelne Räume im Land besser halten – Ulm, Rhein-Neckar – ist kein Wunder, sondern ein Hinweis. Wo Branchenmix gelingt, stabilisieren Life Sciences, Medtech, IT und spezialisierte Industrie sich gegenseitig. Das ist „Wohlstand von unten“ als Praxis: nicht ein Sektor, der alles trägt, sondern ein Ökosystem, das Schocks verteilt.

    Regionale Stärken aufladen: Schwäbische Alb als Blaupause

    Konservierungspolitik fragt: Welche Fabrik bleibt? Eine zukunftsfähige Politik fragt: Welche Fähigkeit skaliert in neue Märkte?

    Die Schwäbische Alb steht für eine Fähigkeit, die selten als Zukunftstechnologie etikettiert wird, aber genau das ist: Feinmechanik. Präzision, Messkultur, Materialgefühl, Prozessstabilität – das sind Deep-Tech-Voraussetzungen. Wer diese Stärke „auflädt“, hängt sie an neue Themen: Sensorik, Medizintechnik, Robotik, Laborautomation, Präzisionsfertigung für Bioprozesse. Dann bleibt die Region industriell – aber nicht in der alten Branchenlogik.

    Schmidt und Felser formulieren die Zielrichtung als Epochenwechsel: „Es geht um die Erkenntnis, dass die neue Welt kleinteiliger, dezentraler, vernetzter, innovativer und mutiger werden muss.“ Das beschreibt ziemlich genau, was ein regionales Kompetenz-Upgrade leisten soll: weniger Monolith, mehr Kombinatorik.

    Montanregionen: Vom Stollen zum Orbit

    Noch radikaler wird das Prinzip in Montanregionen. Kohle und Stahl als Leitindustrie sind Geschichte. Aber die zugrunde liegenden Kompetenzen – Förderung, Aufbereitung, Stoffströme, Großanlagenbetrieb, Sicherheit, schwere Verfahrenstechnik – sind nicht wertlos. Sie brauchen einen neuen Marktbezug.

    Hier passt das von dir gesetzte Thema Rohstoffgewinnung im Weltall als strategischer Projektor. Nicht, weil „Space Mining“ morgen Jobs in fünfstelliger Zahl bringt. Sondern weil es zwingt, Kompetenzen neu zu verschalten: Robotik und Autonomie, Energieversorgung unter Extrembedingungen, Materialtrennung, neue Werkstoffe, Standards, Haftung. Wer Montankompetenz so neu kombiniert, baut ein Wissensökonomie-Profil, das zurückwirkt: auf Recyclingtechnologien, Kreislaufwirtschaft, Rohstoffsicherung, neue Prozessketten in der Energiewende.

    Das ist der Punkt: Es geht nicht um ein neues Branchenplakat, sondern um eine neue Kombinationsmaschine.

    Was Politik leisten muss – und was sie lassen sollte

    Schmidt und Felser argumentieren nicht gegen Investitionen. Sie argumentieren gegen die Vorstellung, Investitionen wirkten automatisch, solange „oben“ genügend Geld bewegt wird. Ihr eigener Chart zur Frage „Wie viel Wachstum bringt das Sondervermögen?“ illustriert genau diese Skepsis: Ein Investitionsszenario kann deutlich stärker wirken als das, was als „aktuelles Politikscenario“ mit fraglicher Zusätzlichkeit daherkommt. WohlstandVonUnten

    Die Folgerung liegt nahe: Industriepolitik muss weg vom Denkmalpflegerischen und hin zum Ermöglichen von Neukombinationen. Nicht das einzelne Werk retten, sondern die Bedingungen schaffen, unter denen Regionen Neues bauen.

    Schumpeter liefert dafür die ökonomische Logik: Routine schöpft ab, Entwicklung entsteht endogen. Das Routineunternehmen „arbeitet auf den überkommenen Grundlagen“ – und genau so entsteht kein neues Wachstum.

    Keine Rückkehr, sondern ein Upgrade

    Die öffentliche Debatte hängt zu oft an der Frage, ob Deutschland „wieder mehr Industrie“ bekommt. Die entscheidendere Frage lautet: Ob Deutschland schneller neue Kombinationen organisiert – regional, dezentral, wissensbasiert.

    „Wohlstand von unten“ ist dabei kein Wohlfühlbegriff. Es ist eine Zumutung an Politik und Verbände: weniger Theater, mehr Strukturarbeit. Schmidt und Felser sagen das in ihrer Grundformel: Top-down ersetzen, dezentrale Innovation ermöglichen, Spielregeln ändern.

    Wer alte Strukturen konserviert, bekommt am Ende beides: weniger Industrie und weniger Zukunft. Wer regionale Stärken auflädt, bekommt das, was im Moment fehlt: neue Themen, innovative Kombinatorik, Wissensökonomie – und damit wieder einen Grund, warum Produktion hier stattfindet.

    Dirk Baeckers neues Suhrkamp-Buch „Digitalisierung“ und die späte Einsicht, dass Suchmaschinen keine Gesellschaftstheorie ersetzen

    Der Satz „Luhmann statt Google“ steht nicht bei Dirk Baecker. Er stammt von mir. Ich habe ihn über einen älteren Text gesetzt, den ich 2019 noch einmal hervorgeholt habe, um zu prüfen, wo der frühe Instinkt in Sachen Computerkommunikation trug und wo er sich täuschte. Die spätere Diskussion in der über den Niedergang lokaler und regionaler Medien im Rheinland gehört in dieselbe autobiographische Linie: als publizistische Selbstkontrolle, nicht als Baecker-Exegese. Diese Trennung ist wichtig. Sonst verlegt man dem Soziologen in die Tasche, was aus meiner eigenen Werkstatt stammt: den Blick auf die ausdünnende regionale Öffentlichkeit, die Erosion der alten Medienzwischenhändler und die Frage, was aus einer Gegend wird, wenn sie ihre Beobachter verliert.

    Mein Satz, sein Buch

    Baeckers neues Buch setzt anders ein, kälter, höher, ohne Rücksicht auf jene Behaglichkeit, mit der die Gegenwart ihre Apparate bewundert. Schon der Titel ist eine kleine Zumutung. Das durchgestrichene Wort „Digitalisierung“ klingt nach Verwaltungsdeutsch, nach Handreichung, nach Schreibtischlampe. In Wahrheit liegt hier ein Buch vor, das die Lampe ausknipst und zeigt, wie sehr wir uns daran gewöhnt haben, im Schein der Geräte die Gesellschaft selbst zu übersehen. Baecker nennt Digitalisierung ein „analoges Phänomen“. In diesem Ausdruck steckt das ganze Programm: Das Digitale marschiert nicht auf leerem Feld. Es trifft auf eine widerständige Welt aus Körpern, Routinen, Institutionen, Missverständnissen, Gewohnheiten und Interessen. Der Rechner rechnet diskret; die Gesellschaft antwortet kontinuierlich, zäh, krumm, bisweilen boshaft.

    Das ist der erste Vorzug dieses Buches: Es behandelt den Computer nicht als Zaubergerät und die künstliche Intelligenz nicht als säkularen Geist. Es fragt vielmehr, was aus sozialer Wirklichkeit wird, wenn sie in Datenformate übersetzt, durch Modelle gejagt und wieder an jene Wirklichkeit zurückgespielt wird, aus der sie zuvor herausgeschnitten wurde. Baecker spricht vom Zusammenspiel von Technik, Organismus, Bewusstsein und Gesellschaft; Digitalisierung sei nur dann verstanden, wenn man diese vier Größen zusammen denkt und ihre Synchronisation als flüchtigen, aber folgenreichen Moment begreift. Damit ist der Ton gesetzt: keine Maschinenmystik, keine Kulturpanik, sondern eine Theorie der Lage.

    Der Rechner als neuer Dativ

    Die stärksten Seiten des Buches beginnen dort, wo Baecker den Begriff der Kommunikation von der sentimentalen Umarmung der Gegenwart befreit. Überall hört man inzwischen, Maschinen „reden“ mit uns, „verstehen“ uns, „helfen“ uns, „begleiten“ uns. Die Sprache der Gerätewerbung hat sich wie Parfüm über ganze Debatten gelegt. Baecker geht einen Schritt zurück und sieht genauer hin. Rechner sind keine Personen. Aber sie verändern die Grammatik des Sozialen. Der entscheidende Satz lautet, in äußerster Nüchternheit: Kommunikation mit Rechnern „kommuniziert Berechnungen“. Damit ist mehr gesagt als in einer halben Bibliothek zum Thema KI. Nicht mehr nur Sätze, Bilder, Töne und Gesten zirkulieren, sondern ihre statistische Vorbewertung, ihre relationale Einordnung, ihr möglicher Anschluß. Mitteilung wird zum Index, Rede zur Rechenlage, Aufmerksamkeit zur Funktion eines Datenraums.

    Man könnte sagen: Der Rechner ist der neue Dativ der Moderne. Man kommuniziert nicht über ihn wie über einen Hammer auf der Werkbank, sondern mit ihm wie mit einem Gegenüber, das sich der Verfügung entzieht und doch von Menschen gemacht ist. Eben darin liegt die eigentümliche Verlegenheit der Gegenwart. Sie hat ihre Werkzeuge so gebaut, dass diese Werkzeuge inzwischen an der Form der Welt mitschreiben, ohne darum schon Autoren zu sein. Baecker hält diese Schwebe aus. Er zieht weder den naiven Schluss, der Computer sei nur ein Mittel, noch den modischen, er sei bereits ein Subjekt. Er zeigt, dass das Digitale den Raum möglicher Anschlüsse umbaut und damit tiefer in das Soziale eindringt als jede alte Apparatekunde.

    Die Plattform als höfliche Falle

    Hier beginnt der Punkt, an dem mein alter Satz wieder interessant wird. Denn „Luhmann statt Google“ war zunächst eine Polemik gegen die intellektuelle Bequemlichkeit, die in der Suchmaschine schon eine Weltformel sehen wollte. Diese Polemik ist heute noch richtiger als damals, nur aus einem anderen Grund. Google war die erste große Schule der Indexierung. Man lernte, die Welt als Trefferliste zu sehen. Baeckers Buch handelt bereits von der nächsten Stufe: von einer Umwelt, in der nicht nur gefunden, sondern fortwährend vorselektiert, gewichtet, angestupst, umgeleitet, wahrscheinlich gemacht wird. Die Plattform ist keine Bibliothek; sie ist eine höfliche Falle. Sie sagt nicht: Du musst. Sie sagt: Hier entlang. Und wenn man ihr lange genug folgt, hält man die sanfte Lenkung irgendwann für die eigene Bewegung.

    Baecker beschreibt das ohne moralischen Tremor. Er sieht, dass Plattformen, Apps und digitale Umgebungen einen neuen Kalkül der Attraktion, Kontrolle und Steuerung hervorbringen. Freiheiten werden nicht abgeschafft, sondern inszeniert; Zugänge werden nicht verriegelt, sondern so gestaltet, dass man die Schwellen oft erst bemerkt, wenn man schon daran gescheitert ist. Das ist eine präzisere Beschreibung der Gegenwart als die alte Gegenüberstellung von Freiheit und Überwachung. Die Macht der Plattformen liegt gerade darin, dass sie beides ineinander falten: die Einladung und die Kontrolle, die Leichtigkeit und die Berechnung.

    Von hier aus fällt auch neues Licht auf meinen älteren Text zur Computerkommunikation und auf die Rheinlandrunde-Debatte über den Niedergang regionaler Medien. Der Instinkt war richtig: Die klassischen Redaktionen verloren nicht bloß Auflage und Anzeigen, sondern ihren Status als privilegierte Sortiermaschinen des Öffentlichen. Falsch oder jedenfalls zu optimistisch war nur die Annahme, an die Stelle dieser alten Gatekeeper trete einfach eine offenere, demokratischere Suchordnung. In Wahrheit trat etwas Raffinierteres auf den Plan: eine Infrastruktur der Sichtbarkeit, die Öffentlichkeit nicht abschafft, sondern sie in berechenbare Mikrobewegungen zerlegt. Die Provinz verschwindet dann nicht deshalb aus dem Bild, weil niemand mehr über sie spricht, sondern weil sie im Datenraum keinen hinreichenden Reizwert mehr erzielt.

    Vier Systeme, keine Erlösung

    Baeckers zweite große Stärke liegt darin, dass er die Debatte aus der infantilen Zweierlogik Mensch gegen Maschine herausholt. Man müsse, schreibt er sinngemäß, nicht bis eins, sondern bis vier zählen. Technik, Organismus, Bewusstsein und Gesellschaft bilden jene Konstellation, in der digitale Prozesse überhaupt erst zu Wirklichkeit werden. Auf der einen Seite rechnen die Maschinen; auf der anderen interpretieren Körper, Geist und soziale Zusammenhänge. Die Schnittstelle ist keine harmonische Naht, sondern eine dauernde Übersetzungsarbeit, ein neuralgischer Übergang, an dem Missverständnisse, Überforderungen und plötzliche Evidenzen entstehen. Genau deshalb ist Digitalisierung kein bloß technisches, sondern ein kulturelles und institutionelles Ereignis.

    Der vielleicht wichtigste Satz des Buches lautet: „Gesellschaft lässt sich nicht errechnen.“ Das ist keine Trotzformel des geisteswissenschaftlichen Feuilletons, sondern die sauberste Grenzmarkierung in einer Zeit, die ihre Modelle gern mit Wirklichkeit verwechselt. Baecker bestreitet nicht die Leistungsfähigkeit generativer und stochastischer Verfahren. Er unterschätzt sie gerade nicht. Aber er besteht darauf, dass eine soziologische Theorie keine Algorithmen des Sozialen liefert, sondern die Unberechenbarkeit jenes Zusammenhangs sichtbar macht, in dem Daten, Erwartungen, Situationen und Institutionen einander fortwährend umlagern. Der von ihm entworfene „Kalkül der Lage“ ist deshalb kein Herrschaftswissen, sondern der Versuch, die Form der Unübersicht mit begrifflicher Disziplin zu verfolgen.

    Warum am Ende doch Luhmann gewinnt

    Am schönsten wird das Buch dort, wo es drei Versuchungen der Gegenwart in einer knappen Reihung ordnet. Für Habermas tendiert Kommunikation, wenn man sie nur lange genug von Zwang freihält, zur „Vernunft“; für Michel Serres je nach parasitärem Geschick zum „Netzwerk“; für Luhmann, abhängig von produktiven Zufällen, zum „System“. Diese kleine Trias ist kein Seminarwitz, sondern ein Kompass. Denn genau zwischen diesen drei Polen schwankt die gesamte Debatte über Digitalisierung: zwischen der Hoffnung auf vernünftige Verständigung, der Faszination am Netz und der Einsicht, dass soziale Ordnungen sich nur aus kontingenten, selektiven, eigensinnigen Anschlüssen bilden.

    Hier steht mein Satz also an seinem richtigen Ort. Luhmann statt Google heißt nicht: zurück in die Bibliothek, raus aus dem Netz. Es heißt: Die Suchmaschine bleibt innerhalb der Probleme, die sie technisch löst. Sie ordnet Zugriff, nicht Gesellschaft. Sie verbessert Auffindbarkeit, nicht Selbstverständigung. Sie sortiert, aber sie weiß nicht, was sie anrichtet, wenn das Sortieren selbst zur heimlichen Verfassung des Öffentlichen wird. Baeckers Buch liefert für diese Einsicht die Begriffe, die Schärfe und jene Kälte, ohne die Theorie rasch zu Weltanschauung gerinnt.

    Darum ist dieses Buch mehr als eine Intervention in die KI-Debatte. Es ist eine Erinnerung daran, dass die Gesellschaft kein Dashboard ist. Sie ist kein Prompt, kein Modelloutput, kein sauber kuratierter Datenraum. Sie ist das Geräusch der Anschlüsse, das Knirschen der Übersetzungen, das Wiederauftauchen des Analogen im Innern der elegantesten Maschine. Gerade deshalb lohnt die Lektüre. Denn wer nach diesem Buch noch immer glaubt, Google erkläre die Gegenwart, verwechselt die Straßenkarte mit der Stadt.

    Der Kompass, der sich dem Norden verweigert

    Ein alter Bus, der nicht geschniegelt über Autobahnen gleitet, sondern die kleinen, nicht digitalisierten Linien nimmt – jene Wege, auf denen der Zufall noch Vorfahrt hat. Im Armaturenbrett kein Heilsversprechen aus Satelliten, keine Stimme, die die Welt „in 300 Metern rechts“ zerlegt. Stattdessen Blick nach vorn: offen. So hat sich „Gernstl unterwegs“ über 42 Jahre angefühlt – weniger als Fernsehformat denn als gelebte Poetik der Kontingenz.

    Der Kino-Dokumentarfilm „Gernstls Reisen – Auf der Suche nach irgendwas“ bündelt dieses Credo noch einmal. Franz Xaver Gernstl, Kameramann Hans Peter Fischer und Tonmann Stefan Ravasz zeigen nicht „die Welt“, sie zeigen die Methode, mit der Welt überhaupt erst sichtbar wird: hingehen, anhalten, anklopfen, aushalten, zuhören. Und dann zulassen, dass die Dinge passieren, die man nicht bestellen kann.

    Serendipität als Handwerk, nicht als Glücksduft

    Serendipität klingt nach Glücksfall und Zufallsromantik. In Wahrheit ist sie eine Disziplin. Wer finden will, ohne zu suchen, muss erst lernen, nicht zu besitzen: keine Pointe, kein Skript, kein Gesprächsziel, das wie ein Pfosten im Boden steckt. Genau darin liegt die Modernität dieser Filme – ausgerechnet in ihrer Weigerung, modern zu sein.

    Gernstls Gesprächsführung funktioniert wie ein Gegenprogramm zur Gegenwart: keine Fragen als Trichter, die Menschen in vorgefertigte Antworten pressen, sondern Fragen als Türen. Man merkt, wie schnell das Gegenüber vom „Interview“ ins Erzählen kippt, sobald das Urteil aus dem Raum verschwindet. Gernstl führt nicht, er hält den Raum offen. Die Gesprächspartner wirken nicht „abgerufen“, sondern eingeladen.

    Fischers Kamera ist dabei nicht der Blick des Jägers, sondern der Blick des geduldigen Zeugen: sie bleibt, sie drängelt nicht, sie lässt den Moment sich selbst erzeugen. Ravasz’ Ton wiederum rettet die Feinheiten, die in der Bildhysterie der Gegenwart untergehen: das Zögern, das Räuspern, das ungeschützte Lachen, die Stille nach einem Satz. Ohne diesen Klangteppich wäre vieles nur „nett“. Mit ihm wird es wahr.

    Kaltes Wasser, warme Köpfe

    Im Film greift Gernstl Janosch auf, indirekt wie eine Lebensformel: Das Leben sei wie kaltes Wasser, in das man hineingeworfen werde; entweder gehe man unter – oder man sage sich, man habe ohnehin ins Wasser gewollt, kaltes Wasser sei die eigene Leidenschaft, ein verdammt schönes Vergnügen, Leute. Dieser Satz arbeitet im Untergrund der gesamten Reise. Nicht als Trostpflaster, eher als Temperaturmessgerät. Gesucht werden nicht die perfekten Biografien, sondern die, die trotz Bruchstellen eine Art Lebenskunst entwickeln: nicht Resignation, sondern Trotz-Glück.

    Die Nachricht, dass keine weiteren Produktionen für das BR-Fernsehen entstehen werden, trifft deshalb nicht wie eine Programmänderung, sondern wie ein Kulturverlust. Hier endet nicht bloß eine Serie. Hier verschwindet eine Form von Öffentlichkeit, die sich dem Management verweigert: Begegnung statt Casting, Gespräch statt Choreografie, Zufall statt Redaktion aus dem Baukasten.

    In einer Medienwelt, die Vorhersage mit Wahrheit verwechselt, wirkt Gernstls Methode wie ein Störsignal: Kontingenz als Qualität. Vielleicht genau deshalb so kostbar. Der Bus steht irgendwann still – die Spur bleibt. Und sie erinnert daran, dass die wirklich wichtigen Geschichten selten dort liegen, wo sie geplant wurden.

    Nachsatz: Das Weiterfahren im Buchformat

    Demnächst erscheint im Kösel-Verlag „Glück gehabt!“ (Über das Unterwegssein, das Filmemachen und das Leben an sich, Hardcover). Wer den Film als Verdichtung erlebt, findet im Buch die ausgebreiteten Karten: Donau und Matterhorn, Sylt und Elbe, Dolomiten und Gardasee, Jesolo, Holland, Irland, Los Angeles – nicht als Reiseliste, sondern als Beleg dafür, dass Menschen überall dort auftauchen, wo niemand ihnen eine Rolle zuschiebt. Die alte Frage kehrt wieder, nun als Leitmotiv: Wie plant man zufällige Begegnungen, ohne sie zu verraten? Gernstls Antwort bleibt eine Haltung: hinschauen, zuhören, sich nicht anstellen zwischen Leben und Kamera. Der Zufall übernimmt dann den Rest – und manchmal fühlt sich dieser Rest wie das Eigentliche an.

    Mehr dazu in unserem Sohn@Sohn-Newsletter.

    Der digitale Doppelgänger: Warum die Angst vor KI-Agenten am eigentlichen Problem vorbeigeht #EinsteinApp #Wahlster #DFKI #ZPNachgefragtWeek

    Der Skandal, der keiner ist

    Die Debatte um KI-Agenten liebt den Moment der Empörung: Eine App taucht auf, verspricht, das Studium gleich mit zu erledigen, und verschwindet wieder – und schon steht das Urteil fest. Betrug. Bildungszerstörung. Ende der Leistungsprinzipien. Die „Einstein“-App – ein autonomer Agent, der sich im Namen von Studierenden in Lernsysteme einloggt, Vorlesungen „anschaut“, Paper liest, in Foren diskutiert und Hausarbeiten schreibt – lieferte diesen Moment in Reinform. Das Programm verschwand nach kurzer Zeit aus den Stores; nicht, weil die Idee zu verrückt gewesen wäre, sondern weil die Namensrechteinhaber klagten.

    Der reflexhafte Schock ist verständlich. Aber er ist auch bequem. Denn er erlaubt es, eine technische Entwicklung moralisch zu verhandeln, statt die institutionelle Wirklichkeit zu betrachten, die sie freilegt. Die eigentliche Provokation der Agenten liegt nicht darin, dass sie „zu viel können“. Sie liegt darin, dass unsere Lern- und Qualifikationslogik so gebaut ist, dass ein Agent sie überhaupt in dieser Breite abarbeiten kann: content-lastig, videobasiert, assessment-getrieben – und oft näher an Fleißnachweisen als an Könnerschaft. Genau das benennt der Diskurs um „Einstein“ selbst: Agentic AI ist weniger Ursache als Symptom einer tieferen Frage – warum wir eigentlich lernen.

    Maria Laach: Die deutsche Vorgeschichte der Personalisierung

    Wer die Agenten-Debatte nur als Silicon-Valley-Problem liest, verkennt ihre längere, auch deutsche Vorgeschichte. In der Forschungslinie, die heute wieder in Mode kommt, geht es seit Jahrzehnten nicht primär um „Antworten“, sondern um Passung: um Systeme, die nicht bloß Inhalte ausgeben, sondern verstehen, wer ihnen gegenübersitzt – und daraus ihr Verhalten ableiten. In einem Feature-Text zur Wahlster-Session wird diese Linie ausdrücklich historisch verortet: Vor rund vierzig Jahren gab es in Deutschland einen internationalen Workshop zur empathischen Benutzermodellierung; daraus entstand eine bis heute aktive Community, sichtbar etwa in der Reihe UMAP (User Modeling, Adaptation and Personalization).

    Das ist mehr als Anekdote. Es ist ein Gegenargument zur heutigen Alarmrhetorik. Denn „Hyperpersonalisierung“ ist nicht der spontane Exzess einer neuen Modellgeneration, sondern die späte Marktreife eines alten Versprechens: Lern- und Dialogsysteme sollen nicht alle gleich behandeln, sondern individuell – nicht aus Freundlichkeit, sondern aus Effizienz. Wer schon einmal erlebt hat, wie Lernende in Standardkursen entweder unterfordert oder überfordert werden, versteht, warum Personalisierung ökonomisch ist: Sie reduziert Abbrüche, verkürzt Lernzeiten, erhöht Transfer – und damit den Return on Learning.

    Von „kognitiv“ zu „sozial“: Was die Wahlster-Session wirklich behauptet

    In der Session der mit Professor Wolfgang Wahlster zur empathischen KI wurde genau dieser Perspektivwechsel eingefordert: weg von Technikromantik, hin zu Interaktion als Produktivitätsfaktor. Empathische KI soll nicht den Menschen ersetzen, sondern Systeme kontextsensitiver, verständlicher und hilfreicher machen – „weniger Reibung, mehr Passung“, wie es in der schriftlichen Fassung heißt.

    Wahlster unterscheidet vier Dimensionen von Intelligenz – kognitiv, sensorphysisch, emotional, sozial – und markiert den historischen Rückstand nicht beim Rechnen, sondern beim Verstehen von Stimmungen und sozialen Situationen. Daraus folgt ein nüchternes Pflichtenheft: Emotionen erkennen, Verhalten adaptieren, Reaktionen multimodal ausdrücken – über Sprache hinaus auch über Mimik und Gestik.

    Der entscheidende Punkt für Bildung und Lernen steckt allerdings nicht im Wort „Empathie“, sondern in der Konsequenz: Wenn Systeme individuell fördern sollen, müssen sie in der Lage sein, Lernende als dynamisches Modell zu führen – nicht als Zielgruppe. Genau hier trifft die alte Forschung auf die neue Agentenwelt.

    Das unscheinbare Herzstück: Das Benutzermodell

    In einem klassischen Text zur Benutzermodellierung wird das Prinzip so beschrieben: Eine User-Modeling-Komponente konstruiert schrittweise ein Nutzermodell, speichert, aktualisiert, löscht Einträge, hält Konsistenz und versorgt andere Systemteile mit Annahmen über den Nutzer. Für Lernkontexte ist diese Idee noch präziser: Intelligente tutorielle Systeme nutzen ein „Student Model“, das die jeweilige Verständnislage abbildet – also nicht nur beantwortet, sondern diagnostiziert.

    Was heute „KI-Agent“ heißt, ist in dieser Logik die nächste Evolutionsstufe: nicht nur ein Dialogsystem mit gutem Text, sondern ein Akteur, der Ziele verfolgt, Aufgabenketten ausführt, Lernpfade organisiert, Übungssituationen erzeugt, Feedback in Echtzeit gibt – und dabei kontinuierlich das Modell des Lernenden fortschreibt. Hyperpersonalisierung ist dann kein Marketingwort, sondern Betriebsmodus: ein Tutor pro Kopf, skalierbar.

    Die Bedenkenträger haben recht – und doch nicht

    Natürlich ist die Angst vor Agenten nicht aus der Luft gegriffen. Wenn ein System „das Studium durchklickt“, wird die klassische Hausarbeit als Leistungsnachweis fragwürdig; genau das wird im Diskurs um „Einstein“ offen ausgesprochen: Fleißnachweise verlieren ihren Wert, wenn der Nachweis automatisierbar wird – der Lernweg wäre damit noch nicht widerlegt, aber die Messung schon. Ebenso real sind Risiken wie Datenmissbrauch (weil Agenten Zugangsdaten brauchen), neue Asymmetrien (wer den besten Agenten hat, gewinnt) und die schleichende Entkernung von Kompetenz durch „Cognitive Offloading“.

    Aber die falsche Schlussfolgerung wäre, daraus ein Verbotsprogramm zu stricken – als ließe sich Agentic AI in einer offenen Tool-Ökonomie aufhalten. Im „Einstein“-Text auf LinkedIn wird das als Katz-und-Maus-Spiel beschrieben: Plattformen verbieten Agenten und bauen Gegenmaßnahmen, doch jedes neue Modell-Release verschiebt die Grenze erneut. Der Verbotsimpuls ist nachvollziehbar – nur ist er betriebswirtschaftlich naiv. Er verteidigt Prüf- und Lernprozesse, deren Stabilität längst von der Technik abhängt, die man gerade verteufelt.

    Die klügere Replik lautet: Wenn Agenten alles erledigen können, müssen Institutionen und Unternehmen präziser definieren, was sie eigentlich unter Lernen verstehen – und wie sie Können überprüfen wollen. Das ist unbequem, aber überfällig.

    Die Zukunft des Lernens: Agenten, aber als Tutor – nicht als Ghostwriter

    Der Diskurs um „Einstein“ schlägt, fast beiläufig, die beiden härtesten Hebel vor, die übrig bleiben, wenn Inhalte und Standardaufgaben entwertet sind: intrinsische Motivation und persönliche Beziehungen. Echtes Lernen wird zur Entscheidung; wer nur Punkte sammelt, kommt leichter durch. Wer wirklich etwas können will, braucht eine Lernumgebung, die Reibung nicht eliminiert, sondern produktiv macht – und Feedback, das ein Gegenüber bleibt.

    Gerade hier kann ein Agent mehr sein als eine Abkürzung. In der Wahlster-Session wird „Losgröße 1“ als Bildungsversprechen formuliert: Tutorielles Lernen müsse stärker auf Einzelpersonen ausgerichtet werden; persuasive Systeme können motivieren und „dranbleiben“, wo Zeit und Ressourcen fehlen. Wahlster Pressearbeit Das ist nicht die Abschaffung des Lernens, sondern seine Industrialisierung in die richtige Richtung: weg von Massencontent, hin zu individueller Förderung, die in großen Klassen, großen Kohorten, großen Unternehmen sonst schlicht nicht leistbar ist.

    Hyperpersonalisierung bedeutet dann nicht, dass der Mensch verschwindet. Sie bedeutet, dass der Mensch dort wieder auftauchen kann, wo er unersetzlich ist: bei Urteilskraft, Verantwortung, sozialer Interaktion, Wertefragen. Oder, zugespitzt: Wenn KI das Ausfüllen erledigt, muss Bildung das Denken zurückfordern.