Wenn der Sturm kommt: Warum Corporate Influencing an Organisationen scheitert – und woran es wächst #ZukunftPersonalNord

Überlegungen zu Winfried Ebners These, warum Corporate-Influencer-Initiativen an Organisationen scheitern

Winfried Ebner macht in seiner zweiten Episode „Corporate Influencer Kompakt“ eine Beobachtung, die man in vielen Unternehmen inzwischen fast als Naturgesetz behandeln muss: Corporate Influencing wird zu oft als Plattform- und Contentfrage diskutiert – Profil, Reichweite, Postingplan – und zu selten als Organisationsfrage. Sein Kernargument ist sauber: Sobald Mitarbeitende sichtbar miteinander vernetzt agieren, verändern sich Arbeitsweisen. Informationen zirkulieren schneller, Hierarchien werden durchlässiger, Dialoge werden öffentlicher. Genau deshalb scheitern viele Programme nicht an engagierten Menschen, sondern am Kontext, in dem diese Menschen agieren sollen.

Ebner nennt diesen Kontext den „organisationalen Boden“: Guidelines, rechtliche/technologische Rahmenbedingungen, Schulungen, Rollen und Strukturen, die Community-Arbeit systematisch stützen. Fehlt das, entstehen Freigabeschleifen, Unsicherheit, Reibung, Verantwortungsdiffusion – und die Community verdorrt, bevor sie wurzeln kann.

Das ist richtig. Und es ist erst die halbe Wahrheit.

Denn der eigentliche Stresstest für diesen Boden kommt nicht im Sonnenschein, sondern im Sturm.

Der Boden ist nicht nur Infrastruktur – er ist ein Machtarrangement

Guidelines, Trainings und Rollen sind die sichtbaren Teile. Der unsichtbare Teil ist Governance: Wer darf im Zweifel sprechen? Was passiert bei Fehlern? Wer schützt wen – und wie verbindlich ist dieser Schutz?

Corporate Influencing erzeugt eine zweite Öffentlichkeit innerhalb der Organisation: ein Netzwerk, das schneller ist als die Linie und glaubwürdiger wirkt als die Pressemitteilung. In Schönwetter-Zeiten wird diese Öffentlichkeit gefeiert. In Krisenzeiten wird sie als Risiko empfunden – und dann zeigt sich, ob das Programm Kulturarbeit war oder nur Kommunikationsarbeit.

Wenn man Ebners „Boden“ ökonomisch liest, dann ist das kein „Soft Factor“, sondern ein Produktionsfaktor: Vertrauen als Produktivkapital. Ohne Vertrauen steigen Transaktionskosten: mehr Abstimmung, mehr Kontrolle, mehr Zögern, weniger Initiative. Corporate Influencing ist in diesem Sinn kein Kampagnenformat, sondern eine Investition in Geschwindigkeit und Lernfähigkeit – aber nur, wenn die Organisation die Machtverschiebung, die damit einhergeht, toleriert.

Das Henne-Ei-Problem ist real – aber es wird oft falsch gelöst

Ebner beschreibt das klassische Dilemma: Muss die Organisation kulturell bereit sein, bevor eine Community entsteht? Oder entsteht Veränderung erst durch die Community?

In der Praxis scheitern viele Programme, weil Unternehmen dieses Dilemma mit einem Trick umgehen: Sie tun so, als könnten sie Kultur „kommunizieren“. Dann wird Corporate Influencing als Change-Symbol inszeniert, während die Regeln der alten Welt im Hintergrund unangetastet bleiben: Freigaben, Sanktionsangst, politische Karrierelogik, die Reibung bestraft und Anpassung belohnt.

Eine Community kann Kultur verändern – ja. Aber nur, wenn sie nicht als Ornament behandelt wird, sondern als Organisationsbaustein mit klaren Rechten: Entscheidungskorridore, Eskalationswege, Schutzmechanismen. Sonst entsteht keine „Bewegung“, sondern Zynismus: außen modern, innen vorsichtig.

Kotters duales Betriebssystem – und die harte Kopplung zur Hierarchie

Ebner holt zurecht Kotter ins Spiel: Hierarchie liefert Stabilität, das Beschleunigernetzwerk liefert Dynamik. Corporate-Influencer-Communities bewegen sich genau in diesem Raum – 5–10 % engagierte Freiwillige können spürbare Wirkung erzeugen.

Der Punkt, an dem viele Unternehmen stolpern, ist die Kopplung: Ein Beschleunigernetzwerk darf nicht zum Parallelbetrieb werden, der zwar Stimmung macht, aber keine Wirksamkeit hat. Community braucht Anschlussfähigkeit an die Linie:

Brückenrollen (Community Management, Legal/Comms-Liaison, HR/People Partner) mit Mandat, nicht nur mit „Bitte“.

Klare Entscheidungspfad-Definition: Was ist frei bespielbar? Was ist sensibel? Was ist tabu?

Verbindliche Feedback-Schleifen: Wenn die Community Reibung meldet, muss die Organisation sichtbar reagieren – sonst ist die Beteiligung eine Einbahnstraße.

Ohne diese Kopplung passiert das, was Ebner beschreibt: Energie ist da, Geschichten sind da – aber es entsteht keine lebendige Community. Nicht aus Mangel an Motivation, sondern aus Mangel an Wirksamkeit.

Der Schlechtwetter-Test: Skandal, Stellenabbau, Kontrollwende

Hier liegt der Teil, den viele CI-Diskussionen ausblenden, und der genau in deine Frage zielt: Was passiert bei heiklen Themen?

Skandale & Compliance-Fälle
Dann reicht eine Guideline nicht. Dann braucht es Krisen-Governance: Wer darf wie reagieren, wie schnell, mit welchen Eskalationsregeln? Fehlt das, entstehen zwei schlechte Optionen: „Alles nur nach Freigabe“ (Tod der Authentizität) oder „Jeder macht, was er will“ (Risiko ohne Sicherheitsnetz).

Stellenabbau & Restrukturierung
Hier wird Corporate Influencing zur Glaubwürdigkeitsprüfung. Wenn Mitarbeitende nach außen Kultur und Zukunft verkörpern sollen, während intern Angst und Unklarheit regieren, kollidieren zwei Realitäten. Programme scheitern dann nicht am Content, sondern am psychologischen Vertrag: „Sei authentisch“ ist nicht haltbar, wenn die Organisation im gleichen Moment Authentizität sanktioniert.

Autoritärer Führungsstil / Kontrolle / Überwachung
Das ist die toxischste Wetterlage. Sobald Führung auf Kontrolle und Loyalitätstests umstellt, werden Corporate Influencer entweder eingefroren oder instrumentalisiert. Beides zerstört die Community: Im ersten Fall aus Angst, im zweiten aus Unglaubwürdigkeit.

Wenn Ebner sagt „Corporate Influencing braucht Vertrauen“, dann meint er damit nicht nur Wohlwollen – er meint strukturelle Verlässlichkeit auch dann, wenn Machtfragen im Raum stehen.

Was wäre ein „wetterfestes“ Corporate-Influencer-Programm?

Aus Ebners Rahmen (Guideline, Training, Rollen, Struktur) folgt eine Erweiterung um drei harte Prinzipien:

Nicht-Retaliation als Policy, nicht als Stimmung
Kritik, auch konstruktive Reibung, darf nicht karriereschädlich sein. Das muss explizit, trainiert und im Einzelfall verteidigt werden.

Krisenmodus definiert, bevor die Krise da ist
Ein Ampelsystem für Themen (grün/gelb/rot), Eskalationswege, rechtliche Leitplanken, klare Reaktionszeiten – damit im Ernstfall nicht die Freigabepanik die Organisation übernimmt.

Freiwilligkeit ohne KPI-Druck
Sobald Posten zur impliziten Leistungserwartung wird, kippt das ganze Modell in Compliance-Kommunikation. Community ist kein Vertriebskanal – sie ist ein Vertrauenssystem.

    „Inspired by AI“: hilfreich – aber governance-pflichtig

    Ebners AI-Passage ist ein sinnvoller Reality-Check: KI kann Impulse liefern, Struktur geben, bessere Fragen erzwingen – aber Stimme entsteht beim Menschen. Aus Organisationssicht kommt noch etwas hinzu: KI erhöht die Notwendigkeit des Bodens, nicht die Kür. Denn Prompting berührt Datenschutz, Vertraulichkeit, IP, Tonalität, Faktenprüfung. Wer KI in Community-Arbeit integriert, braucht nicht weniger, sondern mehr Klarheit: was darf rein, was darf raus, was wird geprüft, was wird geloggt.

    Ebner hat recht – und das Entscheidende ist der Moment, in dem er recht behalten muss

    Ebners These ist im Kern ein Governance-Argument: Corporate Influencer scheitern an Organisationen, wenn der organisationale Rahmen fehlt. Meine Ergänzung lautet: Der Rahmen ist nicht vollständig, solange er nur den Normalbetrieb beschreibt.

    Corporate Influencing ist kein Format für gutes Wetter. Es ist ein Instrument, das in der Krise entweder Vertrauen verzinst – oder Vertrauen verbrennt. Und daran entscheidet sich, ob eine Corporate-Influencer-Community tatsächlich Kotters Beschleunigernetzwerk wird: ein wirksames, lernfähiges, resilientes Netzwerk – oder nur eine Kampagne, die beim ersten Machtsturm einknickt.

    Man hört, sieht und streamt sich auf der Zukunft Personal Hamburg am 25. und 26. März

    Wenn man Ebners These vom „organisationalen Boden“ ernst nimmt, dann lohnt sich ein Blick ins Programm der Zukunft Personal Nord in Hamburg am 25. und 26. März 2026 wie in ein Labor: Die Session „Scaling Authenticity bei Beiersdorf: Corporate Influencing von lokaler Relevanz zur globalen Wirkung“ (25.03., 10:00–10:30, Employer Branding Stage) verspricht genau das Kernproblem zu adressieren, an dem Programme oft sterben – die Übersetzung von Pilot-Charme in skalierbare Governance (Rahmen, Training, Community, Krisenmodus) ohne die Stimme zu normieren. Direkt daneben zeigen Formate wie CEWE mit „internem Lobbying & Kick-off“ (25.03., 10:40–11:10), GOLDBECK mit einem mehrstufigen Inhouse-Brand-Ambassador-Programm (25.03., 11:20–11:50) oder HAMBURG WASSER mit dem TikTok-Spannungsfeld „Vertrauen vs. Marke“ (25.03., 12:00–12:30), dass der eigentliche Erfolgsfaktor nicht Content ist, sondern Entscheidungsfähigkeit unter Sichtbarkeit: Wer darf was, wann, wie – und wer schützt wen, wenn es unangenehm wird? Und wenn am 26.03. im „Ask Us Everything“ (15:50–16:30) die Risiken offen auf den Tisch kommen, ist das im besten Sinne Ebners Pointe: Corporate Influencing ist kein Hochglanzprojekt, sondern ein Stresstest für Führung, Kultur und interne Demokratie – und genau deshalb ist es klug, diese Diskussion dort zu führen, wo Employer Branding und Organisationsrealität endlich wieder aufeinandertreffen.

    Wir sollten das im Messe-TV-Studio in Hamburg vertiefen 🙂

    Siehe dazu auch:

    Exkurs: Macht entzaubern – warum Führung ohne Machtverständnis scheitert

    Macht ist das Betriebssystem jeder Organisation – und zugleich ihr bestgehütetes Tabu. Genau diese Schieflage adressiert Prof. Carsten C. Schermuly im Kontext seiner Arbeiten zur „Psychologie der Macht“: Nicht Macht an sich sei das Problem, sondern ihre Verdrängung. Wo man nicht offen über Macht spricht, wirkt sie trotzdem – nur eben informell, unreguliert und häufig zulasten von Lernfähigkeit und Innovation.

    Organigramme zeigen Positionen – nicht Machthaber

    Schermulys Vorschlag einer Machtlandkarte statt eines klassischen Organigramms trifft einen wunden Punkt deutscher Organisationskultur: Wir bilden Positionsmacht penibel ab, übersehen aber systematisch, wer tatsächlich Einfluss hat – durch Netzwerke, Expertise, Kontrolle über Ressourcen, Entscheidungshoheit oder Sanktionsmöglichkeiten. Machtlandkarten sollen diese Cluster „aus der Dunkelheit ins Licht holen“ und damit erstmals diskutierbar machen: Wie ist Macht verteilt – und wie sollte sie verteilt sein, damit die Organisation gut funktioniert?

    Das ist mehr als ein Diagnose-Tool. Es ist ein Kulturbruch: Denn wer Macht sichtbar macht, nimmt ihr den Mythos – und zwingt die Organisation, über Fairness, Wirksamkeit und Fehlanreize zu sprechen, statt sie nur zu spüren.

    Warum Expertise-Macht erodiert – und Charisma wieder gewinnt

    In Schermulys Perspektive verschiebt sich Macht nicht nur innerhalb von Organisationen, sondern auch zwischen Machtformen. Gerade Expertise-Macht – also Einfluss durch Wissen und Kompetenz – gerät unter Druck, wenn Unsicherheit steigt, Faktenlage strittig wird und kommunikative Dominanz (Charisma, moralische Signale, einfache Erzählungen) mehr Wirkung erzielt als belastbare Evidenz. Das ist für Unternehmen deshalb gefährlich, weil es die Anreizstruktur verändert: Wer gut erklärt, gewinnt – nicht zwingend, wer recht hat.

    Und in Krisen kippt das System oft in Richtung „starker Mann / starke Hand“: Zentralisierung wird als Effizienz verkauft. Tatsächlich steigt damit aber das Risiko klassischer Informationspathologien: Informationen werden vorgefiltert, unangenehmes Wissen wird nicht produziert oder nicht weitergegeben, Entscheidungen werden schlechter – während die Organisation zugleich passiver wird, weil sie auf „oben“ wartet.

    Autoritäre Führung ist kein „harter Kurs“ – sondern ein Innovationskiller

    Wenn Macht sich konzentriert, entsteht nicht nur ein moralisches Problem, sondern ein ökonomisches: weniger Initiative, weniger Korrektur, weniger Frühwarnsignale. In Schermulys Argumentation ist das nicht idealistisch, sondern psychologisch und strukturell: Macht kann euphorisieren, abhängig machen und Empathie sowie Impulskontrolle negativ beeinflussen – ein toxischer Cocktail, wenn zugleich die Organisation gelernt hat, lieber zu folgen als zu widersprechen.

    Der Witz ist: Viele Firmen reagieren auf Komplexität mit mehr Kontrolle – und erzeugen damit genau jene Trägheit, die sie dann als Rechtfertigung für noch mehr Kontrolle benutzen. Ein selbsterhaltender Machtkreis.

    Welche „Gewaltenteilung“ braucht ein Unternehmen?

    Schermulys praktische Konsequenz ist unbequem, aber klar: Macht muss reguliert werden – über Regeln und Kultur. Ein Beispiel: Gerade dort, wo Macht am stärksten wirkt – bei Auswahl, Aufstieg, Besetzung von Schlüsselrollen – sind die Verfahren oft am schwächsten. Er plädiert dafür, Machtkompetenz in die Diagnostik zu holen: Wer in Führung kommt, sollte nicht nur fachlich überzeugen, sondern zeigen, dass er/sie Macht verantwortungsvoll handhaben kann.

    Das ist im Kern eine Governance-Forderung: weniger Habitus- und Netzwerk-Lotterie, mehr systematische Auswahl; weniger „wer passt ins Bild“, mehr „wer schützt die Organisation vor den Nebenwirkungen konzentrierter Macht“.

    Machtverzicht als Status – nicht als Makel

    Der vielleicht modernste Gedanke ist der zum Machtverzicht: Organisationen belohnen Machtbesitz, aber kaum je Machtabgabe. Wer Verantwortung teilt, Entscheidungen dezentralisiert oder Transparenz erhöht, verliert oft kurzfristig Status – obwohl genau das langfristig Resilienz erzeugt. Schermuly argumentiert daher für eine Kultur, die Machtteilung und Empowerment sichtbar wertschätzt – weil sie Innovation, Gesundheit und Leistungsfähigkeit stützen können.

    Brücke zum Corporate Influencing

    Übertragen auf Corporate Influencing wird der Exkurs plötzlich sehr konkret: Ein Corporate-Influencer-Programm ist nicht nur Kommunikation, sondern Machtverschiebung durch Sichtbarkeit. Es stärkt Netzwerk-Macht, potenziell auch Expertise-Macht – und kratzt an Positionsmacht, weil die Deutungshoheit nicht mehr ausschließlich „oben“ liegt. Wer diese Machtlogik nicht versteht, wird im Schlechtwetter reflexhaft auf Kontrolle umstellen: Freigaben, Monitoring, Loyalitätsprüfungen. Und genau dann scheitert das Programm „an der Organisation“ – nicht an den Menschen.

    Wer liest, liegt nicht bequem: Buchvorstellung in Bonn zum 10. Todestag von Roger Willemsen mit seinem Lektor Jürgen Hosemann – Lesung der Texte: Hektor Haarkötter

    Es beginnt mit einer Frage, die in Wahrheit keine Höflichkeit ist, sondern eine Zumutung: „Liegen Sie bequem?“ Wer sie hört, glaubt zunächst, es gehe um eine Haltung des Körpers. Roger Willemsen aber wusste, dass jede wahre Lektüre mit dem Gegenteil beginnt: mit einer kleinen Störung der Bequemlichkeit. Nicht der Leser soll es sich gemütlich machen im Text; der Text soll sich, wenn er etwas taugt, in den Leser einnisten, ihn verrücken, verunsichern, neu disponieren. Dass ein solcher Satz nun, zehn Jahre nach Willemsens Tod, zum Titel eines neuen Bandes geworden ist, besitzt eine stille Notwendigkeit.

    In der Bonner Buchhandlung Böttger, wo Jürgen Hosemann, sein langjähriger Lektor im S. Fischer Verlag, den Band vorstellte und Prof. Dr. Hektor Haarkötter Texte daraus las, war an diesem Abend zu spüren, dass hier nicht einfach Nachlasspflege betrieben wurde. Es ging um die Rückkehr einer Stimme, die noch immer gegenwärtiger wirkt als viele, die heute sprechen. Hosemann selbst sagte, Willemsen komme ihm „als Toter viel lebendiger vor als viele andere lebendig“. Das ist kein Gedenksatz. Es ist eine Diagnose.

    Ein Buch als begehbare Bibliothek

    Denn „Liegen Sie bequem? Vom Lesen und von Büchern“ ist nicht bloß eine Sammlung verstreuter Texte, keine pietätvolle Resteverwertung, keine editorische Blumenablage. Das Buch ist, wie Hosemann treffend sagte, „die Bibliothek seiner Texte über Literatur“; auf dem Umschlag sieht man Willemsens Bibliothek in seinem letzten Haus, und schon darin liegt eine melancholische Wahrheit: Man betritt dieses Buch wie einen Raum, in dem einer eben noch gewesen ist.

    Herausgegeben von Insa Wilke, versammelt es erstmals in diesem Umfang Willemsens Schreiben über Literatur, über Autoren, über den Buchmarkt, über Moral, Humanität, Übersetzen, Verstehen – und über jene kurzen, funkelnden Empfehlungen, in denen seine Kunst der Verdichtung fast noch deutlicher hervortritt als im großen Essay. Dieses Buch zeigt den eigentlichen Willemsen: nicht den Fernsehmann, als den ihn die bequemere Öffentlichkeit allzu lange verwaltete, sondern den Leser als Autor, den Autor als Vermittler, den Vermittler als Liebenden.

    Herkunft aus der Nähe

    Diese Liebe zur Literatur hatte einen denkbar unprätentiösen, ja geradezu rheinischen Ursprung. In der Gesprächsrunde wurde daran erinnert, dass Willemsen in der Bonner Umgebung aufwuchs, zunächst in der Nähe von Alfter, später in Oedekoven, und mit Unterbrechungen das Helmholtz-Gymnasium in Bonn-Duisdorf besuchte. Der Weltbürger des Feuilletons, der später mit einer Leichtigkeit zwischen Musil, Beckett, Goethe und den politischen Verwüstungen der Gegenwart wechselte, hatte seine topographische Schule nicht in der Abstraktion, sondern in der Nähe: zwischen Alfter, Oedekoven und Bonn-Duisdorf.

    Wer dort zur Schule ging, wer dort las, wer dort anfing, der weiß vielleicht früher als andere, dass Bildung kein Dekor ist, sondern Arbeit, Reibung, Herkunft. Und wenn man hört, dass der kleine Roger seiner Mutter beim Schneidern Weltliteratur vorlas, dann begreift man plötzlich, dass diese später so mühelos wirkende Belesenheit nie das Produkt akademischer Pose war, sondern Ergebnis einer frühen, fast häuslichen Askese: Literatur nicht als Distinktionsmittel, sondern als Lebensform.

    Die Arbeit des Lektors, der Widerstand des Satzes

    Jürgen Hosemann hat an diesem Abend etwas ausgesprochen, was man über Schriftsteller selten so präzise hört. Willemsen, sagte er sinngemäß, reichte die Sprache manchmal nicht aus; dann habe er sie sich selbst gemacht. Darin steckt mehr Wahrheit über Autorschaft als in vielen Poetikvorlesungen. Der wirkliche Schriftsteller erkennt sich nicht daran, dass er den vorhandenen Wortschatz geschickt verwendet, sondern daran, dass er an dessen Grenzen gerät.

    Willemsens sprachliche Neuerfindungen waren, wie Hosemann schilderte, keine Manier, sondern Folge eines Sehens, das sich mit den abgenutzten Münzen der Rede nicht abspeisen ließ. Und hier beginnt das eigentliche Drama des Lektorats: Der Lektor setzt Punkte, wo der Autor Atem holen sollte; der Autor setzt den Satz fort, weil der Gedanke noch nicht fertig ist. Hosemann bekannte, er habe natürlich oft versucht, lange Sätze zu kürzen – manchmal mit Erfolg, oft ohne. Man sieht darin das schöne, unaufhebbare Kräftespiel zwischen Formwillen und Formwiderstand. Der Lektor will Helligkeit; der Autor will die ganze Bewegung seines Denkens retten. Im besten Fall gewinnt beides. Bei Willemsen gewann oft der Satz – und gerade dadurch der Leser.

    Wenn Texte eine zweite Stimme finden

    Hektor Haarkötter wiederum gab diesen Texten an diesem Abend jene zweite Geburt, die nur durch eine große Lesung geschieht. Der Goethe-Text, „Der Tausendkünstler“, wurde in seinem Vortrag zu dem, was er bei Willemsen immer ist: eine Befreiung des Klassikers aus der Gedenkstarre. Dieser Goethe ist kein bronzener Olympier, sondern ein Meister des Selbstmanagements, ein Geniekalkulierer, ein früher Regisseur der eigenen Nachwelt. Willemsen schreibt nicht gegen Goethe; er rettet ihn vor der deutschen Verehrungsindustrie.

    Ähnlich im Text auf Robert Gernhardt: Hier erscheint das Komische nicht als kleine Schwester des Ernstes, sondern als dessen schärfste Form. Und in den „Schrift-Typen“ wie in den „10 Regeln für Leserinnen und Leser“ zeigt sich vielleicht am deutlichsten, wie Willemsen dachte: nie bloß ornamental, nie bloß gelehrt, sondern immer mit jener Mischung aus Intelligenz und Charme, die den Leser nicht herablassend belehrt, sondern in eine höhere Aufmerksamkeit hineinlockt. Literatur ist für ihn keine schöne Nebensache, sondern ein diagnostisches Medium für alles, was die Conditio humana betrifft. Wer so über Bücher schreibt, empfiehlt nicht einfach Lektüre. Er verteidigt eine Zivilisationsform.

    Gegen die Bequemlichkeit des Lesens

    Darin liegt auch die eigentliche Aktualität dieses Bandes. In einer Zeit, in der Lesen immer häufiger entweder als Kompetenztraining oder als Wellnessübung missverstanden wird, kehrt Willemsen auf die denkbar unmodische Weise zum Ernst des Lesens zurück. Nicht zur pädagogischen Verkrampfung, sondern zu jenem Ernst, der Freude erst möglich macht. Seine Buchempfehlungen sind deshalb so kostbar, weil sie nie konsumistische Hinweise sind. Sie sind Miniaturen der Aufmerksamkeit. In wenigen Zeilen skizzieren sie ein Werk so, dass man nicht bloß neugierig wird, sondern sich beinahe schon beschenkt fühlt.

    Das Schaufenster als literarische Geste

    Alfred Böttgers Gedanke, diese Empfehlungen im Schaufenster der Buchhandlung mit kleinen Zetteln sichtbar zu machen, trifft ins Zentrum: Literaturkritik, von Willemsen betrieben, ist keine Instanz des Urteils von oben, sondern eine Kunst des Zeigens. Schau her, sagt sie, dieses Buch könnte dein Leben berühren. Mehr muss über Bücher nicht gesagt werden. Aber weniger auch nicht.

    Die höflichste Form der Unruhe

    So bleibt von diesem Bonner Abend nicht nur die Erinnerung an einen Lektor, der klug, diskret und zärtlich von seinem Autor sprach, und nicht nur die Bewunderung für einen Vorleser, der Willemsens Rhythmus ohne Nachahmung in Stimme verwandelte. Es bleibt vor allem die Erkenntnis, dass dieses neue Buch den Toten nicht archiviert, sondern ihn erneut ins Gespräch bringt.

    Roger Willemsen ist in ihm noch einmal gegenwärtig: als Leser, der sich nicht mit Oberflächen zufriedengab; als Autor, der deutsche Sätze dehnte, bis sie wieder etwas wagten; als Intellektueller, der Literatur und Menschlichkeit nie gegeneinander ausspielte. „Liegen Sie bequem?“ – das ist am Ende die höflichste Form einer Unruhe. Und vielleicht die schönste Aufforderung, die von Büchern ausgehen kann.

    KI-Vormärz, KI-Biedermeier, KI-Apokalyptik?

    Es gehört zu den eigentümlichen Ritualen der deutschen Gegenwart, dass fast jede neue Technologie zuerst von ihren Kommentatoren moralisch eingekesselt wird, bevor man sich mit ihr praktisch beschäftigt. Kaum taucht etwas auf, das Arbeitsweisen, Märkte und Machtverhältnisse verändert, wird nicht etwa gefragt, wie man es produktiv macht, sondern ob es uns geistig korrumpiert, sozial entwurzelt, politisch entmündigt oder gleich die Gattung auslöscht. Die Debatte trägt hierzulande noch immer den Sound der pädagogischen Gefahrenabwehr.

    So nun auch bei der Künstlichen Intelligenz.

    Da wird von „KI-Biedermeier“ gesprochen, als säße die Republik bereits unter einer digitalen Häkeldecke und lasse sich von Silicon-Valley-Milliardären in die algorithmische Stube treiben. Da wird die Figur des „KI-Vormärz“ bemüht, als befänden wir uns in einer Epoche verheißungsvoller technischer Aufbrüche, die am Ende doch nur in Enttäuschung, Oligarchie und gesellschaftlicher Regression münden könne. Und da wird, mit dem apokalyptischen Furor spätmoderner Intellektueller, behauptet, KI sei in Wahrheit gar keine Zukunftstechnologie, sondern eine konservative Maschine des Vergangenen: lernend aus dem Gestern, blind für das Morgen, nützlich allenfalls für Routinen, aber unfähig, Antworten auf die drängenden Fragen unserer Zeit zu geben.

    Das klingt gewichtig. Es ist aber, bei näherem Hinsehen, vor allem eines: eine Denkfigur des Rückzugs. Man spricht über KI, als sei sie vor allem ein kulturphilosophisches Problem. Man redet über sie, als ginge es primär um Diskurse, Narrative, Machtcamouflage, Ideologiekritik. Man betrachtet sie aus sicherer Distanz, mit jener Mischung aus Ironie, Bildungsgestus und Unbehagen, die in Deutschland oft dort beginnt, wo andere Länder längst Geschäftsmodelle bauen.

    Der eigentliche Skandal liegt nicht in der Technologie. Er liegt im Blick auf sie.

    Die historische Metapher als Nebelmaschine

    Der große Fehler des „KI-Vormärz“-Arguments besteht darin, dass es historische Analogie mit historischer Erkenntnis verwechselt. Der Vormärz war eben nicht bloß eine Phase der Vertröstung, des Rückzugs ins Private und der symbiotischen Allianz von ökonomischer Modernisierung und politischer Apathie. Er war vielmehr ein hochdynamischer Möglichkeitsraum: Eisenbahn, Telegrafie, Lesegesellschaften, Vereinswesen, Presseöffentlichkeit, wissenschaftliche Vernetzung, Bildungsaufstieg. Eine Epoche unter Spannung, nicht unter einer Decke.

    Wer aus dieser Zeit vor allem ein Menetekel gegen technologische Euphorie destillieren will, macht aus Geschichte ein Dekor für Gegenwartsangst. Das Problem ist nicht, dass man Analogien zieht. Das Problem ist, dass man sie so zieht, dass die Pointe schon vorher feststeht: Fortschritt enttäuscht, Technik konserviert Macht, große Versprechen enden in großer Ernüchterung. Das ist kein analytischer Befund. Das ist ein Weltgefühl.

    Und dieses Weltgefühl wirkt seltsam unberührt von jener Realität, die sich jenseits der Feuilletons und Debattenräume längst formiert. Denn während Ramge und Mayer-Schönberger mit erheblichem intellektuellem Aufwand die Grenzen maschinischer Zukunftsfähigkeit beschreiben, haben Unternehmen die Frage längst anders gestellt. Nicht: Kann KI die großen Menschheitsprobleme lösen? Sondern: Wo verbessert sie heute Entscheidungen, Prozesse, Service, Qualität, Wissenstransfer, Produktivität?

    Das ist die realwirtschaftliche Perspektive. Und sie ist, wie so oft, weniger spektakulär als die kulturkritische Erzählung – aber belastbarer.

    Die Wirklichkeit in den Werkhallen kennt keinen KI-Vormärz

    Es ist ein merkwürdiges Schauspiel: Während draußen die Nebelmaschinen der Dystopie kreisen, erfindet der deutsche Mittelstand mit fast trotzig-preußischer Disziplin seine Produktivität neu. KI zieht ein in Vertrieb, Produktion, Service, Entwicklung, Backoffice. Nicht als ästhetisches Versprechen, nicht als Weltformel, sondern als operative Infrastruktur.

    Die Daten sprechen eine klarere Sprache als die Debatte. Unternehmen berichten von messbaren Effizienzgewinnen, von Produktivitätssteigerungen zwischen 20 und 80 Prozent, von beschleunigten Entscheidungen, besseren Servicelevels, sofort verfügbarem Wissen. Jeder fünfte Digital-Euro fließt inzwischen gezielt in KI-Initiativen. Und der entscheidende Satz lautet: KI ersetzt nicht menschliche Arbeit, sie verstärkt menschliche Handlungsfähigkeit.

    Das ist der Punkt, an dem sich die Theorieblase vom Maschinenraum trennt.

    Denn natürlich haben Ramge und Mayer-Schönberger in einem Punkt recht: KI lernt aus Vergangenem. Sie extrapoliert, rekombiniert, verdichtet Muster. Sie ist kein metaphysischer Zukunftsfühler. Aber daraus zu schließen, sie könne nur Routine und sei im Kern konservativ, ist eine bemerkenswerte Verwechslung von epistemischer Herkunft und ökonomischer Wirkung. Auch der Taschenrechner „weiß“ nichts von der Zukunft – und doch verändert er Entscheidungen. Auch das ERP-System blickt nicht prophetisch voraus – und doch strukturiert es Unternehmen. Auch die Elektrizität enthält keine Moral und keine politische Theorie – und dennoch hat sie Gesellschaften transformiert.

    Technologien müssen nicht die Welt „verstehen“, um sie zu verändern. Es reicht, wenn sie die Handlungsmöglichkeiten derer verändern, die mit ihnen arbeiten.

    Das Missverständnis der Routine

    Die vielleicht folgenreichste Untertreibung in der skeptischen KI-Kritik ist der beiläufige Hinweis, KI sei eben für Routinesituationen nützlich. Als wäre Routine eine triviale Randzone der Wertschöpfung. Als bestünde Wirtschaft vor allem aus großen originellen Geistesblitzen und nicht aus Abertausenden wiederkehrender Reibungen, Suchbewegungen, Abstimmungsschleifen, Dokumentationslasten, Servicevorgängen, Wissenslücken, Übergabefehlern und Wartezeiten.

    Wer Routine kleinredet, hat nie ein Unternehmen geführt.

    Routine ist kein Randphänomen. Sie ist das Massiv, an dem Produktivität gewinnt oder verliert. Wenn KI diese Routinen beschleunigt, präzisiert und entlastet, dann ist das keine kleine Hilfestellung, sondern ein struktureller Eingriff in die Ökonomie. Wer dort 20, 30 oder 50 Prozent Zeit spart, verändert Kostenstrukturen, Reaktionsgeschwindigkeit, Kundenerlebnis und Innovationsspielräume zugleich.

    Gerade alternde Gesellschaften wie die deutsche können sich den Luxus gar nicht leisten, diese Hebel geringzuschätzen. Wenn weniger Erwerbstätige mehr Komplexität bewältigen müssen, ist jede Technologie, die kognitive Lasten senkt und Wissen breiter verfügbar macht, keine Gefahr, sondern ein Standortfaktor.

    KI ist nicht konservativ. Sie ist eine Losgröße-1-Maschine

    Die eigentliche Blindstelle der Dystopiker liegt jedoch tiefer. Sie betrachten KI als Wiederkäuerin der Vergangenheit. Dabei übersehen sie, dass ihre größte ökonomische Kraft gerade darin liegt, Standardisierung und Individualisierung zugleich zu ermöglichen.

    Industriegeschichte war lange die Geschichte der Skalierung durch Vereinheitlichung. Erst Serienfertigung, dann Massenmärkte, dann Plattformen. KI aber eröffnet eine neue Logik: Losgröße 1 für Wissen, Lernen, Service und Interaktion. Siehe dazu auch das Interview mit Professor Wolfgang Wahlster zur :

    Ein digitaler Assistent interessiert sich nicht für Herkunft, Dialekt, Habitus, Bildungsbiografie oder Lebenslaufpathos. Er bewertet nicht nach Titel, Auftreten oder Netzwerk. Er reagiert auf Anfrage, Kontext, Aufgabe. Das ist noch keine Gerechtigkeit. Aber es ist ein technologischer Hebel gegen viele tradierten Privilegien der Informationsökonomie.

    Hier liegt eine zutiefst demokratische Möglichkeit: Zugang zu Wissen wird entformalisiert. Lernen wird situativer. Kompetenz wird weniger an Zertifikaten gemessen als an der Fähigkeit, mit Werkzeugen Ergebnisse zu erzielen. Der Lebenslauf verliert seine sakrale Autorität. Wichtiger wird die Frage: Was kannst du heute? Was lernst du morgen? Was lässt sich jetzt lösen?

    Das ist kein Ende des Menschen. Das ist die Entmachtung erstarrter Organisationsrituale.

    Nicht die KI depolitisiert – die Erschöpfung tut es

    Man kann der Skepsis zugestehen, dass Technologien immer auch Machtstrukturen stabilisieren können. Plattformmärkte konzentrieren. Datenmonopole verzerren. Kapital sucht Rendite, nicht Demokratie. All das ist wahr. Aber daraus folgt nicht, dass KI notwendig Teil einer großen Depolitisierungserzählung ist.

    Die politische Müdigkeit unserer Zeit kommt nicht primär aus Maschinen. Sie kommt aus institutioneller Trägheit, strategischer Orientierungslosigkeit und einer Öffentlichkeit, die das Gefühl verloren hat, Zukunft gestaltend zu denken. KI ist nicht die Ursache dieses Defizits. Sie macht es nur sichtbarer.

    Denn plötzlich steht eine Technologie im Raum, die von Unternehmen, Verwaltungen, Bildungseinrichtungen und Individuen eine Entscheidung verlangt: Wollen wir gestalten oder kommentieren? Wollen wir uns organisieren oder moralisch absichern? Wollen wir Kompetenz aufbauen oder skeptische Souveränität simulieren?

    Die bequeme Antwort der Kulturkritik lautet: erst einmal entzaubern. Die produktive Antwort der Praxis lautet: erst einmal anwenden, verstehen, verbessern, skalieren.

    Nicht Science-Fiction manipuliert uns. Die größere Manipulation ist die Angst, die wir uns selbst als Klugheit verkaufen.

    Die Zukunftsmacher handeln nach einer anderen Logik

    Die Unternehmen, die bei KI vorankommen, folgen keiner Erlösungsreligion. Sie handeln nach einer nüchternen Grammatik:

    Experiment vor Exegese.
    Nicht erst den Weltlauf deuten, sondern einen Use Case definieren, Daten sichern, testen, messen, verbessern.

    Organisation vor Tool.
    KI funktioniert nicht als App-Fetisch. Sie braucht Kultur, Datenbasis, Plattformarchitektur, Governance und Verantwortlichkeiten.

    Wert vor Wunder.
    Nicht die große Vision entscheidet zuerst, sondern der klare Beitrag: mehr Umsatz, weniger Aufwand, bessere Qualität, schnellere Antwort, höherer Servicelevel.

    Das ist die eigentliche Antithese zum „KI-Biedermeier“: nicht blinde Euphorie, sondern operative Entschlossenheit.

    Deshalb ist die entscheidende Dystopie auch nicht die, dass KI den Menschen ersetzt. Die eigentliche Dystopie besteht darin, dass wir aus lauter Angst vor Übertreibung die reale Transformation verpassen. Dass andere die Produktivitätsgewinne heben, neue Geschäftsmodelle bauen, Lernkurven beschleunigen – und wir uns derweil an historisch halbgar aufgeladenen Metaphern berauschen.

    Lest mehr Turing. Und endlich wieder Wittgenstein.

    Vielleicht wäre der Debatte geholfen, wenn man ihre intellektuellen Koordinaten neu sortierte. Alan Turing wusste, dass die Frage nach dem „Denken“ von Maschinen oft mehr über die Sprache der Fragenden verrät als über die Maschinen selbst. Wittgenstein wiederum hätte uns daran erinnert, dass Bedeutung im Gebrauch entsteht. Vielleicht sollten wir KI deshalb weniger ontologisch und mehr praktisch betrachten: nicht als Wesen, sondern als Werkzeug in Sprach-, Arbeits- und Handlungsspielen.

    Dann würde auch klarer, warum so viele kulturkritische Einwände ins Leere laufen. KI muss nicht „verstehen“ wie ein Mensch, um nützlich zu sein. Sie muss nicht politisch sein, um politische Folgen zu haben. Und sie muss nicht genial sein, um Produktivität fundamental zu verändern.

    Die Frage ist nicht, ob sie aus Vergangenem lernt. Die Frage ist, was wir mit diesem Lerninstrument in der Gegenwart anfangen.

    Der Mittelstand hat diese Lektion schneller verstanden als ein Teil des öffentlichen Gesprächs. Er wartet nicht auf Wunder. Er baut die Bedingungen dafür. Er weiß, dass Produktivität kein philosophischer Begriff ist, sondern die Grundlage von Wohlstand, Beschäftigung, Investitionsfähigkeit und am Ende auch sozialer Stabilität.

    In einer Volkswirtschaft, die sich Wachstum kaum noch leisten kann, ist KI nicht bloß ein Technikthema. Sie ist eine Frage wirtschaftlicher Selbstbehauptung.

    Darum ist das Gerede vom KI-Biedermeier am Ende selbst biedermeierlich: ein Rückzug in die Pose des skeptischen Beobachters, während andere handeln. Das mag geistreich klingen. Es ist nur leider eine schlechte Industriestrategie.

    Nicht die KI macht uns dumm.
    Aber die Angst vor ihr macht uns klein.

    Und klein ist, was sich Deutschland in dieser Lage am wenigsten leisten kann.

    Vielleicht braucht die deutsche KI-Debatte deshalb weniger kulturpessimistische Großmetaphern – und mehr praktische Erfahrung. Genau darum geht es auch im neuen Buch „Mut zur KI“ von Friedrich Arnold und Philipp Depiereux, das in Kürze im Gabal Verlag erscheint. Es ist kein Manifest der Technikgläubigkeit, sondern ein Plädoyer für unternehmerischen Gestaltungswillen: KI nicht als Bedrohung betrachten, sondern als Werkzeug, das Organisationen produktiver, lernfähiger und widerstandsfähiger machen kann. Über diese Perspektive – und darüber, wie aus Technologie tatsächlich wirtschaftlicher Impact wird – diskutieren Praktiker aus Industrie, Medien und Mittelstand auch beim Leadership Forum „From AI to Impact“ am 24. März 2026 auf dem Convidera Campus in Köln-Müngersdorf. Vielleicht ist das der sinnvollste Ort, um die Debatte wieder zu erden: nicht im Schatten der großen Dystopien, sondern im Licht konkreter Erfahrungen. Denn die Zukunft der KI entscheidet sich nicht im Feuilleton – sondern dort, wo Unternehmen beginnen, sie wirklich einzusetzen.

    Vom Buch zur Siliziummacht: Ein Gespräch zwischen Lischka und Kittler über Medien jenseits des Sinns

    Das Gespräch zwischen Gerhard Johann Lischka und Friedrich Kittler ist nicht einfach ein Interview über Medien. Es ist selbst schon eine kleine Szene jener historischen Verschiebung, die Kittler beschreibt: Die Theorie löst sich vom Primat des Sinns und wendet sich den materiellen Bedingungen zu, unter denen Sinn überhaupt erst zirkulieren kann. Lischka fragt noch aus einer Tradition der Geistes- und Kunstwissenschaft heraus nach Inhalten, Herkunft, Epochen und Geschlechterordnungen; Kittler antwortet mit einer radikalen Verschiebung des Blicks. Nicht das, was gesagt wird, ist zuerst entscheidend, sondern das, wodurch, worin und unter welchen technischen Bedingungen etwas überhaupt sagbar, speicherbar und übertragbar wird. In dieser Perspektive erscheinen Schreibmaschine, Telefonie, Grammophon und Computer nicht als neutrale Hilfsmittel einer schon bestehenden Kultur, sondern als Einschnitte, die Wahrnehmung, Macht, Arbeit, Geschlechterverhältnisse und Begriffsbildung selbst neu organisieren.

    Technik als Geschichte überraschender Wirkungen

    Gerade darin liegt die Brillanz des Gesprächs: Kittler erzählt Technik nicht als Fortschrittsgeschichte, sondern als Geschichte überraschender Wirkungen. Medien tun nie nur das, wofür sie erfunden wurden. Sie erzeugen Seiteneffekte, Rückkopplungen, Verwerfungen. Eine Schreibmaschine beschleunigt nicht bloß das Schreiben; sie verschiebt die soziale Geometrie des Büros. Telefonie verbindet nicht einfach Stimmen über Distanz; sie installiert ein neues Regime der Frequenzen, der Vermittlung und der Arbeitsteilung. Der Computer vereinheitlicht nicht lediglich Daten; er hebt die alten Grenzziehungen zwischen Bild, Ton und Schrift auf, weil ihre Outputs an denselben universellen Diskretapparat anschließbar werden. Kittlers Denken ist deshalb so folgenreich, weil es Technik nicht funktionalistisch, sondern genealogisch auffasst: Jede mediale Innovation produziert Wirkungen, die ihre Erfinder weder planen noch kontrollieren.

    Von Foucault zum medientechnischen Archiv

    Lischkas erste große Frage zielt auf Kittlers Herkunft: Woher kommt das Interesse an Medien als Medien? Kittlers Antwort ist aufschlussreich. Er setzt bei Foucault an, aber gerade an der Stelle, an der Foucault für ihn nicht weit genug geht. Wenn Archive bis in die Moderne die „letzte reelle Basis“ sind, dann wird entscheidend, dass sich seit dem späten 19. Jahrhundert das Archiv vervielfacht und technisch ausdifferenziert: Nicht mehr alles schreibt sich in Alltagssprache, Buch und Bibliothek ein; Töne, Bilder, Signale und maschinenschriftliche Texte treten als eigene Speicher- und Übertragungsformen hinzu. Kittlers berühmte Geste besteht darin, Bücher „differenzialdiagnostisch“ gegen andere Medien abzusetzen. Das Buch verliert seinen metaphysischen Nimbus und wird zu einem Medium unter anderen. Damit ist die romantische Illusion angegriffen, Literatur könne die Welt unmittelbar vergegenwärtigen, als höre oder sähe man sie selbst. Gerade weil Bücher um 1800 so selbstverständlich lesbar geworden sind, können sie diese Halluzination stiften. Die Pointe Kittlers ist dann kühn: Vielleicht hat gerade diese psychische Verheißung der Romantik den Wunsch nach technischen Apparaten induziert, die Wahrnehmung nicht mehr imaginär, sondern maschinell implementieren. Das 19. Jahrhundert baut dann jene Maschinen, die die Literatur versprochen, aber nie materiell eingelöst hatte.

    Die Maschine als materialisierte Sehnsucht

    Hier wird die Erfindungsgeschichte des Grammophons oder der Fotografie auf verblüffende Weise entromantisiert und zugleich vertieft. Kittler insistiert darauf, dass manche dieser Apparate technisch durchaus früher hätten gebaut werden können. Ihre verspätete Ankunft verlangt also keine bloß ingenieurwissenschaftliche, sondern eine kulturhistorische Erklärung. Nicht weil die Mechanik fehlte, sondern weil der Wunsch fehlte, erscheinen sie erst dann, als eine Epoche bereits gelernt hat, Sinnesdaten als reproduzierbar zu begehren. Technik entsteht damit nicht aus nackter Rationalität, sondern aus historisch erzeugten Imaginationen. Die Maschine ist nie nur kalte Apparatur; sie ist materialisierte Sehnsucht. Genau in diesem Sinn ist Kittlers Mediengeschichte eine Geschichte überraschender Wirkungen: Nicht die Erfindung allein erklärt ihre Folgen, sondern umgekehrt die symbolischen und psychischen Regime, die erst den Drang erzeugen, Wahrnehmung technisch zu externalisieren.

    Die Schreibmaschine und der Umbau des Büros

    Am eindringlichsten wird diese Logik am Beispiel der Schreibmaschine. Kittler beschreibt nicht bloß einen Wechsel des Schreibwerkzeugs, sondern einen Strukturbruch. Solange Schrift an Handschrift gebunden ist, bleibt sie in den kulturellen Prestigeordnungen männlicher Bildung verankert. Das 19. Jahrhundert erscheint in seiner Lesart als Herrschaft schreibender Männer, als Allianz von Bildungsstaat, Beamtenschaft und Buchkultur. Um 1800 sind Frauen von den strategischen Positionen der Schreibmacht weitgehend ausgeschlossen, selbst wenn sie private Briefe und Gefühlsprosa verfassen dürfen. Dann jedoch tritt die Schreibmaschine auf — und gerade ihre zunächst unterschätzte Banalität wird historisch explosiv. Männer in Büros wollen bei der Handschrift bleiben; arbeitslose junge Frauen entdecken das Gerät und drängen mit ihm in die Verwaltung, in Kontore, in die Börse. Binnen kürzester Zeit dreht sich das Geschlechterverhältnis im Büro. Der Apparat demokratisiert hier nicht einfach, sondern eröffnet eine Lücke, die eine zuvor ausgeschlossene Gruppe besetzen kann. Technik emanzipiert nicht aus sich selbst; aber sie destabilisiert alte Monopole, gerade weil ihre neuen Möglichkeiten von den etablierten Akteuren zunächst verkannt werden.

    Telefonie, Stimme und neue Arbeitskörper

    Ähnlich liest Kittler die Telefonie. Auch sie ist nicht bloß Kommunikationsfortschritt, sondern eine Maschine sozialer Neuverteilung. Aus „Frequenzgründen“, wie er lakonisch sagt, werden Frauen massenhaft in die Vermittlungsämter eingestellt. Die Stimme wird zur technischen Ressource; Geschlecht erscheint nicht mehr nur als soziale Rolle, sondern als variable im Dispositiv der Übertragung. Das ist medienwissenschaftlich von größter Bedeutung. Denn hier zeigt sich, dass Technik nicht auf einen abstrakten Menschen trifft, sondern auf Körper, deren Eigenschaften in Apparatesysteme eingelesen werden. Die berühmte Telefonistin, die Stenotypistin, die Schreibmaschinistin: Das sind keine Randfiguren der Moderne, sondern ihre Interfaces aus Fleisch und Blut. Kittler macht sichtbar, dass technische Systeme um 1900 menschliche Bedien- und Vermittlungsinstanzen benötigen und diese Instanzen ihrerseits neue Machtpositionen, Berufsbilder und Selbstverhältnisse erzeugen. Was wie eine bloße Rationalisierung der Kommunikation aussieht, erweist sich als Umbau des Sozialen.

    Mediengeschichte als Mikropolitik

    Gerade an diesem Punkt wird die eigentliche Schärfe von Kittlers Denken sichtbar: Medienwandel ist nie nur Medienwandel. Er ist Umbau von Arbeitsformen, Wahrnehmungsordnungen und Subjektformen. Deshalb erscheint auch die Episode um Nietzsche und Lou Andreas-Salomé im Gespräch nicht als Anekdote, sondern als Symptom. Die defekte Schreibmaschine, der halb blinde Philosoph, die erbetene Sekretärin, die Zürcher Studentin: In dieser Konstellation kondensiert, was Kittler zeigen will. Die Maschine ersetzt den Körper nicht einfach; sie reorganisiert die Umgebung des Körpers, die Delegation von Schreibarbeit, die Nähe zwischen Intellekt und Assistenz, die Geschlechtercodierung von Bildung. Mediengeschichte ist hier Mikropolitik. Aus Apparaten gehen neue Intimitäten, neue Abhängigkeiten und neue Rollen hervor. Die technische Neuerung handelt gleichsam hinter dem Rücken ihrer Benutzer. Ihre überraschende Wirkung besteht darin, dass sie nicht dort eingreift, wo man sie vermutet — im Werkzeuggebrauch —, sondern dort, wo eine Gesellschaft ihre Grenzen zieht: zwischen geistiger und mechanischer Arbeit, zwischen öffentlich und privat, zwischen männlich und weiblich.

    Turing, Computer und die herrschende Siliziummacht

    Mit Turing und dem Computer radikalisiert sich diese Entwicklung. Kittler liest das Turing-Spiel nicht nur als Testfall für künstliche Intelligenz, sondern als symptomatische Matrix einer doppelten Auslöschung. Im ersten Modell des Spiels geht es um Mann und Frau; im zweiten um Mensch und Maschine. Der Clou seiner Lesart liegt darin, dass die spätere Ununterscheidbarkeit von Mensch und Computer auf einer bereits vorausgesetzten Kommunizierbarkeit über Teleprinter, also über entkörperlichte Schrift, aufruht. Das Interface der Moderne ist nicht länger die leibhaftige Sprecherin im Stöpselamt, sondern das diskrete Zeichen im Netz. Wenn sich Mensch und Maschine unter diesen Bedingungen nicht mehr sicher unterscheiden lassen, dann wird auch die Geschlechterdifferenz für Kittler sekundär gegenüber der Macht des Siliziums. Sein drastischer Satz, die „herrschende Siliziummacht“ interessiere sich nicht weiter für unsere Unterscheidungen, benennt eine historische Schwelle: Dort, wo Maschinen nicht mehr nur Teil eines Mensch-Maschine-Systems sind, sondern Operationen selbständig verarbeiten, verliert das humanistische Vokabular seine Selbstverständlichkeit.

    Der Computer als Metamedium

    Das heißt allerdings nicht, dass Kittler einen simplen Technodeterminismus vertritt. Seine Pointe ist subtiler. Je universaler der Computer wird, desto weniger lassen sich Medien noch als voneinander getrennte Sphären behandeln. Grammophon, Film und Schreibmaschine waren für ihn um 1900 die elementaren Speichertechniken jenseits des Buches. Seit der Turing-Maschine aber werden ihre Outputs in einen gemeinsamen Verarbeitungsraum übersetzt. Bilder, Töne, Texte, Messwerte: alles kann Eingang in dieselbe diskrete Operation finden. Genau darin liegt die eigentliche Revolution. Medien verschwinden nicht; sie werden komputabel. Der Computer ist deshalb nicht nur ein weiteres Medium, sondern ein Metamedium, das die alten Differenzen auf einer höheren Ebene neu ordnet. Mit dieser Diagnose verschiebt sich auch die Aufgabe der Medienwissenschaft. Sie darf nicht bei der Ikonographie der Oberflächen stehenbleiben, sondern muss an die Architekturen der Verarbeitung, an Bus-Systeme, Adressierungsformen, Taktungen, Codierungen heran. Medienkritik wird zur Kritik der Operationsketten.

    Von der Inschrift zum blätterbaren Buch

    Bemerkenswert ist, dass Kittler trotz aller Radikalität nie die longue durée aus dem Blick verliert. Im letzten Teil des Gesprächs führt er das Problem der Schrift weit vor 1800 zurück: auf Transportabilität, Blätterbarkeit, Adressierbarkeit. Nicht zufällig hebt er die Überlegenheit des transportierbaren Buches gegenüber ortsfesten Inschriften und die Überlegenheit des Kodex gegenüber der Rolle hervor. Hier zeigt sich ein Prinzip, das das ganze Gespräch durchzieht: Mediengeschichte ist die Geschichte von Zugriffserleichterungen. Ein Medium setzt sich nicht durch, weil es „wahrer“ wäre, sondern weil es beweglicher, adressierbarer, anschlussfähiger ist. In dieser Perspektive erscheint selbst Gutenberg nur noch als ein Moment in einer viel längeren Genealogie, in der die Blätterbarkeit des Kodex vielleicht folgenreicher ist als der Druck mit beweglichen Lettern. Wieder ist es die überraschende Wirkung, die zählt: Kleine technische Formen — die Seite, die Fußnote, das standardisierte mathematische Zeichen — verändern ganze Wissensordnungen. Friedrich_Kittler_lektoriert

    Die Genealogie der Nebenfolgen

    Vielleicht ist dies die tiefste Lehre des Gesprächs zwischen Lischka und Kittler. Technologische Veränderungen wirken selten dort, wo ihre zeitgenössischen Beschreibungen sie verorten. Die Schreibmaschine ist nicht nur eine schnellere Feder; sie ist ein Hebel der Feminisierung bürokratischer Arbeit und der Entkopplung von Schrift und Handschrift. Die Telefonie ist nicht nur Fernsprechen; sie ist die Einrichtung eines akustischen Regimes, das Stimmen sortiert und Arbeitskörper neu disponiert. Der Computer ist nicht nur Rechenmaschine; er ist die universale Operationsform, in der sich die bisherigen Medien ineinander übersetzen lassen. Und das Buch selbst war nie bloß Träger von Inhalten, sondern immer schon eine transportable, adressierbare, blätterbare Technik. Mediengeschichte ist deshalb keine Nebengeschichte zur Ideen- oder Sozialgeschichte. Sie ist deren oft unsichtbare Infrastruktur. Kittlers Größe im Gespräch mit Lischka liegt darin, diese Infrastruktur nicht bloß zu benennen, sondern ihre paradoxen, oft unerwarteten Effekte freizulegen. Wer nach der „Wirkung“ technischer Erfindungen fragt, erhält von ihm keine lineare Antwort. Er erhält eine Genealogie der Nebenfolgen — und damit vielleicht die präziseste Form, in der Medientheorie überhaupt historisch denken kann.

    Zur Quelle des Gesprächs

    Dass dieses Gespräch heute überhaupt in seiner historischen Dichte lesbar und hörbar wird, verdankt sich dem Kontext von „Am Nerv der Zeit“, jener vom ZKM | Zentrum für Kunst und Medientechnologie, Karlsruhe, zugänglich gemachten Sammlung von Tondokumenten aus dem Archiv des Kulturphilosophen Gerhard Johann Lischka. Über 14 Stunden digital überarbeitetes Audiomaterial aus den Jahren 1974 bis 1990 versammeln dort Gespräche, Vorträge und performative Formate an der Schnittstelle von Kunst, Medien und Theorie; das Interview mit Friedrich Kittler steht somit nicht isoliert, sondern gehört in ein größeres Dispositiv des „aktuellen Denkens“, das Lischka mit bemerkenswerter Konsequenz aufgebaut hat. Wenn Lischka rückblickend davon spricht, Kunst, Medien und Theorie so vermischt haben zu wollen, dass der „Nerv der Zeit“ getroffen werde, dann bezeichnet dies präzise auch den Erkenntniswert des Kittler-Gesprächs: Es ist nicht nur ein Dokument einer Theorie, sondern selbst ein Medium jener intellektuellen Konstellation, in der Mediatisierung zum Namen einer Epoche wird. Gerade deshalb besitzt diese Quelle mehr als archivischen Wert — sie erlaubt, die Genealogie medientheoretischen Denkens nicht bloß nachzulesen, sondern in ihrer akustischen, zeitgeschichtlichen und institutionellen Situiertheit zu erfahren.

    Siehe auch:

    Mein Exkurs auf LinkedIn: Bücher als Männerwelt: Wie technische Medien die alte Schriftordnung durchbrachen

    Die Konservierungs-Illusion: Warum Industriepolitik die Zukunft nicht retten kann, indem sie die Vergangenheit stützt

    Industriepolitik hat sich an ein Ritual gewöhnt: Wenn Produktion sinkt, sollen Strukturen „gerettet“ werden. Gemeint sind Werke, Lieferketten, Produktlinien, Beschäftigung – möglichst so, wie sie gestern waren. Das klingt bodenständig. Es ist oft der teuerste Weg, weil er am Kern vorbeigeht: Nicht die Industrie verschwindet, sondern ihre alte Zusammensetzung. Wer Strukturen konserviert, konserviert meist Klumpenrisiken.

    Der Pioneer-Text „Wohlstand von Unten“ von Guido Schmidt und Winfried Felser setzt genau an dieser Stelle an. Gleich am Anfang steht ihr programmatischer Satz: „Das alte Top-down-Modell in Deutschland muss abgelöst werden, um wieder wettbewerbsfähig zu werden. Statt zentraler Macht braucht es dezentrale Innovation und neue wirtschaftliche Spielregeln.“
    Das ist keine Stilfrage. Es ist eine Standortdiagnose.

    Wohlstand von unten statt große Lösung

    Schmidt und Felser legen den Finger auf eine politische Selbsttäuschung: die Vorstellung, Wohlstand sei das Ergebnis einer großen Entscheidung „oben“, die dann im Land nach unten durchgereicht wird. Ihr Zwischenruf heißt nicht „weniger Staat“, sondern „anderer Staat“: weniger Inszenierung, mehr Ermöglichung; weniger Gipfel, mehr Ökosystem.

    Sie nennen diese Erwartung ausdrücklich „Die Illusion der großen Lösung“ und schreiben: „Die Politik will uns erklären, dass Wohlstand ein Top-Down Ergebnis ist.“ Und sie fassen die politische Pose in acht Wörtern zusammen: „Das Versprechen der Politik lautet ‚Wir machen das‘.“

    Im Text wird diese Pose an den Instrumenten festgemacht, die gerade Konjunktur haben: Kanzlergipfel, Bazooka-Rhetorik, Sondervermögen. Schmidt und Felser nennen eine Zahl, die als Zauberformel durch die Debatten wandert: Investitionen von 631 Milliarden Euro, die – so das Versprechen – „uns … in eine glorreiche Zukunft führen“ sollen. Der Einwand der Autoren ist nicht kleinlich. Er ist strukturell: Die großen Bilder ersetzen keine Antwort auf Kosten, Tempo, Bürokratie, Kapitalbildung, Technologiepfade.

    Ihre Pointe ist schärfer: „In Anzug und Krawatte strahlt uns … eine sauber geordnete Vergangenheit an und will sich uns als Zukunft verkaufen.“ Das ist der Kern der Konservierungs-Illusion: Vergangenheit wird als Zukunft etikettiert.

    Der lange Schatten der Deindustrialisierung

    Wer heute über sinkende Industrieproduktion klagt, tut oft so, als beginne die Geschichte mit der letzten Statistik. Das stimmt nicht. Der Trend ist alt. Mein Schumpeter-Text für den Metropolis-Band, der hier als Folie dient, fasst ihn knapp: „Den Gipfelpunkt hatte das produzierende Gewerbe 1960 erreicht, seitdem geht es stetig bergab.“ Und: Seit den neunziger Jahren entsteht der Löwenanteil von Beschäftigung und Wertschöpfung durch immaterielle und nachindustrielle Produktion.

    Das ist keine Einladung zur Industrie-Verachtung. Es ist eine Warnung vor falscher Politik. Wer den Trend ignoriert, nimmt das Symptom – weniger Produktion – für die Krankheit. Die Krankheit heißt eher: fehlende Neukombination, zu wenig neue Märkte, zu wenig Kapital für Skalierung, zu wenig Geschwindigkeit in der Umsetzung.

    Schumpeter hat das Prinzip dafür geliefert. Entscheidend ist nicht Routine, sondern neue Kombination. Der Satz fällt im Text wörtlich: „Nur dann erfüllt er … die wesentliche Funktion …, wenn er neue Kombinationen realisiert.“ Konservierung ist das Gegenteil davon.

    Warum „Industrie retten“ oft Industrie schwächt

    Schmidt und Felser kritisieren nicht nur die Erzählung, sondern die Wirkungsmechanik. Sie zeigen, dass die „große Lösung“ am Ende häufig eine große Umverteilung von Zeit und Aufmerksamkeit ist: Gipfelbilder, Förderkulissen, Beruhigungsreden – während Unternehmen die reale Kosten- und Wettbewerbsfrage anders beantworten: mit Verlagerung, Automatisierung, internationaler Aufstellung.

    Sie sprechen von strukturellen Kostennachteilen und den „Behinderungen durch Bürokratie“, die von den etablierten Akteuren nicht einfach wegmoderiert werden. Und sie liefern die harte Arbeitsmarktfolie: „Allein seit 2019 sind etwa 217.000 Arbeitsplätze in der Industrie verloren gegangen.“
    Dazu der Satz, der im Ohr bleibt: „Aktuell rechnet man mit ca. 10.000 Arbeitsplätzen pro Monat.“

    Im selben Beitrag zeigt eine Grafik, wohin Beschäftigung wächst: Pflege und Soziales (+73 Tsd.), Gesundheitswesen (+65), öffentliche Verwaltung (+44) – während Industrie unter Druck steht.
    Die Konsequenz ist unbequem: Wer Industriepolitik als Bestandsschutz betreibt, arbeitet gegen die Richtung der Volkswirtschaft und wundert sich über wachsende Friktion.

    Baden-Württemberg: Vom Erfolgsmodell zum Klumpenrisiko

    Baden-Württemberg war lange der Beweis, dass Deutschland Mittelstand kann: Maschinenbau, Automobil, Zuliefernetze, Export. Genau deshalb wirkt der jüngste Umsatzknick so aufschlussreich. Die von dir zitierte Datev-Analyse beschreibt einen Rückgang der Mittelstandsumsätze nach dem Hoch 2022; über Jahre nur Seitwärtsbewegung. Der Kern des Problems ist die enge Fixierung auf zwei Branchen: Auto und Maschinenbau. Die Mechanik ist bekannt und trotzdem politisch unterschätzt.

    Der Umbau der Autoindustrie trifft die Zulieferer doppelt: Erst sinkt die Nachfrage nach klassischen Komponenten; dann verschieben sich Wertschöpfungsanteile in Richtung Software, Leistungselektronik, Batterieketten – oft außerhalb der bisherigen regionalen Logik. Gleichzeitig leidet der Maschinen- und Anlagenbau unter Auftragsrückgängen und unter einer Investitionsschwäche, die im Inland besonders sichtbar ist. Und wenn investiert wird, landet ein Teil der Vorhaben im Ausland; die heimische Zulieferbasis folgt nicht automatisch.

    Hinzu kommt der zweite Schlag: Wenn große Arbeitgeber abbauen, fällt regionale Kaufkraft. Dann geraten auch die „unsichtbaren“ Teile des Mittelstands unter Druck: Handwerk, Dienstleistungen, lokale Zulieferer. Deindustrialisierung ist nicht nur weniger Werkstor, sondern weniger Nachfrage im Umkreis.

    Dass sich einzelne Räume im Land besser halten – Ulm, Rhein-Neckar – ist kein Wunder, sondern ein Hinweis. Wo Branchenmix gelingt, stabilisieren Life Sciences, Medtech, IT und spezialisierte Industrie sich gegenseitig. Das ist „Wohlstand von unten“ als Praxis: nicht ein Sektor, der alles trägt, sondern ein Ökosystem, das Schocks verteilt.

    Regionale Stärken aufladen: Schwäbische Alb als Blaupause

    Konservierungspolitik fragt: Welche Fabrik bleibt? Eine zukunftsfähige Politik fragt: Welche Fähigkeit skaliert in neue Märkte?

    Die Schwäbische Alb steht für eine Fähigkeit, die selten als Zukunftstechnologie etikettiert wird, aber genau das ist: Feinmechanik. Präzision, Messkultur, Materialgefühl, Prozessstabilität – das sind Deep-Tech-Voraussetzungen. Wer diese Stärke „auflädt“, hängt sie an neue Themen: Sensorik, Medizintechnik, Robotik, Laborautomation, Präzisionsfertigung für Bioprozesse. Dann bleibt die Region industriell – aber nicht in der alten Branchenlogik.

    Schmidt und Felser formulieren die Zielrichtung als Epochenwechsel: „Es geht um die Erkenntnis, dass die neue Welt kleinteiliger, dezentraler, vernetzter, innovativer und mutiger werden muss.“ Das beschreibt ziemlich genau, was ein regionales Kompetenz-Upgrade leisten soll: weniger Monolith, mehr Kombinatorik.

    Montanregionen: Vom Stollen zum Orbit

    Noch radikaler wird das Prinzip in Montanregionen. Kohle und Stahl als Leitindustrie sind Geschichte. Aber die zugrunde liegenden Kompetenzen – Förderung, Aufbereitung, Stoffströme, Großanlagenbetrieb, Sicherheit, schwere Verfahrenstechnik – sind nicht wertlos. Sie brauchen einen neuen Marktbezug.

    Hier passt das von dir gesetzte Thema Rohstoffgewinnung im Weltall als strategischer Projektor. Nicht, weil „Space Mining“ morgen Jobs in fünfstelliger Zahl bringt. Sondern weil es zwingt, Kompetenzen neu zu verschalten: Robotik und Autonomie, Energieversorgung unter Extrembedingungen, Materialtrennung, neue Werkstoffe, Standards, Haftung. Wer Montankompetenz so neu kombiniert, baut ein Wissensökonomie-Profil, das zurückwirkt: auf Recyclingtechnologien, Kreislaufwirtschaft, Rohstoffsicherung, neue Prozessketten in der Energiewende.

    Das ist der Punkt: Es geht nicht um ein neues Branchenplakat, sondern um eine neue Kombinationsmaschine.

    Was Politik leisten muss – und was sie lassen sollte

    Schmidt und Felser argumentieren nicht gegen Investitionen. Sie argumentieren gegen die Vorstellung, Investitionen wirkten automatisch, solange „oben“ genügend Geld bewegt wird. Ihr eigener Chart zur Frage „Wie viel Wachstum bringt das Sondervermögen?“ illustriert genau diese Skepsis: Ein Investitionsszenario kann deutlich stärker wirken als das, was als „aktuelles Politikscenario“ mit fraglicher Zusätzlichkeit daherkommt. WohlstandVonUnten

    Die Folgerung liegt nahe: Industriepolitik muss weg vom Denkmalpflegerischen und hin zum Ermöglichen von Neukombinationen. Nicht das einzelne Werk retten, sondern die Bedingungen schaffen, unter denen Regionen Neues bauen.

    Schumpeter liefert dafür die ökonomische Logik: Routine schöpft ab, Entwicklung entsteht endogen. Das Routineunternehmen „arbeitet auf den überkommenen Grundlagen“ – und genau so entsteht kein neues Wachstum.

    Keine Rückkehr, sondern ein Upgrade

    Die öffentliche Debatte hängt zu oft an der Frage, ob Deutschland „wieder mehr Industrie“ bekommt. Die entscheidendere Frage lautet: Ob Deutschland schneller neue Kombinationen organisiert – regional, dezentral, wissensbasiert.

    „Wohlstand von unten“ ist dabei kein Wohlfühlbegriff. Es ist eine Zumutung an Politik und Verbände: weniger Theater, mehr Strukturarbeit. Schmidt und Felser sagen das in ihrer Grundformel: Top-down ersetzen, dezentrale Innovation ermöglichen, Spielregeln ändern.

    Wer alte Strukturen konserviert, bekommt am Ende beides: weniger Industrie und weniger Zukunft. Wer regionale Stärken auflädt, bekommt das, was im Moment fehlt: neue Themen, innovative Kombinatorik, Wissensökonomie – und damit wieder einen Grund, warum Produktion hier stattfindet.

    Dirk Baeckers neues Suhrkamp-Buch „Digitalisierung“ und die späte Einsicht, dass Suchmaschinen keine Gesellschaftstheorie ersetzen

    Der Satz „Luhmann statt Google“ steht nicht bei Dirk Baecker. Er stammt von mir. Ich habe ihn über einen älteren Text gesetzt, den ich 2019 noch einmal hervorgeholt habe, um zu prüfen, wo der frühe Instinkt in Sachen Computerkommunikation trug und wo er sich täuschte. Die spätere Diskussion in der über den Niedergang lokaler und regionaler Medien im Rheinland gehört in dieselbe autobiographische Linie: als publizistische Selbstkontrolle, nicht als Baecker-Exegese. Diese Trennung ist wichtig. Sonst verlegt man dem Soziologen in die Tasche, was aus meiner eigenen Werkstatt stammt: den Blick auf die ausdünnende regionale Öffentlichkeit, die Erosion der alten Medienzwischenhändler und die Frage, was aus einer Gegend wird, wenn sie ihre Beobachter verliert.

    Mein Satz, sein Buch

    Baeckers neues Buch setzt anders ein, kälter, höher, ohne Rücksicht auf jene Behaglichkeit, mit der die Gegenwart ihre Apparate bewundert. Schon der Titel ist eine kleine Zumutung. Das durchgestrichene Wort „Digitalisierung“ klingt nach Verwaltungsdeutsch, nach Handreichung, nach Schreibtischlampe. In Wahrheit liegt hier ein Buch vor, das die Lampe ausknipst und zeigt, wie sehr wir uns daran gewöhnt haben, im Schein der Geräte die Gesellschaft selbst zu übersehen. Baecker nennt Digitalisierung ein „analoges Phänomen“. In diesem Ausdruck steckt das ganze Programm: Das Digitale marschiert nicht auf leerem Feld. Es trifft auf eine widerständige Welt aus Körpern, Routinen, Institutionen, Missverständnissen, Gewohnheiten und Interessen. Der Rechner rechnet diskret; die Gesellschaft antwortet kontinuierlich, zäh, krumm, bisweilen boshaft.

    Das ist der erste Vorzug dieses Buches: Es behandelt den Computer nicht als Zaubergerät und die künstliche Intelligenz nicht als säkularen Geist. Es fragt vielmehr, was aus sozialer Wirklichkeit wird, wenn sie in Datenformate übersetzt, durch Modelle gejagt und wieder an jene Wirklichkeit zurückgespielt wird, aus der sie zuvor herausgeschnitten wurde. Baecker spricht vom Zusammenspiel von Technik, Organismus, Bewusstsein und Gesellschaft; Digitalisierung sei nur dann verstanden, wenn man diese vier Größen zusammen denkt und ihre Synchronisation als flüchtigen, aber folgenreichen Moment begreift. Damit ist der Ton gesetzt: keine Maschinenmystik, keine Kulturpanik, sondern eine Theorie der Lage.

    Der Rechner als neuer Dativ

    Die stärksten Seiten des Buches beginnen dort, wo Baecker den Begriff der Kommunikation von der sentimentalen Umarmung der Gegenwart befreit. Überall hört man inzwischen, Maschinen „reden“ mit uns, „verstehen“ uns, „helfen“ uns, „begleiten“ uns. Die Sprache der Gerätewerbung hat sich wie Parfüm über ganze Debatten gelegt. Baecker geht einen Schritt zurück und sieht genauer hin. Rechner sind keine Personen. Aber sie verändern die Grammatik des Sozialen. Der entscheidende Satz lautet, in äußerster Nüchternheit: Kommunikation mit Rechnern „kommuniziert Berechnungen“. Damit ist mehr gesagt als in einer halben Bibliothek zum Thema KI. Nicht mehr nur Sätze, Bilder, Töne und Gesten zirkulieren, sondern ihre statistische Vorbewertung, ihre relationale Einordnung, ihr möglicher Anschluß. Mitteilung wird zum Index, Rede zur Rechenlage, Aufmerksamkeit zur Funktion eines Datenraums.

    Man könnte sagen: Der Rechner ist der neue Dativ der Moderne. Man kommuniziert nicht über ihn wie über einen Hammer auf der Werkbank, sondern mit ihm wie mit einem Gegenüber, das sich der Verfügung entzieht und doch von Menschen gemacht ist. Eben darin liegt die eigentümliche Verlegenheit der Gegenwart. Sie hat ihre Werkzeuge so gebaut, dass diese Werkzeuge inzwischen an der Form der Welt mitschreiben, ohne darum schon Autoren zu sein. Baecker hält diese Schwebe aus. Er zieht weder den naiven Schluss, der Computer sei nur ein Mittel, noch den modischen, er sei bereits ein Subjekt. Er zeigt, dass das Digitale den Raum möglicher Anschlüsse umbaut und damit tiefer in das Soziale eindringt als jede alte Apparatekunde.

    Die Plattform als höfliche Falle

    Hier beginnt der Punkt, an dem mein alter Satz wieder interessant wird. Denn „Luhmann statt Google“ war zunächst eine Polemik gegen die intellektuelle Bequemlichkeit, die in der Suchmaschine schon eine Weltformel sehen wollte. Diese Polemik ist heute noch richtiger als damals, nur aus einem anderen Grund. Google war die erste große Schule der Indexierung. Man lernte, die Welt als Trefferliste zu sehen. Baeckers Buch handelt bereits von der nächsten Stufe: von einer Umwelt, in der nicht nur gefunden, sondern fortwährend vorselektiert, gewichtet, angestupst, umgeleitet, wahrscheinlich gemacht wird. Die Plattform ist keine Bibliothek; sie ist eine höfliche Falle. Sie sagt nicht: Du musst. Sie sagt: Hier entlang. Und wenn man ihr lange genug folgt, hält man die sanfte Lenkung irgendwann für die eigene Bewegung.

    Baecker beschreibt das ohne moralischen Tremor. Er sieht, dass Plattformen, Apps und digitale Umgebungen einen neuen Kalkül der Attraktion, Kontrolle und Steuerung hervorbringen. Freiheiten werden nicht abgeschafft, sondern inszeniert; Zugänge werden nicht verriegelt, sondern so gestaltet, dass man die Schwellen oft erst bemerkt, wenn man schon daran gescheitert ist. Das ist eine präzisere Beschreibung der Gegenwart als die alte Gegenüberstellung von Freiheit und Überwachung. Die Macht der Plattformen liegt gerade darin, dass sie beides ineinander falten: die Einladung und die Kontrolle, die Leichtigkeit und die Berechnung.

    Von hier aus fällt auch neues Licht auf meinen älteren Text zur Computerkommunikation und auf die Rheinlandrunde-Debatte über den Niedergang regionaler Medien. Der Instinkt war richtig: Die klassischen Redaktionen verloren nicht bloß Auflage und Anzeigen, sondern ihren Status als privilegierte Sortiermaschinen des Öffentlichen. Falsch oder jedenfalls zu optimistisch war nur die Annahme, an die Stelle dieser alten Gatekeeper trete einfach eine offenere, demokratischere Suchordnung. In Wahrheit trat etwas Raffinierteres auf den Plan: eine Infrastruktur der Sichtbarkeit, die Öffentlichkeit nicht abschafft, sondern sie in berechenbare Mikrobewegungen zerlegt. Die Provinz verschwindet dann nicht deshalb aus dem Bild, weil niemand mehr über sie spricht, sondern weil sie im Datenraum keinen hinreichenden Reizwert mehr erzielt.

    Vier Systeme, keine Erlösung

    Baeckers zweite große Stärke liegt darin, dass er die Debatte aus der infantilen Zweierlogik Mensch gegen Maschine herausholt. Man müsse, schreibt er sinngemäß, nicht bis eins, sondern bis vier zählen. Technik, Organismus, Bewusstsein und Gesellschaft bilden jene Konstellation, in der digitale Prozesse überhaupt erst zu Wirklichkeit werden. Auf der einen Seite rechnen die Maschinen; auf der anderen interpretieren Körper, Geist und soziale Zusammenhänge. Die Schnittstelle ist keine harmonische Naht, sondern eine dauernde Übersetzungsarbeit, ein neuralgischer Übergang, an dem Missverständnisse, Überforderungen und plötzliche Evidenzen entstehen. Genau deshalb ist Digitalisierung kein bloß technisches, sondern ein kulturelles und institutionelles Ereignis.

    Der vielleicht wichtigste Satz des Buches lautet: „Gesellschaft lässt sich nicht errechnen.“ Das ist keine Trotzformel des geisteswissenschaftlichen Feuilletons, sondern die sauberste Grenzmarkierung in einer Zeit, die ihre Modelle gern mit Wirklichkeit verwechselt. Baecker bestreitet nicht die Leistungsfähigkeit generativer und stochastischer Verfahren. Er unterschätzt sie gerade nicht. Aber er besteht darauf, dass eine soziologische Theorie keine Algorithmen des Sozialen liefert, sondern die Unberechenbarkeit jenes Zusammenhangs sichtbar macht, in dem Daten, Erwartungen, Situationen und Institutionen einander fortwährend umlagern. Der von ihm entworfene „Kalkül der Lage“ ist deshalb kein Herrschaftswissen, sondern der Versuch, die Form der Unübersicht mit begrifflicher Disziplin zu verfolgen.

    Warum am Ende doch Luhmann gewinnt

    Am schönsten wird das Buch dort, wo es drei Versuchungen der Gegenwart in einer knappen Reihung ordnet. Für Habermas tendiert Kommunikation, wenn man sie nur lange genug von Zwang freihält, zur „Vernunft“; für Michel Serres je nach parasitärem Geschick zum „Netzwerk“; für Luhmann, abhängig von produktiven Zufällen, zum „System“. Diese kleine Trias ist kein Seminarwitz, sondern ein Kompass. Denn genau zwischen diesen drei Polen schwankt die gesamte Debatte über Digitalisierung: zwischen der Hoffnung auf vernünftige Verständigung, der Faszination am Netz und der Einsicht, dass soziale Ordnungen sich nur aus kontingenten, selektiven, eigensinnigen Anschlüssen bilden.

    Hier steht mein Satz also an seinem richtigen Ort. Luhmann statt Google heißt nicht: zurück in die Bibliothek, raus aus dem Netz. Es heißt: Die Suchmaschine bleibt innerhalb der Probleme, die sie technisch löst. Sie ordnet Zugriff, nicht Gesellschaft. Sie verbessert Auffindbarkeit, nicht Selbstverständigung. Sie sortiert, aber sie weiß nicht, was sie anrichtet, wenn das Sortieren selbst zur heimlichen Verfassung des Öffentlichen wird. Baeckers Buch liefert für diese Einsicht die Begriffe, die Schärfe und jene Kälte, ohne die Theorie rasch zu Weltanschauung gerinnt.

    Darum ist dieses Buch mehr als eine Intervention in die KI-Debatte. Es ist eine Erinnerung daran, dass die Gesellschaft kein Dashboard ist. Sie ist kein Prompt, kein Modelloutput, kein sauber kuratierter Datenraum. Sie ist das Geräusch der Anschlüsse, das Knirschen der Übersetzungen, das Wiederauftauchen des Analogen im Innern der elegantesten Maschine. Gerade deshalb lohnt die Lektüre. Denn wer nach diesem Buch noch immer glaubt, Google erkläre die Gegenwart, verwechselt die Straßenkarte mit der Stadt.

    Der Kompass, der sich dem Norden verweigert

    Ein alter Bus, der nicht geschniegelt über Autobahnen gleitet, sondern die kleinen, nicht digitalisierten Linien nimmt – jene Wege, auf denen der Zufall noch Vorfahrt hat. Im Armaturenbrett kein Heilsversprechen aus Satelliten, keine Stimme, die die Welt „in 300 Metern rechts“ zerlegt. Stattdessen Blick nach vorn: offen. So hat sich „Gernstl unterwegs“ über 42 Jahre angefühlt – weniger als Fernsehformat denn als gelebte Poetik der Kontingenz.

    Der Kino-Dokumentarfilm „Gernstls Reisen – Auf der Suche nach irgendwas“ bündelt dieses Credo noch einmal. Franz Xaver Gernstl, Kameramann Hans Peter Fischer und Tonmann Stefan Ravasz zeigen nicht „die Welt“, sie zeigen die Methode, mit der Welt überhaupt erst sichtbar wird: hingehen, anhalten, anklopfen, aushalten, zuhören. Und dann zulassen, dass die Dinge passieren, die man nicht bestellen kann.

    Serendipität als Handwerk, nicht als Glücksduft

    Serendipität klingt nach Glücksfall und Zufallsromantik. In Wahrheit ist sie eine Disziplin. Wer finden will, ohne zu suchen, muss erst lernen, nicht zu besitzen: keine Pointe, kein Skript, kein Gesprächsziel, das wie ein Pfosten im Boden steckt. Genau darin liegt die Modernität dieser Filme – ausgerechnet in ihrer Weigerung, modern zu sein.

    Gernstls Gesprächsführung funktioniert wie ein Gegenprogramm zur Gegenwart: keine Fragen als Trichter, die Menschen in vorgefertigte Antworten pressen, sondern Fragen als Türen. Man merkt, wie schnell das Gegenüber vom „Interview“ ins Erzählen kippt, sobald das Urteil aus dem Raum verschwindet. Gernstl führt nicht, er hält den Raum offen. Die Gesprächspartner wirken nicht „abgerufen“, sondern eingeladen.

    Fischers Kamera ist dabei nicht der Blick des Jägers, sondern der Blick des geduldigen Zeugen: sie bleibt, sie drängelt nicht, sie lässt den Moment sich selbst erzeugen. Ravasz’ Ton wiederum rettet die Feinheiten, die in der Bildhysterie der Gegenwart untergehen: das Zögern, das Räuspern, das ungeschützte Lachen, die Stille nach einem Satz. Ohne diesen Klangteppich wäre vieles nur „nett“. Mit ihm wird es wahr.

    Kaltes Wasser, warme Köpfe

    Im Film greift Gernstl Janosch auf, indirekt wie eine Lebensformel: Das Leben sei wie kaltes Wasser, in das man hineingeworfen werde; entweder gehe man unter – oder man sage sich, man habe ohnehin ins Wasser gewollt, kaltes Wasser sei die eigene Leidenschaft, ein verdammt schönes Vergnügen, Leute. Dieser Satz arbeitet im Untergrund der gesamten Reise. Nicht als Trostpflaster, eher als Temperaturmessgerät. Gesucht werden nicht die perfekten Biografien, sondern die, die trotz Bruchstellen eine Art Lebenskunst entwickeln: nicht Resignation, sondern Trotz-Glück.

    Die Nachricht, dass keine weiteren Produktionen für das BR-Fernsehen entstehen werden, trifft deshalb nicht wie eine Programmänderung, sondern wie ein Kulturverlust. Hier endet nicht bloß eine Serie. Hier verschwindet eine Form von Öffentlichkeit, die sich dem Management verweigert: Begegnung statt Casting, Gespräch statt Choreografie, Zufall statt Redaktion aus dem Baukasten.

    In einer Medienwelt, die Vorhersage mit Wahrheit verwechselt, wirkt Gernstls Methode wie ein Störsignal: Kontingenz als Qualität. Vielleicht genau deshalb so kostbar. Der Bus steht irgendwann still – die Spur bleibt. Und sie erinnert daran, dass die wirklich wichtigen Geschichten selten dort liegen, wo sie geplant wurden.

    Nachsatz: Das Weiterfahren im Buchformat

    Demnächst erscheint im Kösel-Verlag „Glück gehabt!“ (Über das Unterwegssein, das Filmemachen und das Leben an sich, Hardcover). Wer den Film als Verdichtung erlebt, findet im Buch die ausgebreiteten Karten: Donau und Matterhorn, Sylt und Elbe, Dolomiten und Gardasee, Jesolo, Holland, Irland, Los Angeles – nicht als Reiseliste, sondern als Beleg dafür, dass Menschen überall dort auftauchen, wo niemand ihnen eine Rolle zuschiebt. Die alte Frage kehrt wieder, nun als Leitmotiv: Wie plant man zufällige Begegnungen, ohne sie zu verraten? Gernstls Antwort bleibt eine Haltung: hinschauen, zuhören, sich nicht anstellen zwischen Leben und Kamera. Der Zufall übernimmt dann den Rest – und manchmal fühlt sich dieser Rest wie das Eigentliche an.

    Mehr dazu in unserem Sohn@Sohn-Newsletter.

    Der digitale Doppelgänger: Warum die Angst vor KI-Agenten am eigentlichen Problem vorbeigeht #EinsteinApp #Wahlster #DFKI #ZPNachgefragtWeek

    Der Skandal, der keiner ist

    Die Debatte um KI-Agenten liebt den Moment der Empörung: Eine App taucht auf, verspricht, das Studium gleich mit zu erledigen, und verschwindet wieder – und schon steht das Urteil fest. Betrug. Bildungszerstörung. Ende der Leistungsprinzipien. Die „Einstein“-App – ein autonomer Agent, der sich im Namen von Studierenden in Lernsysteme einloggt, Vorlesungen „anschaut“, Paper liest, in Foren diskutiert und Hausarbeiten schreibt – lieferte diesen Moment in Reinform. Das Programm verschwand nach kurzer Zeit aus den Stores; nicht, weil die Idee zu verrückt gewesen wäre, sondern weil die Namensrechteinhaber klagten.

    Der reflexhafte Schock ist verständlich. Aber er ist auch bequem. Denn er erlaubt es, eine technische Entwicklung moralisch zu verhandeln, statt die institutionelle Wirklichkeit zu betrachten, die sie freilegt. Die eigentliche Provokation der Agenten liegt nicht darin, dass sie „zu viel können“. Sie liegt darin, dass unsere Lern- und Qualifikationslogik so gebaut ist, dass ein Agent sie überhaupt in dieser Breite abarbeiten kann: content-lastig, videobasiert, assessment-getrieben – und oft näher an Fleißnachweisen als an Könnerschaft. Genau das benennt der Diskurs um „Einstein“ selbst: Agentic AI ist weniger Ursache als Symptom einer tieferen Frage – warum wir eigentlich lernen.

    Maria Laach: Die deutsche Vorgeschichte der Personalisierung

    Wer die Agenten-Debatte nur als Silicon-Valley-Problem liest, verkennt ihre längere, auch deutsche Vorgeschichte. In der Forschungslinie, die heute wieder in Mode kommt, geht es seit Jahrzehnten nicht primär um „Antworten“, sondern um Passung: um Systeme, die nicht bloß Inhalte ausgeben, sondern verstehen, wer ihnen gegenübersitzt – und daraus ihr Verhalten ableiten. In einem Feature-Text zur Wahlster-Session wird diese Linie ausdrücklich historisch verortet: Vor rund vierzig Jahren gab es in Deutschland einen internationalen Workshop zur empathischen Benutzermodellierung; daraus entstand eine bis heute aktive Community, sichtbar etwa in der Reihe UMAP (User Modeling, Adaptation and Personalization).

    Das ist mehr als Anekdote. Es ist ein Gegenargument zur heutigen Alarmrhetorik. Denn „Hyperpersonalisierung“ ist nicht der spontane Exzess einer neuen Modellgeneration, sondern die späte Marktreife eines alten Versprechens: Lern- und Dialogsysteme sollen nicht alle gleich behandeln, sondern individuell – nicht aus Freundlichkeit, sondern aus Effizienz. Wer schon einmal erlebt hat, wie Lernende in Standardkursen entweder unterfordert oder überfordert werden, versteht, warum Personalisierung ökonomisch ist: Sie reduziert Abbrüche, verkürzt Lernzeiten, erhöht Transfer – und damit den Return on Learning.

    Von „kognitiv“ zu „sozial“: Was die Wahlster-Session wirklich behauptet

    In der Session der mit Professor Wolfgang Wahlster zur empathischen KI wurde genau dieser Perspektivwechsel eingefordert: weg von Technikromantik, hin zu Interaktion als Produktivitätsfaktor. Empathische KI soll nicht den Menschen ersetzen, sondern Systeme kontextsensitiver, verständlicher und hilfreicher machen – „weniger Reibung, mehr Passung“, wie es in der schriftlichen Fassung heißt.

    Wahlster unterscheidet vier Dimensionen von Intelligenz – kognitiv, sensorphysisch, emotional, sozial – und markiert den historischen Rückstand nicht beim Rechnen, sondern beim Verstehen von Stimmungen und sozialen Situationen. Daraus folgt ein nüchternes Pflichtenheft: Emotionen erkennen, Verhalten adaptieren, Reaktionen multimodal ausdrücken – über Sprache hinaus auch über Mimik und Gestik.

    Der entscheidende Punkt für Bildung und Lernen steckt allerdings nicht im Wort „Empathie“, sondern in der Konsequenz: Wenn Systeme individuell fördern sollen, müssen sie in der Lage sein, Lernende als dynamisches Modell zu führen – nicht als Zielgruppe. Genau hier trifft die alte Forschung auf die neue Agentenwelt.

    Das unscheinbare Herzstück: Das Benutzermodell

    In einem klassischen Text zur Benutzermodellierung wird das Prinzip so beschrieben: Eine User-Modeling-Komponente konstruiert schrittweise ein Nutzermodell, speichert, aktualisiert, löscht Einträge, hält Konsistenz und versorgt andere Systemteile mit Annahmen über den Nutzer. Für Lernkontexte ist diese Idee noch präziser: Intelligente tutorielle Systeme nutzen ein „Student Model“, das die jeweilige Verständnislage abbildet – also nicht nur beantwortet, sondern diagnostiziert.

    Was heute „KI-Agent“ heißt, ist in dieser Logik die nächste Evolutionsstufe: nicht nur ein Dialogsystem mit gutem Text, sondern ein Akteur, der Ziele verfolgt, Aufgabenketten ausführt, Lernpfade organisiert, Übungssituationen erzeugt, Feedback in Echtzeit gibt – und dabei kontinuierlich das Modell des Lernenden fortschreibt. Hyperpersonalisierung ist dann kein Marketingwort, sondern Betriebsmodus: ein Tutor pro Kopf, skalierbar.

    Die Bedenkenträger haben recht – und doch nicht

    Natürlich ist die Angst vor Agenten nicht aus der Luft gegriffen. Wenn ein System „das Studium durchklickt“, wird die klassische Hausarbeit als Leistungsnachweis fragwürdig; genau das wird im Diskurs um „Einstein“ offen ausgesprochen: Fleißnachweise verlieren ihren Wert, wenn der Nachweis automatisierbar wird – der Lernweg wäre damit noch nicht widerlegt, aber die Messung schon. Ebenso real sind Risiken wie Datenmissbrauch (weil Agenten Zugangsdaten brauchen), neue Asymmetrien (wer den besten Agenten hat, gewinnt) und die schleichende Entkernung von Kompetenz durch „Cognitive Offloading“.

    Aber die falsche Schlussfolgerung wäre, daraus ein Verbotsprogramm zu stricken – als ließe sich Agentic AI in einer offenen Tool-Ökonomie aufhalten. Im „Einstein“-Text auf LinkedIn wird das als Katz-und-Maus-Spiel beschrieben: Plattformen verbieten Agenten und bauen Gegenmaßnahmen, doch jedes neue Modell-Release verschiebt die Grenze erneut. Der Verbotsimpuls ist nachvollziehbar – nur ist er betriebswirtschaftlich naiv. Er verteidigt Prüf- und Lernprozesse, deren Stabilität längst von der Technik abhängt, die man gerade verteufelt.

    Die klügere Replik lautet: Wenn Agenten alles erledigen können, müssen Institutionen und Unternehmen präziser definieren, was sie eigentlich unter Lernen verstehen – und wie sie Können überprüfen wollen. Das ist unbequem, aber überfällig.

    Die Zukunft des Lernens: Agenten, aber als Tutor – nicht als Ghostwriter

    Der Diskurs um „Einstein“ schlägt, fast beiläufig, die beiden härtesten Hebel vor, die übrig bleiben, wenn Inhalte und Standardaufgaben entwertet sind: intrinsische Motivation und persönliche Beziehungen. Echtes Lernen wird zur Entscheidung; wer nur Punkte sammelt, kommt leichter durch. Wer wirklich etwas können will, braucht eine Lernumgebung, die Reibung nicht eliminiert, sondern produktiv macht – und Feedback, das ein Gegenüber bleibt.

    Gerade hier kann ein Agent mehr sein als eine Abkürzung. In der Wahlster-Session wird „Losgröße 1“ als Bildungsversprechen formuliert: Tutorielles Lernen müsse stärker auf Einzelpersonen ausgerichtet werden; persuasive Systeme können motivieren und „dranbleiben“, wo Zeit und Ressourcen fehlen. Wahlster Pressearbeit Das ist nicht die Abschaffung des Lernens, sondern seine Industrialisierung in die richtige Richtung: weg von Massencontent, hin zu individueller Förderung, die in großen Klassen, großen Kohorten, großen Unternehmen sonst schlicht nicht leistbar ist.

    Hyperpersonalisierung bedeutet dann nicht, dass der Mensch verschwindet. Sie bedeutet, dass der Mensch dort wieder auftauchen kann, wo er unersetzlich ist: bei Urteilskraft, Verantwortung, sozialer Interaktion, Wertefragen. Oder, zugespitzt: Wenn KI das Ausfüllen erledigt, muss Bildung das Denken zurückfordern.

    Die Rückkehr des Schalls: Max Raabe & Palast Orchester mit „Hummel streicheln“ in der restaurierten Beethovenhalle

    Manchmal braucht ein Gebäude keine neue Bestimmung, sondern nur seine alte Stimme zurück. Die Beethovenhalle, lange eher Legende als Gegenwart, knüpft nach der Restaurierung hörbar an jenen Gründungsoptimismus an, der 1959 in Fachkreisen in akustischer Euphorie kulminierte: ein Konzertsaal als wissenschaftlich geplantes Instrument, jeder Platz „mitten im Schallgeschehen“, dynamische Schwankungen kaum merklich, zugleich geeignet für barocke Linearität wie für romantische Klangmassen. Und tatsächlich: Der Raum wirkt wieder wie ein Klangkörper, der nicht nur „trägt“, sondern formt – als wäre die Architektur selbst ein diskreter Dirigent.

    Dass Max Raabe & Palast Orchester nur wenige Monate nach der Wiedereröffnung den Saal im besten Wortsinn „einspielen“, ist mehr als ein glücklicher Kalenderfund. Ihr Stil – Präzision ohne Sprödigkeit, Nostalgie ohne Patina – taugt als Prüfstein für jede Raumakustik: Wo Konsonanten verschmieren, Phrasen ihre Kontur verlieren, Pointen versanden und die feinen dynamischen Abstufungen im Teppich verschwinden, verflüchtigt sich der besondere Reiz dieses Ensembles. Am 3. März jedoch bleibt alles am rechten Platz: klar im Ohr, präsent im Kopf, spürbar bis ins Zwerchfell.

    Das Palast Orchester: Präzision als Glanz, Eleganz als Motor

    Das Palast Orchester spielt nicht „begleitend“, sondern als gleichberechtigter Erzähler. Die Instrumentation – mit Tenorsaxophon, Bass-Saxophon, Trompete, Vibraphon/Schlagzeug als markanten Farben – ist ein fein abgestimmtes Kabinett von Charakterstimmen. Was dabei auffällt: Der Sound ist nicht museal, sondern quicklebendig. Das Vibraphon setzt Glanzpunkte wie Lichtreflexe auf poliertem Holz; das Saxophon zeichnet Linien, die zugleich geschmeidig und ironisch sein können; das Bass-Sax sorgt für jene wohlig-gravitätische Tiefe, die man im Körper spürt, bevor man sie benennt.

    Und die Beethovenhalle tut das Entscheidende: Sie hält diese Binnenarchitektur des Orchesters auseinander, ohne sie zu zerlegen. Die Stimmen mischen sich zu einem Ganzen, aber man hört die Fäden. Genau darin liegt die moderne Qualität eines Saals: Transparenz als Komfort, nicht als Seziermesser.

    „Hummel streicheln“: Tourneeprogramm als fein gebautes Vexierbild

    Der Titel der neuen Tournee, „Hummel streicheln“, klingt nach kindlicher Unmöglichkeit – und ist doch eine treffende Chiffre. Denn Raabes Kunst ist genau das: die sanfte Berührung des potenziell Stechenden. Seine Lieder und Moderationen bewegen sich in einem Spannungsfeld aus Anmut und Abgrund, aus Salon und Alltag, aus sehr gepflegter Oberfläche und sehr menschlichen Rissen darunter.

    Im Programm blitzen immer wieder Komponisten- und Texterwelten auf, die das 20. Jahrhundert mit seinen Stilen und Brüchen wie durch ein Opernglas zeigen: Namen aus dem Kosmos des Chansons und des deutschen Unterhaltungstheaters – Jurmann und Rotter, Kreuder, Stolz, Heymann – werden nicht als Zitatenschatz vorgeführt, sondern als lebendige Sprache, die heute noch trifft. Dass dabei auch amerikanische Songwriter-Traditionen und jüdische Theatermusik anklingen, gehört zur stillen Modernität dieses Abends: Das Palast Orchester führt das „Damals“ nicht als Insel vor, sondern als Netz.

    Max Raabe: Der Sprachwitz als zweite Melodie

    Raabe singt, als hätte er die deutsche Sprache nicht nur gelernt, sondern domestiziert – und dennoch bleibt sie bei ihm ein wildes Tier, das jederzeit in die Pointe springen kann. Seine Diktion ist kristallin, nie pedantisch; sein Bariton trägt jene berühmte Mischung aus Wärme und Distanz, die Intimität herstellt, ohne sich anzubiedern. Vor allem aber: Bei Raabe sitzt der Witz nicht obenauf wie Dekor, sondern im Kern der Musik.

    Das zeigt sich besonders in den Moderationen, die im besten Sinne feuilletonistisch sind: kleine Denkstücke, die sich als Plauderei tarnen. Da wird das Adressbuch – „ein nicht-digitales Medium“, ohne Akku, aufklappbar, alphabetisch geordnet – zur kulturhistorischen Miniatur über eine Welt, in der man für einen Kontakt „unter Umständen weit hinging“. Und dann der elegante Schlenker in die Gegenwart: Soziale Netzwerke helfen beim Vernetzen – „da muss man aufpassen, dass man nicht zu weit geht“.
    Es ist diese Art Humor, die nicht „über“ etwas lacht, sondern etwas sichtbar macht: menschliche Unruhe, moderne Grenzlosigkeit, das leise Unbehagen im Komfort.

    Liederhumor mit Tiefenschärfe: Vom Huhn bis Newton

    Raabes Pointen sind oft kleine philosophische Stolpersteine. Wenn er das Huhn als Ergebnis der Evolution vorführt – als Nachfolger des Tyrannosaurus rex – ist das zunächst Kabarett im naturkundlichen Kostüm. Aber der Gedanke kippt schnell ins Existenzielle: Was wäre, wenn das Huhn „zurückmontierte“? Wie sähe Koexistenz aus, wenn die Gegenwart plötzlich wieder Zähne bekäme?
    Solche Einfälle sind keine Gags um des Gags willen, sondern Bilder für unsere Zeit: freundlich anmutend, doch jederzeit von Rückfällen bedroht.

    Ähnlich treffsicher ist der Blick auf Beziehungen, Erinnerungen, Abschiede. Früher zerknüllte man Fotos; heute sitzt man mit dem Mobiltelefon in der Ecke und löscht Selfies – ein moderner Akt der Trennung, der zugleich radikal und unerquicklich banal ist. Und wenn schließlich Newtons erstes Gesetz bemüht wird – ein Körper beharrt im Zustand der Ruhe, sofern keine Kraft einwirkt –, dann wirkt das in Raabes Universum wie ein moralischer Spiegel: Wie viel in unserem Leben bleibt liegen, weil es bequem ist? Wie viel Bewegung braucht es, damit überhaupt etwas beginnt?

    Die Beethovenhalle als heimlicher Solist

    In all dem ist die Halle nicht Kulisse, sondern Partner. Ein Raum kann Musik groß machen, indem er sie vergrößert – oder indem er sie verständlich macht. Hier geschieht Letzteres: Die Stimmen des Orchesters behalten Kontur, Raabes Sprache bleibt bis in Nuancen hinein präsent, und die Dynamik wirkt, als würde sie nicht „verstärkt“, sondern natürlich atmen.

    Gerade bei einem Programm, das zwischen Lied, Moderation, Miniatur und orchestraler Pointe wechselt, ist das entscheidend. Die Beethovenhalle zeigt sich als Saal, der Übergänge liebt: vom gesprochenen Wort ins musikalische Nachspiel, vom feinen Witz in den elegischen Schatten, vom leisen Schlussakkord in den Applaus. So entsteht jene seltene Einheit von Raum und Aufführung, in der man nicht nur hört, dass ein Haus renoviert wurde, sondern warum.

    Coda: Eine Tournee, die das Leichte ernst nimmt

    „Hummel streicheln“ ist kein nostalgischer Ausflug, sondern eine kunstvoll gebaute Gegenwartsbeobachtung im Spiegel vergangener Formen. Max Raabe beherrscht das Paradox, mit größter Höflichkeit sehr präzise zu sein. Das Palast Orchester macht aus Stil keine Pose, sondern Klangarbeit. Und die Beethovenhalle – dieser wiedererweckte Klangkörper – knüpft nahtlos an die euphorischen Reaktionen der Fachleute im Eröffnungsjahr 1959 an, nicht als Zitat, sondern als Gegenwartserfahrung: Man sitzt im Saal und hat das Gefühl, die Musik sei nicht einfach „da vorne“, sondern um einen herum in Bewegung.

    Ein Abend also, der beweist, dass Eleganz nicht Flucht ist, sondern Konzentration. Und dass Humor in der Musik nicht die kleine Schwester des Ernstes sein muss – sondern seine klügste Verkleidung.

    Die nächsten Konzerttermine findet Ihr hier.

    Kleine Anmerkung: Jemand aus dem Management von Max Raabe gab uns fünf Minuten vor dem Beginn des Konzerts seine Ehrenkarten – wir saßen eigentlich sehr, sehr weit hinten. Dann saßen wir sehr, sehr weit vorne in der fünften Reihe. Das war ein glücklicher Zufall.

    Wer KI nur für Texte nutzt, wird Plattform-Zulieferer

    Am Beispiel DuMont zeigt sich: Wer KI nur als Textmaschine nutzt, bleibt Zulieferer. Wer KI als Operating Model baut, gewinnt Tempo, Relevanz – und Marge.

    Die Medienbranche hat sich jahrelang an einer beruhigenden Idee festgehalten: Wenn die Inhalte stimmen, wird es schon irgendwie funktionieren. Nur leider hat sich das Spielfeld verändert. Auflagen sinken, Werbung ist volatil, Plattformen setzen Preise und Regeln. Und das Härteste: Inhalte sind nicht mehr knapp. Aufmerksamkeit ist knapp. Daten sind knapp. Direkte Kundenbeziehung ist knapp.

    In so einem Markt entscheidet nicht die nächste „Content-Offensive“. Entscheidend ist, wer schneller lernt, präziser ausspielt, besser bindet – und daraus skalierbar Geschäft macht. Genau deshalb ist KI kein Add-on für die Redaktion. KI ist ein Umbau der Wertschöpfung.

    Und wer diesen Umbau ernst nimmt, landet automatisch bei einer unbequemen These:

    Medien werden zur Oberfläche. Wert entsteht im System dahinter.

    DuMont als Blaupause: 400 Jahre alt – und plötzlich AI Company

    DuMont ist eines der ältesten Familienunternehmen Deutschlands – und wirkt gerade deshalb wie ein Gegenbeweis zur Ausrede „Wir sind zu historisch, zu träge, zu traditionell“. Das Unternehmen hat sich radikal neu erfunden: vom klassischen Verlag zur wachsenden Gruppe von Medien- und Technologieunternehmen.

    Wichtig ist nicht das Narrativ, sondern die Struktur dahinter:

    DuMont agiert in drei Bereichen: Regionalmedien, B2B-Informationen und Marketing Technology.

    Mehr als 75% des Ergebnisses stammen bereits aus digitalen Geschäften.

    Zielbild: Bis Ende 2026 sollen 50% aller Prozesse KI-gestützt sein.

    Das ist nicht „Digitalisierung“. Das ist ein neues Betriebssystem.

    Warum viele KI-Projekte in Medien scheitern – obwohl sie „funktionieren“

    In vielen Häusern startet KI dort, wo sie sofort Eindruck macht: Texte zusammenfassen, Headlines variieren, Bilder generieren. Das ist nützlich – aber oft bleibt es kosmetisch. Denn der Engpass liegt nicht im Output. Der Engpass liegt in der Organisation:

    Wo kommen Daten her – und sind sie sauber genug?

    Welche Workflows werden wirklich end-to-end automatisiert?

    Wer entscheidet, welche KI-Lösungen skalieren – und welche Spielzeug bleiben?

    Wie verändert sich Qualitätssicherung, Verantwortung, Governance?

    Und vor allem: Was wird dadurch besser messbar monetarisierbar?

    Wenn KI nur die Content-Produktion beschleunigt, erhöht sie im Zweifel nur das Rauschen. Wenn KI aber Bindung, Conversion, Relevanz und Geschwindigkeit verbessert, wird sie zum Business-Hebel.

    Der Kern der DuMont-Logik: KI übernimmt Routine – Menschen bauen Vorteil

    DuMont formuliert die KI-Rolle nicht als „Ersatz“, sondern als Reallokation: KI übernimmt Routineaufgaben, Mitarbeitende konzentrieren sich auf das, was echten Wettbewerbsvorteil schafft: Kundenbeziehungen, Markenführung, Kreativität und neue Nutzererlebnisse.

    Das ist ökonomisch sauber gedacht:
    Routine ist skalierbar – Differenzierung nicht. Routine lässt sich automatisieren – Differenzierung muss gestaltet werden.

    Und genau hier wird KI strategisch: nicht als Content-Maschine, sondern als Operating Model, das Kapazität freisetzt und Wirkung erhöht.

    DuMont AIssist + AI Academy: KI wird nicht eingeführt, sondern verankert

    Wer KI skalieren will, braucht mehr als Lizenzen. Er braucht Skills, Standards, Governance – und ein System, das Nutzung einfach macht.

    DuMont setzt dafür sichtbar auf drei Hebel:

    Experimentierformate & AI Academy
    (Re-)Skilling von Prompt Engineering bis KI-Ethik. Nicht als E-Learning-Schaufenster, sondern als Kompetenzaufbau, der auf reale Workflows zielt.

    Talent Community
    Führungskräfte und Talente lernen, KI strategisch zu nutzen – also nicht nur „wie promptet man“, sondern: Wie baut man damit Prozesse, Produkte, Entscheidungen?

    „DuMont AIssist“
    Ein interner Hub, der zentrale KI-Anwendungen bündelt: Textgenerierung, Datenanalyse, Bildproduktion bis zur Automatisierung ganzer Workflows – nahtlos integriert in die Systeme.

    Der Unterschied ist entscheidend:
    KI als Tool erzeugt einzelne Effekte.
    KI als Plattform intern erzeugt Skalierung.

    Doppelstrategie statt KI-Romantik: Kerngeschäft optimieren + AI-First bauen

    DuMont fährt einen Doppelansatz, der für die Medienbranche fast schon die einzige realistische Route ist:

    Optimierung des Kerngeschäfts (Payday-Pfad)

    • automatisierte Workflows
    • KI-gestützte Vermarktung
    • personalisierte Kundenerlebnisse
    • Abo- und Umsatzprognosen
    • Automatisierung in Finance & HR

    Die ersten Effekte sind sichtbar: stärkere Abonnentenbindung, schnelleres Prototyping, höhere Conversion-Rates. Harte ROI-Zahlen fehlen noch – aber Tempo, Präzision und Relevanz steigen. Und das sind in dynamischen Märkten oft die wichtigsten Frühindikatoren.

    Aufbau neuer AI-First-Plattformen (Moonshot-Pfad)

    Hier wird es richtig spannend: mit Entirely entsteht ein offenes Ökosystem, das führende Marketing-Technologien vernetzt und Unternehmen ein integriertes System für individuelle Marketing-Anforderungen bietet – KI ist dabei von Beginn an der Kern.

    Das ist der Schritt raus aus der reinen Medienlogik rein in Plattformlogik:
    Netzwerkeffekte, Integrationen, Datenprodukte, wiederkehrende Erlöse. Genau dort entstehen in vielen Branchen die neuen Gravitationszentren – und genau dort wird entschieden, wer später die Marge kontrolliert.

    Top & Flop: Die wertvollste KI-Lektion ist erstaunlich unsexy

    DuMont benennt zwei Learnings, die man sich als Poster in jedes KI-Lab hängen sollte:

    Top: KI-Funktionen in marktfähigen Produkten – nicht nur in internen Demos.
    Flop: zu komplexe AI-Workflows – die Erkenntnis: Einfachheit schlägt Over-Engineering.

    Das ist kein Detail. Das ist der Skalierungshebel.

    Denn Komplexität ist in KI-Projekten ein schleichender Killer:
    zu viele Abhängigkeiten, zu fragile Datenpfade, zu viel Wartung, zu wenig Adoption. Am Ende hat man „eine Lösung“, aber kein System.

    Die eigentliche Hürde heißt Leadership, nicht Technologie

    COO Oliver Eckert spricht von „Transzendenz“: dem bewussten Überschreiten gewohnter Grenzen. Das trifft einen Nerv, weil KI nicht nur Prozesse verändert, sondern Identität:

    Was ist „Qualität“, wenn KI mitproduziert?

    Wie sieht Verantwortung aus, wenn Entscheidungen datengetrieben sind?

    Welche Rolle hat Führung, wenn Teams iterativer arbeiten müssen?

    Wie führt man KI – wie einen „Kollegen“, der zuverlässig ist, aber nicht unfehlbar?

    Die Transformation zur AI Company ist deshalb vor allem eine kulturelle Herausforderung. Wer hier halbherzig bleibt, bekommt genau das, was man überall sieht: Pilotprojekte ohne Durchschlag, Tools ohne Adoption, Effizienz ohne Wachstum.

    KI belohnt Klarheit:
    über Ziele, Prozesse, Verantwortlichkeiten, Produkte – und darüber, wo Differenzierung wirklich entsteht.

    KI entscheidet, ob Medienhäuser gestalten – oder beliefert werden

    Die Debatte ist vorbei, ob KI „kommt“. Sie ist da. Die offene Frage ist nur: Wird KI in Medienhäusern ein Feature – oder ein Fundament?

    DuMont zeigt, wie ein 400 Jahre altes Unternehmen den Shift zur AI Company angeht:
    diversifiziert, daten- und technologiegetrieben, prozessual verankert, kulturell begleitet – und mit dem Mut, neben Effizienz auch neue AI-First-Plattformen aufzubauen.


    Hinweis: Leadership Forum Convidera am 24. März in Köln

    Wer das Thema praktisch diskutieren will: Am 24. März findet in Köln das Leadership Forum von Convidera statt – mit u.a.:

    • Oliver Eckert, COO DuMont
    • Jonas Rashedi, CDO Falke
    • Bernhardt Lüddecke, Director Validation Global Kautex
    • Daniel Jungbluth, CTO Scheidt & Bachmann

    Siehe auch: