KI-Vormärz, KI-Biedermeier, KI-Apokalyptik?

Es gehört zu den eigentümlichen Ritualen der deutschen Gegenwart, dass fast jede neue Technologie zuerst von ihren Kommentatoren moralisch eingekesselt wird, bevor man sich mit ihr praktisch beschäftigt. Kaum taucht etwas auf, das Arbeitsweisen, Märkte und Machtverhältnisse verändert, wird nicht etwa gefragt, wie man es produktiv macht, sondern ob es uns geistig korrumpiert, sozial entwurzelt, politisch entmündigt oder gleich die Gattung auslöscht. Die Debatte trägt hierzulande noch immer den Sound der pädagogischen Gefahrenabwehr.

So nun auch bei der Künstlichen Intelligenz.

Da wird von „KI-Biedermeier“ gesprochen, als säße die Republik bereits unter einer digitalen Häkeldecke und lasse sich von Silicon-Valley-Milliardären in die algorithmische Stube treiben. Da wird die Figur des „KI-Vormärz“ bemüht, als befänden wir uns in einer Epoche verheißungsvoller technischer Aufbrüche, die am Ende doch nur in Enttäuschung, Oligarchie und gesellschaftlicher Regression münden könne. Und da wird, mit dem apokalyptischen Furor spätmoderner Intellektueller, behauptet, KI sei in Wahrheit gar keine Zukunftstechnologie, sondern eine konservative Maschine des Vergangenen: lernend aus dem Gestern, blind für das Morgen, nützlich allenfalls für Routinen, aber unfähig, Antworten auf die drängenden Fragen unserer Zeit zu geben.

Das klingt gewichtig. Es ist aber, bei näherem Hinsehen, vor allem eines: eine Denkfigur des Rückzugs. Man spricht über KI, als sei sie vor allem ein kulturphilosophisches Problem. Man redet über sie, als ginge es primär um Diskurse, Narrative, Machtcamouflage, Ideologiekritik. Man betrachtet sie aus sicherer Distanz, mit jener Mischung aus Ironie, Bildungsgestus und Unbehagen, die in Deutschland oft dort beginnt, wo andere Länder längst Geschäftsmodelle bauen.

Der eigentliche Skandal liegt nicht in der Technologie. Er liegt im Blick auf sie.

Die historische Metapher als Nebelmaschine

Der große Fehler des „KI-Vormärz“-Arguments besteht darin, dass es historische Analogie mit historischer Erkenntnis verwechselt. Der Vormärz war eben nicht bloß eine Phase der Vertröstung, des Rückzugs ins Private und der symbiotischen Allianz von ökonomischer Modernisierung und politischer Apathie. Er war vielmehr ein hochdynamischer Möglichkeitsraum: Eisenbahn, Telegrafie, Lesegesellschaften, Vereinswesen, Presseöffentlichkeit, wissenschaftliche Vernetzung, Bildungsaufstieg. Eine Epoche unter Spannung, nicht unter einer Decke.

Wer aus dieser Zeit vor allem ein Menetekel gegen technologische Euphorie destillieren will, macht aus Geschichte ein Dekor für Gegenwartsangst. Das Problem ist nicht, dass man Analogien zieht. Das Problem ist, dass man sie so zieht, dass die Pointe schon vorher feststeht: Fortschritt enttäuscht, Technik konserviert Macht, große Versprechen enden in großer Ernüchterung. Das ist kein analytischer Befund. Das ist ein Weltgefühl.

Und dieses Weltgefühl wirkt seltsam unberührt von jener Realität, die sich jenseits der Feuilletons und Debattenräume längst formiert. Denn während Ramge und Mayer-Schönberger mit erheblichem intellektuellem Aufwand die Grenzen maschinischer Zukunftsfähigkeit beschreiben, haben Unternehmen die Frage längst anders gestellt. Nicht: Kann KI die großen Menschheitsprobleme lösen? Sondern: Wo verbessert sie heute Entscheidungen, Prozesse, Service, Qualität, Wissenstransfer, Produktivität?

Das ist die realwirtschaftliche Perspektive. Und sie ist, wie so oft, weniger spektakulär als die kulturkritische Erzählung – aber belastbarer.

Die Wirklichkeit in den Werkhallen kennt keinen KI-Vormärz

Es ist ein merkwürdiges Schauspiel: Während draußen die Nebelmaschinen der Dystopie kreisen, erfindet der deutsche Mittelstand mit fast trotzig-preußischer Disziplin seine Produktivität neu. KI zieht ein in Vertrieb, Produktion, Service, Entwicklung, Backoffice. Nicht als ästhetisches Versprechen, nicht als Weltformel, sondern als operative Infrastruktur.

Die Daten sprechen eine klarere Sprache als die Debatte. Unternehmen berichten von messbaren Effizienzgewinnen, von Produktivitätssteigerungen zwischen 20 und 80 Prozent, von beschleunigten Entscheidungen, besseren Servicelevels, sofort verfügbarem Wissen. Jeder fünfte Digital-Euro fließt inzwischen gezielt in KI-Initiativen. Und der entscheidende Satz lautet: KI ersetzt nicht menschliche Arbeit, sie verstärkt menschliche Handlungsfähigkeit.

Das ist der Punkt, an dem sich die Theorieblase vom Maschinenraum trennt.

Denn natürlich haben Ramge und Mayer-Schönberger in einem Punkt recht: KI lernt aus Vergangenem. Sie extrapoliert, rekombiniert, verdichtet Muster. Sie ist kein metaphysischer Zukunftsfühler. Aber daraus zu schließen, sie könne nur Routine und sei im Kern konservativ, ist eine bemerkenswerte Verwechslung von epistemischer Herkunft und ökonomischer Wirkung. Auch der Taschenrechner „weiß“ nichts von der Zukunft – und doch verändert er Entscheidungen. Auch das ERP-System blickt nicht prophetisch voraus – und doch strukturiert es Unternehmen. Auch die Elektrizität enthält keine Moral und keine politische Theorie – und dennoch hat sie Gesellschaften transformiert.

Technologien müssen nicht die Welt „verstehen“, um sie zu verändern. Es reicht, wenn sie die Handlungsmöglichkeiten derer verändern, die mit ihnen arbeiten.

Das Missverständnis der Routine

Die vielleicht folgenreichste Untertreibung in der skeptischen KI-Kritik ist der beiläufige Hinweis, KI sei eben für Routinesituationen nützlich. Als wäre Routine eine triviale Randzone der Wertschöpfung. Als bestünde Wirtschaft vor allem aus großen originellen Geistesblitzen und nicht aus Abertausenden wiederkehrender Reibungen, Suchbewegungen, Abstimmungsschleifen, Dokumentationslasten, Servicevorgängen, Wissenslücken, Übergabefehlern und Wartezeiten.

Wer Routine kleinredet, hat nie ein Unternehmen geführt.

Routine ist kein Randphänomen. Sie ist das Massiv, an dem Produktivität gewinnt oder verliert. Wenn KI diese Routinen beschleunigt, präzisiert und entlastet, dann ist das keine kleine Hilfestellung, sondern ein struktureller Eingriff in die Ökonomie. Wer dort 20, 30 oder 50 Prozent Zeit spart, verändert Kostenstrukturen, Reaktionsgeschwindigkeit, Kundenerlebnis und Innovationsspielräume zugleich.

Gerade alternde Gesellschaften wie die deutsche können sich den Luxus gar nicht leisten, diese Hebel geringzuschätzen. Wenn weniger Erwerbstätige mehr Komplexität bewältigen müssen, ist jede Technologie, die kognitive Lasten senkt und Wissen breiter verfügbar macht, keine Gefahr, sondern ein Standortfaktor.

KI ist nicht konservativ. Sie ist eine Losgröße-1-Maschine

Die eigentliche Blindstelle der Dystopiker liegt jedoch tiefer. Sie betrachten KI als Wiederkäuerin der Vergangenheit. Dabei übersehen sie, dass ihre größte ökonomische Kraft gerade darin liegt, Standardisierung und Individualisierung zugleich zu ermöglichen.

Industriegeschichte war lange die Geschichte der Skalierung durch Vereinheitlichung. Erst Serienfertigung, dann Massenmärkte, dann Plattformen. KI aber eröffnet eine neue Logik: Losgröße 1 für Wissen, Lernen, Service und Interaktion. Siehe dazu auch das Interview mit Professor Wolfgang Wahlster zur :

Ein digitaler Assistent interessiert sich nicht für Herkunft, Dialekt, Habitus, Bildungsbiografie oder Lebenslaufpathos. Er bewertet nicht nach Titel, Auftreten oder Netzwerk. Er reagiert auf Anfrage, Kontext, Aufgabe. Das ist noch keine Gerechtigkeit. Aber es ist ein technologischer Hebel gegen viele tradierten Privilegien der Informationsökonomie.

Hier liegt eine zutiefst demokratische Möglichkeit: Zugang zu Wissen wird entformalisiert. Lernen wird situativer. Kompetenz wird weniger an Zertifikaten gemessen als an der Fähigkeit, mit Werkzeugen Ergebnisse zu erzielen. Der Lebenslauf verliert seine sakrale Autorität. Wichtiger wird die Frage: Was kannst du heute? Was lernst du morgen? Was lässt sich jetzt lösen?

Das ist kein Ende des Menschen. Das ist die Entmachtung erstarrter Organisationsrituale.

Nicht die KI depolitisiert – die Erschöpfung tut es

Man kann der Skepsis zugestehen, dass Technologien immer auch Machtstrukturen stabilisieren können. Plattformmärkte konzentrieren. Datenmonopole verzerren. Kapital sucht Rendite, nicht Demokratie. All das ist wahr. Aber daraus folgt nicht, dass KI notwendig Teil einer großen Depolitisierungserzählung ist.

Die politische Müdigkeit unserer Zeit kommt nicht primär aus Maschinen. Sie kommt aus institutioneller Trägheit, strategischer Orientierungslosigkeit und einer Öffentlichkeit, die das Gefühl verloren hat, Zukunft gestaltend zu denken. KI ist nicht die Ursache dieses Defizits. Sie macht es nur sichtbarer.

Denn plötzlich steht eine Technologie im Raum, die von Unternehmen, Verwaltungen, Bildungseinrichtungen und Individuen eine Entscheidung verlangt: Wollen wir gestalten oder kommentieren? Wollen wir uns organisieren oder moralisch absichern? Wollen wir Kompetenz aufbauen oder skeptische Souveränität simulieren?

Die bequeme Antwort der Kulturkritik lautet: erst einmal entzaubern. Die produktive Antwort der Praxis lautet: erst einmal anwenden, verstehen, verbessern, skalieren.

Nicht Science-Fiction manipuliert uns. Die größere Manipulation ist die Angst, die wir uns selbst als Klugheit verkaufen.

Die Zukunftsmacher handeln nach einer anderen Logik

Die Unternehmen, die bei KI vorankommen, folgen keiner Erlösungsreligion. Sie handeln nach einer nüchternen Grammatik:

Experiment vor Exegese.
Nicht erst den Weltlauf deuten, sondern einen Use Case definieren, Daten sichern, testen, messen, verbessern.

Organisation vor Tool.
KI funktioniert nicht als App-Fetisch. Sie braucht Kultur, Datenbasis, Plattformarchitektur, Governance und Verantwortlichkeiten.

Wert vor Wunder.
Nicht die große Vision entscheidet zuerst, sondern der klare Beitrag: mehr Umsatz, weniger Aufwand, bessere Qualität, schnellere Antwort, höherer Servicelevel.

Das ist die eigentliche Antithese zum „KI-Biedermeier“: nicht blinde Euphorie, sondern operative Entschlossenheit.

Deshalb ist die entscheidende Dystopie auch nicht die, dass KI den Menschen ersetzt. Die eigentliche Dystopie besteht darin, dass wir aus lauter Angst vor Übertreibung die reale Transformation verpassen. Dass andere die Produktivitätsgewinne heben, neue Geschäftsmodelle bauen, Lernkurven beschleunigen – und wir uns derweil an historisch halbgar aufgeladenen Metaphern berauschen.

Lest mehr Turing. Und endlich wieder Wittgenstein.

Vielleicht wäre der Debatte geholfen, wenn man ihre intellektuellen Koordinaten neu sortierte. Alan Turing wusste, dass die Frage nach dem „Denken“ von Maschinen oft mehr über die Sprache der Fragenden verrät als über die Maschinen selbst. Wittgenstein wiederum hätte uns daran erinnert, dass Bedeutung im Gebrauch entsteht. Vielleicht sollten wir KI deshalb weniger ontologisch und mehr praktisch betrachten: nicht als Wesen, sondern als Werkzeug in Sprach-, Arbeits- und Handlungsspielen.

Dann würde auch klarer, warum so viele kulturkritische Einwände ins Leere laufen. KI muss nicht „verstehen“ wie ein Mensch, um nützlich zu sein. Sie muss nicht politisch sein, um politische Folgen zu haben. Und sie muss nicht genial sein, um Produktivität fundamental zu verändern.

Die Frage ist nicht, ob sie aus Vergangenem lernt. Die Frage ist, was wir mit diesem Lerninstrument in der Gegenwart anfangen.

Der Mittelstand hat diese Lektion schneller verstanden als ein Teil des öffentlichen Gesprächs. Er wartet nicht auf Wunder. Er baut die Bedingungen dafür. Er weiß, dass Produktivität kein philosophischer Begriff ist, sondern die Grundlage von Wohlstand, Beschäftigung, Investitionsfähigkeit und am Ende auch sozialer Stabilität.

In einer Volkswirtschaft, die sich Wachstum kaum noch leisten kann, ist KI nicht bloß ein Technikthema. Sie ist eine Frage wirtschaftlicher Selbstbehauptung.

Darum ist das Gerede vom KI-Biedermeier am Ende selbst biedermeierlich: ein Rückzug in die Pose des skeptischen Beobachters, während andere handeln. Das mag geistreich klingen. Es ist nur leider eine schlechte Industriestrategie.

Nicht die KI macht uns dumm.
Aber die Angst vor ihr macht uns klein.

Und klein ist, was sich Deutschland in dieser Lage am wenigsten leisten kann.

Vielleicht braucht die deutsche KI-Debatte deshalb weniger kulturpessimistische Großmetaphern – und mehr praktische Erfahrung. Genau darum geht es auch im neuen Buch „Mut zur KI“ von Friedrich Arnold und Philipp Depiereux, das in Kürze im Gabal Verlag erscheint. Es ist kein Manifest der Technikgläubigkeit, sondern ein Plädoyer für unternehmerischen Gestaltungswillen: KI nicht als Bedrohung betrachten, sondern als Werkzeug, das Organisationen produktiver, lernfähiger und widerstandsfähiger machen kann. Über diese Perspektive – und darüber, wie aus Technologie tatsächlich wirtschaftlicher Impact wird – diskutieren Praktiker aus Industrie, Medien und Mittelstand auch beim Leadership Forum „From AI to Impact“ am 24. März 2026 auf dem Convidera Campus in Köln-Müngersdorf. Vielleicht ist das der sinnvollste Ort, um die Debatte wieder zu erden: nicht im Schatten der großen Dystopien, sondern im Licht konkreter Erfahrungen. Denn die Zukunft der KI entscheidet sich nicht im Feuilleton – sondern dort, wo Unternehmen beginnen, sie wirklich einzusetzen.

Vom Buch zur Siliziummacht: Ein Gespräch zwischen Lischka und Kittler über Medien jenseits des Sinns

Das Gespräch zwischen Gerhard Johann Lischka und Friedrich Kittler ist nicht einfach ein Interview über Medien. Es ist selbst schon eine kleine Szene jener historischen Verschiebung, die Kittler beschreibt: Die Theorie löst sich vom Primat des Sinns und wendet sich den materiellen Bedingungen zu, unter denen Sinn überhaupt erst zirkulieren kann. Lischka fragt noch aus einer Tradition der Geistes- und Kunstwissenschaft heraus nach Inhalten, Herkunft, Epochen und Geschlechterordnungen; Kittler antwortet mit einer radikalen Verschiebung des Blicks. Nicht das, was gesagt wird, ist zuerst entscheidend, sondern das, wodurch, worin und unter welchen technischen Bedingungen etwas überhaupt sagbar, speicherbar und übertragbar wird. In dieser Perspektive erscheinen Schreibmaschine, Telefonie, Grammophon und Computer nicht als neutrale Hilfsmittel einer schon bestehenden Kultur, sondern als Einschnitte, die Wahrnehmung, Macht, Arbeit, Geschlechterverhältnisse und Begriffsbildung selbst neu organisieren.

Technik als Geschichte überraschender Wirkungen

Gerade darin liegt die Brillanz des Gesprächs: Kittler erzählt Technik nicht als Fortschrittsgeschichte, sondern als Geschichte überraschender Wirkungen. Medien tun nie nur das, wofür sie erfunden wurden. Sie erzeugen Seiteneffekte, Rückkopplungen, Verwerfungen. Eine Schreibmaschine beschleunigt nicht bloß das Schreiben; sie verschiebt die soziale Geometrie des Büros. Telefonie verbindet nicht einfach Stimmen über Distanz; sie installiert ein neues Regime der Frequenzen, der Vermittlung und der Arbeitsteilung. Der Computer vereinheitlicht nicht lediglich Daten; er hebt die alten Grenzziehungen zwischen Bild, Ton und Schrift auf, weil ihre Outputs an denselben universellen Diskretapparat anschließbar werden. Kittlers Denken ist deshalb so folgenreich, weil es Technik nicht funktionalistisch, sondern genealogisch auffasst: Jede mediale Innovation produziert Wirkungen, die ihre Erfinder weder planen noch kontrollieren.

Von Foucault zum medientechnischen Archiv

Lischkas erste große Frage zielt auf Kittlers Herkunft: Woher kommt das Interesse an Medien als Medien? Kittlers Antwort ist aufschlussreich. Er setzt bei Foucault an, aber gerade an der Stelle, an der Foucault für ihn nicht weit genug geht. Wenn Archive bis in die Moderne die „letzte reelle Basis“ sind, dann wird entscheidend, dass sich seit dem späten 19. Jahrhundert das Archiv vervielfacht und technisch ausdifferenziert: Nicht mehr alles schreibt sich in Alltagssprache, Buch und Bibliothek ein; Töne, Bilder, Signale und maschinenschriftliche Texte treten als eigene Speicher- und Übertragungsformen hinzu. Kittlers berühmte Geste besteht darin, Bücher „differenzialdiagnostisch“ gegen andere Medien abzusetzen. Das Buch verliert seinen metaphysischen Nimbus und wird zu einem Medium unter anderen. Damit ist die romantische Illusion angegriffen, Literatur könne die Welt unmittelbar vergegenwärtigen, als höre oder sähe man sie selbst. Gerade weil Bücher um 1800 so selbstverständlich lesbar geworden sind, können sie diese Halluzination stiften. Die Pointe Kittlers ist dann kühn: Vielleicht hat gerade diese psychische Verheißung der Romantik den Wunsch nach technischen Apparaten induziert, die Wahrnehmung nicht mehr imaginär, sondern maschinell implementieren. Das 19. Jahrhundert baut dann jene Maschinen, die die Literatur versprochen, aber nie materiell eingelöst hatte.

Die Maschine als materialisierte Sehnsucht

Hier wird die Erfindungsgeschichte des Grammophons oder der Fotografie auf verblüffende Weise entromantisiert und zugleich vertieft. Kittler insistiert darauf, dass manche dieser Apparate technisch durchaus früher hätten gebaut werden können. Ihre verspätete Ankunft verlangt also keine bloß ingenieurwissenschaftliche, sondern eine kulturhistorische Erklärung. Nicht weil die Mechanik fehlte, sondern weil der Wunsch fehlte, erscheinen sie erst dann, als eine Epoche bereits gelernt hat, Sinnesdaten als reproduzierbar zu begehren. Technik entsteht damit nicht aus nackter Rationalität, sondern aus historisch erzeugten Imaginationen. Die Maschine ist nie nur kalte Apparatur; sie ist materialisierte Sehnsucht. Genau in diesem Sinn ist Kittlers Mediengeschichte eine Geschichte überraschender Wirkungen: Nicht die Erfindung allein erklärt ihre Folgen, sondern umgekehrt die symbolischen und psychischen Regime, die erst den Drang erzeugen, Wahrnehmung technisch zu externalisieren.

Die Schreibmaschine und der Umbau des Büros

Am eindringlichsten wird diese Logik am Beispiel der Schreibmaschine. Kittler beschreibt nicht bloß einen Wechsel des Schreibwerkzeugs, sondern einen Strukturbruch. Solange Schrift an Handschrift gebunden ist, bleibt sie in den kulturellen Prestigeordnungen männlicher Bildung verankert. Das 19. Jahrhundert erscheint in seiner Lesart als Herrschaft schreibender Männer, als Allianz von Bildungsstaat, Beamtenschaft und Buchkultur. Um 1800 sind Frauen von den strategischen Positionen der Schreibmacht weitgehend ausgeschlossen, selbst wenn sie private Briefe und Gefühlsprosa verfassen dürfen. Dann jedoch tritt die Schreibmaschine auf — und gerade ihre zunächst unterschätzte Banalität wird historisch explosiv. Männer in Büros wollen bei der Handschrift bleiben; arbeitslose junge Frauen entdecken das Gerät und drängen mit ihm in die Verwaltung, in Kontore, in die Börse. Binnen kürzester Zeit dreht sich das Geschlechterverhältnis im Büro. Der Apparat demokratisiert hier nicht einfach, sondern eröffnet eine Lücke, die eine zuvor ausgeschlossene Gruppe besetzen kann. Technik emanzipiert nicht aus sich selbst; aber sie destabilisiert alte Monopole, gerade weil ihre neuen Möglichkeiten von den etablierten Akteuren zunächst verkannt werden.

Telefonie, Stimme und neue Arbeitskörper

Ähnlich liest Kittler die Telefonie. Auch sie ist nicht bloß Kommunikationsfortschritt, sondern eine Maschine sozialer Neuverteilung. Aus „Frequenzgründen“, wie er lakonisch sagt, werden Frauen massenhaft in die Vermittlungsämter eingestellt. Die Stimme wird zur technischen Ressource; Geschlecht erscheint nicht mehr nur als soziale Rolle, sondern als variable im Dispositiv der Übertragung. Das ist medienwissenschaftlich von größter Bedeutung. Denn hier zeigt sich, dass Technik nicht auf einen abstrakten Menschen trifft, sondern auf Körper, deren Eigenschaften in Apparatesysteme eingelesen werden. Die berühmte Telefonistin, die Stenotypistin, die Schreibmaschinistin: Das sind keine Randfiguren der Moderne, sondern ihre Interfaces aus Fleisch und Blut. Kittler macht sichtbar, dass technische Systeme um 1900 menschliche Bedien- und Vermittlungsinstanzen benötigen und diese Instanzen ihrerseits neue Machtpositionen, Berufsbilder und Selbstverhältnisse erzeugen. Was wie eine bloße Rationalisierung der Kommunikation aussieht, erweist sich als Umbau des Sozialen.

Mediengeschichte als Mikropolitik

Gerade an diesem Punkt wird die eigentliche Schärfe von Kittlers Denken sichtbar: Medienwandel ist nie nur Medienwandel. Er ist Umbau von Arbeitsformen, Wahrnehmungsordnungen und Subjektformen. Deshalb erscheint auch die Episode um Nietzsche und Lou Andreas-Salomé im Gespräch nicht als Anekdote, sondern als Symptom. Die defekte Schreibmaschine, der halb blinde Philosoph, die erbetene Sekretärin, die Zürcher Studentin: In dieser Konstellation kondensiert, was Kittler zeigen will. Die Maschine ersetzt den Körper nicht einfach; sie reorganisiert die Umgebung des Körpers, die Delegation von Schreibarbeit, die Nähe zwischen Intellekt und Assistenz, die Geschlechtercodierung von Bildung. Mediengeschichte ist hier Mikropolitik. Aus Apparaten gehen neue Intimitäten, neue Abhängigkeiten und neue Rollen hervor. Die technische Neuerung handelt gleichsam hinter dem Rücken ihrer Benutzer. Ihre überraschende Wirkung besteht darin, dass sie nicht dort eingreift, wo man sie vermutet — im Werkzeuggebrauch —, sondern dort, wo eine Gesellschaft ihre Grenzen zieht: zwischen geistiger und mechanischer Arbeit, zwischen öffentlich und privat, zwischen männlich und weiblich.

Turing, Computer und die herrschende Siliziummacht

Mit Turing und dem Computer radikalisiert sich diese Entwicklung. Kittler liest das Turing-Spiel nicht nur als Testfall für künstliche Intelligenz, sondern als symptomatische Matrix einer doppelten Auslöschung. Im ersten Modell des Spiels geht es um Mann und Frau; im zweiten um Mensch und Maschine. Der Clou seiner Lesart liegt darin, dass die spätere Ununterscheidbarkeit von Mensch und Computer auf einer bereits vorausgesetzten Kommunizierbarkeit über Teleprinter, also über entkörperlichte Schrift, aufruht. Das Interface der Moderne ist nicht länger die leibhaftige Sprecherin im Stöpselamt, sondern das diskrete Zeichen im Netz. Wenn sich Mensch und Maschine unter diesen Bedingungen nicht mehr sicher unterscheiden lassen, dann wird auch die Geschlechterdifferenz für Kittler sekundär gegenüber der Macht des Siliziums. Sein drastischer Satz, die „herrschende Siliziummacht“ interessiere sich nicht weiter für unsere Unterscheidungen, benennt eine historische Schwelle: Dort, wo Maschinen nicht mehr nur Teil eines Mensch-Maschine-Systems sind, sondern Operationen selbständig verarbeiten, verliert das humanistische Vokabular seine Selbstverständlichkeit.

Der Computer als Metamedium

Das heißt allerdings nicht, dass Kittler einen simplen Technodeterminismus vertritt. Seine Pointe ist subtiler. Je universaler der Computer wird, desto weniger lassen sich Medien noch als voneinander getrennte Sphären behandeln. Grammophon, Film und Schreibmaschine waren für ihn um 1900 die elementaren Speichertechniken jenseits des Buches. Seit der Turing-Maschine aber werden ihre Outputs in einen gemeinsamen Verarbeitungsraum übersetzt. Bilder, Töne, Texte, Messwerte: alles kann Eingang in dieselbe diskrete Operation finden. Genau darin liegt die eigentliche Revolution. Medien verschwinden nicht; sie werden komputabel. Der Computer ist deshalb nicht nur ein weiteres Medium, sondern ein Metamedium, das die alten Differenzen auf einer höheren Ebene neu ordnet. Mit dieser Diagnose verschiebt sich auch die Aufgabe der Medienwissenschaft. Sie darf nicht bei der Ikonographie der Oberflächen stehenbleiben, sondern muss an die Architekturen der Verarbeitung, an Bus-Systeme, Adressierungsformen, Taktungen, Codierungen heran. Medienkritik wird zur Kritik der Operationsketten.

Von der Inschrift zum blätterbaren Buch

Bemerkenswert ist, dass Kittler trotz aller Radikalität nie die longue durée aus dem Blick verliert. Im letzten Teil des Gesprächs führt er das Problem der Schrift weit vor 1800 zurück: auf Transportabilität, Blätterbarkeit, Adressierbarkeit. Nicht zufällig hebt er die Überlegenheit des transportierbaren Buches gegenüber ortsfesten Inschriften und die Überlegenheit des Kodex gegenüber der Rolle hervor. Hier zeigt sich ein Prinzip, das das ganze Gespräch durchzieht: Mediengeschichte ist die Geschichte von Zugriffserleichterungen. Ein Medium setzt sich nicht durch, weil es „wahrer“ wäre, sondern weil es beweglicher, adressierbarer, anschlussfähiger ist. In dieser Perspektive erscheint selbst Gutenberg nur noch als ein Moment in einer viel längeren Genealogie, in der die Blätterbarkeit des Kodex vielleicht folgenreicher ist als der Druck mit beweglichen Lettern. Wieder ist es die überraschende Wirkung, die zählt: Kleine technische Formen — die Seite, die Fußnote, das standardisierte mathematische Zeichen — verändern ganze Wissensordnungen. Friedrich_Kittler_lektoriert

Die Genealogie der Nebenfolgen

Vielleicht ist dies die tiefste Lehre des Gesprächs zwischen Lischka und Kittler. Technologische Veränderungen wirken selten dort, wo ihre zeitgenössischen Beschreibungen sie verorten. Die Schreibmaschine ist nicht nur eine schnellere Feder; sie ist ein Hebel der Feminisierung bürokratischer Arbeit und der Entkopplung von Schrift und Handschrift. Die Telefonie ist nicht nur Fernsprechen; sie ist die Einrichtung eines akustischen Regimes, das Stimmen sortiert und Arbeitskörper neu disponiert. Der Computer ist nicht nur Rechenmaschine; er ist die universale Operationsform, in der sich die bisherigen Medien ineinander übersetzen lassen. Und das Buch selbst war nie bloß Träger von Inhalten, sondern immer schon eine transportable, adressierbare, blätterbare Technik. Mediengeschichte ist deshalb keine Nebengeschichte zur Ideen- oder Sozialgeschichte. Sie ist deren oft unsichtbare Infrastruktur. Kittlers Größe im Gespräch mit Lischka liegt darin, diese Infrastruktur nicht bloß zu benennen, sondern ihre paradoxen, oft unerwarteten Effekte freizulegen. Wer nach der „Wirkung“ technischer Erfindungen fragt, erhält von ihm keine lineare Antwort. Er erhält eine Genealogie der Nebenfolgen — und damit vielleicht die präziseste Form, in der Medientheorie überhaupt historisch denken kann.

Zur Quelle des Gesprächs

Dass dieses Gespräch heute überhaupt in seiner historischen Dichte lesbar und hörbar wird, verdankt sich dem Kontext von „Am Nerv der Zeit“, jener vom ZKM | Zentrum für Kunst und Medientechnologie, Karlsruhe, zugänglich gemachten Sammlung von Tondokumenten aus dem Archiv des Kulturphilosophen Gerhard Johann Lischka. Über 14 Stunden digital überarbeitetes Audiomaterial aus den Jahren 1974 bis 1990 versammeln dort Gespräche, Vorträge und performative Formate an der Schnittstelle von Kunst, Medien und Theorie; das Interview mit Friedrich Kittler steht somit nicht isoliert, sondern gehört in ein größeres Dispositiv des „aktuellen Denkens“, das Lischka mit bemerkenswerter Konsequenz aufgebaut hat. Wenn Lischka rückblickend davon spricht, Kunst, Medien und Theorie so vermischt haben zu wollen, dass der „Nerv der Zeit“ getroffen werde, dann bezeichnet dies präzise auch den Erkenntniswert des Kittler-Gesprächs: Es ist nicht nur ein Dokument einer Theorie, sondern selbst ein Medium jener intellektuellen Konstellation, in der Mediatisierung zum Namen einer Epoche wird. Gerade deshalb besitzt diese Quelle mehr als archivischen Wert — sie erlaubt, die Genealogie medientheoretischen Denkens nicht bloß nachzulesen, sondern in ihrer akustischen, zeitgeschichtlichen und institutionellen Situiertheit zu erfahren.

Siehe auch:

Mein Exkurs auf LinkedIn: Bücher als Männerwelt: Wie technische Medien die alte Schriftordnung durchbrachen

Die Konservierungs-Illusion: Warum Industriepolitik die Zukunft nicht retten kann, indem sie die Vergangenheit stützt

Industriepolitik hat sich an ein Ritual gewöhnt: Wenn Produktion sinkt, sollen Strukturen „gerettet“ werden. Gemeint sind Werke, Lieferketten, Produktlinien, Beschäftigung – möglichst so, wie sie gestern waren. Das klingt bodenständig. Es ist oft der teuerste Weg, weil er am Kern vorbeigeht: Nicht die Industrie verschwindet, sondern ihre alte Zusammensetzung. Wer Strukturen konserviert, konserviert meist Klumpenrisiken.

Der Pioneer-Text „Wohlstand von Unten“ von Guido Schmidt und Winfried Felser setzt genau an dieser Stelle an. Gleich am Anfang steht ihr programmatischer Satz: „Das alte Top-down-Modell in Deutschland muss abgelöst werden, um wieder wettbewerbsfähig zu werden. Statt zentraler Macht braucht es dezentrale Innovation und neue wirtschaftliche Spielregeln.“
Das ist keine Stilfrage. Es ist eine Standortdiagnose.

Wohlstand von unten statt große Lösung

Schmidt und Felser legen den Finger auf eine politische Selbsttäuschung: die Vorstellung, Wohlstand sei das Ergebnis einer großen Entscheidung „oben“, die dann im Land nach unten durchgereicht wird. Ihr Zwischenruf heißt nicht „weniger Staat“, sondern „anderer Staat“: weniger Inszenierung, mehr Ermöglichung; weniger Gipfel, mehr Ökosystem.

Sie nennen diese Erwartung ausdrücklich „Die Illusion der großen Lösung“ und schreiben: „Die Politik will uns erklären, dass Wohlstand ein Top-Down Ergebnis ist.“ Und sie fassen die politische Pose in acht Wörtern zusammen: „Das Versprechen der Politik lautet ‚Wir machen das‘.“

Im Text wird diese Pose an den Instrumenten festgemacht, die gerade Konjunktur haben: Kanzlergipfel, Bazooka-Rhetorik, Sondervermögen. Schmidt und Felser nennen eine Zahl, die als Zauberformel durch die Debatten wandert: Investitionen von 631 Milliarden Euro, die – so das Versprechen – „uns … in eine glorreiche Zukunft führen“ sollen. Der Einwand der Autoren ist nicht kleinlich. Er ist strukturell: Die großen Bilder ersetzen keine Antwort auf Kosten, Tempo, Bürokratie, Kapitalbildung, Technologiepfade.

Ihre Pointe ist schärfer: „In Anzug und Krawatte strahlt uns … eine sauber geordnete Vergangenheit an und will sich uns als Zukunft verkaufen.“ Das ist der Kern der Konservierungs-Illusion: Vergangenheit wird als Zukunft etikettiert.

Der lange Schatten der Deindustrialisierung

Wer heute über sinkende Industrieproduktion klagt, tut oft so, als beginne die Geschichte mit der letzten Statistik. Das stimmt nicht. Der Trend ist alt. Mein Schumpeter-Text für den Metropolis-Band, der hier als Folie dient, fasst ihn knapp: „Den Gipfelpunkt hatte das produzierende Gewerbe 1960 erreicht, seitdem geht es stetig bergab.“ Und: Seit den neunziger Jahren entsteht der Löwenanteil von Beschäftigung und Wertschöpfung durch immaterielle und nachindustrielle Produktion.

Das ist keine Einladung zur Industrie-Verachtung. Es ist eine Warnung vor falscher Politik. Wer den Trend ignoriert, nimmt das Symptom – weniger Produktion – für die Krankheit. Die Krankheit heißt eher: fehlende Neukombination, zu wenig neue Märkte, zu wenig Kapital für Skalierung, zu wenig Geschwindigkeit in der Umsetzung.

Schumpeter hat das Prinzip dafür geliefert. Entscheidend ist nicht Routine, sondern neue Kombination. Der Satz fällt im Text wörtlich: „Nur dann erfüllt er … die wesentliche Funktion …, wenn er neue Kombinationen realisiert.“ Konservierung ist das Gegenteil davon.

Warum „Industrie retten“ oft Industrie schwächt

Schmidt und Felser kritisieren nicht nur die Erzählung, sondern die Wirkungsmechanik. Sie zeigen, dass die „große Lösung“ am Ende häufig eine große Umverteilung von Zeit und Aufmerksamkeit ist: Gipfelbilder, Förderkulissen, Beruhigungsreden – während Unternehmen die reale Kosten- und Wettbewerbsfrage anders beantworten: mit Verlagerung, Automatisierung, internationaler Aufstellung.

Sie sprechen von strukturellen Kostennachteilen und den „Behinderungen durch Bürokratie“, die von den etablierten Akteuren nicht einfach wegmoderiert werden. Und sie liefern die harte Arbeitsmarktfolie: „Allein seit 2019 sind etwa 217.000 Arbeitsplätze in der Industrie verloren gegangen.“
Dazu der Satz, der im Ohr bleibt: „Aktuell rechnet man mit ca. 10.000 Arbeitsplätzen pro Monat.“

Im selben Beitrag zeigt eine Grafik, wohin Beschäftigung wächst: Pflege und Soziales (+73 Tsd.), Gesundheitswesen (+65), öffentliche Verwaltung (+44) – während Industrie unter Druck steht.
Die Konsequenz ist unbequem: Wer Industriepolitik als Bestandsschutz betreibt, arbeitet gegen die Richtung der Volkswirtschaft und wundert sich über wachsende Friktion.

Baden-Württemberg: Vom Erfolgsmodell zum Klumpenrisiko

Baden-Württemberg war lange der Beweis, dass Deutschland Mittelstand kann: Maschinenbau, Automobil, Zuliefernetze, Export. Genau deshalb wirkt der jüngste Umsatzknick so aufschlussreich. Die von dir zitierte Datev-Analyse beschreibt einen Rückgang der Mittelstandsumsätze nach dem Hoch 2022; über Jahre nur Seitwärtsbewegung. Der Kern des Problems ist die enge Fixierung auf zwei Branchen: Auto und Maschinenbau. Die Mechanik ist bekannt und trotzdem politisch unterschätzt.

Der Umbau der Autoindustrie trifft die Zulieferer doppelt: Erst sinkt die Nachfrage nach klassischen Komponenten; dann verschieben sich Wertschöpfungsanteile in Richtung Software, Leistungselektronik, Batterieketten – oft außerhalb der bisherigen regionalen Logik. Gleichzeitig leidet der Maschinen- und Anlagenbau unter Auftragsrückgängen und unter einer Investitionsschwäche, die im Inland besonders sichtbar ist. Und wenn investiert wird, landet ein Teil der Vorhaben im Ausland; die heimische Zulieferbasis folgt nicht automatisch.

Hinzu kommt der zweite Schlag: Wenn große Arbeitgeber abbauen, fällt regionale Kaufkraft. Dann geraten auch die „unsichtbaren“ Teile des Mittelstands unter Druck: Handwerk, Dienstleistungen, lokale Zulieferer. Deindustrialisierung ist nicht nur weniger Werkstor, sondern weniger Nachfrage im Umkreis.

Dass sich einzelne Räume im Land besser halten – Ulm, Rhein-Neckar – ist kein Wunder, sondern ein Hinweis. Wo Branchenmix gelingt, stabilisieren Life Sciences, Medtech, IT und spezialisierte Industrie sich gegenseitig. Das ist „Wohlstand von unten“ als Praxis: nicht ein Sektor, der alles trägt, sondern ein Ökosystem, das Schocks verteilt.

Regionale Stärken aufladen: Schwäbische Alb als Blaupause

Konservierungspolitik fragt: Welche Fabrik bleibt? Eine zukunftsfähige Politik fragt: Welche Fähigkeit skaliert in neue Märkte?

Die Schwäbische Alb steht für eine Fähigkeit, die selten als Zukunftstechnologie etikettiert wird, aber genau das ist: Feinmechanik. Präzision, Messkultur, Materialgefühl, Prozessstabilität – das sind Deep-Tech-Voraussetzungen. Wer diese Stärke „auflädt“, hängt sie an neue Themen: Sensorik, Medizintechnik, Robotik, Laborautomation, Präzisionsfertigung für Bioprozesse. Dann bleibt die Region industriell – aber nicht in der alten Branchenlogik.

Schmidt und Felser formulieren die Zielrichtung als Epochenwechsel: „Es geht um die Erkenntnis, dass die neue Welt kleinteiliger, dezentraler, vernetzter, innovativer und mutiger werden muss.“ Das beschreibt ziemlich genau, was ein regionales Kompetenz-Upgrade leisten soll: weniger Monolith, mehr Kombinatorik.

Montanregionen: Vom Stollen zum Orbit

Noch radikaler wird das Prinzip in Montanregionen. Kohle und Stahl als Leitindustrie sind Geschichte. Aber die zugrunde liegenden Kompetenzen – Förderung, Aufbereitung, Stoffströme, Großanlagenbetrieb, Sicherheit, schwere Verfahrenstechnik – sind nicht wertlos. Sie brauchen einen neuen Marktbezug.

Hier passt das von dir gesetzte Thema Rohstoffgewinnung im Weltall als strategischer Projektor. Nicht, weil „Space Mining“ morgen Jobs in fünfstelliger Zahl bringt. Sondern weil es zwingt, Kompetenzen neu zu verschalten: Robotik und Autonomie, Energieversorgung unter Extrembedingungen, Materialtrennung, neue Werkstoffe, Standards, Haftung. Wer Montankompetenz so neu kombiniert, baut ein Wissensökonomie-Profil, das zurückwirkt: auf Recyclingtechnologien, Kreislaufwirtschaft, Rohstoffsicherung, neue Prozessketten in der Energiewende.

Das ist der Punkt: Es geht nicht um ein neues Branchenplakat, sondern um eine neue Kombinationsmaschine.

Was Politik leisten muss – und was sie lassen sollte

Schmidt und Felser argumentieren nicht gegen Investitionen. Sie argumentieren gegen die Vorstellung, Investitionen wirkten automatisch, solange „oben“ genügend Geld bewegt wird. Ihr eigener Chart zur Frage „Wie viel Wachstum bringt das Sondervermögen?“ illustriert genau diese Skepsis: Ein Investitionsszenario kann deutlich stärker wirken als das, was als „aktuelles Politikscenario“ mit fraglicher Zusätzlichkeit daherkommt. WohlstandVonUnten

Die Folgerung liegt nahe: Industriepolitik muss weg vom Denkmalpflegerischen und hin zum Ermöglichen von Neukombinationen. Nicht das einzelne Werk retten, sondern die Bedingungen schaffen, unter denen Regionen Neues bauen.

Schumpeter liefert dafür die ökonomische Logik: Routine schöpft ab, Entwicklung entsteht endogen. Das Routineunternehmen „arbeitet auf den überkommenen Grundlagen“ – und genau so entsteht kein neues Wachstum.

Keine Rückkehr, sondern ein Upgrade

Die öffentliche Debatte hängt zu oft an der Frage, ob Deutschland „wieder mehr Industrie“ bekommt. Die entscheidendere Frage lautet: Ob Deutschland schneller neue Kombinationen organisiert – regional, dezentral, wissensbasiert.

„Wohlstand von unten“ ist dabei kein Wohlfühlbegriff. Es ist eine Zumutung an Politik und Verbände: weniger Theater, mehr Strukturarbeit. Schmidt und Felser sagen das in ihrer Grundformel: Top-down ersetzen, dezentrale Innovation ermöglichen, Spielregeln ändern.

Wer alte Strukturen konserviert, bekommt am Ende beides: weniger Industrie und weniger Zukunft. Wer regionale Stärken auflädt, bekommt das, was im Moment fehlt: neue Themen, innovative Kombinatorik, Wissensökonomie – und damit wieder einen Grund, warum Produktion hier stattfindet.

Dirk Baeckers neues Suhrkamp-Buch „Digitalisierung“ und die späte Einsicht, dass Suchmaschinen keine Gesellschaftstheorie ersetzen

Der Satz „Luhmann statt Google“ steht nicht bei Dirk Baecker. Er stammt von mir. Ich habe ihn über einen älteren Text gesetzt, den ich 2019 noch einmal hervorgeholt habe, um zu prüfen, wo der frühe Instinkt in Sachen Computerkommunikation trug und wo er sich täuschte. Die spätere Diskussion in der über den Niedergang lokaler und regionaler Medien im Rheinland gehört in dieselbe autobiographische Linie: als publizistische Selbstkontrolle, nicht als Baecker-Exegese. Diese Trennung ist wichtig. Sonst verlegt man dem Soziologen in die Tasche, was aus meiner eigenen Werkstatt stammt: den Blick auf die ausdünnende regionale Öffentlichkeit, die Erosion der alten Medienzwischenhändler und die Frage, was aus einer Gegend wird, wenn sie ihre Beobachter verliert.

Mein Satz, sein Buch

Baeckers neues Buch setzt anders ein, kälter, höher, ohne Rücksicht auf jene Behaglichkeit, mit der die Gegenwart ihre Apparate bewundert. Schon der Titel ist eine kleine Zumutung. Das durchgestrichene Wort „Digitalisierung“ klingt nach Verwaltungsdeutsch, nach Handreichung, nach Schreibtischlampe. In Wahrheit liegt hier ein Buch vor, das die Lampe ausknipst und zeigt, wie sehr wir uns daran gewöhnt haben, im Schein der Geräte die Gesellschaft selbst zu übersehen. Baecker nennt Digitalisierung ein „analoges Phänomen“. In diesem Ausdruck steckt das ganze Programm: Das Digitale marschiert nicht auf leerem Feld. Es trifft auf eine widerständige Welt aus Körpern, Routinen, Institutionen, Missverständnissen, Gewohnheiten und Interessen. Der Rechner rechnet diskret; die Gesellschaft antwortet kontinuierlich, zäh, krumm, bisweilen boshaft.

Das ist der erste Vorzug dieses Buches: Es behandelt den Computer nicht als Zaubergerät und die künstliche Intelligenz nicht als säkularen Geist. Es fragt vielmehr, was aus sozialer Wirklichkeit wird, wenn sie in Datenformate übersetzt, durch Modelle gejagt und wieder an jene Wirklichkeit zurückgespielt wird, aus der sie zuvor herausgeschnitten wurde. Baecker spricht vom Zusammenspiel von Technik, Organismus, Bewusstsein und Gesellschaft; Digitalisierung sei nur dann verstanden, wenn man diese vier Größen zusammen denkt und ihre Synchronisation als flüchtigen, aber folgenreichen Moment begreift. Damit ist der Ton gesetzt: keine Maschinenmystik, keine Kulturpanik, sondern eine Theorie der Lage.

Der Rechner als neuer Dativ

Die stärksten Seiten des Buches beginnen dort, wo Baecker den Begriff der Kommunikation von der sentimentalen Umarmung der Gegenwart befreit. Überall hört man inzwischen, Maschinen „reden“ mit uns, „verstehen“ uns, „helfen“ uns, „begleiten“ uns. Die Sprache der Gerätewerbung hat sich wie Parfüm über ganze Debatten gelegt. Baecker geht einen Schritt zurück und sieht genauer hin. Rechner sind keine Personen. Aber sie verändern die Grammatik des Sozialen. Der entscheidende Satz lautet, in äußerster Nüchternheit: Kommunikation mit Rechnern „kommuniziert Berechnungen“. Damit ist mehr gesagt als in einer halben Bibliothek zum Thema KI. Nicht mehr nur Sätze, Bilder, Töne und Gesten zirkulieren, sondern ihre statistische Vorbewertung, ihre relationale Einordnung, ihr möglicher Anschluß. Mitteilung wird zum Index, Rede zur Rechenlage, Aufmerksamkeit zur Funktion eines Datenraums.

Man könnte sagen: Der Rechner ist der neue Dativ der Moderne. Man kommuniziert nicht über ihn wie über einen Hammer auf der Werkbank, sondern mit ihm wie mit einem Gegenüber, das sich der Verfügung entzieht und doch von Menschen gemacht ist. Eben darin liegt die eigentümliche Verlegenheit der Gegenwart. Sie hat ihre Werkzeuge so gebaut, dass diese Werkzeuge inzwischen an der Form der Welt mitschreiben, ohne darum schon Autoren zu sein. Baecker hält diese Schwebe aus. Er zieht weder den naiven Schluss, der Computer sei nur ein Mittel, noch den modischen, er sei bereits ein Subjekt. Er zeigt, dass das Digitale den Raum möglicher Anschlüsse umbaut und damit tiefer in das Soziale eindringt als jede alte Apparatekunde.

Die Plattform als höfliche Falle

Hier beginnt der Punkt, an dem mein alter Satz wieder interessant wird. Denn „Luhmann statt Google“ war zunächst eine Polemik gegen die intellektuelle Bequemlichkeit, die in der Suchmaschine schon eine Weltformel sehen wollte. Diese Polemik ist heute noch richtiger als damals, nur aus einem anderen Grund. Google war die erste große Schule der Indexierung. Man lernte, die Welt als Trefferliste zu sehen. Baeckers Buch handelt bereits von der nächsten Stufe: von einer Umwelt, in der nicht nur gefunden, sondern fortwährend vorselektiert, gewichtet, angestupst, umgeleitet, wahrscheinlich gemacht wird. Die Plattform ist keine Bibliothek; sie ist eine höfliche Falle. Sie sagt nicht: Du musst. Sie sagt: Hier entlang. Und wenn man ihr lange genug folgt, hält man die sanfte Lenkung irgendwann für die eigene Bewegung.

Baecker beschreibt das ohne moralischen Tremor. Er sieht, dass Plattformen, Apps und digitale Umgebungen einen neuen Kalkül der Attraktion, Kontrolle und Steuerung hervorbringen. Freiheiten werden nicht abgeschafft, sondern inszeniert; Zugänge werden nicht verriegelt, sondern so gestaltet, dass man die Schwellen oft erst bemerkt, wenn man schon daran gescheitert ist. Das ist eine präzisere Beschreibung der Gegenwart als die alte Gegenüberstellung von Freiheit und Überwachung. Die Macht der Plattformen liegt gerade darin, dass sie beides ineinander falten: die Einladung und die Kontrolle, die Leichtigkeit und die Berechnung.

Von hier aus fällt auch neues Licht auf meinen älteren Text zur Computerkommunikation und auf die Rheinlandrunde-Debatte über den Niedergang regionaler Medien. Der Instinkt war richtig: Die klassischen Redaktionen verloren nicht bloß Auflage und Anzeigen, sondern ihren Status als privilegierte Sortiermaschinen des Öffentlichen. Falsch oder jedenfalls zu optimistisch war nur die Annahme, an die Stelle dieser alten Gatekeeper trete einfach eine offenere, demokratischere Suchordnung. In Wahrheit trat etwas Raffinierteres auf den Plan: eine Infrastruktur der Sichtbarkeit, die Öffentlichkeit nicht abschafft, sondern sie in berechenbare Mikrobewegungen zerlegt. Die Provinz verschwindet dann nicht deshalb aus dem Bild, weil niemand mehr über sie spricht, sondern weil sie im Datenraum keinen hinreichenden Reizwert mehr erzielt.

Vier Systeme, keine Erlösung

Baeckers zweite große Stärke liegt darin, dass er die Debatte aus der infantilen Zweierlogik Mensch gegen Maschine herausholt. Man müsse, schreibt er sinngemäß, nicht bis eins, sondern bis vier zählen. Technik, Organismus, Bewusstsein und Gesellschaft bilden jene Konstellation, in der digitale Prozesse überhaupt erst zu Wirklichkeit werden. Auf der einen Seite rechnen die Maschinen; auf der anderen interpretieren Körper, Geist und soziale Zusammenhänge. Die Schnittstelle ist keine harmonische Naht, sondern eine dauernde Übersetzungsarbeit, ein neuralgischer Übergang, an dem Missverständnisse, Überforderungen und plötzliche Evidenzen entstehen. Genau deshalb ist Digitalisierung kein bloß technisches, sondern ein kulturelles und institutionelles Ereignis.

Der vielleicht wichtigste Satz des Buches lautet: „Gesellschaft lässt sich nicht errechnen.“ Das ist keine Trotzformel des geisteswissenschaftlichen Feuilletons, sondern die sauberste Grenzmarkierung in einer Zeit, die ihre Modelle gern mit Wirklichkeit verwechselt. Baecker bestreitet nicht die Leistungsfähigkeit generativer und stochastischer Verfahren. Er unterschätzt sie gerade nicht. Aber er besteht darauf, dass eine soziologische Theorie keine Algorithmen des Sozialen liefert, sondern die Unberechenbarkeit jenes Zusammenhangs sichtbar macht, in dem Daten, Erwartungen, Situationen und Institutionen einander fortwährend umlagern. Der von ihm entworfene „Kalkül der Lage“ ist deshalb kein Herrschaftswissen, sondern der Versuch, die Form der Unübersicht mit begrifflicher Disziplin zu verfolgen.

Warum am Ende doch Luhmann gewinnt

Am schönsten wird das Buch dort, wo es drei Versuchungen der Gegenwart in einer knappen Reihung ordnet. Für Habermas tendiert Kommunikation, wenn man sie nur lange genug von Zwang freihält, zur „Vernunft“; für Michel Serres je nach parasitärem Geschick zum „Netzwerk“; für Luhmann, abhängig von produktiven Zufällen, zum „System“. Diese kleine Trias ist kein Seminarwitz, sondern ein Kompass. Denn genau zwischen diesen drei Polen schwankt die gesamte Debatte über Digitalisierung: zwischen der Hoffnung auf vernünftige Verständigung, der Faszination am Netz und der Einsicht, dass soziale Ordnungen sich nur aus kontingenten, selektiven, eigensinnigen Anschlüssen bilden.

Hier steht mein Satz also an seinem richtigen Ort. Luhmann statt Google heißt nicht: zurück in die Bibliothek, raus aus dem Netz. Es heißt: Die Suchmaschine bleibt innerhalb der Probleme, die sie technisch löst. Sie ordnet Zugriff, nicht Gesellschaft. Sie verbessert Auffindbarkeit, nicht Selbstverständigung. Sie sortiert, aber sie weiß nicht, was sie anrichtet, wenn das Sortieren selbst zur heimlichen Verfassung des Öffentlichen wird. Baeckers Buch liefert für diese Einsicht die Begriffe, die Schärfe und jene Kälte, ohne die Theorie rasch zu Weltanschauung gerinnt.

Darum ist dieses Buch mehr als eine Intervention in die KI-Debatte. Es ist eine Erinnerung daran, dass die Gesellschaft kein Dashboard ist. Sie ist kein Prompt, kein Modelloutput, kein sauber kuratierter Datenraum. Sie ist das Geräusch der Anschlüsse, das Knirschen der Übersetzungen, das Wiederauftauchen des Analogen im Innern der elegantesten Maschine. Gerade deshalb lohnt die Lektüre. Denn wer nach diesem Buch noch immer glaubt, Google erkläre die Gegenwart, verwechselt die Straßenkarte mit der Stadt.

Der Kompass, der sich dem Norden verweigert

Ein alter Bus, der nicht geschniegelt über Autobahnen gleitet, sondern die kleinen, nicht digitalisierten Linien nimmt – jene Wege, auf denen der Zufall noch Vorfahrt hat. Im Armaturenbrett kein Heilsversprechen aus Satelliten, keine Stimme, die die Welt „in 300 Metern rechts“ zerlegt. Stattdessen Blick nach vorn: offen. So hat sich „Gernstl unterwegs“ über 42 Jahre angefühlt – weniger als Fernsehformat denn als gelebte Poetik der Kontingenz.

Der Kino-Dokumentarfilm „Gernstls Reisen – Auf der Suche nach irgendwas“ bündelt dieses Credo noch einmal. Franz Xaver Gernstl, Kameramann Hans Peter Fischer und Tonmann Stefan Ravasz zeigen nicht „die Welt“, sie zeigen die Methode, mit der Welt überhaupt erst sichtbar wird: hingehen, anhalten, anklopfen, aushalten, zuhören. Und dann zulassen, dass die Dinge passieren, die man nicht bestellen kann.

Serendipität als Handwerk, nicht als Glücksduft

Serendipität klingt nach Glücksfall und Zufallsromantik. In Wahrheit ist sie eine Disziplin. Wer finden will, ohne zu suchen, muss erst lernen, nicht zu besitzen: keine Pointe, kein Skript, kein Gesprächsziel, das wie ein Pfosten im Boden steckt. Genau darin liegt die Modernität dieser Filme – ausgerechnet in ihrer Weigerung, modern zu sein.

Gernstls Gesprächsführung funktioniert wie ein Gegenprogramm zur Gegenwart: keine Fragen als Trichter, die Menschen in vorgefertigte Antworten pressen, sondern Fragen als Türen. Man merkt, wie schnell das Gegenüber vom „Interview“ ins Erzählen kippt, sobald das Urteil aus dem Raum verschwindet. Gernstl führt nicht, er hält den Raum offen. Die Gesprächspartner wirken nicht „abgerufen“, sondern eingeladen.

Fischers Kamera ist dabei nicht der Blick des Jägers, sondern der Blick des geduldigen Zeugen: sie bleibt, sie drängelt nicht, sie lässt den Moment sich selbst erzeugen. Ravasz’ Ton wiederum rettet die Feinheiten, die in der Bildhysterie der Gegenwart untergehen: das Zögern, das Räuspern, das ungeschützte Lachen, die Stille nach einem Satz. Ohne diesen Klangteppich wäre vieles nur „nett“. Mit ihm wird es wahr.

Kaltes Wasser, warme Köpfe

Im Film greift Gernstl Janosch auf, indirekt wie eine Lebensformel: Das Leben sei wie kaltes Wasser, in das man hineingeworfen werde; entweder gehe man unter – oder man sage sich, man habe ohnehin ins Wasser gewollt, kaltes Wasser sei die eigene Leidenschaft, ein verdammt schönes Vergnügen, Leute. Dieser Satz arbeitet im Untergrund der gesamten Reise. Nicht als Trostpflaster, eher als Temperaturmessgerät. Gesucht werden nicht die perfekten Biografien, sondern die, die trotz Bruchstellen eine Art Lebenskunst entwickeln: nicht Resignation, sondern Trotz-Glück.

Die Nachricht, dass keine weiteren Produktionen für das BR-Fernsehen entstehen werden, trifft deshalb nicht wie eine Programmänderung, sondern wie ein Kulturverlust. Hier endet nicht bloß eine Serie. Hier verschwindet eine Form von Öffentlichkeit, die sich dem Management verweigert: Begegnung statt Casting, Gespräch statt Choreografie, Zufall statt Redaktion aus dem Baukasten.

In einer Medienwelt, die Vorhersage mit Wahrheit verwechselt, wirkt Gernstls Methode wie ein Störsignal: Kontingenz als Qualität. Vielleicht genau deshalb so kostbar. Der Bus steht irgendwann still – die Spur bleibt. Und sie erinnert daran, dass die wirklich wichtigen Geschichten selten dort liegen, wo sie geplant wurden.

Nachsatz: Das Weiterfahren im Buchformat

Demnächst erscheint im Kösel-Verlag „Glück gehabt!“ (Über das Unterwegssein, das Filmemachen und das Leben an sich, Hardcover). Wer den Film als Verdichtung erlebt, findet im Buch die ausgebreiteten Karten: Donau und Matterhorn, Sylt und Elbe, Dolomiten und Gardasee, Jesolo, Holland, Irland, Los Angeles – nicht als Reiseliste, sondern als Beleg dafür, dass Menschen überall dort auftauchen, wo niemand ihnen eine Rolle zuschiebt. Die alte Frage kehrt wieder, nun als Leitmotiv: Wie plant man zufällige Begegnungen, ohne sie zu verraten? Gernstls Antwort bleibt eine Haltung: hinschauen, zuhören, sich nicht anstellen zwischen Leben und Kamera. Der Zufall übernimmt dann den Rest – und manchmal fühlt sich dieser Rest wie das Eigentliche an.

Mehr dazu in unserem Sohn@Sohn-Newsletter.

Der digitale Doppelgänger: Warum die Angst vor KI-Agenten am eigentlichen Problem vorbeigeht #EinsteinApp #Wahlster #DFKI #ZPNachgefragtWeek

Der Skandal, der keiner ist

Die Debatte um KI-Agenten liebt den Moment der Empörung: Eine App taucht auf, verspricht, das Studium gleich mit zu erledigen, und verschwindet wieder – und schon steht das Urteil fest. Betrug. Bildungszerstörung. Ende der Leistungsprinzipien. Die „Einstein“-App – ein autonomer Agent, der sich im Namen von Studierenden in Lernsysteme einloggt, Vorlesungen „anschaut“, Paper liest, in Foren diskutiert und Hausarbeiten schreibt – lieferte diesen Moment in Reinform. Das Programm verschwand nach kurzer Zeit aus den Stores; nicht, weil die Idee zu verrückt gewesen wäre, sondern weil die Namensrechteinhaber klagten.

Der reflexhafte Schock ist verständlich. Aber er ist auch bequem. Denn er erlaubt es, eine technische Entwicklung moralisch zu verhandeln, statt die institutionelle Wirklichkeit zu betrachten, die sie freilegt. Die eigentliche Provokation der Agenten liegt nicht darin, dass sie „zu viel können“. Sie liegt darin, dass unsere Lern- und Qualifikationslogik so gebaut ist, dass ein Agent sie überhaupt in dieser Breite abarbeiten kann: content-lastig, videobasiert, assessment-getrieben – und oft näher an Fleißnachweisen als an Könnerschaft. Genau das benennt der Diskurs um „Einstein“ selbst: Agentic AI ist weniger Ursache als Symptom einer tieferen Frage – warum wir eigentlich lernen.

Maria Laach: Die deutsche Vorgeschichte der Personalisierung

Wer die Agenten-Debatte nur als Silicon-Valley-Problem liest, verkennt ihre längere, auch deutsche Vorgeschichte. In der Forschungslinie, die heute wieder in Mode kommt, geht es seit Jahrzehnten nicht primär um „Antworten“, sondern um Passung: um Systeme, die nicht bloß Inhalte ausgeben, sondern verstehen, wer ihnen gegenübersitzt – und daraus ihr Verhalten ableiten. In einem Feature-Text zur Wahlster-Session wird diese Linie ausdrücklich historisch verortet: Vor rund vierzig Jahren gab es in Deutschland einen internationalen Workshop zur empathischen Benutzermodellierung; daraus entstand eine bis heute aktive Community, sichtbar etwa in der Reihe UMAP (User Modeling, Adaptation and Personalization).

Das ist mehr als Anekdote. Es ist ein Gegenargument zur heutigen Alarmrhetorik. Denn „Hyperpersonalisierung“ ist nicht der spontane Exzess einer neuen Modellgeneration, sondern die späte Marktreife eines alten Versprechens: Lern- und Dialogsysteme sollen nicht alle gleich behandeln, sondern individuell – nicht aus Freundlichkeit, sondern aus Effizienz. Wer schon einmal erlebt hat, wie Lernende in Standardkursen entweder unterfordert oder überfordert werden, versteht, warum Personalisierung ökonomisch ist: Sie reduziert Abbrüche, verkürzt Lernzeiten, erhöht Transfer – und damit den Return on Learning.

Von „kognitiv“ zu „sozial“: Was die Wahlster-Session wirklich behauptet

In der Session der mit Professor Wolfgang Wahlster zur empathischen KI wurde genau dieser Perspektivwechsel eingefordert: weg von Technikromantik, hin zu Interaktion als Produktivitätsfaktor. Empathische KI soll nicht den Menschen ersetzen, sondern Systeme kontextsensitiver, verständlicher und hilfreicher machen – „weniger Reibung, mehr Passung“, wie es in der schriftlichen Fassung heißt.

Wahlster unterscheidet vier Dimensionen von Intelligenz – kognitiv, sensorphysisch, emotional, sozial – und markiert den historischen Rückstand nicht beim Rechnen, sondern beim Verstehen von Stimmungen und sozialen Situationen. Daraus folgt ein nüchternes Pflichtenheft: Emotionen erkennen, Verhalten adaptieren, Reaktionen multimodal ausdrücken – über Sprache hinaus auch über Mimik und Gestik.

Der entscheidende Punkt für Bildung und Lernen steckt allerdings nicht im Wort „Empathie“, sondern in der Konsequenz: Wenn Systeme individuell fördern sollen, müssen sie in der Lage sein, Lernende als dynamisches Modell zu führen – nicht als Zielgruppe. Genau hier trifft die alte Forschung auf die neue Agentenwelt.

Das unscheinbare Herzstück: Das Benutzermodell

In einem klassischen Text zur Benutzermodellierung wird das Prinzip so beschrieben: Eine User-Modeling-Komponente konstruiert schrittweise ein Nutzermodell, speichert, aktualisiert, löscht Einträge, hält Konsistenz und versorgt andere Systemteile mit Annahmen über den Nutzer. Für Lernkontexte ist diese Idee noch präziser: Intelligente tutorielle Systeme nutzen ein „Student Model“, das die jeweilige Verständnislage abbildet – also nicht nur beantwortet, sondern diagnostiziert.

Was heute „KI-Agent“ heißt, ist in dieser Logik die nächste Evolutionsstufe: nicht nur ein Dialogsystem mit gutem Text, sondern ein Akteur, der Ziele verfolgt, Aufgabenketten ausführt, Lernpfade organisiert, Übungssituationen erzeugt, Feedback in Echtzeit gibt – und dabei kontinuierlich das Modell des Lernenden fortschreibt. Hyperpersonalisierung ist dann kein Marketingwort, sondern Betriebsmodus: ein Tutor pro Kopf, skalierbar.

Die Bedenkenträger haben recht – und doch nicht

Natürlich ist die Angst vor Agenten nicht aus der Luft gegriffen. Wenn ein System „das Studium durchklickt“, wird die klassische Hausarbeit als Leistungsnachweis fragwürdig; genau das wird im Diskurs um „Einstein“ offen ausgesprochen: Fleißnachweise verlieren ihren Wert, wenn der Nachweis automatisierbar wird – der Lernweg wäre damit noch nicht widerlegt, aber die Messung schon. Ebenso real sind Risiken wie Datenmissbrauch (weil Agenten Zugangsdaten brauchen), neue Asymmetrien (wer den besten Agenten hat, gewinnt) und die schleichende Entkernung von Kompetenz durch „Cognitive Offloading“.

Aber die falsche Schlussfolgerung wäre, daraus ein Verbotsprogramm zu stricken – als ließe sich Agentic AI in einer offenen Tool-Ökonomie aufhalten. Im „Einstein“-Text auf LinkedIn wird das als Katz-und-Maus-Spiel beschrieben: Plattformen verbieten Agenten und bauen Gegenmaßnahmen, doch jedes neue Modell-Release verschiebt die Grenze erneut. Der Verbotsimpuls ist nachvollziehbar – nur ist er betriebswirtschaftlich naiv. Er verteidigt Prüf- und Lernprozesse, deren Stabilität längst von der Technik abhängt, die man gerade verteufelt.

Die klügere Replik lautet: Wenn Agenten alles erledigen können, müssen Institutionen und Unternehmen präziser definieren, was sie eigentlich unter Lernen verstehen – und wie sie Können überprüfen wollen. Das ist unbequem, aber überfällig.

Die Zukunft des Lernens: Agenten, aber als Tutor – nicht als Ghostwriter

Der Diskurs um „Einstein“ schlägt, fast beiläufig, die beiden härtesten Hebel vor, die übrig bleiben, wenn Inhalte und Standardaufgaben entwertet sind: intrinsische Motivation und persönliche Beziehungen. Echtes Lernen wird zur Entscheidung; wer nur Punkte sammelt, kommt leichter durch. Wer wirklich etwas können will, braucht eine Lernumgebung, die Reibung nicht eliminiert, sondern produktiv macht – und Feedback, das ein Gegenüber bleibt.

Gerade hier kann ein Agent mehr sein als eine Abkürzung. In der Wahlster-Session wird „Losgröße 1“ als Bildungsversprechen formuliert: Tutorielles Lernen müsse stärker auf Einzelpersonen ausgerichtet werden; persuasive Systeme können motivieren und „dranbleiben“, wo Zeit und Ressourcen fehlen. Wahlster Pressearbeit Das ist nicht die Abschaffung des Lernens, sondern seine Industrialisierung in die richtige Richtung: weg von Massencontent, hin zu individueller Förderung, die in großen Klassen, großen Kohorten, großen Unternehmen sonst schlicht nicht leistbar ist.

Hyperpersonalisierung bedeutet dann nicht, dass der Mensch verschwindet. Sie bedeutet, dass der Mensch dort wieder auftauchen kann, wo er unersetzlich ist: bei Urteilskraft, Verantwortung, sozialer Interaktion, Wertefragen. Oder, zugespitzt: Wenn KI das Ausfüllen erledigt, muss Bildung das Denken zurückfordern.

Die Rückkehr des Schalls: Max Raabe & Palast Orchester mit „Hummel streicheln“ in der restaurierten Beethovenhalle

Manchmal braucht ein Gebäude keine neue Bestimmung, sondern nur seine alte Stimme zurück. Die Beethovenhalle, lange eher Legende als Gegenwart, knüpft nach der Restaurierung hörbar an jenen Gründungsoptimismus an, der 1959 in Fachkreisen in akustischer Euphorie kulminierte: ein Konzertsaal als wissenschaftlich geplantes Instrument, jeder Platz „mitten im Schallgeschehen“, dynamische Schwankungen kaum merklich, zugleich geeignet für barocke Linearität wie für romantische Klangmassen. Und tatsächlich: Der Raum wirkt wieder wie ein Klangkörper, der nicht nur „trägt“, sondern formt – als wäre die Architektur selbst ein diskreter Dirigent.

Dass Max Raabe & Palast Orchester nur wenige Monate nach der Wiedereröffnung den Saal im besten Wortsinn „einspielen“, ist mehr als ein glücklicher Kalenderfund. Ihr Stil – Präzision ohne Sprödigkeit, Nostalgie ohne Patina – taugt als Prüfstein für jede Raumakustik: Wo Konsonanten verschmieren, Phrasen ihre Kontur verlieren, Pointen versanden und die feinen dynamischen Abstufungen im Teppich verschwinden, verflüchtigt sich der besondere Reiz dieses Ensembles. Am 3. März jedoch bleibt alles am rechten Platz: klar im Ohr, präsent im Kopf, spürbar bis ins Zwerchfell.

Das Palast Orchester: Präzision als Glanz, Eleganz als Motor

Das Palast Orchester spielt nicht „begleitend“, sondern als gleichberechtigter Erzähler. Die Instrumentation – mit Tenorsaxophon, Bass-Saxophon, Trompete, Vibraphon/Schlagzeug als markanten Farben – ist ein fein abgestimmtes Kabinett von Charakterstimmen. Was dabei auffällt: Der Sound ist nicht museal, sondern quicklebendig. Das Vibraphon setzt Glanzpunkte wie Lichtreflexe auf poliertem Holz; das Saxophon zeichnet Linien, die zugleich geschmeidig und ironisch sein können; das Bass-Sax sorgt für jene wohlig-gravitätische Tiefe, die man im Körper spürt, bevor man sie benennt.

Und die Beethovenhalle tut das Entscheidende: Sie hält diese Binnenarchitektur des Orchesters auseinander, ohne sie zu zerlegen. Die Stimmen mischen sich zu einem Ganzen, aber man hört die Fäden. Genau darin liegt die moderne Qualität eines Saals: Transparenz als Komfort, nicht als Seziermesser.

„Hummel streicheln“: Tourneeprogramm als fein gebautes Vexierbild

Der Titel der neuen Tournee, „Hummel streicheln“, klingt nach kindlicher Unmöglichkeit – und ist doch eine treffende Chiffre. Denn Raabes Kunst ist genau das: die sanfte Berührung des potenziell Stechenden. Seine Lieder und Moderationen bewegen sich in einem Spannungsfeld aus Anmut und Abgrund, aus Salon und Alltag, aus sehr gepflegter Oberfläche und sehr menschlichen Rissen darunter.

Im Programm blitzen immer wieder Komponisten- und Texterwelten auf, die das 20. Jahrhundert mit seinen Stilen und Brüchen wie durch ein Opernglas zeigen: Namen aus dem Kosmos des Chansons und des deutschen Unterhaltungstheaters – Jurmann und Rotter, Kreuder, Stolz, Heymann – werden nicht als Zitatenschatz vorgeführt, sondern als lebendige Sprache, die heute noch trifft. Dass dabei auch amerikanische Songwriter-Traditionen und jüdische Theatermusik anklingen, gehört zur stillen Modernität dieses Abends: Das Palast Orchester führt das „Damals“ nicht als Insel vor, sondern als Netz.

Max Raabe: Der Sprachwitz als zweite Melodie

Raabe singt, als hätte er die deutsche Sprache nicht nur gelernt, sondern domestiziert – und dennoch bleibt sie bei ihm ein wildes Tier, das jederzeit in die Pointe springen kann. Seine Diktion ist kristallin, nie pedantisch; sein Bariton trägt jene berühmte Mischung aus Wärme und Distanz, die Intimität herstellt, ohne sich anzubiedern. Vor allem aber: Bei Raabe sitzt der Witz nicht obenauf wie Dekor, sondern im Kern der Musik.

Das zeigt sich besonders in den Moderationen, die im besten Sinne feuilletonistisch sind: kleine Denkstücke, die sich als Plauderei tarnen. Da wird das Adressbuch – „ein nicht-digitales Medium“, ohne Akku, aufklappbar, alphabetisch geordnet – zur kulturhistorischen Miniatur über eine Welt, in der man für einen Kontakt „unter Umständen weit hinging“. Und dann der elegante Schlenker in die Gegenwart: Soziale Netzwerke helfen beim Vernetzen – „da muss man aufpassen, dass man nicht zu weit geht“.
Es ist diese Art Humor, die nicht „über“ etwas lacht, sondern etwas sichtbar macht: menschliche Unruhe, moderne Grenzlosigkeit, das leise Unbehagen im Komfort.

Liederhumor mit Tiefenschärfe: Vom Huhn bis Newton

Raabes Pointen sind oft kleine philosophische Stolpersteine. Wenn er das Huhn als Ergebnis der Evolution vorführt – als Nachfolger des Tyrannosaurus rex – ist das zunächst Kabarett im naturkundlichen Kostüm. Aber der Gedanke kippt schnell ins Existenzielle: Was wäre, wenn das Huhn „zurückmontierte“? Wie sähe Koexistenz aus, wenn die Gegenwart plötzlich wieder Zähne bekäme?
Solche Einfälle sind keine Gags um des Gags willen, sondern Bilder für unsere Zeit: freundlich anmutend, doch jederzeit von Rückfällen bedroht.

Ähnlich treffsicher ist der Blick auf Beziehungen, Erinnerungen, Abschiede. Früher zerknüllte man Fotos; heute sitzt man mit dem Mobiltelefon in der Ecke und löscht Selfies – ein moderner Akt der Trennung, der zugleich radikal und unerquicklich banal ist. Und wenn schließlich Newtons erstes Gesetz bemüht wird – ein Körper beharrt im Zustand der Ruhe, sofern keine Kraft einwirkt –, dann wirkt das in Raabes Universum wie ein moralischer Spiegel: Wie viel in unserem Leben bleibt liegen, weil es bequem ist? Wie viel Bewegung braucht es, damit überhaupt etwas beginnt?

Die Beethovenhalle als heimlicher Solist

In all dem ist die Halle nicht Kulisse, sondern Partner. Ein Raum kann Musik groß machen, indem er sie vergrößert – oder indem er sie verständlich macht. Hier geschieht Letzteres: Die Stimmen des Orchesters behalten Kontur, Raabes Sprache bleibt bis in Nuancen hinein präsent, und die Dynamik wirkt, als würde sie nicht „verstärkt“, sondern natürlich atmen.

Gerade bei einem Programm, das zwischen Lied, Moderation, Miniatur und orchestraler Pointe wechselt, ist das entscheidend. Die Beethovenhalle zeigt sich als Saal, der Übergänge liebt: vom gesprochenen Wort ins musikalische Nachspiel, vom feinen Witz in den elegischen Schatten, vom leisen Schlussakkord in den Applaus. So entsteht jene seltene Einheit von Raum und Aufführung, in der man nicht nur hört, dass ein Haus renoviert wurde, sondern warum.

Coda: Eine Tournee, die das Leichte ernst nimmt

„Hummel streicheln“ ist kein nostalgischer Ausflug, sondern eine kunstvoll gebaute Gegenwartsbeobachtung im Spiegel vergangener Formen. Max Raabe beherrscht das Paradox, mit größter Höflichkeit sehr präzise zu sein. Das Palast Orchester macht aus Stil keine Pose, sondern Klangarbeit. Und die Beethovenhalle – dieser wiedererweckte Klangkörper – knüpft nahtlos an die euphorischen Reaktionen der Fachleute im Eröffnungsjahr 1959 an, nicht als Zitat, sondern als Gegenwartserfahrung: Man sitzt im Saal und hat das Gefühl, die Musik sei nicht einfach „da vorne“, sondern um einen herum in Bewegung.

Ein Abend also, der beweist, dass Eleganz nicht Flucht ist, sondern Konzentration. Und dass Humor in der Musik nicht die kleine Schwester des Ernstes sein muss – sondern seine klügste Verkleidung.

Die nächsten Konzerttermine findet Ihr hier.

Kleine Anmerkung: Jemand aus dem Management von Max Raabe gab uns fünf Minuten vor dem Beginn des Konzerts seine Ehrenkarten – wir saßen eigentlich sehr, sehr weit hinten. Dann saßen wir sehr, sehr weit vorne in der fünften Reihe. Das war ein glücklicher Zufall.

Wer KI nur für Texte nutzt, wird Plattform-Zulieferer

Am Beispiel DuMont zeigt sich: Wer KI nur als Textmaschine nutzt, bleibt Zulieferer. Wer KI als Operating Model baut, gewinnt Tempo, Relevanz – und Marge.

Die Medienbranche hat sich jahrelang an einer beruhigenden Idee festgehalten: Wenn die Inhalte stimmen, wird es schon irgendwie funktionieren. Nur leider hat sich das Spielfeld verändert. Auflagen sinken, Werbung ist volatil, Plattformen setzen Preise und Regeln. Und das Härteste: Inhalte sind nicht mehr knapp. Aufmerksamkeit ist knapp. Daten sind knapp. Direkte Kundenbeziehung ist knapp.

In so einem Markt entscheidet nicht die nächste „Content-Offensive“. Entscheidend ist, wer schneller lernt, präziser ausspielt, besser bindet – und daraus skalierbar Geschäft macht. Genau deshalb ist KI kein Add-on für die Redaktion. KI ist ein Umbau der Wertschöpfung.

Und wer diesen Umbau ernst nimmt, landet automatisch bei einer unbequemen These:

Medien werden zur Oberfläche. Wert entsteht im System dahinter.

DuMont als Blaupause: 400 Jahre alt – und plötzlich AI Company

DuMont ist eines der ältesten Familienunternehmen Deutschlands – und wirkt gerade deshalb wie ein Gegenbeweis zur Ausrede „Wir sind zu historisch, zu träge, zu traditionell“. Das Unternehmen hat sich radikal neu erfunden: vom klassischen Verlag zur wachsenden Gruppe von Medien- und Technologieunternehmen.

Wichtig ist nicht das Narrativ, sondern die Struktur dahinter:

DuMont agiert in drei Bereichen: Regionalmedien, B2B-Informationen und Marketing Technology.

Mehr als 75% des Ergebnisses stammen bereits aus digitalen Geschäften.

Zielbild: Bis Ende 2026 sollen 50% aller Prozesse KI-gestützt sein.

Das ist nicht „Digitalisierung“. Das ist ein neues Betriebssystem.

Warum viele KI-Projekte in Medien scheitern – obwohl sie „funktionieren“

In vielen Häusern startet KI dort, wo sie sofort Eindruck macht: Texte zusammenfassen, Headlines variieren, Bilder generieren. Das ist nützlich – aber oft bleibt es kosmetisch. Denn der Engpass liegt nicht im Output. Der Engpass liegt in der Organisation:

Wo kommen Daten her – und sind sie sauber genug?

Welche Workflows werden wirklich end-to-end automatisiert?

Wer entscheidet, welche KI-Lösungen skalieren – und welche Spielzeug bleiben?

Wie verändert sich Qualitätssicherung, Verantwortung, Governance?

Und vor allem: Was wird dadurch besser messbar monetarisierbar?

Wenn KI nur die Content-Produktion beschleunigt, erhöht sie im Zweifel nur das Rauschen. Wenn KI aber Bindung, Conversion, Relevanz und Geschwindigkeit verbessert, wird sie zum Business-Hebel.

Der Kern der DuMont-Logik: KI übernimmt Routine – Menschen bauen Vorteil

DuMont formuliert die KI-Rolle nicht als „Ersatz“, sondern als Reallokation: KI übernimmt Routineaufgaben, Mitarbeitende konzentrieren sich auf das, was echten Wettbewerbsvorteil schafft: Kundenbeziehungen, Markenführung, Kreativität und neue Nutzererlebnisse.

Das ist ökonomisch sauber gedacht:
Routine ist skalierbar – Differenzierung nicht. Routine lässt sich automatisieren – Differenzierung muss gestaltet werden.

Und genau hier wird KI strategisch: nicht als Content-Maschine, sondern als Operating Model, das Kapazität freisetzt und Wirkung erhöht.

DuMont AIssist + AI Academy: KI wird nicht eingeführt, sondern verankert

Wer KI skalieren will, braucht mehr als Lizenzen. Er braucht Skills, Standards, Governance – und ein System, das Nutzung einfach macht.

DuMont setzt dafür sichtbar auf drei Hebel:

Experimentierformate & AI Academy
(Re-)Skilling von Prompt Engineering bis KI-Ethik. Nicht als E-Learning-Schaufenster, sondern als Kompetenzaufbau, der auf reale Workflows zielt.

Talent Community
Führungskräfte und Talente lernen, KI strategisch zu nutzen – also nicht nur „wie promptet man“, sondern: Wie baut man damit Prozesse, Produkte, Entscheidungen?

„DuMont AIssist“
Ein interner Hub, der zentrale KI-Anwendungen bündelt: Textgenerierung, Datenanalyse, Bildproduktion bis zur Automatisierung ganzer Workflows – nahtlos integriert in die Systeme.

Der Unterschied ist entscheidend:
KI als Tool erzeugt einzelne Effekte.
KI als Plattform intern erzeugt Skalierung.

Doppelstrategie statt KI-Romantik: Kerngeschäft optimieren + AI-First bauen

DuMont fährt einen Doppelansatz, der für die Medienbranche fast schon die einzige realistische Route ist:

Optimierung des Kerngeschäfts (Payday-Pfad)

  • automatisierte Workflows
  • KI-gestützte Vermarktung
  • personalisierte Kundenerlebnisse
  • Abo- und Umsatzprognosen
  • Automatisierung in Finance & HR

Die ersten Effekte sind sichtbar: stärkere Abonnentenbindung, schnelleres Prototyping, höhere Conversion-Rates. Harte ROI-Zahlen fehlen noch – aber Tempo, Präzision und Relevanz steigen. Und das sind in dynamischen Märkten oft die wichtigsten Frühindikatoren.

Aufbau neuer AI-First-Plattformen (Moonshot-Pfad)

Hier wird es richtig spannend: mit Entirely entsteht ein offenes Ökosystem, das führende Marketing-Technologien vernetzt und Unternehmen ein integriertes System für individuelle Marketing-Anforderungen bietet – KI ist dabei von Beginn an der Kern.

Das ist der Schritt raus aus der reinen Medienlogik rein in Plattformlogik:
Netzwerkeffekte, Integrationen, Datenprodukte, wiederkehrende Erlöse. Genau dort entstehen in vielen Branchen die neuen Gravitationszentren – und genau dort wird entschieden, wer später die Marge kontrolliert.

Top & Flop: Die wertvollste KI-Lektion ist erstaunlich unsexy

DuMont benennt zwei Learnings, die man sich als Poster in jedes KI-Lab hängen sollte:

Top: KI-Funktionen in marktfähigen Produkten – nicht nur in internen Demos.
Flop: zu komplexe AI-Workflows – die Erkenntnis: Einfachheit schlägt Over-Engineering.

Das ist kein Detail. Das ist der Skalierungshebel.

Denn Komplexität ist in KI-Projekten ein schleichender Killer:
zu viele Abhängigkeiten, zu fragile Datenpfade, zu viel Wartung, zu wenig Adoption. Am Ende hat man „eine Lösung“, aber kein System.

Die eigentliche Hürde heißt Leadership, nicht Technologie

COO Oliver Eckert spricht von „Transzendenz“: dem bewussten Überschreiten gewohnter Grenzen. Das trifft einen Nerv, weil KI nicht nur Prozesse verändert, sondern Identität:

Was ist „Qualität“, wenn KI mitproduziert?

Wie sieht Verantwortung aus, wenn Entscheidungen datengetrieben sind?

Welche Rolle hat Führung, wenn Teams iterativer arbeiten müssen?

Wie führt man KI – wie einen „Kollegen“, der zuverlässig ist, aber nicht unfehlbar?

Die Transformation zur AI Company ist deshalb vor allem eine kulturelle Herausforderung. Wer hier halbherzig bleibt, bekommt genau das, was man überall sieht: Pilotprojekte ohne Durchschlag, Tools ohne Adoption, Effizienz ohne Wachstum.

KI belohnt Klarheit:
über Ziele, Prozesse, Verantwortlichkeiten, Produkte – und darüber, wo Differenzierung wirklich entsteht.

KI entscheidet, ob Medienhäuser gestalten – oder beliefert werden

Die Debatte ist vorbei, ob KI „kommt“. Sie ist da. Die offene Frage ist nur: Wird KI in Medienhäusern ein Feature – oder ein Fundament?

DuMont zeigt, wie ein 400 Jahre altes Unternehmen den Shift zur AI Company angeht:
diversifiziert, daten- und technologiegetrieben, prozessual verankert, kulturell begleitet – und mit dem Mut, neben Effizienz auch neue AI-First-Plattformen aufzubauen.


Hinweis: Leadership Forum Convidera am 24. März in Köln

Wer das Thema praktisch diskutieren will: Am 24. März findet in Köln das Leadership Forum von Convidera statt – mit u.a.:

  • Oliver Eckert, COO DuMont
  • Jonas Rashedi, CDO Falke
  • Bernhardt Lüddecke, Director Validation Global Kautex
  • Daniel Jungbluth, CTO Scheidt & Bachmann

Siehe auch:

Fünf Weisen, null Orientierung: Wie ein Spitzengremium seine Autorität verspielt @MonikaSchnitzer @umalmend @AchimTruger @MartinWerding @GFelbermayr @GrimmVeronika

Wenn ein beratendes Expertengremium in der Öffentlichkeit mit „großer Verwunderung“ und „allergrößtem Bedauern“ auf eine Personalentscheidung reagiert, ist das schon bemerkenswert genug. Wenn sich dann eines der verbleibenden Mitglieder öffentlich davon distanziert – „Ich habe dem Statement nicht zugestimmt“ – ist es kein Betriebsunfall mehr, sondern ein Symptom.

Denn das ist der eigentliche Skandal: Nicht dass das Mandat von Ulrike Malmendier nach dreieinhalb Jahren nicht verlängert wurde (so unerquicklich das für die Qualität der Politikberatung sein mag), sondern wie der Sachverständigenrat sich dabei selbst entblößt. Ein Rat, der nach außen im Kollektivton spricht, intern aber nicht einmal Einigkeit darüber herstellen kann, ob er überhaupt sprechen sollte, hat sein wichtigstes Kapital verspielt: institutionelle Glaubwürdigkeit.

Was ist da los? Drei Ebenen, ein Schadenbild

Der Rat wirkt derzeit nicht wie ein Gremium, sondern wie eine Bühne.
Offiziell sind es inzwischen nur noch vier Mitglieder – Vorsitzende Monika Schnitzer, Veronika Grimm, Achim Truger, Martin Werding.
Und doch kommuniziert der Rat nach außen, als stünde ein geschlossener Fünferblock hinter jeder Formulierung. Genau das hat Grimm zerlegt. Das ist keine Petitesse, sondern ein Governance-Problem: Wer als Institution spricht, muss transparent machen, wer dahintersteht – sonst wird „der Rat“ zur PR-Hülle, die jeder nach Bedarf füllt oder zurückweist.

Die Personalsache ist politisch – und der Rat stolpert in eine Rolle, die er nicht kontrolliert.
Grimm hat formal einen Punkt: Die Besetzung liegt gesetzlich bei der Politik (Berufung durch den Bundespräsidenten auf Vorschlag der Bundesregierung).
Nur: Genau diese politisierte Berufungspraxis ist seit Jahren der Sprengsatz. Wenn Posten wie Tickets zwischen Lagern gehandelt werden, entsteht ein Rat, der parteipolitische Erwartungen „mitliefert“ – und sich dann wundert, dass Personalentscheidungen wie politische Deals aussehen. Der Rat wird so zum Austragungsort von Lagerlogik, nicht zum Korrektiv.

Das Knirschen im Gebälk ist nicht neu – es ist strukturell.
Der offene Konflikt um Nebentätigkeiten und Interessenkonflikte (Stichwort: Siemens-Energy-Aufsichtsrat) hat das Gremium schon 2024 sichtbar zerrissen; damals wurde intern sogar nahegelegt, Grimm solle zurücktreten. Wer seit zwei Jahren mit Compliance- und Vertrauensfragen ringt, hat weniger Bandbreite für das, was Deutschland gerade braucht: klare, empirisch belastbare Orientierung in einer Welt aus Energiepreisschocks, Standortdebatte, Investitionsstau, geoökonomischer Fragmentierung.

Und jetzt Felbermayr? Ja – aber das ist noch kein Neuanfang.

Nach Medienberichten/Reuters-Informationen soll Gabriel Felbermayr Malmendier nachfolgen; die Personalie soll zeitnah im Kabinett aufgerufen werden. Inhaltlich wäre das – gerade mit Blick auf Handel, Zölle, Sanktionen und die neue Geoökonomie – eine echte Kompetenzverstärkung. Nur: Ein brillanter Neuzugang heilt keine Institution, die sich selbst medial zerlegt. Ein neues Gesicht in einem dysfunktionalen Setting wird schnell zum Feigenblatt – oder zum nächsten Konfliktkatalysator.

Die harte Konsequenz: Entweder Reset – oder Bedeutungsverlust

Wenn ein Sachverständigenrat am Ende vor allem eines produziert – Geräusch –, dann wird er zum Selbstbedienungsladen: Regierung pickt sich die Passage, die passt; Opposition pickt sich das Minderheitsvotum; Verbände picken sich die Überschrift. Das Ergebnis ist nicht „mehr Pluralität“, sondern weniger Orientierung.

Darum braucht es jetzt eine unmissverständliche Entscheidung, nicht den nächsten halbherzigen Umbau:

Kommunikationsdisziplin: Keine „Rat“-Statements ohne explizite Nennung der Zustimmenden. Wer nicht zustimmt, wird nicht vereinnahmt.

Harte Compliance-Regeln: Klare Unvereinbarkeitstatbestände und Transparenzstandards, die nicht erst im Streitfall ausgehandelt werden.

Berufung entpolitisieren (so weit möglich): Öffentliche Kriterien, nachvollziehbare Kompetenzprofile, und Schluss mit der Ticket-Logik.

Wenn das politisch nicht durchsetzbar ist: Dann ist der radikale Schritt ehrlicher – kompletter Neustart des Gremiums (inkl. Kulturwechsel), statt weiter Flickwerk zu betreiben.

Denn ein Land mit Deutschlands wirtschaftspolitischem Problemstapel kann sich keine „Wirtschaftsweisen“ leisten, die vor allem eines sind: miteinander beschäftigt.

Nicht totzukriegen: Warum X im Profidiskurs eher stärker wird

Wer über X spricht, landet schnell bei Personenkult: Besitzer, Skandale, Stilfragen. Das ist bequem – und oft unerquicklich. Aber medienpolitisch führt es am Kern vorbei. Entscheidend ist nicht, wer das Licht einschaltet. Entscheidend ist, ob die Leitung noch Strom liefert.

Sie liefert. Und zwar gerade dort, wo Öffentlichkeit hergestellt wird: im Politik- und Wirtschaftsteil, in den Redaktionen, in den Netzwerken der Sachverständigen, Analysten, Verbände, Thinktanks.

Die Media-Tenor-Auswertung für 2025 formuliert das unmissverständlich: „Twitter bleibt die dominierende Social Media-Plattform“ – und die Twitter/X-Zitate sind weiter angestiegen. Dazu passt die zugespitzte Diagnose im Bericht selbst: „Twitter-Zitate nutzen sich nicht ab. Eher im Gegenteil.“

Das ist mehr als ein Statistik-Satz. Es ist ein Hinweis auf eine Funktion.

X ist der Marktplatz der „zitierfähigen“ Öffentlichkeit

Die meisten Plattformen sind heute geschlossene Gärten: schön für Community, schlecht für Öffentlichkeit. Facebook: fragmentiert, privat, gruppenbasiert. Instagram: bildgetrieben, kontextarm. TikTok: aufmerksamkeitsstark, aber schwer zitierbar – und noch schwerer zu verifizieren, wenn Clips aus dem Kontext zirkulieren.

X ist anders: öffentlich-by-default, schnell, textnah, verlinkbar. Das ist altmodisch – und genau deshalb kompatibel mit Journalismus. Eine Redaktion zitiert nicht, was sie nicht sauber greifen kann. X liefert dafür das passende Format: kurze Aussagen, klare Urheberschaft, Time-Stamp, leichtes Embedding, schnelle Gegenrecherche.

Das klingt banal. Es ist aber der Unterschied zwischen „viral“ und „verwertbar“.

X ist ein Frühwarnsystem für Politik und Ökonomie

Seit Trumps erster Wahl hat sich X als politisches Resonanzinstrument verhärtet: nicht nur als Bühne für Aufreger, sondern als Frühindikator, welche Deutungen in Eliten-Netzwerken gerade Fahrt aufnehmen. Der Bericht zeigt: X wird als Quelle in deutschen Leitmedien regelmäßig genutzt – und 2025 eben noch stärker.

Warum hält sich diese Relevanz?

Weil Politik und Wirtschaft nicht warten. Sie reagieren. Und sie brauchen Orte, an denen Reaktionen sichtbar sind, bevor sie in Pressemitteilungen gerinnen. X ist dafür so etwas wie der Ticker: ungefiltert, roh, manchmal schmutzig – aber schnell.

In Fachkreisen sieht man das besonders deutlich: Sachverständigenrat, Ökonomie-Listen, Zentralbank- und Ministeriumsblase, Research-Desks, Journalisten mit Beats. Wer dort postet, bekommt nicht zwingend Applaus – aber oft sachdienliche Repliken: Korrekturen, Links, Datensätze, Gegenargumente. Das ist kein „Social Media“-Smalltalk. Das ist Arbeitskommunikation.

Zitatmacht entsteht aus Anschlussfähigkeit, nicht aus Sympathie

Es gibt eine verbreitete Selbsttäuschung: Man glaubt, Plattformen seien relevant, weil man sie mag. Falsch. Plattformen sind relevant, wenn sie anschlussfähig sind – an Redaktionsroutinen, an Expertennetzwerke, an die Logik der Nachricht.

Media Tenor zeigt parallel: LinkedIn wird häufiger zitiert (2025 rund „gut 100“ Zitate; im Bericht wird der Sprung von 58 auf 107 hervorgehoben) und Table.Media verdoppelt. Das sind klare Signale: Auch andere Kanäle drängen in die Zitier-Sphäre. Aber sie tun es auf niedrigerem Niveau – und eher als Ergänzung. X bleibt der dominante Lieferant.

Das ist der Punkt: X ist nicht alternativlos. Aber es ist weiterhin der Standard, an dem sich Zitierfähigkeit misst.

Video auf X: Reichweite ohne den Community-Käfig

Ein unterschätzter Faktor ist das Format-Mix: X ist textzentriert, ja – aber Video funktioniert dort zunehmend als „Transportmittel“ für Expertise. Wer Clips mit These, Grafik, Befund spielt, bekommt oft eine Reaktion, die bei Facebook & Co. ausbleibt: nicht nur Likes, sondern Weiterverarbeitung. Der Clip wird zitiert, verlinkt, in Newsletter gezogen, in Redaktionschats geschoben.

Warum läuft das dort besser als in Plattformen, die Video „eigentlich“ können?

Weil bei X Video in einem Umfeld landet, das ohnehin auf Information getrimmt ist: Journalist:innen, Analyst:innen, politische Staffer, Wissenschaftler:innen. Das Publikum ist kleiner als „Mainstream Social“. Aber es ist wirkmächtiger. Öffentlichkeit ist nicht Masse. Öffentlichkeit ist Anschluss.

„Musk“ ist der falsche Fokus

Natürlich verändert Eigentum die Plattform: Moderation, Reichweitenlogik, Verifikation, toxische Nebenräume. Das gehört zur Lagebeschreibung. Aber medienpolitisch ist der entscheidende Satz ein anderer:

Solange Leitmedien X zitieren, bleibt X Teil der öffentlichen Infrastruktur.

Und daraus folgen Aufgaben – nicht Empörung:

  • Quellenkompetenz: Redaktionen müssen X wie einen Marktplatz behandeln: nützlich, aber riskant. Verifikation, Kontext, Gegencheck.
  • Pluralität: Institutionen sollten nicht nur auf X senden. Nicht aus Moral, sondern aus Resilienz – Single Point of Failure vermeiden.
  • Archivierung und Nachvollziehbarkeit: Wenn X Zitatquelle ist, muss dokumentiert werden können, was wann gesagt wurde.
  • Transparenz der Plattformlogik: Reichweitenmechanik beeinflusst Diskurse. Wer Medienpolitik ernst meint, diskutiert das als Infrastrukturfrage.

Die nüchterne Bilanz

X ist laut. Oft unerquicklich. Manchmal manipulativ. Aber: Für die professionelle Öffentlichkeit erfüllt es weiterhin eine Funktion, die andere Plattformen nur teilweise bedienen: schnelle, öffentliche, zitierfähige Kommunikation – besonders im Politik- und Wirtschaftskontext.

Die Datenlage aus 2025 stützt diese Beobachtung: X bleibt dominierende zitierte Plattform, LinkedIn holt auf, alternative Portale wachsen – aber X wächst mit. Die Zitatnutzung nutzt sich nicht ab. Sie verhärtet sich zur Routine.

Das ist die eigentliche Pointe: Wer X heute nur als Kulturkampf-Arena beschreibt, unterschlägt seine Rolle als Arbeitsmittel. Und wer seine Rolle als Arbeitsmittel unterschlägt, versteht nicht, wie moderne Öffentlichkeit tatsächlich gemacht wird.

Beispiele für Videos: