Dirk Baeckers neues Suhrkamp-Buch „Digitalisierung“ und die späte Einsicht, dass Suchmaschinen keine Gesellschaftstheorie ersetzen

Der Satz „Luhmann statt Google“ steht nicht bei Dirk Baecker. Er stammt von mir. Ich habe ihn über einen älteren Text gesetzt, den ich 2019 noch einmal hervorgeholt habe, um zu prüfen, wo der frühe Instinkt in Sachen Computerkommunikation trug und wo er sich täuschte. Die spätere Diskussion in der über den Niedergang lokaler und regionaler Medien im Rheinland gehört in dieselbe autobiographische Linie: als publizistische Selbstkontrolle, nicht als Baecker-Exegese. Diese Trennung ist wichtig. Sonst verlegt man dem Soziologen in die Tasche, was aus meiner eigenen Werkstatt stammt: den Blick auf die ausdünnende regionale Öffentlichkeit, die Erosion der alten Medienzwischenhändler und die Frage, was aus einer Gegend wird, wenn sie ihre Beobachter verliert.

Mein Satz, sein Buch

Baeckers neues Buch setzt anders ein, kälter, höher, ohne Rücksicht auf jene Behaglichkeit, mit der die Gegenwart ihre Apparate bewundert. Schon der Titel ist eine kleine Zumutung. Das durchgestrichene Wort „Digitalisierung“ klingt nach Verwaltungsdeutsch, nach Handreichung, nach Schreibtischlampe. In Wahrheit liegt hier ein Buch vor, das die Lampe ausknipst und zeigt, wie sehr wir uns daran gewöhnt haben, im Schein der Geräte die Gesellschaft selbst zu übersehen. Baecker nennt Digitalisierung ein „analoges Phänomen“. In diesem Ausdruck steckt das ganze Programm: Das Digitale marschiert nicht auf leerem Feld. Es trifft auf eine widerständige Welt aus Körpern, Routinen, Institutionen, Missverständnissen, Gewohnheiten und Interessen. Der Rechner rechnet diskret; die Gesellschaft antwortet kontinuierlich, zäh, krumm, bisweilen boshaft.

Das ist der erste Vorzug dieses Buches: Es behandelt den Computer nicht als Zaubergerät und die künstliche Intelligenz nicht als säkularen Geist. Es fragt vielmehr, was aus sozialer Wirklichkeit wird, wenn sie in Datenformate übersetzt, durch Modelle gejagt und wieder an jene Wirklichkeit zurückgespielt wird, aus der sie zuvor herausgeschnitten wurde. Baecker spricht vom Zusammenspiel von Technik, Organismus, Bewusstsein und Gesellschaft; Digitalisierung sei nur dann verstanden, wenn man diese vier Größen zusammen denkt und ihre Synchronisation als flüchtigen, aber folgenreichen Moment begreift. Damit ist der Ton gesetzt: keine Maschinenmystik, keine Kulturpanik, sondern eine Theorie der Lage.

Der Rechner als neuer Dativ

Die stärksten Seiten des Buches beginnen dort, wo Baecker den Begriff der Kommunikation von der sentimentalen Umarmung der Gegenwart befreit. Überall hört man inzwischen, Maschinen „reden“ mit uns, „verstehen“ uns, „helfen“ uns, „begleiten“ uns. Die Sprache der Gerätewerbung hat sich wie Parfüm über ganze Debatten gelegt. Baecker geht einen Schritt zurück und sieht genauer hin. Rechner sind keine Personen. Aber sie verändern die Grammatik des Sozialen. Der entscheidende Satz lautet, in äußerster Nüchternheit: Kommunikation mit Rechnern „kommuniziert Berechnungen“. Damit ist mehr gesagt als in einer halben Bibliothek zum Thema KI. Nicht mehr nur Sätze, Bilder, Töne und Gesten zirkulieren, sondern ihre statistische Vorbewertung, ihre relationale Einordnung, ihr möglicher Anschluß. Mitteilung wird zum Index, Rede zur Rechenlage, Aufmerksamkeit zur Funktion eines Datenraums.

Man könnte sagen: Der Rechner ist der neue Dativ der Moderne. Man kommuniziert nicht über ihn wie über einen Hammer auf der Werkbank, sondern mit ihm wie mit einem Gegenüber, das sich der Verfügung entzieht und doch von Menschen gemacht ist. Eben darin liegt die eigentümliche Verlegenheit der Gegenwart. Sie hat ihre Werkzeuge so gebaut, dass diese Werkzeuge inzwischen an der Form der Welt mitschreiben, ohne darum schon Autoren zu sein. Baecker hält diese Schwebe aus. Er zieht weder den naiven Schluss, der Computer sei nur ein Mittel, noch den modischen, er sei bereits ein Subjekt. Er zeigt, dass das Digitale den Raum möglicher Anschlüsse umbaut und damit tiefer in das Soziale eindringt als jede alte Apparatekunde.

Die Plattform als höfliche Falle

Hier beginnt der Punkt, an dem mein alter Satz wieder interessant wird. Denn „Luhmann statt Google“ war zunächst eine Polemik gegen die intellektuelle Bequemlichkeit, die in der Suchmaschine schon eine Weltformel sehen wollte. Diese Polemik ist heute noch richtiger als damals, nur aus einem anderen Grund. Google war die erste große Schule der Indexierung. Man lernte, die Welt als Trefferliste zu sehen. Baeckers Buch handelt bereits von der nächsten Stufe: von einer Umwelt, in der nicht nur gefunden, sondern fortwährend vorselektiert, gewichtet, angestupst, umgeleitet, wahrscheinlich gemacht wird. Die Plattform ist keine Bibliothek; sie ist eine höfliche Falle. Sie sagt nicht: Du musst. Sie sagt: Hier entlang. Und wenn man ihr lange genug folgt, hält man die sanfte Lenkung irgendwann für die eigene Bewegung.

Baecker beschreibt das ohne moralischen Tremor. Er sieht, dass Plattformen, Apps und digitale Umgebungen einen neuen Kalkül der Attraktion, Kontrolle und Steuerung hervorbringen. Freiheiten werden nicht abgeschafft, sondern inszeniert; Zugänge werden nicht verriegelt, sondern so gestaltet, dass man die Schwellen oft erst bemerkt, wenn man schon daran gescheitert ist. Das ist eine präzisere Beschreibung der Gegenwart als die alte Gegenüberstellung von Freiheit und Überwachung. Die Macht der Plattformen liegt gerade darin, dass sie beides ineinander falten: die Einladung und die Kontrolle, die Leichtigkeit und die Berechnung.

Von hier aus fällt auch neues Licht auf meinen älteren Text zur Computerkommunikation und auf die Rheinlandrunde-Debatte über den Niedergang regionaler Medien. Der Instinkt war richtig: Die klassischen Redaktionen verloren nicht bloß Auflage und Anzeigen, sondern ihren Status als privilegierte Sortiermaschinen des Öffentlichen. Falsch oder jedenfalls zu optimistisch war nur die Annahme, an die Stelle dieser alten Gatekeeper trete einfach eine offenere, demokratischere Suchordnung. In Wahrheit trat etwas Raffinierteres auf den Plan: eine Infrastruktur der Sichtbarkeit, die Öffentlichkeit nicht abschafft, sondern sie in berechenbare Mikrobewegungen zerlegt. Die Provinz verschwindet dann nicht deshalb aus dem Bild, weil niemand mehr über sie spricht, sondern weil sie im Datenraum keinen hinreichenden Reizwert mehr erzielt.

Vier Systeme, keine Erlösung

Baeckers zweite große Stärke liegt darin, dass er die Debatte aus der infantilen Zweierlogik Mensch gegen Maschine herausholt. Man müsse, schreibt er sinngemäß, nicht bis eins, sondern bis vier zählen. Technik, Organismus, Bewusstsein und Gesellschaft bilden jene Konstellation, in der digitale Prozesse überhaupt erst zu Wirklichkeit werden. Auf der einen Seite rechnen die Maschinen; auf der anderen interpretieren Körper, Geist und soziale Zusammenhänge. Die Schnittstelle ist keine harmonische Naht, sondern eine dauernde Übersetzungsarbeit, ein neuralgischer Übergang, an dem Missverständnisse, Überforderungen und plötzliche Evidenzen entstehen. Genau deshalb ist Digitalisierung kein bloß technisches, sondern ein kulturelles und institutionelles Ereignis.

Der vielleicht wichtigste Satz des Buches lautet: „Gesellschaft lässt sich nicht errechnen.“ Das ist keine Trotzformel des geisteswissenschaftlichen Feuilletons, sondern die sauberste Grenzmarkierung in einer Zeit, die ihre Modelle gern mit Wirklichkeit verwechselt. Baecker bestreitet nicht die Leistungsfähigkeit generativer und stochastischer Verfahren. Er unterschätzt sie gerade nicht. Aber er besteht darauf, dass eine soziologische Theorie keine Algorithmen des Sozialen liefert, sondern die Unberechenbarkeit jenes Zusammenhangs sichtbar macht, in dem Daten, Erwartungen, Situationen und Institutionen einander fortwährend umlagern. Der von ihm entworfene „Kalkül der Lage“ ist deshalb kein Herrschaftswissen, sondern der Versuch, die Form der Unübersicht mit begrifflicher Disziplin zu verfolgen.

Warum am Ende doch Luhmann gewinnt

Am schönsten wird das Buch dort, wo es drei Versuchungen der Gegenwart in einer knappen Reihung ordnet. Für Habermas tendiert Kommunikation, wenn man sie nur lange genug von Zwang freihält, zur „Vernunft“; für Michel Serres je nach parasitärem Geschick zum „Netzwerk“; für Luhmann, abhängig von produktiven Zufällen, zum „System“. Diese kleine Trias ist kein Seminarwitz, sondern ein Kompass. Denn genau zwischen diesen drei Polen schwankt die gesamte Debatte über Digitalisierung: zwischen der Hoffnung auf vernünftige Verständigung, der Faszination am Netz und der Einsicht, dass soziale Ordnungen sich nur aus kontingenten, selektiven, eigensinnigen Anschlüssen bilden.

Hier steht mein Satz also an seinem richtigen Ort. Luhmann statt Google heißt nicht: zurück in die Bibliothek, raus aus dem Netz. Es heißt: Die Suchmaschine bleibt innerhalb der Probleme, die sie technisch löst. Sie ordnet Zugriff, nicht Gesellschaft. Sie verbessert Auffindbarkeit, nicht Selbstverständigung. Sie sortiert, aber sie weiß nicht, was sie anrichtet, wenn das Sortieren selbst zur heimlichen Verfassung des Öffentlichen wird. Baeckers Buch liefert für diese Einsicht die Begriffe, die Schärfe und jene Kälte, ohne die Theorie rasch zu Weltanschauung gerinnt.

Darum ist dieses Buch mehr als eine Intervention in die KI-Debatte. Es ist eine Erinnerung daran, dass die Gesellschaft kein Dashboard ist. Sie ist kein Prompt, kein Modelloutput, kein sauber kuratierter Datenraum. Sie ist das Geräusch der Anschlüsse, das Knirschen der Übersetzungen, das Wiederauftauchen des Analogen im Innern der elegantesten Maschine. Gerade deshalb lohnt die Lektüre. Denn wer nach diesem Buch noch immer glaubt, Google erkläre die Gegenwart, verwechselt die Straßenkarte mit der Stadt.

Der Kompass, der sich dem Norden verweigert

Ein alter Bus, der nicht geschniegelt über Autobahnen gleitet, sondern die kleinen, nicht digitalisierten Linien nimmt – jene Wege, auf denen der Zufall noch Vorfahrt hat. Im Armaturenbrett kein Heilsversprechen aus Satelliten, keine Stimme, die die Welt „in 300 Metern rechts“ zerlegt. Stattdessen Blick nach vorn: offen. So hat sich „Gernstl unterwegs“ über 42 Jahre angefühlt – weniger als Fernsehformat denn als gelebte Poetik der Kontingenz.

Der Kino-Dokumentarfilm „Gernstls Reisen – Auf der Suche nach irgendwas“ bündelt dieses Credo noch einmal. Franz Xaver Gernstl, Kameramann Hans Peter Fischer und Tonmann Stefan Ravasz zeigen nicht „die Welt“, sie zeigen die Methode, mit der Welt überhaupt erst sichtbar wird: hingehen, anhalten, anklopfen, aushalten, zuhören. Und dann zulassen, dass die Dinge passieren, die man nicht bestellen kann.

Serendipität als Handwerk, nicht als Glücksduft

Serendipität klingt nach Glücksfall und Zufallsromantik. In Wahrheit ist sie eine Disziplin. Wer finden will, ohne zu suchen, muss erst lernen, nicht zu besitzen: keine Pointe, kein Skript, kein Gesprächsziel, das wie ein Pfosten im Boden steckt. Genau darin liegt die Modernität dieser Filme – ausgerechnet in ihrer Weigerung, modern zu sein.

Gernstls Gesprächsführung funktioniert wie ein Gegenprogramm zur Gegenwart: keine Fragen als Trichter, die Menschen in vorgefertigte Antworten pressen, sondern Fragen als Türen. Man merkt, wie schnell das Gegenüber vom „Interview“ ins Erzählen kippt, sobald das Urteil aus dem Raum verschwindet. Gernstl führt nicht, er hält den Raum offen. Die Gesprächspartner wirken nicht „abgerufen“, sondern eingeladen.

Fischers Kamera ist dabei nicht der Blick des Jägers, sondern der Blick des geduldigen Zeugen: sie bleibt, sie drängelt nicht, sie lässt den Moment sich selbst erzeugen. Ravasz’ Ton wiederum rettet die Feinheiten, die in der Bildhysterie der Gegenwart untergehen: das Zögern, das Räuspern, das ungeschützte Lachen, die Stille nach einem Satz. Ohne diesen Klangteppich wäre vieles nur „nett“. Mit ihm wird es wahr.

Kaltes Wasser, warme Köpfe

Im Film greift Gernstl Janosch auf, indirekt wie eine Lebensformel: Das Leben sei wie kaltes Wasser, in das man hineingeworfen werde; entweder gehe man unter – oder man sage sich, man habe ohnehin ins Wasser gewollt, kaltes Wasser sei die eigene Leidenschaft, ein verdammt schönes Vergnügen, Leute. Dieser Satz arbeitet im Untergrund der gesamten Reise. Nicht als Trostpflaster, eher als Temperaturmessgerät. Gesucht werden nicht die perfekten Biografien, sondern die, die trotz Bruchstellen eine Art Lebenskunst entwickeln: nicht Resignation, sondern Trotz-Glück.

Die Nachricht, dass keine weiteren Produktionen für das BR-Fernsehen entstehen werden, trifft deshalb nicht wie eine Programmänderung, sondern wie ein Kulturverlust. Hier endet nicht bloß eine Serie. Hier verschwindet eine Form von Öffentlichkeit, die sich dem Management verweigert: Begegnung statt Casting, Gespräch statt Choreografie, Zufall statt Redaktion aus dem Baukasten.

In einer Medienwelt, die Vorhersage mit Wahrheit verwechselt, wirkt Gernstls Methode wie ein Störsignal: Kontingenz als Qualität. Vielleicht genau deshalb so kostbar. Der Bus steht irgendwann still – die Spur bleibt. Und sie erinnert daran, dass die wirklich wichtigen Geschichten selten dort liegen, wo sie geplant wurden.

Nachsatz: Das Weiterfahren im Buchformat

Demnächst erscheint im Kösel-Verlag „Glück gehabt!“ (Über das Unterwegssein, das Filmemachen und das Leben an sich, Hardcover). Wer den Film als Verdichtung erlebt, findet im Buch die ausgebreiteten Karten: Donau und Matterhorn, Sylt und Elbe, Dolomiten und Gardasee, Jesolo, Holland, Irland, Los Angeles – nicht als Reiseliste, sondern als Beleg dafür, dass Menschen überall dort auftauchen, wo niemand ihnen eine Rolle zuschiebt. Die alte Frage kehrt wieder, nun als Leitmotiv: Wie plant man zufällige Begegnungen, ohne sie zu verraten? Gernstls Antwort bleibt eine Haltung: hinschauen, zuhören, sich nicht anstellen zwischen Leben und Kamera. Der Zufall übernimmt dann den Rest – und manchmal fühlt sich dieser Rest wie das Eigentliche an.

Mehr dazu in unserem Sohn@Sohn-Newsletter.

Der digitale Doppelgänger: Warum die Angst vor KI-Agenten am eigentlichen Problem vorbeigeht #EinsteinApp #Wahlster #DFKI #ZPNachgefragtWeek

Der Skandal, der keiner ist

Die Debatte um KI-Agenten liebt den Moment der Empörung: Eine App taucht auf, verspricht, das Studium gleich mit zu erledigen, und verschwindet wieder – und schon steht das Urteil fest. Betrug. Bildungszerstörung. Ende der Leistungsprinzipien. Die „Einstein“-App – ein autonomer Agent, der sich im Namen von Studierenden in Lernsysteme einloggt, Vorlesungen „anschaut“, Paper liest, in Foren diskutiert und Hausarbeiten schreibt – lieferte diesen Moment in Reinform. Das Programm verschwand nach kurzer Zeit aus den Stores; nicht, weil die Idee zu verrückt gewesen wäre, sondern weil die Namensrechteinhaber klagten.

Der reflexhafte Schock ist verständlich. Aber er ist auch bequem. Denn er erlaubt es, eine technische Entwicklung moralisch zu verhandeln, statt die institutionelle Wirklichkeit zu betrachten, die sie freilegt. Die eigentliche Provokation der Agenten liegt nicht darin, dass sie „zu viel können“. Sie liegt darin, dass unsere Lern- und Qualifikationslogik so gebaut ist, dass ein Agent sie überhaupt in dieser Breite abarbeiten kann: content-lastig, videobasiert, assessment-getrieben – und oft näher an Fleißnachweisen als an Könnerschaft. Genau das benennt der Diskurs um „Einstein“ selbst: Agentic AI ist weniger Ursache als Symptom einer tieferen Frage – warum wir eigentlich lernen.

Maria Laach: Die deutsche Vorgeschichte der Personalisierung

Wer die Agenten-Debatte nur als Silicon-Valley-Problem liest, verkennt ihre längere, auch deutsche Vorgeschichte. In der Forschungslinie, die heute wieder in Mode kommt, geht es seit Jahrzehnten nicht primär um „Antworten“, sondern um Passung: um Systeme, die nicht bloß Inhalte ausgeben, sondern verstehen, wer ihnen gegenübersitzt – und daraus ihr Verhalten ableiten. In einem Feature-Text zur Wahlster-Session wird diese Linie ausdrücklich historisch verortet: Vor rund vierzig Jahren gab es in Deutschland einen internationalen Workshop zur empathischen Benutzermodellierung; daraus entstand eine bis heute aktive Community, sichtbar etwa in der Reihe UMAP (User Modeling, Adaptation and Personalization).

Das ist mehr als Anekdote. Es ist ein Gegenargument zur heutigen Alarmrhetorik. Denn „Hyperpersonalisierung“ ist nicht der spontane Exzess einer neuen Modellgeneration, sondern die späte Marktreife eines alten Versprechens: Lern- und Dialogsysteme sollen nicht alle gleich behandeln, sondern individuell – nicht aus Freundlichkeit, sondern aus Effizienz. Wer schon einmal erlebt hat, wie Lernende in Standardkursen entweder unterfordert oder überfordert werden, versteht, warum Personalisierung ökonomisch ist: Sie reduziert Abbrüche, verkürzt Lernzeiten, erhöht Transfer – und damit den Return on Learning.

Von „kognitiv“ zu „sozial“: Was die Wahlster-Session wirklich behauptet

In der Session der mit Professor Wolfgang Wahlster zur empathischen KI wurde genau dieser Perspektivwechsel eingefordert: weg von Technikromantik, hin zu Interaktion als Produktivitätsfaktor. Empathische KI soll nicht den Menschen ersetzen, sondern Systeme kontextsensitiver, verständlicher und hilfreicher machen – „weniger Reibung, mehr Passung“, wie es in der schriftlichen Fassung heißt.

Wahlster unterscheidet vier Dimensionen von Intelligenz – kognitiv, sensorphysisch, emotional, sozial – und markiert den historischen Rückstand nicht beim Rechnen, sondern beim Verstehen von Stimmungen und sozialen Situationen. Daraus folgt ein nüchternes Pflichtenheft: Emotionen erkennen, Verhalten adaptieren, Reaktionen multimodal ausdrücken – über Sprache hinaus auch über Mimik und Gestik.

Der entscheidende Punkt für Bildung und Lernen steckt allerdings nicht im Wort „Empathie“, sondern in der Konsequenz: Wenn Systeme individuell fördern sollen, müssen sie in der Lage sein, Lernende als dynamisches Modell zu führen – nicht als Zielgruppe. Genau hier trifft die alte Forschung auf die neue Agentenwelt.

Das unscheinbare Herzstück: Das Benutzermodell

In einem klassischen Text zur Benutzermodellierung wird das Prinzip so beschrieben: Eine User-Modeling-Komponente konstruiert schrittweise ein Nutzermodell, speichert, aktualisiert, löscht Einträge, hält Konsistenz und versorgt andere Systemteile mit Annahmen über den Nutzer. Für Lernkontexte ist diese Idee noch präziser: Intelligente tutorielle Systeme nutzen ein „Student Model“, das die jeweilige Verständnislage abbildet – also nicht nur beantwortet, sondern diagnostiziert.

Was heute „KI-Agent“ heißt, ist in dieser Logik die nächste Evolutionsstufe: nicht nur ein Dialogsystem mit gutem Text, sondern ein Akteur, der Ziele verfolgt, Aufgabenketten ausführt, Lernpfade organisiert, Übungssituationen erzeugt, Feedback in Echtzeit gibt – und dabei kontinuierlich das Modell des Lernenden fortschreibt. Hyperpersonalisierung ist dann kein Marketingwort, sondern Betriebsmodus: ein Tutor pro Kopf, skalierbar.

Die Bedenkenträger haben recht – und doch nicht

Natürlich ist die Angst vor Agenten nicht aus der Luft gegriffen. Wenn ein System „das Studium durchklickt“, wird die klassische Hausarbeit als Leistungsnachweis fragwürdig; genau das wird im Diskurs um „Einstein“ offen ausgesprochen: Fleißnachweise verlieren ihren Wert, wenn der Nachweis automatisierbar wird – der Lernweg wäre damit noch nicht widerlegt, aber die Messung schon. Ebenso real sind Risiken wie Datenmissbrauch (weil Agenten Zugangsdaten brauchen), neue Asymmetrien (wer den besten Agenten hat, gewinnt) und die schleichende Entkernung von Kompetenz durch „Cognitive Offloading“.

Aber die falsche Schlussfolgerung wäre, daraus ein Verbotsprogramm zu stricken – als ließe sich Agentic AI in einer offenen Tool-Ökonomie aufhalten. Im „Einstein“-Text auf LinkedIn wird das als Katz-und-Maus-Spiel beschrieben: Plattformen verbieten Agenten und bauen Gegenmaßnahmen, doch jedes neue Modell-Release verschiebt die Grenze erneut. Der Verbotsimpuls ist nachvollziehbar – nur ist er betriebswirtschaftlich naiv. Er verteidigt Prüf- und Lernprozesse, deren Stabilität längst von der Technik abhängt, die man gerade verteufelt.

Die klügere Replik lautet: Wenn Agenten alles erledigen können, müssen Institutionen und Unternehmen präziser definieren, was sie eigentlich unter Lernen verstehen – und wie sie Können überprüfen wollen. Das ist unbequem, aber überfällig.

Die Zukunft des Lernens: Agenten, aber als Tutor – nicht als Ghostwriter

Der Diskurs um „Einstein“ schlägt, fast beiläufig, die beiden härtesten Hebel vor, die übrig bleiben, wenn Inhalte und Standardaufgaben entwertet sind: intrinsische Motivation und persönliche Beziehungen. Echtes Lernen wird zur Entscheidung; wer nur Punkte sammelt, kommt leichter durch. Wer wirklich etwas können will, braucht eine Lernumgebung, die Reibung nicht eliminiert, sondern produktiv macht – und Feedback, das ein Gegenüber bleibt.

Gerade hier kann ein Agent mehr sein als eine Abkürzung. In der Wahlster-Session wird „Losgröße 1“ als Bildungsversprechen formuliert: Tutorielles Lernen müsse stärker auf Einzelpersonen ausgerichtet werden; persuasive Systeme können motivieren und „dranbleiben“, wo Zeit und Ressourcen fehlen. Wahlster Pressearbeit Das ist nicht die Abschaffung des Lernens, sondern seine Industrialisierung in die richtige Richtung: weg von Massencontent, hin zu individueller Förderung, die in großen Klassen, großen Kohorten, großen Unternehmen sonst schlicht nicht leistbar ist.

Hyperpersonalisierung bedeutet dann nicht, dass der Mensch verschwindet. Sie bedeutet, dass der Mensch dort wieder auftauchen kann, wo er unersetzlich ist: bei Urteilskraft, Verantwortung, sozialer Interaktion, Wertefragen. Oder, zugespitzt: Wenn KI das Ausfüllen erledigt, muss Bildung das Denken zurückfordern.

Die Rückkehr des Schalls: Max Raabe & Palast Orchester mit „Hummel streicheln“ in der restaurierten Beethovenhalle

Manchmal braucht ein Gebäude keine neue Bestimmung, sondern nur seine alte Stimme zurück. Die Beethovenhalle, lange eher Legende als Gegenwart, knüpft nach der Restaurierung hörbar an jenen Gründungsoptimismus an, der 1959 in Fachkreisen in akustischer Euphorie kulminierte: ein Konzertsaal als wissenschaftlich geplantes Instrument, jeder Platz „mitten im Schallgeschehen“, dynamische Schwankungen kaum merklich, zugleich geeignet für barocke Linearität wie für romantische Klangmassen. Und tatsächlich: Der Raum wirkt wieder wie ein Klangkörper, der nicht nur „trägt“, sondern formt – als wäre die Architektur selbst ein diskreter Dirigent.

Dass Max Raabe & Palast Orchester nur wenige Monate nach der Wiedereröffnung den Saal im besten Wortsinn „einspielen“, ist mehr als ein glücklicher Kalenderfund. Ihr Stil – Präzision ohne Sprödigkeit, Nostalgie ohne Patina – taugt als Prüfstein für jede Raumakustik: Wo Konsonanten verschmieren, Phrasen ihre Kontur verlieren, Pointen versanden und die feinen dynamischen Abstufungen im Teppich verschwinden, verflüchtigt sich der besondere Reiz dieses Ensembles. Am 3. März jedoch bleibt alles am rechten Platz: klar im Ohr, präsent im Kopf, spürbar bis ins Zwerchfell.

Das Palast Orchester: Präzision als Glanz, Eleganz als Motor

Das Palast Orchester spielt nicht „begleitend“, sondern als gleichberechtigter Erzähler. Die Instrumentation – mit Tenorsaxophon, Bass-Saxophon, Trompete, Vibraphon/Schlagzeug als markanten Farben – ist ein fein abgestimmtes Kabinett von Charakterstimmen. Was dabei auffällt: Der Sound ist nicht museal, sondern quicklebendig. Das Vibraphon setzt Glanzpunkte wie Lichtreflexe auf poliertem Holz; das Saxophon zeichnet Linien, die zugleich geschmeidig und ironisch sein können; das Bass-Sax sorgt für jene wohlig-gravitätische Tiefe, die man im Körper spürt, bevor man sie benennt.

Und die Beethovenhalle tut das Entscheidende: Sie hält diese Binnenarchitektur des Orchesters auseinander, ohne sie zu zerlegen. Die Stimmen mischen sich zu einem Ganzen, aber man hört die Fäden. Genau darin liegt die moderne Qualität eines Saals: Transparenz als Komfort, nicht als Seziermesser.

„Hummel streicheln“: Tourneeprogramm als fein gebautes Vexierbild

Der Titel der neuen Tournee, „Hummel streicheln“, klingt nach kindlicher Unmöglichkeit – und ist doch eine treffende Chiffre. Denn Raabes Kunst ist genau das: die sanfte Berührung des potenziell Stechenden. Seine Lieder und Moderationen bewegen sich in einem Spannungsfeld aus Anmut und Abgrund, aus Salon und Alltag, aus sehr gepflegter Oberfläche und sehr menschlichen Rissen darunter.

Im Programm blitzen immer wieder Komponisten- und Texterwelten auf, die das 20. Jahrhundert mit seinen Stilen und Brüchen wie durch ein Opernglas zeigen: Namen aus dem Kosmos des Chansons und des deutschen Unterhaltungstheaters – Jurmann und Rotter, Kreuder, Stolz, Heymann – werden nicht als Zitatenschatz vorgeführt, sondern als lebendige Sprache, die heute noch trifft. Dass dabei auch amerikanische Songwriter-Traditionen und jüdische Theatermusik anklingen, gehört zur stillen Modernität dieses Abends: Das Palast Orchester führt das „Damals“ nicht als Insel vor, sondern als Netz.

Max Raabe: Der Sprachwitz als zweite Melodie

Raabe singt, als hätte er die deutsche Sprache nicht nur gelernt, sondern domestiziert – und dennoch bleibt sie bei ihm ein wildes Tier, das jederzeit in die Pointe springen kann. Seine Diktion ist kristallin, nie pedantisch; sein Bariton trägt jene berühmte Mischung aus Wärme und Distanz, die Intimität herstellt, ohne sich anzubiedern. Vor allem aber: Bei Raabe sitzt der Witz nicht obenauf wie Dekor, sondern im Kern der Musik.

Das zeigt sich besonders in den Moderationen, die im besten Sinne feuilletonistisch sind: kleine Denkstücke, die sich als Plauderei tarnen. Da wird das Adressbuch – „ein nicht-digitales Medium“, ohne Akku, aufklappbar, alphabetisch geordnet – zur kulturhistorischen Miniatur über eine Welt, in der man für einen Kontakt „unter Umständen weit hinging“. Und dann der elegante Schlenker in die Gegenwart: Soziale Netzwerke helfen beim Vernetzen – „da muss man aufpassen, dass man nicht zu weit geht“.
Es ist diese Art Humor, die nicht „über“ etwas lacht, sondern etwas sichtbar macht: menschliche Unruhe, moderne Grenzlosigkeit, das leise Unbehagen im Komfort.

Liederhumor mit Tiefenschärfe: Vom Huhn bis Newton

Raabes Pointen sind oft kleine philosophische Stolpersteine. Wenn er das Huhn als Ergebnis der Evolution vorführt – als Nachfolger des Tyrannosaurus rex – ist das zunächst Kabarett im naturkundlichen Kostüm. Aber der Gedanke kippt schnell ins Existenzielle: Was wäre, wenn das Huhn „zurückmontierte“? Wie sähe Koexistenz aus, wenn die Gegenwart plötzlich wieder Zähne bekäme?
Solche Einfälle sind keine Gags um des Gags willen, sondern Bilder für unsere Zeit: freundlich anmutend, doch jederzeit von Rückfällen bedroht.

Ähnlich treffsicher ist der Blick auf Beziehungen, Erinnerungen, Abschiede. Früher zerknüllte man Fotos; heute sitzt man mit dem Mobiltelefon in der Ecke und löscht Selfies – ein moderner Akt der Trennung, der zugleich radikal und unerquicklich banal ist. Und wenn schließlich Newtons erstes Gesetz bemüht wird – ein Körper beharrt im Zustand der Ruhe, sofern keine Kraft einwirkt –, dann wirkt das in Raabes Universum wie ein moralischer Spiegel: Wie viel in unserem Leben bleibt liegen, weil es bequem ist? Wie viel Bewegung braucht es, damit überhaupt etwas beginnt?

Die Beethovenhalle als heimlicher Solist

In all dem ist die Halle nicht Kulisse, sondern Partner. Ein Raum kann Musik groß machen, indem er sie vergrößert – oder indem er sie verständlich macht. Hier geschieht Letzteres: Die Stimmen des Orchesters behalten Kontur, Raabes Sprache bleibt bis in Nuancen hinein präsent, und die Dynamik wirkt, als würde sie nicht „verstärkt“, sondern natürlich atmen.

Gerade bei einem Programm, das zwischen Lied, Moderation, Miniatur und orchestraler Pointe wechselt, ist das entscheidend. Die Beethovenhalle zeigt sich als Saal, der Übergänge liebt: vom gesprochenen Wort ins musikalische Nachspiel, vom feinen Witz in den elegischen Schatten, vom leisen Schlussakkord in den Applaus. So entsteht jene seltene Einheit von Raum und Aufführung, in der man nicht nur hört, dass ein Haus renoviert wurde, sondern warum.

Coda: Eine Tournee, die das Leichte ernst nimmt

„Hummel streicheln“ ist kein nostalgischer Ausflug, sondern eine kunstvoll gebaute Gegenwartsbeobachtung im Spiegel vergangener Formen. Max Raabe beherrscht das Paradox, mit größter Höflichkeit sehr präzise zu sein. Das Palast Orchester macht aus Stil keine Pose, sondern Klangarbeit. Und die Beethovenhalle – dieser wiedererweckte Klangkörper – knüpft nahtlos an die euphorischen Reaktionen der Fachleute im Eröffnungsjahr 1959 an, nicht als Zitat, sondern als Gegenwartserfahrung: Man sitzt im Saal und hat das Gefühl, die Musik sei nicht einfach „da vorne“, sondern um einen herum in Bewegung.

Ein Abend also, der beweist, dass Eleganz nicht Flucht ist, sondern Konzentration. Und dass Humor in der Musik nicht die kleine Schwester des Ernstes sein muss – sondern seine klügste Verkleidung.

Die nächsten Konzerttermine findet Ihr hier.

Kleine Anmerkung: Jemand aus dem Management von Max Raabe gab uns fünf Minuten vor dem Beginn des Konzerts seine Ehrenkarten – wir saßen eigentlich sehr, sehr weit hinten. Dann saßen wir sehr, sehr weit vorne in der fünften Reihe. Das war ein glücklicher Zufall.

Wer KI nur für Texte nutzt, wird Plattform-Zulieferer

Am Beispiel DuMont zeigt sich: Wer KI nur als Textmaschine nutzt, bleibt Zulieferer. Wer KI als Operating Model baut, gewinnt Tempo, Relevanz – und Marge.

Die Medienbranche hat sich jahrelang an einer beruhigenden Idee festgehalten: Wenn die Inhalte stimmen, wird es schon irgendwie funktionieren. Nur leider hat sich das Spielfeld verändert. Auflagen sinken, Werbung ist volatil, Plattformen setzen Preise und Regeln. Und das Härteste: Inhalte sind nicht mehr knapp. Aufmerksamkeit ist knapp. Daten sind knapp. Direkte Kundenbeziehung ist knapp.

In so einem Markt entscheidet nicht die nächste „Content-Offensive“. Entscheidend ist, wer schneller lernt, präziser ausspielt, besser bindet – und daraus skalierbar Geschäft macht. Genau deshalb ist KI kein Add-on für die Redaktion. KI ist ein Umbau der Wertschöpfung.

Und wer diesen Umbau ernst nimmt, landet automatisch bei einer unbequemen These:

Medien werden zur Oberfläche. Wert entsteht im System dahinter.

DuMont als Blaupause: 400 Jahre alt – und plötzlich AI Company

DuMont ist eines der ältesten Familienunternehmen Deutschlands – und wirkt gerade deshalb wie ein Gegenbeweis zur Ausrede „Wir sind zu historisch, zu träge, zu traditionell“. Das Unternehmen hat sich radikal neu erfunden: vom klassischen Verlag zur wachsenden Gruppe von Medien- und Technologieunternehmen.

Wichtig ist nicht das Narrativ, sondern die Struktur dahinter:

DuMont agiert in drei Bereichen: Regionalmedien, B2B-Informationen und Marketing Technology.

Mehr als 75% des Ergebnisses stammen bereits aus digitalen Geschäften.

Zielbild: Bis Ende 2026 sollen 50% aller Prozesse KI-gestützt sein.

Das ist nicht „Digitalisierung“. Das ist ein neues Betriebssystem.

Warum viele KI-Projekte in Medien scheitern – obwohl sie „funktionieren“

In vielen Häusern startet KI dort, wo sie sofort Eindruck macht: Texte zusammenfassen, Headlines variieren, Bilder generieren. Das ist nützlich – aber oft bleibt es kosmetisch. Denn der Engpass liegt nicht im Output. Der Engpass liegt in der Organisation:

Wo kommen Daten her – und sind sie sauber genug?

Welche Workflows werden wirklich end-to-end automatisiert?

Wer entscheidet, welche KI-Lösungen skalieren – und welche Spielzeug bleiben?

Wie verändert sich Qualitätssicherung, Verantwortung, Governance?

Und vor allem: Was wird dadurch besser messbar monetarisierbar?

Wenn KI nur die Content-Produktion beschleunigt, erhöht sie im Zweifel nur das Rauschen. Wenn KI aber Bindung, Conversion, Relevanz und Geschwindigkeit verbessert, wird sie zum Business-Hebel.

Der Kern der DuMont-Logik: KI übernimmt Routine – Menschen bauen Vorteil

DuMont formuliert die KI-Rolle nicht als „Ersatz“, sondern als Reallokation: KI übernimmt Routineaufgaben, Mitarbeitende konzentrieren sich auf das, was echten Wettbewerbsvorteil schafft: Kundenbeziehungen, Markenführung, Kreativität und neue Nutzererlebnisse.

Das ist ökonomisch sauber gedacht:
Routine ist skalierbar – Differenzierung nicht. Routine lässt sich automatisieren – Differenzierung muss gestaltet werden.

Und genau hier wird KI strategisch: nicht als Content-Maschine, sondern als Operating Model, das Kapazität freisetzt und Wirkung erhöht.

DuMont AIssist + AI Academy: KI wird nicht eingeführt, sondern verankert

Wer KI skalieren will, braucht mehr als Lizenzen. Er braucht Skills, Standards, Governance – und ein System, das Nutzung einfach macht.

DuMont setzt dafür sichtbar auf drei Hebel:

Experimentierformate & AI Academy
(Re-)Skilling von Prompt Engineering bis KI-Ethik. Nicht als E-Learning-Schaufenster, sondern als Kompetenzaufbau, der auf reale Workflows zielt.

Talent Community
Führungskräfte und Talente lernen, KI strategisch zu nutzen – also nicht nur „wie promptet man“, sondern: Wie baut man damit Prozesse, Produkte, Entscheidungen?

„DuMont AIssist“
Ein interner Hub, der zentrale KI-Anwendungen bündelt: Textgenerierung, Datenanalyse, Bildproduktion bis zur Automatisierung ganzer Workflows – nahtlos integriert in die Systeme.

Der Unterschied ist entscheidend:
KI als Tool erzeugt einzelne Effekte.
KI als Plattform intern erzeugt Skalierung.

Doppelstrategie statt KI-Romantik: Kerngeschäft optimieren + AI-First bauen

DuMont fährt einen Doppelansatz, der für die Medienbranche fast schon die einzige realistische Route ist:

Optimierung des Kerngeschäfts (Payday-Pfad)

  • automatisierte Workflows
  • KI-gestützte Vermarktung
  • personalisierte Kundenerlebnisse
  • Abo- und Umsatzprognosen
  • Automatisierung in Finance & HR

Die ersten Effekte sind sichtbar: stärkere Abonnentenbindung, schnelleres Prototyping, höhere Conversion-Rates. Harte ROI-Zahlen fehlen noch – aber Tempo, Präzision und Relevanz steigen. Und das sind in dynamischen Märkten oft die wichtigsten Frühindikatoren.

Aufbau neuer AI-First-Plattformen (Moonshot-Pfad)

Hier wird es richtig spannend: mit Entirely entsteht ein offenes Ökosystem, das führende Marketing-Technologien vernetzt und Unternehmen ein integriertes System für individuelle Marketing-Anforderungen bietet – KI ist dabei von Beginn an der Kern.

Das ist der Schritt raus aus der reinen Medienlogik rein in Plattformlogik:
Netzwerkeffekte, Integrationen, Datenprodukte, wiederkehrende Erlöse. Genau dort entstehen in vielen Branchen die neuen Gravitationszentren – und genau dort wird entschieden, wer später die Marge kontrolliert.

Top & Flop: Die wertvollste KI-Lektion ist erstaunlich unsexy

DuMont benennt zwei Learnings, die man sich als Poster in jedes KI-Lab hängen sollte:

Top: KI-Funktionen in marktfähigen Produkten – nicht nur in internen Demos.
Flop: zu komplexe AI-Workflows – die Erkenntnis: Einfachheit schlägt Over-Engineering.

Das ist kein Detail. Das ist der Skalierungshebel.

Denn Komplexität ist in KI-Projekten ein schleichender Killer:
zu viele Abhängigkeiten, zu fragile Datenpfade, zu viel Wartung, zu wenig Adoption. Am Ende hat man „eine Lösung“, aber kein System.

Die eigentliche Hürde heißt Leadership, nicht Technologie

COO Oliver Eckert spricht von „Transzendenz“: dem bewussten Überschreiten gewohnter Grenzen. Das trifft einen Nerv, weil KI nicht nur Prozesse verändert, sondern Identität:

Was ist „Qualität“, wenn KI mitproduziert?

Wie sieht Verantwortung aus, wenn Entscheidungen datengetrieben sind?

Welche Rolle hat Führung, wenn Teams iterativer arbeiten müssen?

Wie führt man KI – wie einen „Kollegen“, der zuverlässig ist, aber nicht unfehlbar?

Die Transformation zur AI Company ist deshalb vor allem eine kulturelle Herausforderung. Wer hier halbherzig bleibt, bekommt genau das, was man überall sieht: Pilotprojekte ohne Durchschlag, Tools ohne Adoption, Effizienz ohne Wachstum.

KI belohnt Klarheit:
über Ziele, Prozesse, Verantwortlichkeiten, Produkte – und darüber, wo Differenzierung wirklich entsteht.

KI entscheidet, ob Medienhäuser gestalten – oder beliefert werden

Die Debatte ist vorbei, ob KI „kommt“. Sie ist da. Die offene Frage ist nur: Wird KI in Medienhäusern ein Feature – oder ein Fundament?

DuMont zeigt, wie ein 400 Jahre altes Unternehmen den Shift zur AI Company angeht:
diversifiziert, daten- und technologiegetrieben, prozessual verankert, kulturell begleitet – und mit dem Mut, neben Effizienz auch neue AI-First-Plattformen aufzubauen.


Hinweis: Leadership Forum Convidera am 24. März in Köln

Wer das Thema praktisch diskutieren will: Am 24. März findet in Köln das Leadership Forum von Convidera statt – mit u.a.:

  • Oliver Eckert, COO DuMont
  • Jonas Rashedi, CDO Falke
  • Bernhardt Lüddecke, Director Validation Global Kautex
  • Daniel Jungbluth, CTO Scheidt & Bachmann

Siehe auch:

Fünf Weisen, null Orientierung: Wie ein Spitzengremium seine Autorität verspielt @MonikaSchnitzer @umalmend @AchimTruger @MartinWerding @GFelbermayr @GrimmVeronika

Wenn ein beratendes Expertengremium in der Öffentlichkeit mit „großer Verwunderung“ und „allergrößtem Bedauern“ auf eine Personalentscheidung reagiert, ist das schon bemerkenswert genug. Wenn sich dann eines der verbleibenden Mitglieder öffentlich davon distanziert – „Ich habe dem Statement nicht zugestimmt“ – ist es kein Betriebsunfall mehr, sondern ein Symptom.

Denn das ist der eigentliche Skandal: Nicht dass das Mandat von Ulrike Malmendier nach dreieinhalb Jahren nicht verlängert wurde (so unerquicklich das für die Qualität der Politikberatung sein mag), sondern wie der Sachverständigenrat sich dabei selbst entblößt. Ein Rat, der nach außen im Kollektivton spricht, intern aber nicht einmal Einigkeit darüber herstellen kann, ob er überhaupt sprechen sollte, hat sein wichtigstes Kapital verspielt: institutionelle Glaubwürdigkeit.

Was ist da los? Drei Ebenen, ein Schadenbild

Der Rat wirkt derzeit nicht wie ein Gremium, sondern wie eine Bühne.
Offiziell sind es inzwischen nur noch vier Mitglieder – Vorsitzende Monika Schnitzer, Veronika Grimm, Achim Truger, Martin Werding.
Und doch kommuniziert der Rat nach außen, als stünde ein geschlossener Fünferblock hinter jeder Formulierung. Genau das hat Grimm zerlegt. Das ist keine Petitesse, sondern ein Governance-Problem: Wer als Institution spricht, muss transparent machen, wer dahintersteht – sonst wird „der Rat“ zur PR-Hülle, die jeder nach Bedarf füllt oder zurückweist.

Die Personalsache ist politisch – und der Rat stolpert in eine Rolle, die er nicht kontrolliert.
Grimm hat formal einen Punkt: Die Besetzung liegt gesetzlich bei der Politik (Berufung durch den Bundespräsidenten auf Vorschlag der Bundesregierung).
Nur: Genau diese politisierte Berufungspraxis ist seit Jahren der Sprengsatz. Wenn Posten wie Tickets zwischen Lagern gehandelt werden, entsteht ein Rat, der parteipolitische Erwartungen „mitliefert“ – und sich dann wundert, dass Personalentscheidungen wie politische Deals aussehen. Der Rat wird so zum Austragungsort von Lagerlogik, nicht zum Korrektiv.

Das Knirschen im Gebälk ist nicht neu – es ist strukturell.
Der offene Konflikt um Nebentätigkeiten und Interessenkonflikte (Stichwort: Siemens-Energy-Aufsichtsrat) hat das Gremium schon 2024 sichtbar zerrissen; damals wurde intern sogar nahegelegt, Grimm solle zurücktreten. Wer seit zwei Jahren mit Compliance- und Vertrauensfragen ringt, hat weniger Bandbreite für das, was Deutschland gerade braucht: klare, empirisch belastbare Orientierung in einer Welt aus Energiepreisschocks, Standortdebatte, Investitionsstau, geoökonomischer Fragmentierung.

Und jetzt Felbermayr? Ja – aber das ist noch kein Neuanfang.

Nach Medienberichten/Reuters-Informationen soll Gabriel Felbermayr Malmendier nachfolgen; die Personalie soll zeitnah im Kabinett aufgerufen werden. Inhaltlich wäre das – gerade mit Blick auf Handel, Zölle, Sanktionen und die neue Geoökonomie – eine echte Kompetenzverstärkung. Nur: Ein brillanter Neuzugang heilt keine Institution, die sich selbst medial zerlegt. Ein neues Gesicht in einem dysfunktionalen Setting wird schnell zum Feigenblatt – oder zum nächsten Konfliktkatalysator.

Die harte Konsequenz: Entweder Reset – oder Bedeutungsverlust

Wenn ein Sachverständigenrat am Ende vor allem eines produziert – Geräusch –, dann wird er zum Selbstbedienungsladen: Regierung pickt sich die Passage, die passt; Opposition pickt sich das Minderheitsvotum; Verbände picken sich die Überschrift. Das Ergebnis ist nicht „mehr Pluralität“, sondern weniger Orientierung.

Darum braucht es jetzt eine unmissverständliche Entscheidung, nicht den nächsten halbherzigen Umbau:

Kommunikationsdisziplin: Keine „Rat“-Statements ohne explizite Nennung der Zustimmenden. Wer nicht zustimmt, wird nicht vereinnahmt.

Harte Compliance-Regeln: Klare Unvereinbarkeitstatbestände und Transparenzstandards, die nicht erst im Streitfall ausgehandelt werden.

Berufung entpolitisieren (so weit möglich): Öffentliche Kriterien, nachvollziehbare Kompetenzprofile, und Schluss mit der Ticket-Logik.

Wenn das politisch nicht durchsetzbar ist: Dann ist der radikale Schritt ehrlicher – kompletter Neustart des Gremiums (inkl. Kulturwechsel), statt weiter Flickwerk zu betreiben.

Denn ein Land mit Deutschlands wirtschaftspolitischem Problemstapel kann sich keine „Wirtschaftsweisen“ leisten, die vor allem eines sind: miteinander beschäftigt.

Nicht totzukriegen: Warum X im Profidiskurs eher stärker wird

Wer über X spricht, landet schnell bei Personenkult: Besitzer, Skandale, Stilfragen. Das ist bequem – und oft unerquicklich. Aber medienpolitisch führt es am Kern vorbei. Entscheidend ist nicht, wer das Licht einschaltet. Entscheidend ist, ob die Leitung noch Strom liefert.

Sie liefert. Und zwar gerade dort, wo Öffentlichkeit hergestellt wird: im Politik- und Wirtschaftsteil, in den Redaktionen, in den Netzwerken der Sachverständigen, Analysten, Verbände, Thinktanks.

Die Media-Tenor-Auswertung für 2025 formuliert das unmissverständlich: „Twitter bleibt die dominierende Social Media-Plattform“ – und die Twitter/X-Zitate sind weiter angestiegen. Dazu passt die zugespitzte Diagnose im Bericht selbst: „Twitter-Zitate nutzen sich nicht ab. Eher im Gegenteil.“

Das ist mehr als ein Statistik-Satz. Es ist ein Hinweis auf eine Funktion.

X ist der Marktplatz der „zitierfähigen“ Öffentlichkeit

Die meisten Plattformen sind heute geschlossene Gärten: schön für Community, schlecht für Öffentlichkeit. Facebook: fragmentiert, privat, gruppenbasiert. Instagram: bildgetrieben, kontextarm. TikTok: aufmerksamkeitsstark, aber schwer zitierbar – und noch schwerer zu verifizieren, wenn Clips aus dem Kontext zirkulieren.

X ist anders: öffentlich-by-default, schnell, textnah, verlinkbar. Das ist altmodisch – und genau deshalb kompatibel mit Journalismus. Eine Redaktion zitiert nicht, was sie nicht sauber greifen kann. X liefert dafür das passende Format: kurze Aussagen, klare Urheberschaft, Time-Stamp, leichtes Embedding, schnelle Gegenrecherche.

Das klingt banal. Es ist aber der Unterschied zwischen „viral“ und „verwertbar“.

X ist ein Frühwarnsystem für Politik und Ökonomie

Seit Trumps erster Wahl hat sich X als politisches Resonanzinstrument verhärtet: nicht nur als Bühne für Aufreger, sondern als Frühindikator, welche Deutungen in Eliten-Netzwerken gerade Fahrt aufnehmen. Der Bericht zeigt: X wird als Quelle in deutschen Leitmedien regelmäßig genutzt – und 2025 eben noch stärker.

Warum hält sich diese Relevanz?

Weil Politik und Wirtschaft nicht warten. Sie reagieren. Und sie brauchen Orte, an denen Reaktionen sichtbar sind, bevor sie in Pressemitteilungen gerinnen. X ist dafür so etwas wie der Ticker: ungefiltert, roh, manchmal schmutzig – aber schnell.

In Fachkreisen sieht man das besonders deutlich: Sachverständigenrat, Ökonomie-Listen, Zentralbank- und Ministeriumsblase, Research-Desks, Journalisten mit Beats. Wer dort postet, bekommt nicht zwingend Applaus – aber oft sachdienliche Repliken: Korrekturen, Links, Datensätze, Gegenargumente. Das ist kein „Social Media“-Smalltalk. Das ist Arbeitskommunikation.

Zitatmacht entsteht aus Anschlussfähigkeit, nicht aus Sympathie

Es gibt eine verbreitete Selbsttäuschung: Man glaubt, Plattformen seien relevant, weil man sie mag. Falsch. Plattformen sind relevant, wenn sie anschlussfähig sind – an Redaktionsroutinen, an Expertennetzwerke, an die Logik der Nachricht.

Media Tenor zeigt parallel: LinkedIn wird häufiger zitiert (2025 rund „gut 100“ Zitate; im Bericht wird der Sprung von 58 auf 107 hervorgehoben) und Table.Media verdoppelt. Das sind klare Signale: Auch andere Kanäle drängen in die Zitier-Sphäre. Aber sie tun es auf niedrigerem Niveau – und eher als Ergänzung. X bleibt der dominante Lieferant.

Das ist der Punkt: X ist nicht alternativlos. Aber es ist weiterhin der Standard, an dem sich Zitierfähigkeit misst.

Video auf X: Reichweite ohne den Community-Käfig

Ein unterschätzter Faktor ist das Format-Mix: X ist textzentriert, ja – aber Video funktioniert dort zunehmend als „Transportmittel“ für Expertise. Wer Clips mit These, Grafik, Befund spielt, bekommt oft eine Reaktion, die bei Facebook & Co. ausbleibt: nicht nur Likes, sondern Weiterverarbeitung. Der Clip wird zitiert, verlinkt, in Newsletter gezogen, in Redaktionschats geschoben.

Warum läuft das dort besser als in Plattformen, die Video „eigentlich“ können?

Weil bei X Video in einem Umfeld landet, das ohnehin auf Information getrimmt ist: Journalist:innen, Analyst:innen, politische Staffer, Wissenschaftler:innen. Das Publikum ist kleiner als „Mainstream Social“. Aber es ist wirkmächtiger. Öffentlichkeit ist nicht Masse. Öffentlichkeit ist Anschluss.

„Musk“ ist der falsche Fokus

Natürlich verändert Eigentum die Plattform: Moderation, Reichweitenlogik, Verifikation, toxische Nebenräume. Das gehört zur Lagebeschreibung. Aber medienpolitisch ist der entscheidende Satz ein anderer:

Solange Leitmedien X zitieren, bleibt X Teil der öffentlichen Infrastruktur.

Und daraus folgen Aufgaben – nicht Empörung:

  • Quellenkompetenz: Redaktionen müssen X wie einen Marktplatz behandeln: nützlich, aber riskant. Verifikation, Kontext, Gegencheck.
  • Pluralität: Institutionen sollten nicht nur auf X senden. Nicht aus Moral, sondern aus Resilienz – Single Point of Failure vermeiden.
  • Archivierung und Nachvollziehbarkeit: Wenn X Zitatquelle ist, muss dokumentiert werden können, was wann gesagt wurde.
  • Transparenz der Plattformlogik: Reichweitenmechanik beeinflusst Diskurse. Wer Medienpolitik ernst meint, diskutiert das als Infrastrukturfrage.

Die nüchterne Bilanz

X ist laut. Oft unerquicklich. Manchmal manipulativ. Aber: Für die professionelle Öffentlichkeit erfüllt es weiterhin eine Funktion, die andere Plattformen nur teilweise bedienen: schnelle, öffentliche, zitierfähige Kommunikation – besonders im Politik- und Wirtschaftskontext.

Die Datenlage aus 2025 stützt diese Beobachtung: X bleibt dominierende zitierte Plattform, LinkedIn holt auf, alternative Portale wachsen – aber X wächst mit. Die Zitatnutzung nutzt sich nicht ab. Sie verhärtet sich zur Routine.

Das ist die eigentliche Pointe: Wer X heute nur als Kulturkampf-Arena beschreibt, unterschlägt seine Rolle als Arbeitsmittel. Und wer seine Rolle als Arbeitsmittel unterschlägt, versteht nicht, wie moderne Öffentlichkeit tatsächlich gemacht wird.

Beispiele für Videos:

Kommentar: „Nur zum Spaß“ ist keine Unschuld – es ist ein Marktsignal

Mich stört an der ganzen Debatte eine Geisteshaltung, die im Netz seit Jahren als Tugend verkauft wird: „Wir machen das einfach nur aus Spaß.“ Als sei „Spaß“ ein ethischer Freifahrtschein. Als sei Publizieren ein Hobby wie Modelleisenbahn – nur dass hier nicht kleine Züge kreisen, sondern Aufmerksamkeit, Reichweite, Deutungshoheit und am Ende auch politische Wirklichkeit.

war mal ein kommerzielles Projekt. Und selbst wenn es heute als wöchentliches Videoformat „nur zum Spaß“ läuft: Genau darin liegt das Problem. Denn in einer Aufmerksamkeitsökonomie ist „Spaß“ keine Privatangelegenheit, sondern eine Marktintervention. Wer regelmäßig publiziert – journalistisch, politisch, meinungsbildend –, der besetzt Slots: in Feeds, in Köpfen, in Debatten. Das ist nicht neutral. Und es ist auch nicht kostenlos, nur weil niemand eine Rechnung schreibt.

Was viele Pro-bono-Aktivisten verdrängen: Sie stehen in Konkurrenz zu denen, die Publizieren beruflich machen. Nicht aus Bosheit, sondern strukturell. Wenn ein Format wöchentlich Content liefert – sauber produziert, kontinuierlich, kostenlos –, dann ist das für das Publikum erst einmal bequem. Aber es ist auch ein Preissignal: „Gute Inhalte gibt es umsonst.“ Und jedes Mal, wenn dieses Signal verstärkt wird, wird es für professionelle Publizistik schwerer, Preise durchzusetzen – ob über Abos, Sponsoring oder Werbung.

Das ist kein theoretisches Problem, sondern ein altes Muster. Ich kenne das seit 1998. Damals habe ich ein Online-Magazin gegründet, angeregt durch Spiegel Online. Das war die Zeit, in der man überhaupt erst lernen musste, was digitale Publizistik bedeutet – redaktionell, technisch, wirtschaftlich. Später kamen Blogs (2006/2007), Twitter, Facebook, dann Google+ mit Hangouts on Air – und immer wieder dieselbe Welle: Enthusiasmus, Kostenlos-Kultur, „Wir machen das aus Leidenschaft“, und am Ende bleiben die, die davon leben müssen, im Preisdruck stecken.

Man kann das romantisieren: „Demokratisierung der Öffentlichkeit.“
Man kann es aber auch nüchtern sehen: De-Professionalisierung durch Umsonst-Konkurrenz.

Natürlich: Nicht jeder Hobby-Publisher „kannibalisiert“ automatisch jemanden. Aber sobald ein Format regelmäßig, meinungsstark und reichweitenorientiert in denselben Themenfeldern sendet, in denen andere versuchen, ihre Arbeit zu finanzieren, ist die Frage legitim: Unterlaufe ich mit meinem Gratis-Angebot gerade berufliche Arbeit? Und wenn ja – welche Verantwortung folgt daraus?

Denn „Spaß“ ist keine Kategorie, die die Folgen aufhebt. Im Gegenteil: Das „nur zum Spaß“ tarnt oft, dass man faktisch journalistische Funktionen übernimmt: kuratieren, einordnen, Deutung anbieten, Skandalisierung, Mobilisierung. Das sind Machtfunktionen – und Macht ohne professionelle Standards und ohne wirtschaftliche Verantwortung ist ein schiefes Konstrukt.

Was mich daran zunehmend nervt: Diese Umsonst-Mentalität wird moralisch aufgeladen. Wer Geld verlangt, gilt schnell als „kommerziell“ im abwertenden Sinn. Wer es umsonst macht, gilt als „idealistisch“. Dabei ist es häufig genau andersherum: Idealistisch ist, Strukturen zu schaffen, die kritische Publizistik dauerhaft tragfähig machen. Zynisch ist, das System mit Gratis-Content zu fluten und dann überrascht zu sein, dass Redaktionen ausbluten, Honorare sinken und investigative Arbeit kaum noch finanzierbar ist.

Wir sollten daher weniger darüber reden, wie man mit noch einem kostenlosen Format „die Debatte verbessert“, und mehr darüber, wie man kritische Publizistik finanzierbar und professionalisierbar macht – mit oder ohne Sponsoren. Denn sonst gewinnen zwangsläufig diejenigen, die andere Geschäftsmodelle haben: Plattformen, die über Werbung monetarisieren; Akteure mit politischen Geldquellen; Personenmarken, die über Nebeneinnahmen leben (Beratung, Vorträge, Mandate). Und wer bleibt dann übrig? Nicht die unabhängige, kritische Publizistik – sondern eine Mischung aus Aktivismus, Entertainment und Plattformlogik.

Wenn wir wollen, dass es ernsthafte, kritische Stimmen gibt, die nicht nur senden, wenn die Laune gut ist, dann brauchen wir Professionalität. Und Professionalität braucht Einnahmen. Alles andere ist ein Wunschkonzert, das am Ende genau jene zerstört, die es eigentlich bräuchte.

Darum mein Punkt – zugespitzt: „Nur zum Spaß“ ist in der digitalen Öffentlichkeit kein Unschuldsargument, sondern oft ein Beitrag zur Preiserosion. Und diese Preiserosion macht uns kaputt. Sie macht die Preise kaputt, sie macht Standards kaputt, sie macht das Berufsfeld kaputt.

Wer publiziert, sollte sich entscheiden: Will ich Hobby sein – oder Teil einer professionellen Öffentlichkeit? Beides zugleich geht eine Zeit lang, ja. Aber strukturell zahlt irgendwer den Preis. Und meistens sind es die, die ohnehin schon am Limit arbeiten.

Anonymität ist kein Freibrief – Klarnamenpflicht aber auch kein Heilmittel

Stefan Pfeiffer argumentiert in einem Blogbeitrag überzeugend gegen den reflexhaften Ruf nach einer Klarnamenpflicht: Wer Pseudonymität pauschal abschafft, trifft sehr oft diejenigen, die sie als Schutz brauchen – Whistleblower, Minderheiten, Menschen in Abhängigkeitsverhältnissen. Der „chilling effect“ ist real: Schon die Drohung, identifizierbar zu werden, kann reichen, um legitime Rede zu unterlassen. Genau deshalb ist es rechtspolitisch nicht trivial, den Namen zur Eintrittskarte in die digitale Öffentlichkeit zu machen. Zum Spannungsverhältnis Anonymität/Meinungsfreiheit siehe etwa die Übersicht des Wissenschaftlichen Dienstes des Bundestags.

Trotzdem bleibt mir in der Debatte oft ein blinder Fleck: Auch Anonymität hat Schattenseiten – und zwar nicht nur abstrakt, sondern konkret für diejenigen, die heute besonders häufig Ziel digitaler Aggression sind: Politikerinnen und Politiker (bis hinein in Drohungen gegen Familien), queere Menschen, Aktivisten, Journalisten. Wer schon einmal gesehen hat, wie schnell aus „Kommentar“ eine koordinierte Kampagne wird, weiß: Anonymität senkt die Eintrittskosten für Angriff und Masse. Sie ist Schutzschild – und sie ist Werkzeug.

Der Fehler liegt im Entweder-oder

Die öffentliche Diskussion tut oft so, als gäbe es nur zwei Zustände:

Klarnamenpflicht (staatlich oder über Plattform-AGB)

Anonymität ohne jede Verantwortung

Beides ist problematisch. Das praktikable Prinzip heißt pseudonyme Öffentlichkeit bei zugleich rechtsstaatlicher Nachverfolgbarkeit im Einzelfall: öffentlich kein Zwang zur Selbstentblößung – aber bei Straftaten eine belastbare Spur, die unter Richtervorbehalt geöffnet werden kann. Genau diese Differenz – öffentlich pseudonym, im Innenverhältnis identifizierbar – ist viel näher an liberaler Ordnungspolitik als der große Holzhammer „Klarnamen für alle“.

Dass Plattformen nicht ohne Weiteres per AGB eine generelle Klarnamenpflicht durchdrücken dürfen, hat der BGH (jedenfalls für die damalige Rechtslage/Altfälle) deutlich gemacht.

Der paternalistische Reflex ist das eigentliche Grundproblem

Was mich an der gegenwärtigen Gemengelage (links wie rechts) irritiert, ist weniger der einzelne Vorschlag als die Gesinnung dahinter: Pflichten, Vorschriften, Ermahnungen als Ersatz für politische Gestaltung. Heute Klarnamen, morgen Upload-Filter, übermorgen „Nutzt doch bitte die richtigen Plattformen“ – am besten gleich eine öffentlich-rechtliche. Es ist ein Denken, das Menschen als zu lenkende Objekte behandelt.

Das steht quer zum Freiheitsideal der Aufklärung: „Sapere aude“ – bediene dich deines eigenen Verstandes. Autonomie ist nicht nur ein Sonntagswort, sie ist eine Zumutung: Der Staat darf nicht in Permanenz versuchen, Charakterbildung durch Normtechnik zu ersetzen.

Und dann noch der gefährliche Nebentrend: Bürgerinnen und Bürger als Hilfspolizei

Ebenso fragwürdig finde ich den moralischen Imperativ „Meldet das!“ als gesellschaftliches Leitmotiv. Natürlich braucht es Hinweise – ohne Opferanzeigen, ohne Zeugenaussagen keine Strafverfolgung. Aber der Ton macht die Musik: Wenn „Melden“ zur Bürgerpflicht stilisiert wird, kippt es kulturell schnell in Denunziantentum und sozial in Misstrauen.

Rechtsstaatlich sauber wäre:

Plattformen müssen wirksame, nachvollziehbare Verfahren haben (Notice-and-Action, Beweissicherung, schnelle Reaktion bei Bedrohungen).

Der Staat muss konsequent verfolgen, mit spezialisierten Einheiten und praxistauglichen Auskunftswegen – von der Staatsanwaltschaft bis zur Polizei.

Bürgerinnen und Bürger sind nicht Blockwarte, sondern – wenn betroffen – Anzeigeerstatter oder Zeugen.

Was folgt daraus – jenseits von Klarnamenpflicht und Naivität?

Wer digitale Gewalt gegen Politikerinnen, Politiker und queere Menschen ernst nimmt, braucht drei Dinge – nicht eine symbolische Identitätspflicht:

Rechtsstaatliche Durchsetzung statt moralischer Appelle
Strafanzeigen müssen schneller zu Ergebnissen führen; Drohungen und Volksverhetzung dürfen nicht im Aktenstau versanden.

Plattformpflichten, die wirken
Nicht „Name drauf“, sondern: Rate-Limits gegen Massenangriffe, Schutzmechanismen gegen Doxxing, bessere Moderationsprozesse, transparente Beschwerdewege, konsequente Sperren bei Wiederholungstätern.

Differenzierte Identitätsmodelle
Pseudonyme für die Öffentlichkeit; optionale Verifizierung für Reichweite/Vertrauensfunktionen; Identitätsöffnung nur bei schweren Fällen und mit rechtsstaatlichen Hürden.

    So schützt man gleichzeitig freie Meinungsäußerung und körperliche wie soziale Sicherheit der Angegriffenen – ohne den liberalen Kern zu opfern.

    Replik zum Beitrag von Stefan:

    Recruiting 2026: Wenn die Jobsuche „conversational“ wird – und HR noch über Sichtbarkeit streitet

    Holger Schmidt (FAZ) schreibt über das amerikanische KI-Paradoxon: Wachstum ohne Jobaufbau, Produktivität rauf, Beschäftigung flach. Man kann daraus eine große Arbeitsmarkt-Dystopie ableiten. Man kann aber auch – und das war für mich der deutlichere Befund der – auf die Stellschraube schauen, die Deutschland sofort trifft: Matching. Nicht als Buzzword, sondern als harte Realität im Recruiting.

    Denn während wir in Deutschland noch über „Fachkräftemangel“ diskutieren, als sei das eine Stimmungslage, zeigt Robindro Ullah (Trendence): Der Arbeitsmarkt ist längst dabei, sein Betriebssystem zu wechseln. Und HR läuft Gefahr, mit dem alten Betriebssystem weiter zu patchen.

    Der Kandidat ist nicht „das Problem“. Der Prozess ist es.

    Ullah kommt nicht mit Bauchgefühl, sondern mit Daten. Trendence erhebt die Zahlen im „HR Monitor“, einer Langzeitstudie mit monatlichen Updates und rund 10.000 Befragten je Iteration; die in der Session verwendeten Daten stammen aus 2024, gefiltert auf Fachkräfte mit technischem Hintergrund.

    Damit stellt er HR eine unangenehme Diagnose: Wir reden gern über „die Zielgruppe“, wenn wir eigentlich über unsere eigenen Reibungsverluste sprechen. Und wir schieben Kandidat:innen gern vor, wenn es darum geht, Innovationen zu blockieren – in seinen Folien steht das ziemlich unmissverständlich: Kandidat:innen würden „gern vorgeschoben“, wenn es ums „Verhindern von technischen Neuerungen“ geht.

    Conversational Job Search: Die Stellensuche verschiebt sich – und zwar schon jetzt

    Der spannendste Punkt der Session ist nicht „KI im Recruiting“ (das ist 2024-Vokabular), sondern „Conversational Job Search“: die Stellensuche als Dialog mit der KI. Ullah formuliert es als Trendwende: „Die Suche nach Stellenangeboten verschiebt sich in Richtung KI“.

    Und dann kommt die Zahl, die man sich als Arbeitgeber an den Monitor kleben sollte: 50 Prozent geben zu Protokoll, passende Stellenangebote via KI zu suchen.

    Das ist keine Zukunftsmusik. Das ist Gegenwart. Und es bedeutet: Wer Recruiting immer noch wie einen Schaukasten denkt („Sichtbarkeit“, „Reichweite“, „SEO“), hat das Spiel nicht verstanden. Ullah setzt den Satz daneben, der wie ein Hieb gegen die HR-Routine wirkt: Während wir über Sichtbarkeit sprechen, übersehen wir den dialogischen Ansatz der LLMs; „die GEO/SEO Diskussion war gestern – wir werden conversational“.

    Wenn Kandidat:innen mit KI suchen, dann wird die Stellenausschreibung nicht nur „gefunden“, sondern interpretiert, gerankt, empfohlen – im Dialog. Damit verschiebt sich die Frage: Nicht „Wie sichtbar sind wir?“, sondern „Wie gut sind wir beschreibbar – für Menschen und Maschinen?“.

    Daten für Führungskräfte: Der härteste KPI ist die Besetzbarkeit

    Ullah macht noch einen zweiten Move, der für Unternehmen Gold wert ist: Er dreht Recruiting aus der HR-Innenperspektive heraus und in Richtung Führungskraft-Dialog. Seine These: Wer Hiring Manager steuern will, braucht ein Datenset, das nicht nur hübsch klingt, sondern die Realität abbildet.

    Dafür nutzt Trendence u.a. den „Recruiting Kompass“ – eine Analyse von 3 Millionen Stellenanzeigen. Daraus leitet Ullah einen Satz ab, der wie ein Management-KPI klingt (und auch so behandelt werden sollte): Wie schwer oder leicht eine Vakanz zu besetzen ist, sei „eine sehr wichtige Information“, gerade für den Dialog mit der Hiring Managerin oder dem Hiring Manager.

    Das ist der Punkt, an dem Recruiting aufhört, „HR-Service“ zu sein, und anfängt, Business-Steuerung zu werden: Wenn ich die Besetzbarkeit kenne, kann ich Prioritäten setzen, Jobdesign diskutieren, Gehaltsbänder plausibilisieren, Qualifizierung anstoßen – oder, ganz banal: endlich begreifen, warum ein „Wunschprofil“ manchmal ein Fantasieprodukt ist.

    Die neue Härte im Markt: Mehr Bewerbungen, weniger Signal

    Das ist die ironische Nebenwirkung der KI-Jobsuche: Sie macht Kandidat:innen schneller und besser – und sie macht Unternehmen selektiv überfordert. Tobias Zimmermann hat es in einer anderen Session sehr plastisch beschrieben: Bewerber nutzen ChatGPT am Smartphone, können passgenauer formulieren und zugleich mehr Bewerbungen rausschicken – „es ist einfach einfacher geworden, gute Bewerbung zu schreiben“.

    Ullahs Befund passt dazu: Wenn die Suche dialogisch wird, steigt nicht nur die Zahl der Kontaktpunkte. Es steigt auch die Erwartung an Prozessqualität – an Geschwindigkeit, Transparenz, Feedback, realistische Kommunikation. Recruiting wird zum Produkt. Und wie bei jedem Produkt gilt: Wenn es ruckelt, geht der Nutzer zur Konkurrenz.

    Wer „conversational“ ignoriert, baut Recruiting für 2016

    Das amerikanische „Jobless Growth“-Narrativ ist faszinierend – aber es lenkt in Deutschland leicht ab. Unser akuter Engpass ist nicht „zu wenig Arbeit“, sondern zu wenig Passung. Und Robindro Ullah zeigt sehr nüchtern: Die Stellensuche dreht sich bereits in Richtung KI-Dialog, die Datengrundlagen liegen auf dem Tisch, die Prozesslogik muss nachziehen.

    Wenn jeder zweite Jobs via KI sucht, dann ist die entscheidende Frage nicht mehr, ob HR Chatbots einführt. Die Frage lautet: Ist die Arbeitgeberstory, der Job, der Prozess so strukturiert, dass er im Dialog überzeugt – bei Menschen und bei Maschinen?

    Wer das nicht ernst nimmt, bekommt keinen „Jobless Boom“. Er bekommt etwas viel Banaleres: unbesetzte Stellen, verschleppte Projekte, und ein Recruiting, das im eigenen Ticketsystem stecken bleibt.

    Siehe auch: