Der Bedarf kommt später: Wie redaktionelle Präsenz B2B-Entscheidungen vorbereitet

Kaufentscheidungen folgen keinem sauberen Trichter

Die große Versuchung des modernen Marketings liegt in der Geometrie seiner Modelle. Funnel, Pipeline, Buyer Journey, Lead Scoring, Account-Based Marketing: Alles wirkt, als ließe sich Nachfrage wie ein industrieller Prozess steuern. Oben wird Aufmerksamkeit eingefüllt, unten fällt der Auftrag heraus. Für operative Steuerung ist diese Sicht nützlich. Als Beschreibung realer Investitionsentscheidungen bleibt sie zu eng.

Komplexe B2B-Entscheidungen entstehen aus Lektüre, Gesprächen, Erfahrungen, Erinnerungen, internen Konflikten, technischen Zwängen, Budgetfenstern, Krisenlagen und externem Druck. Ein Geschäftsführer erinnert sich an ein Interview, das er vor Monaten gelesen hat. Eine Bereichsleiterin bringt ein Messegespräch in eine interne Runde ein. Ein Kämmerer wird durch einen Bericht über Starkregen hellhörig. Ein technischer Leiter merkt erst im laufenden Projekt, dass Sensorik allein nicht reicht, weil Datenmanagement, Cloud-Architektur und kommunale Alarmketten zum eigentlichen Engpass werden. Aus Sicht klassischer Attribution wirkt das unordentlich. Aus Sicht des Managements ist es Realität.

Das Schrotflintenprinzip: viele Spuren, ein klares Muster

Hier setzt das von Sohn@Sohn und ichsagmal.com vertretene Schrotflintenprinzip an. Der Begriff klingt zunächst grob, ist aber als Gegenbegriff zur Scheingenauigkeit vieler Marketingmodelle gemeint. Er bezeichnet keine planlose Beschallung des Marktes, keinen publizistischen Dauerlärm und keine Flucht vor Strategie. Gemeint ist eine redaktionelle Kommunikationspraxis, die viele belastbare Anschlussstellen schafft: Gespräche, Interviews, Livestreams, Fachbeiträge, Kolumnen, Clips, Kommentare, Messeformate, lokale Medien, Branchenöffentlichkeiten, soziale Netzwerke und persönliche Beziehungsräume. Diese Kommunikationsspuren entstehen nicht, weil man angeblich schon weiß, welcher einzelne Kontakt später kaufentscheidend wird. Sie entstehen, weil man genau das nicht wissen kann.

Das Schrotflintenprinzip richtet sich gegen die Illusion perfekter Zielerfassung. Viele Marketing- und Vertriebsmodelle tun so, als könne man den richtigen Entscheider im richtigen Unternehmen zum richtigen Zeitpunkt mit der exakt passenden Botschaft erreichen. Das ist der Traum der totalen Zurechenbarkeit. In realen Märkten entstehen Bedarf, Vertrauen und Erinnerung aber oft auf Umwegen. Ein Gespräch am Konferenzrand, ein Interview im Branchenmedium, ein Clip aus einem Livestream, ein Hinweis eines Kollegen, ein Beitrag in der Lokalpresse oder eine beiläufig gelesene Kolumne können später den entscheidenden Ausschlag geben. Niemand weiß im Voraus, welcher Impuls in welcher Lage relevant wird. Deshalb geht es nicht um blinde Streuung, vielmehr um ein intelligentes Streubild: viele Spuren, ein klarer Absender, wiedererkennbare Themen, lange Abrufbarkeit.

Der Rückschaufehler der Siegergeschichten

Diese Sicht widerspricht der heroischen Erzählung, mit der Managementerfolge im Nachhinein gern ausgestattet werden. Ex post wirkt fast jede erfolgreiche Entscheidung logisch. Dann werden aus Unsicherheit Strategie, aus glücklichen Umständen Weitsicht, aus kontingenten Verläufen Führungsgenie. Der Rückschaufehler verführt dazu, Kausalketten zu konstruieren, die im Moment der Entscheidung niemand in dieser Klarheit sehen konnte. Man sucht nach eindeutigen Beziehungen von Ursache und Wirkung und übersieht, wie viel Glück, Zufall, Timing, Marktbewegung und fremde Vorleistung im Spiel waren.

Daniel Kahnemans Arbeit hat diese Management-Mythologie scharf irritiert. In „Thinking, Fast and Slow“ geht es unter anderem um Überkonfidenz, intuitive Urteile und systematische Denkfehler, die gerade bei Entscheidungen unter Unsicherheit wirksam werden. Erfolgsgeschichten erscheinen im Rückblick geordneter, kausaler und absichtsvoller, als sie im Entscheidungsaugenblick waren.

Ein instruktives Beispiel liefert Google. Larry Page und Sergey Brin waren 1999 bereit, ihre junge Suchmaschine für unter eine Million Dollar an Excite zu verkaufen; nach Darstellung von Vinod Khosla wurde der Preis sogar auf 750.000 Dollar gedrückt, doch Excite lehnte ab. Aus heutiger Sicht wirkt Googles späterer Aufstieg wie die fast zwangsläufige Folge überragender strategischer Klugheit. Die geplatzte Transaktion erinnert daran, wie dünn die Linie zwischen späterem Mythos und frühem Zufall sein kann.

Die Aura der Unbesiegbarkeit, die Wirtschaftsjournalismus und Managementliteratur erfolgreichen Unternehmen oft verleihen, ist daher häufig ein nachträgliches Werk der Fortuna. Wer gewinnt, bekommt eine stringente Biografie. Wer verliert, bekommt eine Fehleranalyse. In beiden Fällen werden Zufall, Timing und kontingente Anschlussbedingungen nachträglich kleingerechnet. Kaum jemand möchte am Flughafen ein Buch kaufen, das nüchtern erklärt, dass die Methoden gefeierter Topmanager im Durchschnitt nur knapp oberhalb der Zufallsrate lagen. Der Markt bevorzugt Heldengeschichten. Management braucht aber bessere Erklärungen.

Die Waschmaschine erklärt mehr über B2B als mancher Funnel

Werbung für Waschmaschinen ist für die meisten Menschen nahezu irrelevant, solange die eigene Maschine läuft. Trommelvolumen, Schleuderzahl, Wasserverbrauch, Energieeffizienzklasse und App-Steuerung spielen im Alltag kaum eine Rolle. Die Botschaft rauscht vorbei, die Kaufabsicht liegt bei null, die Conversion bleibt aus. Dann versagt an einem Samstag die Maschine. Im Keller steht nasse Wäsche, am Montag beginnt die Arbeitswoche, und die abstrakte Produktkategorie wird akut.

In diesem Augenblick verändert sich der Wert früherer Kommunikation. Marken, Testberichte, Händler, Empfehlungen, lokale Anzeigen, Gespräche mit Nachbarn und beiläufig wahrgenommene Botschaften werden zu Suchspuren. Niemand kann den Defektzeitpunkt prognostizieren. Anbieter können nur dafür sorgen, dass sie im Bedarfsmoment erinnerbar, auffindbar, glaubwürdig und vergleichbar sind.

Diese Struktur gilt nicht nur für Konsumgüter. Das LinkedIn B2B Institute verweist mit der 95-5-Regel auf ein hartes Grundproblem des B2B-Marketings: Zu einem gegebenen Zeitpunkt sind die meisten potenziellen Käufer nicht aktiv im Markt. Die zugrunde liegende Forschung mit dem Ehrenberg-Bass Institute zeigt unter anderem, dass 75 Prozent der Unternehmen Computer nur etwa alle vier Jahre kaufen und 80 Prozent Bankdienstleistungen etwa alle fünf Jahre wechseln. Der größte Teil des Marktes ist heute nicht kaufbereit, kann später aber kaufrelevant werden.

Damit verschiebt sich die Aufgabe von Kommunikation. Sie muss nicht jeden Kontakt sofort in einen Abschluss überführen. Sie muss Gedächtnisverknüpfungen aufbauen, Problembegriffe besetzen, Kompetenz zuschreibbar machen und Vertrauen vorfinanzieren. Diese Vorfinanzierung wirkt im Moment der Entscheidung wie eine kognitive Abkürzung: Wer bekannt, plausibel und nützlich erscheint, kommt auf die Liste.

Die Entscheidung liest, hört und spricht mit

In komplexen B2B-Entscheidungen existiert selten der eine Entscheider, der eine Informationskanal und der eine kausale Auslöser. Die Rezeption von Informationen verläuft nicht wie eine gerade Strecke, eher wie ein Geflecht aus Suchbewegungen, Gesprächen, Erinnerungen, internen Abstimmungen und zufälligen Impulsen. Gartner beschreibt diese Realität sehr präzise: Bei komplexen B2B-Beschaffungen verbringen Käufer nur rund 17 Prozent ihrer gesamten Entscheidungszeit mit potenziellen Lieferanten. Werden mehrere Anbieter geprüft, entfallen auf einen einzelnen Vertriebsmitarbeiter oft nur fünf bis sechs Prozent der gesamten Käuferzeit. Der größte Teil der Meinungsbildung findet also außerhalb des direkten Verkäuferkontakts statt: in eigener Recherche, internen Runden, Gesprächen mit Kollegen, Fachmedien, Veranstaltungen, Suchmaschinen, sozialen Netzwerken oder bereits vorhandenen Erinnerungsbildern.

Hinzu kommt die soziale Komplexität der Entscheidung. Gartner spricht bei komplexen B2B-Lösungen von typischerweise sechs bis zehn Entscheidern, die jeweils eigene Informationen sammeln und mit der Gruppe abgleichen müssen. Die technische Leitung bringt andere Kriterien ein als der Einkauf, die Geschäftsführung andere als die IT, die Rechtsabteilung andere als spätere Anwender. Daraus entsteht kein sauberer Marsch durch eine Pipeline, vielmehr ein wiederholtes Durchlaufen verschiedener Entscheidungsaufgaben: Problem bestimmen, Lösungen prüfen, Anforderungen bilden, Anbieter auswählen, Entscheidung validieren, Konsens schaffen. Gartner beschreibt dieses Muster als „Looping“ über mehrere Kaufaufgaben hinweg.

Forrester zeigt, wie folgenreich diese Komplexität geworden ist. Im Bericht „The State Of Business Buying, 2024“ heißt es, 86 Prozent der B2B-Käufe kämen im Prozess ins Stocken, 81 Prozent der Käufer äußerten Unzufriedenheit mit dem am Ende gewählten Anbieter. Zudem seien im Durchschnitt 13 Personen an einer Kaufentscheidung beteiligt, meist aus mehreren Abteilungen. Das ist kein Randproblem des Vertriebs. Es ist ein Strukturproblem der Entscheidungsbildung.

Der Kollege ist ein Medium (nicht esoterisch gemeint)

Marketing spricht gern über Kanäle. Käufer sprechen mit Menschen. Genau hier liegt der blinde Fleck vieler Lead-Modelle. Ein Gespräch mit einem Kollegen kann wirksamer sein als eine Werbekampagne. Ein Hinweis aus einem Verband kann mehr Vertrauen stiften als eine Retargeting-Anzeige. Ein alter Kontakt kann eine Lösung auf die interne Agenda setzen, ohne je als Touchpoint in einem Dashboard aufzutauchen.

TrustRadius berichtet im „2024 B2B Buying Disconnect Report“, dass 90 Prozent der Käufer Gespräche mit Kolleginnen und Kollegen als hilfreich oder sehr hilfreich bewerteten; Gespräche mit Peers lagen mit 89 Prozent nahezu gleichauf. Käufer suchten in diesen Gesprächen vor allem Bestätigung für den nächsten Schritt, Antworten auf konkrete Anwendungsfragen und Validierung der eigenen Recherche.

Das ist entscheidend für Kommunikationsstrategie. Der Anbieter spricht nicht nur mit dem formalen Entscheider. Er spricht in ein soziales System hinein. Fachartikel, Interviews, Podcasts, Videos, Messebeiträge, regionale Presse, Tageszeitungen, LinkedIn-Beiträge und Branchenformate können in diesem System zirkulieren. Sie werden weitergeleitet, zitiert, erinnert, angezweifelt, empfohlen und in internen Runden neu gerahmt. Der direkte Kontakt ist nur ein kleiner sichtbarer Ausschnitt.

Der Hochwassersensor erkennt den Marktbedarf erst im Projekt

Ein Sensorik-Spezialist wird von einer Gebietskörperschaft mit einer Frühwarninstallation für Hochwasser beauftragt. Am Anfang sieht das Projekt technisch aus: Pegelstände, Messpunkte, robuste Hardware, Energieversorgung, Funkverbindungen, Wartung, Schnittstellen. Im Verlauf verschiebt sich die Aufgabe. Die eigentliche Frage lautet plötzlich: Wie werden Daten so aufbereitet, dass kommunale Entscheider rechtzeitig und belastbar handeln können? Wer sieht wann welche Schwellenwerte? Wie laufen Alarmketten? Welche Cloud-Lösung ist sicher? Welche Dashboards sind für Bauhof, Verwaltungsspitze, Feuerwehr und Krisenstab verständlich? Welche Dokumentation hält einer späteren Prüfung stand?

Der Mittelständler sucht in diesem Augenblick nicht abstrakt nach einem Anbieter im Sinne einer Kampagnenlogik. Er sucht nach einem Partner, der ein neu sichtbar gewordenes Problem lösen kann. Der Impuls kann aus einem Fachbeitrag stammen, aus einem Interview über Smart City, aus einem Gespräch mit einem Bürgermeister, aus einer Reportage über Starkregen, aus einer Podiumsdiskussion, aus einer Empfehlung im Netzwerk oder aus einem Whitepaper über das Internet der Dinge. Der Bedarf war vorher nicht sauber formuliert. Er wurde im Vollzug des Projekts erzeugt.

Das ist Kontingenz in betriebswirtschaftlicher Gestalt. Etwas hätte auch anders laufen können. Genau daraus entsteht Handlungsraum. Rüdiger Bubner fasst die aristotelische Lehre vom Zufall in diesem Sinne: Kontingenz bezeichnet den Raum des Auch-anders-sein-Könnens; Zufall ist die tatsächliche Verwirklichung einer Variante ohne erkennbaren Grund. Genau dieser Raum ist die Voraussetzung für Handeln, weil dort, wo alles festliegt, kein Ort für Entscheidung bleibt.

Relevanz kippt

Viele Kampagnenmodelle behandeln Relevanz, als sei sie eine stabile Eigenschaft. Eine Person ist relevant oder nicht relevant, ein Unternehmen ist Zielkunde oder kein Zielkunde, ein Kontakt ist marketing-qualified oder nicht. In der Praxis kippt Relevanz. Die Waschmaschine fällt aus. Eine Kommune erlebt Starkregen. Ein Förderprogramm öffnet sich. Eine Sicherheitslücke wird öffentlich. Eine Norm ändert sich. Ein Wettbewerber gewinnt einen Auftrag. Ein Budget wird freigegeben. Ein Kollege wechselt die Position. Ein Zeitungsartikel macht ein Problem sichtbar.

Der Zeitpunkt bleibt aus Anbietersicht unsicher. Die Aufgabe lautet daher nicht, jeden Bedarf vorherzusagen. Die Aufgabe lautet, über längere Zeit mit relevanten Problemzusammenhängen verbunden zu bleiben. Wer nur in der heißen Kaufphase kommuniziert, trifft auf Organisationen, die längst mit Vorwissen, Skepsis, Präferenzen und internen Geschichten geladen sind.

McKinsey beschreibt diese Realität auch kanalbezogen. B2B-Kunden nutzen im Durchschnitt zehn Interaktionskanäle entlang ihrer Buying Journey, doppelt so viele wie 2016. Zu den wichtigsten Kontaktpunkten zählen Website, persönlicher Vertrieb, Videokonferenz, E-Mail, mobile Apps, E-Procurement-Portale und Online-Chat. 42 Prozent der Befragten nutzten mehr als elf unterschiedliche Touchpoints.

Die alte Frage „Welches ist das Zielmedium?“ greift deshalb zu kurz. Die bessere Frage lautet: In welchen Resonanzräumen muss ein Unternehmen über längere Zeit auffindbar, zitierfähig und glaubwürdig sein? Fachmedium, Tageszeitung, Anzeigenblatt, Messe, Podcast, Livestream, Newsletter, Verbandsveranstaltung, Buchrezension und Kollegengespräch konkurrieren nicht einfach miteinander. Sie bilden ein Wahrnehmungsgewebe.

Streuung ist kein Zufallsersatz, sie ist Möglichkeitsmanagement

Das Schrotflintenprinzip wird oft als Gegenbild zur Präzision verwendet. Gemeint ist dann: viel Streuung, wenig Zielschärfe, keine Effizienz. Diese Kritik trifft planlose Kampagnen. Sie trifft nicht die strategische Einsicht, dass Märkte unter Kontingenz operieren. Wer nicht weiß, wann Bedarf entsteht, welcher Beteiligte später Einfluss bekommt und welches Gespräch intern den Ausschlag gibt, muss kommunikative Anschlusschancen vermehren.

Heinz von Foersters ethischer Imperativ liefert dafür eine starke Formel: Handle stets so, dass die Anzahl der Möglichkeiten wächst. Für Marketing und Kommunikation heißt das: Kommuniziere so, dass künftige Anschlussmöglichkeiten wachsen. Ein Beitrag muss nicht sofort verkaufen, wenn er ein Problem präziser macht. Ein Interview muss nicht direkt einen Lead erzeugen, wenn es Kompetenz erinnerbar macht. Ein Livestream muss nicht unmittelbar Auftragseingänge auslösen, wenn er Zitate, Clips, Kontakte und Gesprächsanlässe schafft.

Hermann Lübbe beschreibt Spiele als kulturelle Formen des Umgangs mit Zufall. Besonders instruktiv ist seine Beobachtung, dass viele Zufallsspiele nicht nur Gelassenheit verlangen, vielmehr Könnerschaft in der Nutzung von Zufällen als Chancen. Genau darum geht es in Märkten: Nicht jedes Ereignis ist planbar, aber Organisationen können lernen, mit Ereignissen produktiv umzugehen. Kommunikation ist dann die Vorbereitung auf den nicht bekannten Anlass.

Thought Leadership speichert Anschlussfähigkeit

Die absatzwirtschaftliche Relevanz dieser Überlegung zeigt sich besonders beim Thema Thought Leadership. Schwache Thought Leadership ist Selbstdarstellung mit Diagrammen. Gute Thought Leadership hilft Entscheidern, ein Problem anders zu sehen, einen Bedarf früher zu erkennen, Risiken besser zu benennen und interne Gespräche mit belastbaren Argumenten zu führen.

Der Edelman-LinkedIn „B2B Thought Leadership Impact Report“ 2024 basiert auf einer Befragung von fast 3.500 Management-Professionals in sieben Ländern. Der Bericht stellt heraus, dass Thought Leadership über Markenbekanntheit hinaus wirkt, weil sie Entscheider dazu bringen kann, eigene Annahmen zu überprüfen und Anbieter auch gegen Wettbewerbsdruck abzusichern. Zugleich verweist der Bericht auf das Umfeld: 95 Prozent der B2B-Kunden sind zu einem gegebenen Zeitpunkt nicht aktiv auf der Suche, und nahezu 90 Prozent der globalen Käufer gaben an, ihr Kaufprozess sei im Vorjahr länger geworden.

Damit wird redaktionelle Kommunikation zu einer Art Speicher. Sie hält Begriffe, Argumente, Beispiele und Personen verfügbar, bis die Lage sie aktiviert. Ein Fachartikel über kommunales Datenmanagement kann Monate unauffällig existieren. Nach einem Starkregenereignis wird er intern weitergeleitet. Ein Interview über Sensorik und Cloud kann zunächst Nischeninhalt sein. In einer Ausschreibung wird es zum Vertrauenssignal. Eine Reportage im Fernsehen kann eine latente Sorge in eine konkrete Beschaffungsfrage verwandeln.

Nachfrage wird vorbereitet, bevor sie messbar wird

Demand Generation wird häufig mit Kampagnen verwechselt, die Nachfrage einsammeln. Strategisch anspruchsvoller ist das Vorbereiten von Nachfrage. Der Unterschied ist erheblich. Einsammeln funktioniert bei jenen, die bereits suchen. Vorbereiten richtet sich an jene, die noch keinen Auftrag formuliert haben, deren Lage sich aber ändern kann.

Die „2024 Content Preferences Benchmark Survey“ von Demand Gen Report zeigt, wie selbstbestimmt B2B-Käufer heute vorgehen. 89 Prozent der Befragten luden oder konsumierten Inhalte, die sie selbst gefunden hatten. 72 Prozent teilten Inhalte mit relevanten Teammitgliedern. 46 Prozent prüften mehr Inhalte in sozialen Medien. Das ist keine passive Zielgruppe, die auf Kampagnen wartet. Es ist ein recherchierendes, verteiltes, kommunizierendes Entscheidungssystem.

Für Anbieter folgt daraus eine klare Konsequenz: Sie müssen Inhalte produzieren, die gefunden, verstanden, geteilt und intern verwendet werden können. Das verlangt andere Kriterien als reine Lead-Erfassung. Ein guter Beitrag muss suchfähig sein. Er muss ein konkretes Problem benennen. Er muss zitierbare Gedanken enthalten. Er muss anschlussfähig für technische, kaufmännische und organisatorische Rollen sein. Er muss erklären, ohne den Leser sofort in ein Formular zu zwingen.

Permanente Präsenz ist Risikovorsorge

Unternehmen versichern Gebäude gegen Feuer, sichern Daten gegen Ausfall, warten Maschinen vor dem Defekt und bauen Liquiditätspuffer für Krisen. Kommunikation wird dagegen oft erst dann hochgefahren, wenn der Bedarf bereits dringend ist. Das ist betriebswirtschaftlich inkonsequent. Sichtbarkeit ist Risikovorsorge für den Marktmoment, der nicht terminiert werden kann.

Beim Hochwasser wartet niemand mit Sensorik, bis die Straße überflutet ist. Beim B2B-Marketing sollte niemand mit öffentlicher Kompetenz beginnen, wenn die Ausschreibung schon läuft. Dann ist der Wahrnehmungspegel längst gestiegen. Andere Anbieter sind bekannt, andere Begriffe sind gesetzt, andere Referenzen liegen im Gedächtnis.

Sohn@Sohn kann genau hier seinen Ansatz schärfen: Live-Kommunikation, Interviews, redaktionelle Gespräche, Fachdebatten, O-Töne, Clips und dokumentierte Diskurse sind keine Dekoration um das eigentliche Geschäft herum. Sie sind Infrastruktur für spätere Entscheidungen. Sie erzeugen Spuren, die im Bedarfsmoment aufgegriffen werden können. Sie machen Expertise auffindbar. Sie verwandeln Einzelereignisse in wiederverwendbare Kommunikationsbausteine.

Aus Streuverlust wird Möglichkeitsgewinn

Die Leitfrage lautet daher nicht: Wie vermeiden wir jede Streuung? Die Leitfrage lautet: Welche Streuung vergrößert die Chance auf spätere Relevanz? Streuung ohne Profil bleibt Lärm. Streuung mit klarem Thema, wiedererkennbarem Absender, redaktioneller Qualität und langer Verfügbarkeit wird Möglichkeitsgewinn.

Das Schrotflintenprinzip braucht Präzision im Muster. Nicht jeder Schuss ist gut, nur weil er breit streut. Entscheidend ist, welche Themen dauerhaft besetzt werden, welche Probleme verständlich werden, welche Akteure ins Gespräch kommen, welche Formate sich weiterverwenden lassen, welche Inhalte von verschiedenen Rollen im Buying Center genutzt werden können und welche Signale abrufbar bleiben, wenn aus latenter Aufmerksamkeit akuter Bedarf wird.

So verstanden, ist Kommunikation keine Verpackung für fertige Angebote. Sie ist ein Verfahren, um unter unsicheren Bedingungen anschlussfähig zu bleiben. Sie hält Möglichkeiten offen, bis Situationen sie abrufen. Sie akzeptiert, dass Investitionsentscheidungen nicht nur aus Plan, Zielmedium und Lead Score entstehen, vielmehr aus kontingenten Lagen, sozialen Gesprächen, medialen Zuflüssen und plötzlich veränderten Dringlichkeiten.

Foersters Imperativ bekommt damit eine managementtaugliche Übersetzung: Unternehmen sollten so kommunizieren, dass die Zahl ihrer künftigen Anschlussmöglichkeiten wächst. Genau darin liegt die strategische Würde des intelligenten Schrotflintenprinzips. Es feuert nicht blind in den Markt. Es legt Spuren in eine offene Zukunft.

Die falschen Riesen: Sascha Lobo träumt von Big Tech, Hermann Simon denkt tiefer

Bei Maybrit Illner saß die deutsche Digitaldebatte unter grellem Studiolicht und starrte auf das neue Zentralgestirn der Weltwirtschaft: künstliche Intelligenz. Die Frage lautete, ob Deutschland im globalen Machtkampf um KI noch eine Chance habe. Schon die Ausgangslage klang wie eine Vermessung des Rückstands: Die zehn größten amerikanischen Rechenzentren seien zusammen so stark wie alle 2000 deutschen Rechenzentren; 14 Prozent der Deutschen nutzten Glasfaser, in Rumänien seien es 80 Prozent; die digitale Verwaltung Deutschlands rangiere auf Platz 21 von 27 EU-Staaten.

Sascha Lobo gab der Debatte den Satz, auf den sie gewartet hatte: „Nur durch Regulierung werden wir nicht digital souverän. Wir brauchen erfolgreiche Digitalwirtschaft dafür.“ Das ist richtig. Ein Kontinent, der Plattformmacht mit Verordnungen, Abgaben und Zuständigkeitskonferenzen beantwortet, bleibt der Gerichtsschreiber einer Wirklichkeit, die andere erschaffen. Lobo trifft auch dort, wo er die europäische Selbsttäuschung beschreibt: Man habe zu lange geglaubt, weltweite Vernetzung sei folgenlos, Abhängigkeit werde schon nicht gefährlich. Dann kamen Gas, Plattformen, Cloud, KI, Trump, Zölle, Sanktionslisten. Die Abhängigkeit bekam plötzlich ein Gesicht.

Sein zweiter Satz klingt wie die logische Fortsetzung: „Das Wichtigste, um amerikanischen Big Tech-Unternehmen etwas entgegenzusetzen, sind europäische Big Tech-Unternehmen.“ Hier beginnt die Verführung. Denn aus der richtigen Kritik an der europäischen Regulierungsreligion wächst sofort die nächste europäische Erlösungsfigur: der eigene Riese. Der Gegen-Google. Der Gegen-Microsoft. Der Gegen-OpenAI. Die alte Quaero-Sehnsucht in neuem Gewand.

Der Chor der Aufholer

Karsten Wildberger spricht in dieser Sendung wie ein Minister sprechen muss. Er will nicht das Defizit verwalten, er will den Sprung. KI sei neu, Deutschland könne mit den eigenen Fähigkeiten, der Wirtschaft und den Daten ein Stück weit neu beginnen. Dazu öffentliche Ausschreibungen, souveräne Cloud, Verschlüsselung, Wertschöpfungstiefe, Datenstandorte, Abschaltbarkeit. Das ist sachlich nicht verkehrt. Es klingt nach Aktivität, nach Staat als Ankerkunde, nach Aufbruch im Vergaberecht.

Doch genau hier lauert der alte europäische Reflex. Erst wird der Rückstand ausgerufen, dann der historische Sprung, dann das neue Programm. Europa hat diese Dramaturgie schon erlebt. Quaero sollte eine europäische Antwort auf Google werden, eine multilinguale Suchmaschine für Texte, Bilder, Musik und Videos. Geblieben ist ein Lehrstück über politische Größenphantasie im Digitalen. Theseus folgte als deutscher Nachhall. Die Geschichte ist nicht nur peinlich, sie ist strukturbildend: Der Kontinent verwechselt zu oft Namensgebung mit Machtbildung.

Hermann Simon stellt die verbotene Frage

Hermann Simon zerstört diese Euphorie nicht mit Kulturpessimismus, er zerstört sie mit Marktkenntnis. Sein Satz ist von fast unhöflicher Klarheit: „Wir haben keine Chance in den Märkten der Digitalisierung oder der künstlichen Intelligenz gegen die großen Amerikaner oder Chinesen, in den Massenmärkten.“ Dann folgt das Messer nach dem Schnitt: „Keine Chance.“

Das ist keine Absage an KI. Es ist eine Absage an die falsche Arena. Wer von Berlin aus ein digitales Massenmodell über Europa legen will, trifft nicht auf einen Markt, er trifft auf einen Kontinent aus Sprachen, Verfahren, Zertifikaten, Zuständigkeiten und lokalem Recht. Simon erklärt es am Beispiel Uber: drei Jahre in San Francisco testen, anschließend auf amerikanische Großstädte ausrollen. Der europäische Weg führt durch 27 Bürokratien, 24 Amtssprachen und rund 60 regionale Sprachen. Das ist kein kleiner Nachteil. Das ist eine andere Physik.

Lobo will den europäischen Riesen. Simon sucht den europäischen Tiefenkörper. Das ist der entscheidende Unterschied. Lobo blickt auf die sichtbare Macht der Plattformen. Simon blickt auf die verdeckte Macht der Spezialisten.

Deep Tech ist keine Nische, es ist die unterirdische Geologie der Macht

Simon verweist auf Hidden Champions, auf Spezial-Know-how, auf Deep Tech. Er nennt Reinhausen aus Regensburg, einen Namen, der in Talkshows kaum einen Scheinwerfer bekäme. Doch durch den Laststufenregler dieses Unternehmens liefen 50 Prozent des weltweit verbrauchten Stroms. Er nennt Trumpf mit Lasern für extreme Ultraviolett-Lithographie, Zeiss mit optischen Systemen, eine Thüringer Firma, die 42.000 Saatkörner pro Sekunde sortiert. Das sind keine bunten Apps, keine Plattformmythen, keine Gründerlegenden mit Kapuzenpullover. Es sind verborgene Knoten der Weltfunktion.

Hier liegt die bessere Strategie. Nicht Europa als verspätetes Silicon Valley. Nicht Deutschland als Cloud-Nation mit Bundesadler. Nicht der nächste Versuch, dem amerikanischen Konsumentenimperium ein europäisches Wappen aufzukleben. Die realistische Macht entsteht dort, wo Deep Tech mit KI, Sensorik, Software und Daten verschmilzt. Simon beschreibt dafür Business-Ökosysteme: Unternehmen sollen nicht alles selbst entwickeln, sie sollen sich dauerhaft mit denen verbinden, die digitale Werkzeuge beherrschen.

Das ist eine radikalere Idee, als sie zunächst wirkt. Sie verlegt den Ort der Souveränität. Weg vom Bildschirm, hin zum Prozess. Weg vom Nutzerkonto, hin zur Wertschöpfung. Weg vom europäischen Google-Traum, hin zum KI-verstärkten Weltmarktführer, den kaum jemand kennt, auf den aber niemand verzichten kann.

Das Pro und Contra der Lobo-These

Lobos Stärke liegt in der Abrechnung mit der europäischen Ersatzhandlung. Er erkennt, dass Regulierung ohne eigene Unternehmen nur die höfliche Form der Ohnmacht ist. Er sieht die Erpressbarkeit. Er sieht, dass Europa seine klugen Leute verliert, wenn Wissen hier entsteht und Macht anderswo daraus geformt wird. Sein Verweis auf Jakob Uszkoreit gehört genau hierher: europäischer Kopf, amerikanisches Umfeld, globale Wirkung.

Sein Problem liegt in der Größe der geforderten Figur. „Europäische Big Tech-Unternehmen“ klingt wie ein Befreiungswort, kann aber zur nächsten Fata Morgana werden. Denn Big Tech ist nicht einfach groß gewordene Technologie. Big Tech ist Kapitalakkumulation, Plattformeffekt, Datenvorsprung, Ökosystembindung, Rechenmacht, globaler Binnenmarkt, militärnahe Forschung, Börsenbewertung und kulturelle Dominanz. Wer darauf mit dem Ruf nach eigenen Schwergewichten antwortet, hat noch keinen Hebel gefunden. Er hat eine Silhouette beschrieben.

Das Pro und Contra der Simon-These

Simons Stärke liegt in der Entzauberung. Er nimmt Europa nicht die Zukunft, er nimmt ihm den falschen Spiegel. Er sagt nicht: kein KI-Ehrgeiz. Er sagt: kein Rennen in fremder Disziplin. Deutschlands Chance liegt dort, wo Komplexität schützt, wo Fachwissen tief sitzt, wo Kundennähe zählt, wo ein Prozess nicht durch eine App ersetzt wird, wo KI reale Anlagen, Materialien, Energiesysteme, Optiken, Roboter, Prüfverfahren und Produktionslogiken verbessert.

Die Schwäche seiner Sicht wäre nur dann gegeben, wenn man sie als Rückzug missversteht. Deep Tech darf kein Museum deutscher Präzision werden. Der Hidden Champion, der KI nur als Fremdwort im Strategiepapier führt, wird selbst zum Auslaufmodell. Simon verlangt gerade keine Nostalgie. Er verlangt Verbindung: Spezialwissen plus KI, Präzision plus Software, Mittelstand plus Ökosystem, Weltmarktanteil plus digitale Beschleunigung.

Der Chirac-Reflex muss enden

Der Chirac-Reflex besteht darin, digitale Souveränität als Theater der Nachahmung zu inszenieren. Amerika hat Google, Europa ruft Quaero. Amerika hat Cloud, Europa ruft souveräne Cloud. Amerika hat OpenAI, Europa ruft KI-Airbus. Jedes Mal steht am Anfang das große Wort und am Ende die Beschaffungsvorlage. Die in den früheren Texten beschriebene Linie von Quaero über „Cloud Made in Germany“ bis zur heutigen Souveränitätsrhetorik zeigt genau diesen Kreislauf: viel Symbolik, wenig Substanz, zu häufig nationale Eitelkeiten statt skalierbarer Architektur.

Simon bietet den Ausweg aus dieser Wiederholung. Er denkt nicht vom verletzten europäischen Stolz her, er denkt vom Weltmarkt her. Nicht die Kränkung ist sein Ausgangspunkt, sondern die Frage: Wo sind wir unersetzlich? Diese Frage ist härter, kälter und fruchtbarer als jeder Ruf nach europäischen Digitalgiganten.

Der kommende Champion trägt keinen Hoodie

Die europäische KI-Zukunft wird womöglich nicht aussehen wie eine Bühne in San Francisco. Sie wird keinen Gründerkult brauchen, keinen globalen Feed, keine App, die jeder Teenager kennt. Sie könnte in Regensburg, Jena, Ditzingen, Aachen, München, Eindhoven, Grenoble oder Thüringen entstehen. Nicht als Kopie amerikanischer Plattformmacht, sondern als Deep-Tech-Schicht unter der sichtbaren Welt.

Das wäre die erwachsenere Souveränität: nicht die Fahne auf dem Rechenzentrum, nicht das Pathos der Unabhängigkeit, nicht das nächste Quaero mit KI-Etikett. Souverän wäre ein Europa, dessen Spezialisten Maschinen, Netze, Materialien, Energieflüsse, optische Systeme, Robotik, Medizintechnik und Produktionsprozesse mit KI so verbessern, dass selbst die großen Plattformreiche nicht an ihnen vorbeikommen.

Sascha Lobo hat den richtigen Gegner erkannt: die europäische Ohnmacht durch bloße Regulierung. Hermann Simon erkennt den besseren Ort des Gegenschlags. Nicht der Traum vom europäischen Big Tech führt heraus aus der Abhängigkeit. Der Weg führt über Deep Tech, über Hidden Champions, über jene Firmen, die nicht laut sind, weil ihre Macht nicht im Lärm liegt. Ihre Macht liegt darin, dass die Welt stockt, wenn sie fehlen.

Die Mikrofone haben gewonnen, das Gespräch noch lange nicht @JTHADEUSZ

Jörg Thadeusz beginnt in seinem Wort zum Sonntag mit Namen, die schwerer wiegen als manches gegenwärtige Geräusch: Gauß, Kant, Kleist, Ringelnatz, Einstein. Dann folgen Gegenwartsnamen, die nicht in jedem Boulevardgedächtnis aufleuchten, aber in Chemie, Hirnforschung und Astrophysik eine Wirklichkeit erzeugen, die größer ist als Berühmtheit. Schon diese Bewegung verrät viel. Der deutsche Geist, von dem hier die Rede ist, ist kein Besitz, den man stolz vorzeigen könnte wie ein geerbtes Silberbesteck. Er ist eine Zumutung. Er verlangt Konzentration. Er verlangt ein Gegenüber, das mehr kann als nicken, sekundieren, senden.

Das kluge Gespräch beginnt dort, wo der Gesprächige gefährdet ist. Nicht körperlich, nicht sozial, auch nicht durch eine rhetorische Falle, vielmehr durch einen Gedanken, der ihm die Selbstgewissheit aus der Hand nimmt. Thadeusz erinnert an Roger Willemsen, weil an ihm sichtbar wurde, dass Sprechen mehr sein kann als Meinungstransport. Willemsen war kein Moderator im funktionalen Sinn. Er war ein Leser von Menschen. Er horchte auf den Bruch im Satz, auf die Seitentür im Lebenslauf, auf das Unvorhergesehene im scheinbar Erklärten.

Roger Willemsen und die Kunst, sich treffen zu lassen

Willemsens Gespräche hatten eine merkwürdige Doppelbewegung. Sie konnten elegant sein, manchmal überreich, manchmal mit einer fast gefährlichen Lust an Bildung. Zugleich standen sie nicht im Dienst der eigenen Brillanz. Ein Gespräch, das gelingt, macht den Fragenden nicht größer. Es macht ihn durchlässiger. Bei Willemsen bedeutete Intelligenz nicht Abschirmung gegen die Welt, vielmehr Empfänglichkeit für ihre Zumutungen.

Genau darin liegt die Verbindung zu Jürgen Hosemanns Erinnerung an Willemsen. Der Lektor spricht von einem Autor, der Literatur nicht als hübsches Beiwerk verstand, auch nicht als gehobene Freizeitbeschäftigung. Literatur war für Willemsen eine menschliche Angelegenheit im stärksten Sinn: von Menschen gemacht, an Menschen gerichtet, mit Menschen befasst. Hosemann beschreibt ihn als Denker, der zugleich ein Schwärmer war, als einen Überwältigten, der das Intellektuelle mit Gefühl, Weltlust und Verletzlichkeit verbinden konnte.

Dieser Hinweis ist wichtig, weil er das Gespräch aus der bloßen Technik löst. Kluge Gespräche entstehen nicht in erster Linie durch Länge, Tonqualität, Studioästhetik oder Entspannung im Sessel. Sie entstehen, wenn ein Mensch bereit ist, die eigene Form zu riskieren. Wer fragt, muss wissen. Wer zuhört, muss prüfen. Wer widerspricht, muss treffen, ohne zu vernichten. Das ist eine viel ältere Kunst als der Podcast und zugleich die Kunst, die der Podcast jetzt am dringendsten braucht.

Die neue Kanzel steht im Wohnzimmer

Das Podcast-Zeitalter und das Livestreaming haben die alte Rundfunkordnung entzaubert. Was früher Frequenz, Redaktion, Sendeplatz und Apparat verlangte, braucht heute nur passable Mikrofone, Kopfhörer (in der Regel völlig überflüssig, wenn man sich gegenübersitzt), Plattformen und eine halbwegs stabile Internetverbindung. Das ist ein Freiheitsgewinn. Es hat Stimmen hörbar gemacht, die im alten System nie eingeladen worden wären. Es hat Gesprächsdauer zurückgebracht in eine Medienwelt, die lange von Unterbrechung, Verkürzung und Reflex beherrscht wurde.

Doch jede neue Freiheit bringt ihre eigene Verwahrlosungsgefahr mit. Der Podcast sieht harmlos aus. Zwei Menschen sitzen einander gegenüber, die Gläser stehen bereit, das Licht ist weich, die Sessel wirken teuer, das Gespräch darf fließen. Schon diese Inszenierung erzeugt Vertrauen, bevor irgendetwas verdient wurde. Aus Nähe wird Glaubwürdigkeit. Aus Dauer wird Tiefe. Aus Widerspruchslosigkeit wird Großzügigkeit. So entsteht die gefährlichste Form moderner Publizistik: das Gespräch als Waschgang.

Thadeusz zielt auf genau diesen Punkt, wenn er über die Einladung Björn Höckes in ein Podcast-Format spricht. Das Problem liegt nicht darin, mit einem radikalen politischen Akteur zu sprechen. Das Problem beginnt, wenn der Gastgeber Unkenntnis als Offenheit ausgibt. Wer Höcke begegnet, begegnet keinem Rätsel. Man muss keine Tür in eine unbekannte Welt öffnen lassen, wo Reden, Texte, Parolen und Urteile längst vorliegen. Wer dennoch so tut, als beginne alles erst mit dem freundlichen Gespräch, verschiebt die Last. Nicht der Gast muss sich erklären, der Gastgeber entschuldigt vorab seine eigene Vorbereitungslosigkeit.

Die dumme Gewissheit trägt Kopfhörer

Dumme Gewissheit ist nicht immer laut. Oft spricht sie ruhig, persönlich, verbindlich. Sie sagt, man wolle nur verstehen. Sie behauptet, die Dinge seien komplizierter, als die Kritiker wahrhaben wollten. Sie fordert Fairness, wo Präzision nötig wäre. Sie ruft nach Freiheit, wenn Verantwortung gemeint ist. Ihre Raffinesse besteht darin, dass sie sich als Mut tarnt.

Thadeusz’ Einwand richtet sich daher gegen eine falsche Sanftheit. Wer einen gefährlichen Gedanken empfängt, darf ihn nicht wie einen originellen Lebensentwurf behandeln. Wer politische Mythen, autoritäre Sehnsüchte oder völkische Phantasien in ein Studio holt, muss mehr mitbringen als freundliches Interesse. Er braucht Kenntnis der Quellen, Sinn für Sprache, historisches Gedächtnis und die Fähigkeit, im entscheidenden Augenblick nachzufassen.

Das gute Gespräch ist kein Wellnessangebot für Weltanschauungen. Es ist eine Prüfung, auch für den Fragenden. In diesem Sinn wirkt Willemsen so gegenwärtig. Seine Neugier war nie bloß Zutraulichkeit. Sie hatte eine Form, einen Ernst, eine manchmal schneidende Genauigkeit. Er konnte sich beeindrucken lassen, aber nicht einfach überreden. Er konnte staunen, ohne das Urteil zu suspendieren.

Zwischen Lesen und Reden liegt die Verantwortung

Vielleicht ist genau dies der Punkt, an dem der Lektor, der Autor und der Moderator einander berühren. Hosemanns Willemsen ist einer, der las, um anders wahrzunehmen. Thadeusz’ Willemsen ist einer, der fragte, um sich selbst in Gefahr zu bringen. Beide Figuren widersprechen der Gegenwart, in der viele reden, als sei das eigene Gefühl bereits ein Argument.

Lesen bildet Widerstand gegen diese Beschleunigung. Wer liest, erfährt, dass Sätze Voraussetzungen haben. Wer liest, lernt, dass Menschen nicht auf ihre lauteste Behauptung schrumpfen. Wer liest, merkt, wie viel Gewalt in einer Formel liegen kann. Darum ist die Literatur für dieses Thema keine Dekoration. Sie ist das Gegenmittel gegen die primitive Gewissheit, die in jedem Medium heimisch werden kann.

Der Podcast kann aus dieser Tradition lernen. Er muss nicht literarisch werden, nicht gelehrt im schlechten Sinn, nicht kulturbürgerlich parfümiert. Aber er muss begreifen, dass Reden ohne Gedächtnis leicht zur Dienstleistung am Ressentiment wird. Die Technik hat das Senden demokratisiert. Das Denken hat sie nicht mitgeliefert.

Die Zukunft des Gesprächs entscheidet sich an der Frage

Am Ende steht keine Nostalgie nach dem alten Fernsehen. Auch keine Klage über die vielen neuen Stimmen. Thadeusz verteidigt etwas Anspruchsvolleres: die Frage als moralische und intellektuelle Form. Eine Frage kann öffnen, aber sie kann auch vernebeln. Sie kann Erkenntnis erzwingen, aber auch einem Gast den roten Teppich ausrollen. Sie kann Widerstand leisten, aber auch kapitulieren, noch bevor die Antwort begonnen hat.

Kluge Gespräche brauchen deshalb weniger Selbstbewusstsein als Selbstzweifel, weniger Sendungsdrang als Vorbereitung, weniger Wärme als Genauigkeit. Sie verlangen vom Gastgeber, dass er den Gast ernst nimmt, indem er ihn nicht schont. Sie verlangen vom Publikum, dass es Länge nicht mit Tiefe verwechselt. Und sie verlangen von allen Beteiligten die Bereitschaft, nach einer Stunde nicht bestätigter, sondern wacher zu sein.

Die Mikrofone haben gewonnen. Die Studios sind gebaut, die Plattformen geöffnet, die Stimmen unterwegs. Jetzt entscheidet sich, ob daraus eine neue Kultur des Gesprächs entsteht oder nur ein eleganterer Lärm. Roger Willemsen bleibt in Thadeusz’ Wort zum Sonntag nicht als Denkmal zurück. Er steht dort als Maßstab: nicht für Geschmeidigkeit, nicht für Bildungsglanz, nicht für eine vergangene Fernsehepoche. Er steht für die fast unmoderne Hoffnung, dass ein Gespräch einen Menschen verändern kann, wenn beide Seiten den Mut haben, nicht schon fertig zu sein.

Die vermietete Öffentlichkeit und der Daumen des Admins: TwitterX, Meta, Microsoft/LinkedIn, Mastodon und die Illusion der unschuldigen Plattform

Der Marktplatz hat einen Eigentümer bekommen

Die alte Medienfrage lautete: Wer spricht? Die neue lautet: Wem gehört der Raum, in dem gesprochen wird? Zwischen diesen beiden Sätzen liegt der ganze Verlust der digitalen Öffentlichkeit. Man hatte uns ein Netz versprochen, ein Gemeinsames, ein elektrisches Kaffeehaus mit Weltanschluss. Erhalten haben wir Hausordnungen, Zugriffszähler, Werbeauktionen, Moderationsnebel und Eigentümer, die mit einem Fingerschnippen die Akustik ändern.

TwitterX ist dafür der grellste Fall. Man kann diesen Ort nicht mehr Plattform nennen, ohne an eine Bühne zu denken, deren Bretter der Besitzer während der Vorstellung austauscht. Einst galt Twitter als Nervensystem der Gegenwart, als Ort für Journalisten, Aktivisten, Wissenschaftler, Politiker und jene Zwischenwesen, die in Deutschland lange „Netzgemeinde“ hießen. Heute wirkt X wie eine Alarmanlage, die nicht mehr zwischen Einbruch, Kaminfeuer und Besitzerlaune unterscheiden kann.

Der blaue Haken, früher ein kleines Zeichen der Identifizierbarkeit, wurde zum Orden für zahlende Selbstdarsteller. Verifikation mutierte zur Maskerade. Ein Ausweis wurde zum Partyhütchen. Die Europäische Kommission verhängte im Dezember 2025 gegen X eine Geldbuße von 120 Millionen Euro wegen Verstößen gegen Transparenzpflichten des Digital Services Act; beanstandet wurden unter anderem die irreführende Gestaltung der blauen Haken, Mängel im Werbearchiv und ein erschwerter Datenzugang für Forschende.

Der entscheidende Vorgang liegt tiefer. TwitterX zeigt, was geschieht, wenn Öffentlichkeit nicht als Institution, nicht als Infrastruktur, nicht als demokratische Zumutung gedacht wird, vielmehr als Privatbesitz. Dann wird aus Streit ein Inventarposten. Aus Debatte wird Traffic. Aus dem Bürger wird Nutzungsverhalten. Und aus dem Eigentümer wird ein absoluter Monarch mit Meme-Kompetenz.

Meta baut das Einkaufszentrum der Gefühle

Meta hat diesen Wandel zivilisierter verpackt. Facebook und Instagram riechen nicht nach Barrikade, eher nach Einkaufszentrum mit Familienalbum. Man trifft dort die Tante, den Verein, den Friseur, die Lokalpolitik, die alte Schulfreundin und ein Fitnessstudio, das einen seit neun Jahren verfolgt. Meta ist nicht laut im Sinne von X. Es bindet durch Erinnerung, Bequemlichkeit, Gewohnheit und soziale Erpressung. Wer geht, verliert scheinbar Kontakte. Wer bleibt, zahlt mit Aufmerksamkeit, Daten, Ausdrucksformen, Zeit.

Die raffinierte Leistung dieses Konzerns besteht darin, Öffentlichkeit in private Komfortzonen aufzuspalten. Jeder erhält sein kleines Wohnzimmer, kuratiert vom Konzern. Man glaubt, bei sich zu sein, während man längst in einer Versuchsanordnung sitzt. Die Chronik der Freunde, die Ferienbilder, der empörte Kommentar, der Reels-Strudel, die Trauerbekundung, der Glückwunsch zum Geburtstag: alles wird Teil einer Verwertungslandschaft, die Empfindungen nicht zerstört, sie gewinnbringend sortiert.

Nun kommt die Künstliche Intelligenz hinzu. Der alte Plattformvertrag lautete: Du gibst uns Inhalte, wir geben dir Reichweite. Der neue lautet: Du gibst uns die Sprache deiner Lebenswelt, wir bauen daraus Systeme, die künftig so tun, als bräuchten sie dich weniger. Meta kündigte 2025 an, öffentliche Inhalte erwachsener Nutzer in der EU, etwa öffentliche Beiträge und Kommentare, sowie Interaktionen mit Meta AI zum Training eigener KI-Modelle zu verwenden. Das klingt nach Fortschritt. Es ist zugleich eine feine Form digitaler Erbfolge: Erst schreibt die Welt freiwillig mit, dann trainiert der Konzern aus dieser Welt seine Produkte, danach verkauft er die automatisierte Nachahmung als Dienstleistung zurück.

LinkedIn ist das Assessment-Center mit Kommentarfunktion

Microsoft und LinkedIn verdienen eine eigene Abteilung im Kabinett der Plattformkomik. LinkedIn ist das soziale Netzwerk für Menschen, die sogar ihre Niederlagen in Personalabteilungssprache vortragen. Dort heißt eine Kündigung „neues Kapitel“, Überarbeitung „Purpose“, Selbstvermarktung „Thought Leadership“ und jedes halbwegs normale Gespräch „wertvoller Austausch“. Wer dort länger liest, bekommt den Eindruck, die Menschheit sei nicht erschaffen worden, um zu leben, zu lieben, zu irren oder zu denken, vielmehr um Zertifikate zu erwerben und mit sanftem Lächeln Transformationen zu begleiten.

Das Tragische an LinkedIn ist seine unfreiwillige Wahrhaftigkeit. Nirgends zeigt sich der neue Kapitalismus so ungeschminkt wie dort, wo alle so tun, als seien sie ganz bei sich. Die Sprache der Bewerbung hat das Privatleben kolonisiert. Menschen schreiben über ihr Scheitern wie über eine Quartalspräsentation. Sie bedanken sich bei Teams, die sie hinauskomplimentiert haben. Sie feiern Chefs, deren Haupttalent darin besteht, Kostenstellen in „Chancenräume“ umzubenennen. LinkedIn ist ein globaler Empfangsraum mit Teppichboden, in dem jeder wartet, bis ein Algorithmus ihn kurz aufruft.

Microsoft kaufte LinkedIn 2016 für 26,2 Milliarden Dollar. Damit erwarb der Konzern nicht bloß ein berufliches Netzwerk. Er erwarb die wohl größte Selbstauskunftsbühne der arbeitenden Welt: Lebensläufe, Karrieresprünge, Branchenkontakte, öffentliche Beiträge, Fachvokabeln, Rangordnungen, Zugehörigkeiten. Früher hätte man Dystopien darüber geschrieben. Heute nennt man es Premium-Funktion.

Seit November 2025 kann LinkedIn in bestimmten Regionen Mitgliederdaten zum Training generativer Inhaltsmodelle nutzen; dazu zählen nach LinkedIns Hilfeangaben Profilinformationen und öffentliche Inhalte, private Nachrichten werden ausgenommen. Der Witz liegt in der Höflichkeit der Formulierung. LinkedIn klingt nie wie ein Konzern, der zugreift. LinkedIn klingt wie ein Coach, der einem zur besseren Ausschlachtbarkeit gratuliert.

Der Copilot sitzt nicht nur nebenan

Microsoft fügt diesem Schauspiel die Aura des Betriebssystems hinzu. Der Konzern, der einst den Schreibtisch eroberte, greift nun nach dem beruflichen Selbstbild. Copilot heißt diese Gegenwart gern, als säße da ein freundlicher Nebensitzender, der beim Navigieren hilft. Tatsächlich wächst ein neuer Typ von Arbeitsumgebung heran, in der Schreiben, Suchen, Erinnern, Bewerten, Planen und Präsentieren immer enger mit den Auswertungslogiken der Anbieter verbunden werden. Der Angestellte denkt, er benutze ein Werkzeug. Das Werkzeug protokolliert, klassifiziert, assistiert, empfiehlt und gewöhnt ihn an seine eigene Ersetzbarkeit.

Besonders anschaulich wurde diese Entwicklung bei Microsoft Recall. Microsoft beschreibt Recall als Funktion auf Copilot+-PCs, die Bildschirminhalte lokal verarbeitet und als Momentaufnahmen auf dem Gerät speichert; Nutzer können Speichern deaktivieren, pausieren, Apps und Websites filtern und Momentaufnahmen löschen. Dass Signal 2025 unter Windows eine standardmäßig aktivierte Schutzfunktion gegen Bildschirmaufnahmen einführte und diese ausdrücklich mit Microsoft Recall begründete, ist eine der feinsten Miniaturen des digitalen Zeitalters: Eine Datenschutz-App muss dem Betriebssystem die Augen verbinden, weil der Hausherr ein fotografisches Gedächtnis entdeckt hat.

Die Gratisarbeiter der digitalen Republik

Paul Masons Gedanke, Informationstechnologie könne mit einer in erster Linie von Marktkräften regulierten Wirtschaft womöglich nicht verträglich sein, trifft einen empfindlichen Nerv. Die Plattformökonomie hat eine Leistung vollbracht, von der frühere Industrielle nur träumen konnten: Sie hat Arbeit so umetikettiert, dass sie nicht mehr wie Arbeit aussieht. Posten, Liken, Kommentieren, Melden, Bewerten, Markieren, Empfehlen, Erklären, Korrigieren, Übersetzen, Moderieren, Trainieren: Alles Tätigkeiten, alles Wertschöpfung, alles meist unbezahlt.

Man nannte das Partizipation. Das war der große rhetorische Coup. Das alte Fließband brauchte Lohn. Das neue braucht Begeisterung. Wer schreibt, liefert Material. Wer streitet, liefert Bindung. Wer sich empört, liefert Frequenz. Wer sich vernetzt, liefert Graphen. Wer kündigt, bleibt als Datensatz. Wer geht, hinterlässt Muster.

Das Silicon-Valley-Märchen von der rebellischen Garagenkultur war nie bloß Folklore. Es war ein Geschäftsmodell im Kapuzenpullover. Man versprach Ausstieg aus den alten Hierarchien und erzeugte neue. Man versprach Freiheit und erfand Abhängigkeiten mit besserem Interface. Man verhöhnte Bürokratien und baute Governance-Strukturen, gegen die manche Ministerialverwaltung wie ein basisdemokratischer Jugendclub wirkt.

Open Source öffnet den Code, nicht die Macht

An dieser Stelle beginnt die bequemste Ausrede der digitalen Gegenwelt. Sie lautet: Dann eben Mastodon. Dann eben Open Source. Dann eben Fediverse. Das ist verständlich, oft ehrenwert, gelegentlich notwendig. Es ist nur keine Erlösung.

Open Source ist keine Tugendmaschine. Freie Software verhindert nicht den Missbrauch einer Software. Sie verhindert im besten Fall die geheime Aneignung des Codes. Die Affero General Public License kann Betreiber nicht zu Liberalität, Gemeinwohl oder demokratischer Kultur zwingen. Sie kann sie vor allem zur Offenlegung bestimmter Änderungen verpflichten. Die Software Freedom Conservancy erklärte im Fall Truth Social, die AGPL behandle alle gleich, auch Akteure, deren Werte man nicht teile; sie müssten nur nach denselben Copyleft-Regeln handeln.

Das ist die bittere Reifeprüfung des freien Codes. Wer Freiheit technisch ernst nimmt, kann sich seine Nutzer nicht aussuchen. Wer eine offene Lizenz wählt, gibt nicht bloß Verbündeten ein Werkzeug in die Hand. Er gibt es auch Gegnern, Opportunisten, Propagandisten und politischen Geschäftsleuten. Die Freiheit des Codes ist gerade da am radikalsten, wo sie den moralischen Komfort ihrer Urheber beleidigt.

Truth Social, die freie Software im goldenen Käfig

Truth Social ist dafür der sauberste Fall. Mastodon erklärte 2021, Trumps damals neue Plattform nutze Mastodon-Quellcode mit visuellen Anpassungen; zunächst habe Truth Social weder formal auf Mastodon verwiesen noch den Quellcode zugänglich gemacht, obwohl die AGPL bei solchen Netzwerkdiensten Offenlegung verlangt. Nach öffentlichem Druck wurde ein Open-Source-Bereich ergänzt.

Daraus folgt keine kleine Fußnote, daraus folgt eine medienpolitische Lektion. Freie Software kann die Lizenzverletzung angreifen, nicht die politische Verwandlung ihrer Werkzeuge. Sie kann sagen: Zeig den Code. Sie kann nicht sagen: Verwende den Code nur für anständige Zwecke.

Noch deutlicher war der Fall Gab. Mastodon schrieb 2019, Gab habe den eigenen Code aufgegeben und sei auf frei verfügbare Mastodon-Software gewechselt, auch um Sperren durch Google und Apple zu umgehen, weil Mastodons clientseitige API bestehende Mastodon-Apps als Zugang hätte nutzbar machen können. Eine Architektur, die als Ausbruch aus Big Tech gedacht war, konnte von einem rechten Netzwerk als Umgehungsinstrument gegen Big-Tech-Sanktionen eingesetzt werden. Das ist kein Randfall. Das ist der Preis universeller Nutzbarkeit.

Truth Social treibt diese Lektion ins Groteske. Aus freier Software wurde eine Loyalitätsbühne. Aus offenem Code wurde ein politischer Andachtsraum mit Börsenticker. Die Muttergesellschaft Trump Media prüfte 2026 laut Reuters sogar, Truth Social als eigenes börsennotiertes Unternehmen abzuspalten; zugleich meldete sie für 2025 einen Nettoverlust von 712,3 Millionen Dollar bei sehr überschaubarem Umsatz. Früher baute man Medien, um Öffentlichkeit zu erreichen. Heute kann die Behauptung von Öffentlichkeit genügen, um Finanzarchitektur zu errichten.

Mastodon ist kein Lamm

Mastodon ist damit nicht erledigt. Im Gegenteil. Gerade wer Mastodon verteidigen will, muss die Romantik abräumen. Das Mammut ist kein Lamm. Es frisst keine Daten wie Meta, es brüllt nicht wie X, es lächelt nicht wie LinkedIn im Kostüm des Personalwesens. Aber es besitzt seine eigene Form von Macht. Sie ist kleiner, verteilter, oft ehrenamtlich, manchmal fürsorglich, manchmal streng, gelegentlich dünnhäutig. Der Irrtum beginnt dort, wo Dezentralität mit Demokratie verwechselt wird.

Ein Fediverse-Server ist kein Parlament. Er ist ein Haus mit Betreiber, Hausordnung, Datenbank, Tür und Schlüssel. Der Betreiber kann seriös handeln, transparent moderieren, Einsprüche ermöglichen, Angriffe abwehren. Er kann auch eitel, überfordert, ideologisch, nachtragend oder schlicht schlecht organisiert sein. Die Macht ist nicht verschwunden. Sie ist nur umgezogen.

Die offizielle Mastodon-Dokumentation beschreibt klar, dass Moderation lokal wirkt. Ein Administrator kann Nutzer anderer Server nicht global löschen, aber lokale Kopien und Sichtbarkeit auf dem eigenen Server kontrollieren. Moderationsmaßnahmen reichen von Verwarnungen über Begrenzungen und Einfrieren bis zur Suspendierung; bei letzterer verschwindet ein Konto öffentlich von der jeweiligen Instanz, und Daten können nach Fristablauf endgültig entfernt werden.

Noch gewichtiger ist die Macht über ganze Server. Mastodon erlaubt Domain-Blocks gegen komplette Instanzen. Die Dokumentation nennt verschiedene Schweregrade, darunter Medien ablehnen, Server begrenzen und Server suspendieren. Bei einer Server-Suspendierung werden Verbindungen zu Konten des gesperrten Servers gekappt; sie entstehen bei späterer Freigabe nicht automatisch neu. Die Mastodon-API-Dokumentation beschreibt entsprechende Verwaltungsfunktionen, mit denen Domains vom Föderieren ausgeschlossen, geändert oder wieder entfernt werden können.

Das ist der Faktenkern der Caligula-Frage. Der Mastodon-Admin ist kein Weltkaiser. Aber er ist Hausherr seiner Instanz. Er kann nicht über Rom richten, doch über seine Stadtmauer. Daumen hoch: Du föderierst. Daumen runter: Deine Instanz verschwindet aus diesem lokalen Blickfeld.

Der AGB-Hausmeister hat einen Generalschlüssel

Die AGB-Hausmeisterei des Fediverse verdient mehr Aufmerksamkeit, weil sie sich oft im Ton moralischer Notwehr kleidet. Sehr häufig geht es tatsächlich um Schutz: gegen Spam, Hetze, Belästigung, organisierte Angriffe, rechtsradikale Netzwerke, Pornobots, Betrug. Ohne Moderation wird aus Föderation schnell eine offene Kanalisation. Aber eine notwendige Macht bleibt Macht. Aus einem guten Grund entsteht noch keine herrschaftsfreie Struktur.

Die lokale Instanz kann sich als Zufluchtsort verstehen, als Club, als publizistisches Biotop, als politisches Projekt, als Nachbarschaft, als technische Spielwiese. Damit erhält der Betreiber eine Macht, die klassische Plattformkritik gern übersieht: Er kontrolliert nicht die ganze Welt, aber er kontrolliert die lokale Wirklichkeit. Wer sichtbar ist, wer als Risiko gilt, welche Instanzen als kontaminiert gelten, welche Konflikte als Belästigung gewertet werden, welche Schärfe als legitim durchgeht, welche Ironie als Angriff gilt: All das wird nicht im Himmel der Dezentralität entschieden. Es wird in Admin-Interfaces, Chatkanälen, Moderationslisten und manchmal im Bauchgefühl weniger Personen entschieden.

Darum ist Mastodon nicht die Abschaffung der Plattformmacht. Mastodon ist ihre Verkleinerung, ihre Verteilung, ihre partielle Rückholbarkeit. Das ist ein Fortschritt. Aber kein Freispruch.

Private Nachrichten sind keine Beichtstühle

Auch der Datenschutzmythos verdient Korrektur. Mastodon ist kein sicherer Messenger. Die offizielle Dokumentation warnt davor, gefährliche oder sensible Informationen über private Erwähnungen zu teilen. Mastodon sei keine verschlüsselte Messenger-App wie Signal oder Matrix; Datenbankadministratoren der beteiligten Server könnten Zugriff auf den Text erhalten. Die Netzwerkdokumentation erklärt zudem, dass private Erwähnungen technisch Beiträge mit Sichtbarkeit „mention only“ sind.

Dass Mastodon 2026 Fördermittel für neue Funktionen einschließlich Ende-zu-Ende-verschlüsselter privater Nachrichten erhielt, unterstreicht den Punkt: Diese Schutzform ist Entwicklungsziel, kein gegenwärtiger Normalzustand. Mastodon selbst nennt einen Arbeitsbeginn Ende 2026 und eine Umsetzung bis Ende des zweiten Quartals 2027.

Das ist kein Argument gegen Mastodon. Es ist ein Argument gegen falsche Heiligsprechung. Wer Konzernen misstraut, sollte kleinen Betreibern nicht blind vertrauen. Nähe ist keine Garantie. Ehrenamt ist keine Kryptographie. Sympathie ersetzt keine Rechte.

Metas freundliche Umarmung des offenen Netzes

Die nächste Gefahr für Mastodon kommt nicht nur von rechten Forks oder übereifrigen Instanzhütern. Sie kommt von Meta. Threads nähert sich dem Fediverse an. Meta führte 2025 eine Suche nach Fediverse-Profilen und einen eigenen Fediverse-Feed in Threads ein, sofern Nutzer Fediverse-Sharing aktiviert haben.

Das klingt auf den ersten Blick wie eine späte Anerkennung offener Protokolle. Auf den zweiten Blick ist es eine strategische Umarmung. Meta muss das offene Netz nicht frontal bekämpfen. Es kann an ihm andocken, seine Inhalte bequemer auffindbar machen und den Zugang über eine Konzern-App normalisieren. Der Konzern frisst nicht zwingend den ganzen Fediverse-Garten. Es reicht, wenn er das größte Tor baut.

Damit verschiebt sich die medienpolitische Frage. Nicht allein: Welche Plattform ersetzt TwitterX? Viel wichtiger: Wer kontrolliert die Übergänge zwischen den Welten? Wer bestimmt, wie offene Inhalte in Konzernumgebungen erscheinen? Wer profitiert, wenn föderierte Kommunikation durch die bequemste App wahrgenommen wird? Meta könnte das Fediverse domestizieren, indem es es benutzbar macht.

Die Tyrannei kommt im Tonfall der Verbesserung

Das Tückische der neuen Macht ist ihr Tonfall. Sie kommt selten mit Stiefeln. Sie kommt mit Nutzungsbedingungen. Sie kommt mit „Verbesserungen“. Sie kommt als Update, als neue Funktion, als Beta, als Assistent, als Creator-Programm, als Sicherheitsmaßnahme, als Komfortversprechen. Sie fragt nicht: Darf ich deine Öffentlichkeit privatisieren? Sie fragt: Möchtest du relevantere Inhalte sehen?

Die Sprache dieser Systeme ist ein Weichmacher. Aus Kontrolle wird Personalisierung. Aus Überwachung wird Sicherheit. Aus Abhängigkeit wird Ökosystem. Aus Monopolnähe wird nahtlose Integration. Aus Datenhunger wird Innovation. Aus Entlohnung wird Sichtbarkeit. Aus Macht wird Governance. Aus Willkür wird Produktentscheidung.

So entsteht eine neue politische Lage. Die großen Plattformen sind keine Medienhäuser im klassischen Sinn, keine neutralen Leitungen, keine öffentlichen Plätze. Sie sind Mischwesen aus Verlag, Marktplatz, Meldeamt, Werbebörse, Archiv, Casino, Fernsehstudio, Personalberater und Verhaltenslabor. Ihre Macht liegt nicht allein in dem, was sie zeigen. Sie liegt in dem, was sie wahrscheinlich machen. Sie entscheiden nicht bloß über Reichweite. Sie prägen Erwartung. Sie verändern den Stil des Denkens.

Europa reguliert die Hausherren

Die europäische Regulierung versucht, diese Macht einzufangen. Der Digital Services Act klassifiziert Plattformen und Suchmaschinen mit mehr als 45 Millionen monatlichen Nutzern in der EU als sehr große Online-Plattformen oder sehr große Online-Suchmaschinen und unterwirft sie strengeren Pflichten. Das ist keine juristische Fußnote. Es ist der Versuch, privatisierte Öffentlichkeiten wieder politisch lesbar zu machen.

Doch Regulierung bleibt langsamer als Gewöhnung. Bis ein Gesetz greift, haben Millionen Menschen bereits gelernt, ihre Sätze kürzer, schriller, gefälliger oder karrieretauglicher zu schreiben. Bis ein Verfahren abgeschlossen ist, hat ein Konzern seine Oberfläche dreimal verändert. Bis ein Bußgeld gezahlt ist, hat sich die nächste Abhängigkeit als Bequemlichkeit verkleidet.

Deshalb darf Medienpolitik nicht nur auf Sanktionen hoffen. Sie muss über Eigentum, Interoperabilität, Datenportabilität, offene Standards, gemeinnützige Infrastrukturen und digitale Grundversorgung sprechen. Wer Demokratie ernst nimmt, kann ihre Gesprächsräume nicht dauerhaft den Launen börsennotierter Konzerne, einzelner Milliardäre oder lokaler Mini-Souveräne überlassen.

Bleiben, ohne sich einzurichten

Wo also aktiv bleiben? Die Antwort verlangt weniger Moralpose als Nüchternheit. X kann für Recherche, Echtzeitbeobachtung, politische Milieus und publizistische Reibung noch nützlich sein. Aber man betritt diesen Ort besser wie einen Bahnhof nach Mitternacht: wach, kurz angebunden, ohne Gepäckablage.

Meta bleibt für lokale Gruppen, Kultur, Vereine, Familiennetze und visuelle Öffentlichkeit relevant. Doch niemand sollte Facebook oder Instagram mit einem Archiv, einer Heimat oder gar einem demokratischen Forum verwechseln. LinkedIn ist beruflich kaum zu ignorieren, doch man sollte dort nie länger in der Sprache der Plattform sprechen, als zur Vermeidung beruflicher Nachteile nötig ist.

Mastodon verdient Nutzung, Kritik und Pflege zugleich. Dort ist Macht eher ausweichbar. Man kann Instanzen wechseln, eigene Server betreiben, lokale Regeln vergleichen, Blockentscheidungen öffentlich debattieren. Aber auch der Umzug kostet Reputation, Kontakte, Auffindbarkeit und Nerven. Wer im Fediverse lebt, lebt freier als im Konzernkäfig, aber nicht außerhalb von Herrschaft.

Die eigentliche Regel lautet: Nirgends wohnen. Überall arbeiten, werben, beobachten, stören, verlinken, abholen. Das eigene Zentrum muss außerhalb liegen: eigene Website, eigener Newsletter, eigenes Archiv, Podcast, RSS, offene Protokolle, föderierte Dienste, Suchbarkeit jenseits der Plattformlaune. Wer seine Texte, Kontakte und Gedanken vollständig in fremde Systeme einsperrt, darf sich nicht wundern, wenn irgendwann der Vermieter die Schlösser tauscht.

Die Öffentlichkeit braucht wieder Ausgänge

Der Kampf um das Internet ist kein nostalgisches Gefecht zwischen alten Bloggern und neuen Influencern. Es ist ein Konflikt um die Frage, ob gesellschaftliche Verständigung eine Nebenwirkung privater Geschäftsmodelle bleiben darf. Die Plattformen haben uns nicht zum Schweigen gebracht. Das wäre plump gewesen. Sie haben uns sprechen lassen, unablässig, messbar, sortierbar, verwertbar. Genau darin liegt ihre historische Raffinesse.

Man kann diese Orte nutzen. Man muss sie sogar kennen. Aber man darf ihnen nicht glauben, wenn sie sich als Welt ausgeben. Eine Timeline ist keine Zeit. Ein Feed ist keine Nahrung. Ein Netzwerk ist keine Gesellschaft. Ein Profil ist keine Person. Ein blauer Haken ist kein Ausweis. Ein Copilot ist kein Freund. Ein Open-Source-Server ist kein Paradies. Ein Admin ist kein Verfassungsgericht.

Die digitale Öffentlichkeit lässt sich nicht retten, wenn alle verschwinden. Sie lässt sich aber auch nicht retten, wenn alle überall mitmachen. Entscheidend ist, dass Nutzer, Autoren, Journalisten, Wissenschaftler, Unternehmen und Institutionen ihre Sichtbarkeit nicht mit Freiheit verwechseln. Plattformen können nützlich sein, aber sie dürfen nicht zum einzigen Ort werden, an dem Texte, Kontakte und Debatten stattfinden. Wer sie nutzt, sollte zugleich eigene Wege offenhalten: eine Website, einen Newsletter, ein Archiv, unabhängige Kanäle, einen Blog wie ichsagmal.com. Das ist keine Unhöflichkeit gegenüber den Plattformen. Es ist Selbstschutz.

Nachtrag:

https://social.cologne/deck/@kingconsult@berlin.social/116538129867972227

@frebelt stimmt zu: „Die dezentralen, souveränen und fairen Netzwerke sind keine Alternativen zu den zentral gesteuerten Trackingplattformen #X #Instagram #Facebook und Co. – sie sind die einzige Option für demokratische, inhaltszentrierte und unabhängige öffentliche Kommunikation.“

So viel Framing und Behauptung in einem Satz liest man selten.

„Dezentral“, „souverän“ und „fair“ sind keine Eigenschaften, die automatisch aus einem Protokoll fallen. Auch dezentrale Netzwerke haben Machtzentren: Serverbetreiber, Admins, Moderationsregeln, Blocklisten, informelle Zirkel, technische Gatekeeper. Wer über Föderation, Sichtbarkeit und Ausschluss entscheidet, übt Macht aus.

Das macht Mastodon, Fediverse und Open Source nicht wertlos. Im Gegenteil: Sie können bessere, offenere und weniger abhängig machende Strukturen ermöglichen. Aber sie sind nicht per se demokratisch, inhaltszentriert oder unabhängig. Sie müssen es durch transparente Regeln, überprüfbare Verfahren, faire Moderation, Portabilität und echte Ausweichmöglichkeiten erst beweisen.

Heinz von Foersters Satz passt hier ziemlich gut: „Handle stets so, dass die Zahl Deiner Möglichkeiten wächst.“ Von Lutz Becker geklaut.

Genau darum geht es. Nicht darum, eine Plattformreligion durch die nächste zu ersetzen. Wer von X, Instagram oder Facebook weg will, sollte nicht im nächsten digitalen Gehege landen. Demokratische Kommunikation braucht mehr Möglichkeiten, nicht neue Gewissheiten.

Die Alternative zu den zentralen Trackingplattformen ist deshalb nicht digitale Heiligsprechung. Die Alternative ist Machtkritik überall: bei Konzernen, bei Plattformen, bei Protokollen und auch bei den AGB-Hausmeistern kleiner Instanzen.

Ein Netzwerk ist nicht schon demokratisch, weil es dezentral ist. Es wird demokratischer, wenn Macht begrenzt, begründet, überprüfbar und verlassbar wird.

#DigitaleÖffentlichkeit

Benn in Bleistift: Ein Brief an Marguerite Valerie Schlüter führt in die Werkstatt der Nachkriegsliteratur

Der Brief von Dr. Gerhard Schuster an Marguerite Valerie Schlüter, datiert Marbach am Neckar, 27. Juni 1985, ist auf den ersten Blick ein schmales Arbeitsdokument: zwei maschinenschriftliche Seiten, sachlich, knapp, mit wenigen handschriftlichen Zeichen am Rand. Mir fiel dieses Schreiben durch den Ankauf eines ganzen Konvoluts von Briefen, Postkarten, Drucken und Geburtstagswünschen aus dem Umfeld von Professor Hermann Kasack zu. Gerade diese Herkunft erweitert den Klangraum des Blattes. Es stammt aus jener Sphäre der deutschen Nachkriegsliteratur, in der Autoren, Verleger, Lektorinnen, Archivare und Herausgeber durch Korrespondenzen, Widmungen, Korrekturen und Gefälligkeiten miteinander verbunden waren. Wer nur den gedruckten Benn kennt, sieht das Ergebnis. Dieser Brief zeigt die Arbeit davor.

Die berühmte Lektorin im Adressfeld

Adressatin ist Marguerite Valerie Schlüter, eine der großen, bis heute zu wenig sichtbaren Figuren der bundesdeutschen Verlagsgeschichte. Sie war Benns Lektorin im Limes Verlag, Vertraute, Kennerin der Werkgeschichte, Vermittlerin zwischen Autor, Verlag, Nachlass und späterer Edition. Mit Max Niedermayer gehört sie zu den Personen, ohne die Gottfried Benns Nachkriegspräsenz kaum denkbar wäre. Benn war nach 1949 nicht einfach wieder da. Er wurde verlegt, betreut, geordnet, kommentiert, vermittelt. An dieser Arbeit hatte Schlüter entscheidenden Anteil.

Schusters Brief setzt genau dort ein, wo literarischer Ruhm seine Aktenlage bekommt. Die großen Namen stehen im Raum: Balzac, Klabund, Chamisso, Benn. Doch sie erscheinen nicht als Bildungsschmuck. Sie erscheinen als Suchaufträge. Wo steht das Zitat? Wer war wann Herausgeber? Welche biographische Spur trägt? Welche Kopie liegt schon vor? Welche Institution könnte Auskunft geben? Der Brief ist ein kleines Protokoll philologischer Anstrengung.

Ein Arbeitszettel, der Brief geworden ist

Der erste Teil des Schreibens liest sich wie ein Arbeitszettel in Briefform. Schuster beantwortet eine Reihe von Fragen, die Schlüter offenbar am 29. Mai gestellt hatte. Zur Balzac-Stelle meldet er einen Fehlfund. Klabunds Novelle verweist er in eine Beilage. Zum „Querschnitt“ liefert er eine editorisch belastbare, doch vorsichtig formulierte Auskunft. Zum „nichtsnutzigen Bruder“ Klabunds findet sich bei Kaulla nichts. Bei Deubel aktiviert er eine frühere Kopie. Bei Chamisso empfiehlt er den Weg in die Musiksammlung im Gasteig.

Das ist kein schmückendes Beiwerk zur Benn-Forschung. Das ist Benn-Forschung in Aktion. Schuster schreibt nicht aus der Pose des Allwissenden. Er arbeitet mit geprüftem Wissen, mit Lücken, mit Verdacht, mit Verweisen. Ein guter Editor weiß nicht alles; er weiß vor allem, was er noch nicht behaupten darf. In diesem Brief wird diese Genauigkeit greifbar.

Die Balzac-Spur und Benns Erinnerungszitate

Gleich zu Beginn steht die „Balzac-Stelle“. Schuster hatte gehofft, sie zu finden, vermutete das Zitat „in einem der Briefe“, kam jedoch nicht darauf. Der Satz ist aufschlussreich, weil er eine typische Schwierigkeit bei Benn berührt. Benns Prosa und Briefe leben von Anspielung, Verdichtung, halb erinnerten Formeln, selbstbewusst gesetzten fremden Stimmen. Ein Zitat kann bei ihm gleichzeitig präzis und verschoben sein.

Als Kandidat drängt sich Benns Formulierung „Der Ruhm hat keine weißen Flügel, sagt Balzac“ auf. Sie führt in die Nähe von Balzacs „Illusions perdues“ und der französischen Wendung von der „gloire aux ailes blanches“. Doch Benns Satz ist keine bloße Übersetzung. Er klingt wie eine deutsche Benn-Formel über eine französische Balzac-Spur. Genau an solcher Stelle beginnt editorische Mühe. Ein glatter Nachweis wäre bequem; ein Erinnerungszitat verlangt mehr. Schusters Fehlanzeige ist deshalb nicht nebensächlich. Sie bewahrt den Unterschied zwischen Beleg und Wahrscheinlichkeit.

Der „Querschnitt“ und die Würde der Autopsie

Am dichtesten wird der Ausschnitt bei der Notiz zum „Querschnitt“. Schuster hält fest, 1936 sei E. F. von Gordon alleiniger Herausgeber gewesen, Victor Wittner sei ihm vorausgegangen. Die Bestände des „Q.“ seien in Marbach lückenhaft; das „GV“, also wohl das Gesamtverzeichnis des deutschsprachigen Schrifttums, helfe nur begrenzt weiter. Genaueres könne allein die Autopsie eines vollständigen Exemplars ergeben, möglicherweise in der damaligen Bayerischen Staatsbibliothek.

Das Wort „Autopsie“ ist hier kein Gelehrtenornament. Es meint die Einsicht in das Original. Bei einer Zeitschrift wie dem „Querschnitt“, mit wechselnden Herausgebern, Verantwortlichkeiten und politischen Verschiebungen der dreißiger Jahre, reicht ein Sekundärnachweis nicht aus. Man muss das Heft sehen. Titelblatt, Impressum, Jahrgang, Heftnummer, Verantwortlichkeitsvermerk: Solche Angaben entscheiden, ob eine Annotation trägt.

Gerade diese Passage zeigt Schusters Professionalität. Er gibt eine Auskunft, begrenzt sie, nennt den Grund der Begrenzung und weist auf den Weg zur Klärung. Das ist philologische Eleganz ohne Pathos.

Klabund und die Macht der fehlenden Beilage

Bei Klabund arbeitet der Brief mit einer Leerstelle. „Klabunds Novelle: vgl. Beilage.“ Der entscheidende Beleg liegt außerhalb des überlieferten Briefs. Für den heutigen Leser entsteht dadurch eine kleine archivalische Irritation. Das Blatt verweist auf ein zweites Blatt, das fehlt. So wird sichtbar, wie fragil editorische Kommunikation sein kann. Briefe, Kopien, Beilagen, Notizzettel, Durchschläge: Alles gehört zusammen, doch selten bleibt alles zusammen.

Noch schärfer wirkt die Bemerkung zu „Klabunds nichtsnutzigem Bruder“. Schuster hat in dem Band von Kaulla nichts gefunden, andere Angaben ebenfalls nicht. Vermutlich ist Guido von Kaullas Klabund-Biographie gemeint. Wichtig ist nicht allein das Ergebnis, wichtig ist die Disziplin der Fehlanzeige. Eine biographische Anekdote wird nicht durch Wiederholung wahr. Wo der Beleg fehlt, muss die Annotation zurücktreten. Der Editor schützt den Text auch vor dem Reiz des allzu Plausiblen.

Deubel, Benn und der Streit um Geist und Leben

Bei Deubel wechselt der Brief den Arbeitsmodus. Schuster verweist auf eine „Kopie aus den NDtH“, die er Schlüter früher bereits geschickt habe. Die Frage nach Benns Reaktion auf einen Angriff durch Deubel wird nicht neu aufgerollt; sie wird auf ein schon vorhandenes Arbeitsdokument zurückgeführt. Das ist typisch für die analoge Editionspraxis der achtziger Jahre: Kopien wandern, werden abgelegt, erinnert, erneut aktiviert. Der Kommentar entsteht aus solchen kleinen, beweglichen Dossiers.

Doch hinter der knappen Notiz steht ein größerer weltanschaulicher Konflikt. Werner Deubel, Philosoph, Klages-Schüler und Freund Ludwig Klages’, las Benn aus einer radikalen Kritik an Zivilisation, Fortschritt und rationalistischem Geist heraus. Für Deubel war Benn nicht einfach ein schwieriger moderner Autor. Er verkörperte jene Kälte des Intellekts, jenen analytischen Zugriff auf Körper, Krankheit, Verfall und Bewusstsein, den die Klages-Schule als lebensfeindliche Herrschaft des Geistes über die Seele bekämpfte.

Damit berührt die Deubel-Spur einen Grundkonflikt der Moderne: Biozentrismus gegen Logozentrismus, Seele gegen Geist, organische Lebensmetaphysik gegen die zergliedernde Macht der Diagnose. Benn, der Arzt und Dichter, war für einen solchen Gegner besonders angreifbar. Seine frühen Texte führen den Körper nicht als heile Natur vor; sie öffnen ihn anatomisch, klinisch, sprachlich. Seine Moderne kennt Präparat, Sektion, Laborblick, Hirn, Nerven, Zerfall. Was Benn als poetische Energie aus der Entzauberung gewinnt, musste Deubel als Symptom eines kulturellen Niedergangs erscheinen.

Schon Deubels Angriff von 1928 in der „Deutschen Rundschau“ zielte auf einen vermeintlich religionsähnlichen Fortschrittsglauben, auf Technik, Zivilisation und den Kult des Bewusstseins. Aus dieser Perspektive war Benn kein Befreier der Sprache, vielmehr ein Zeuge jener Moderne, die das Lebendige in Begriff, Experiment und intellektuelle Pose überführt. Deubels Nähe zu Klages’ Hauptwerk Der Geist als Widersacher der Seele gibt dem Konflikt seine Schärfe: Benns Werk wurde hier nicht nur literarisch kritisiert, es wurde weltanschaulich angeklagt.

Für den Essay ist diese Deubel-Notiz deshalb wertvoll. Sie zeigt, dass die Benn-Edition nicht nur Verse, Varianten und Nachweise ordnete. Sie musste auch alte Kämpfe rekonstruieren: die Angriffe aus dem konservativ-lebensphilosophischen Milieu, die Abwehr der Moderne, die Deutung Benns als kalter Diagnostiker einer zerfallenden Kultur. Schusters kurzer Verweis auf die frühere Kopie öffnet damit ein ganzes Konfliktfeld. In einem halben Satz steht plötzlich die Frage, ob Benns dichterischer Blick als höchste Nüchternheit oder als Verrat am Lebendigen zu lesen sei.

Chamisso im Gasteig

Die letzte Notiz führt aus der Literatur in die Musik. Zu Chamisso hat Schuster trotz Sekundärliteratur nichts gefunden. Sein Rat lautet nun nicht: noch eine Monographie, noch ein Lexikon. Er empfiehlt den Anruf bei der Musiksammlung im Gasteig, wegen der Plattensammlung und der Firmenkataloge. Daraus lässt sich schließen, dass Schlüters Frage mit einer Vertonung, Aufnahme, Rezitation oder einem Tonträgernachweis zusammenhing.

Dieser Hinweis ist wunderbar zeittypisch. 1985 bedeutet Recherche nicht Suchmaske und Volltextdatenbank. Recherche bedeutet Gedächtnis, Bibliothek, Katalog, Telefon, richtige Ansprechpartnerin, richtiger Bestand. Der Gasteig erscheint als Spezialadresse für das, was in der literarischen Sekundärliteratur nicht zu greifen war. Auch das gehört zur Editionsarbeit: das richtige Medium erkennen.

Benn am Rand

Besonders reizvoll sind die Bleistiftzeichen auf dem maschinenschriftlichen Brief. Am linken Rand steht, gut sichtbar, „Benn“, unterstrichen. Daneben finden sich weitere Notizen, Haken, Linien und eine Markierung bei der Chamisso-Passage. Nicht alle Zeichen lassen sich sicher lesen. Gerade deshalb sollte man sie vorsichtig deuten.

Sie wirken weniger wie Korrekturen des Absenders als wie spätere Lesespuren, vielleicht von Schlüter, vielleicht von einer ordnenden Hand im Umfeld des Konvoluts. Der unterstrichene Name „Benn“ macht aus dem Brief ein zuordenbares Stück: Dieses Blatt gehört in den Benn-Komplex. Die Randzeichen verwandeln die Korrespondenz in ein Arbeitsobjekt. Sie markieren Relevanz, ordnen, heben hervor, helfen beim Wiederfinden. Der Brief ist damit nicht nur ein Schreiben über Recherche; er wurde selbst recherchierbar gemacht.

Die „Stuttgarter Ausgabe“ rückt heran

Im zweiten Teil des Briefes nennt Schuster den Druck der Zeit. Schlüter sei mit den Anmerkungen zum Briefwechsel beschäftigt. Zugleich sei verabredet, dass zum 21. März zwei Bände mit allen Gedichten vorliegen sollten. Schuster müsse sein Manuskript der Anmerkungen und Varianten bis Mitte Oktober abgeben. Deshalb bittet er Schlüter um zwei oder drei Tage Mitarbeit an den Kladden, notfalls in zwei Arbeitsblöcken. Frau Benn sei bereit, die Arbeitshefte nach Marbach zu leihen.

Hier wird aus den einzelnen Suchspuren ein Editionsdrama im Kleinen. Die „Stuttgarter Ausgabe“ steht nicht als fertiges Monument vor uns. Sie entsteht aus Fristen, Arbeitsheften, unleserlichen Stellen, Verlagsabsprachen, Reisen auf Spesen von Klett-Cotta, prüfenden Blicken und der Bereitschaft einer Witwe, Materialien nach Marbach zu geben. Benns Gedichte, später in festen Bänden konsultiert, mussten durch diese Zone der Prüfung hindurch.

Schlüter als Instanz der Lesbarkeit

Warum bittet Schuster gerade Schlüter? Weil sie nicht irgendeine Helferin war. Sie hatte Benn als Lektorin begleitet, seine Publikationsgeschichte mitgeprägt, seine Texte betreut, seine Korrespondenzen gekannt. Sie verfügte über ein Wissen, das kein Katalog ersetzen kann: Werkgedächtnis, editorische Erfahrung, persönliche Nähe, Kenntnis der verlegerischen Vorgänge.

Wenn Schuster schreibt, er wolle das Manuskript nicht ohne ihre prüfenden Blicke aus der Hand geben, klingt darin hohe Anerkennung. Die berühmte Lektorin wird zur Instanz der Lesbarkeit. Ihre Kompetenz betrifft nicht nur Orthographie oder Stil. Sie betrifft den Weg eines Werks durch Jahrzehnte, Institutionen, Nachlässe, Ausgaben. Wer Benn ediert, braucht Schlüter.

Der Brief aus dem Kasack-Umfeld

Dass dieses Schreiben in einem Konvolut aus dem Umfeld von Hermann Kasack auftauchte, passt zur Struktur der Nachkriegsliteratur. Die Wege der Briefe folgen nicht immer den Werkgrenzen. Ein Benn-Briefzusammenhang kann in einem Kasack-Umfeld liegen, weil Verlagskontakte, Akademien, Geburtstagsgaben, Herausgeberbeziehungen und persönliche Netzwerke ineinandergreifen. Solche Konvolute sind keine sauberen Schubladen. Sie sind Sedimente literarischen Lebens.

Gerade daraus entsteht ihr Wert. Ein einzelner Brief gewinnt Gewicht, wenn er nicht isoliert erscheint, vielmehr als Teil eines Verkehrs aus Glückwünschen, Postkarten, Drucken, Korrekturen, Dank und Bitte. Literaturgeschichte besteht auch aus solchen Papierbewegungen. Sie zeigen, wer wen kannte, wer wem vertraute, wer Material weitergab, wer Fragen stellte, wer Antworten lieferte.

Die kleine Form und der große Benn

Der Brief von Schuster an Schlüter ist keine große Benn-Deutung. Er enthält keinen neuen Satz Benns, keine unbekannte poetologische Erklärung, keine dramatische Enthüllung. Sein Rang liegt anders. Er zeigt, wie Benn nach Benn weiterarbeitete: in Archiven, Verlagen, Kommentaren, Kladden, Kopien, am Telefon, am Rand eines maschinenschriftlichen Blattes.

Das ist ein starkes Bild für den Nachruhm. Der Autor ist tot, doch sein Werk bleibt in Bewegung. Jede Ausgabe ordnet neu, jede Annotation greift ein, jede Lesart entscheidet. Der Ruhm, um noch einmal Balzac und Benn aufzunehmen, hat vielleicht keine weißen Flügel. Er hat Papierfasern, Bleistiftstriche, Kopien, Leihgaben, Bibliotheksbestände und Menschen wie Marguerite Valerie Schlüter, die den Text nicht nur lieben, auch verantworten.

Nachruhm braucht genaue Leser

Am Ende wirkt dieser Brief wie ein Gegenbild zur Vorstellung vom einsamen Autor. Benns Werk steht nicht nur auf Benn. Es steht auch auf Max Niedermayer, auf Marguerite Schlüter, auf Ilse Benn, auf Gerhard Schuster, auf Marbach, auf Klett-Cotta, auf den vielen anonymen Ordnungen von Bibliotheken und Archiven. Der Brief macht diese Arbeit sichtbar.

Vielleicht liegt darin seine schönste Qualität. Ein maschinenschriftliches Blatt mit Bleistiftzeichen erzählt, wie Literatur haltbar wird. Nicht durch Verehrung allein. Durch Prüfung. Durch Zweifel. Durch Nachweise. Durch den Mut zur Lücke. Durch den Anruf bei der richtigen Sammlung. Durch die Frage, ob ein einziges Wort wirklich so dasteht.

Und durch eine Lektorin, deren Name im Adressfeld steht: Marguerite Valerie Schlüter.

Jenseits des Hotline-Terrors: Warum Michael Bommer der eigentliche Pionier der neuen Kundenkommunikation war

Der falsche Hosenkauf ist kein Einzelfall, sondern ein Systemfehler

Der von der F.A.Z. beschriebene Fall ist banal – und gerade deshalb ökonomisch brisant: Ein Kunde bestellt am späten Sonntagabend versehentlich eine Hose in der falschen Größe, findet keinen Stornierungsknopf, scheitert an den Servicezeiten der Hotline und erhält auf seine E-Mail erst am Montagmorgen eine Antwort. Dann ist die Bestellung bereits im Versandprozess. Die Stimmung ist am Tiefpunkt.

Was hier wie eine kleine Alltagspanne aussieht, ist in Wahrheit ein Symptom für ein überholtes Servicemodell. Der Kunde will kein Organisationsdiagramm durchleiden. Er will eine einfache Entscheidung: Kann ich stornieren – ja oder nein? Das Unternehmen wiederum will keine unnötigen Hotlinekontakte, keine Retourenkosten, keine Eskalationen und keine beschädigte Kundenbeziehung. Zwischen beiden steht ein System, das zu langsam, zu kanalfixiert und zu wenig entscheidungsfähig ist.

KI wird erst dann nützlich, wenn sie handeln darf

Genau an dieser Stelle setzt der F.A.Z.-Beitrag über Novomind an. Das Hamburger Softwareunternehmen will mit KI nicht nur freundlich antworten, sondern operative Vorgänge automatisieren. Bei einer Stornierung sammelt die Software relevante Daten wie Kundennummer, Kaufzeitpunkt, AGB-Lage und Stornierungsgrund. In eindeutigen Fällen kann daraus eine vollständig automatisierte Entscheidung entstehen.

Das ist der entscheidende Punkt: Kundenservice der Zukunft besteht nicht aus einem besseren Chatfenster. Er besteht aus Systemen, die Anliegen verstehen, Daten verbinden, Regeln prüfen und Prozesse ausführen. Ein Bot, der nur redet, bleibt ein digitaler Empfangstresen. Ein KI-Agent, der stornieren, umbuchen, erstatten oder eskalieren kann, wird zur produktiven Infrastruktur.

Der eigentliche Engpass ist nicht Sprache, sondern Datenintegration

Stefan Grieben, Vorstandschef von Novomind, beschreibt in der F.A.Z. die zentrale Voraussetzung: Shopsoftware und Onlinekundencenter müssen enger miteinander verschmelzen. Bestellverläufe, Produktinformationen, Serviceanfragen, E-Mails und Rückmeldungen aus sozialen Medien müssen intelligent verknüpft werden. Erst dann könne KI wirklich intelligent sein.

Das ist wirtschaftlich präzise. Die meisten Serviceprobleme entstehen nicht, weil Unternehmen zu wenig Kommunikationskanäle haben. Sie entstehen, weil diese Kanäle nicht zusammenarbeiten. Der Kunde schreibt eine E-Mail, ruft danach an, kommentiert später auf Social Media – und muss sein Anliegen jedes Mal neu erklären. Der Hotline-Terror ist deshalb keine Panne, sondern die Folge fragmentierter Datenarchitekturen.

Novomind industrialisiert, was Michael Bommer früh vorgedacht hat

Novomind steht in dem F.A.Z.-Beitrag exemplarisch für die aktuelle Industrialisierung dieser neuen Servicewelt. Doch die geistige Vorarbeit für diese Entwicklung wurde lange vorher geleistet. Einer der wichtigsten Pioniere war der verstorbene Michael Bommer.

Bommer dachte Kundenkommunikation nicht als Verwaltung von Beschwerden, sondern als intelligente Assistenz. Im Sohn@Sohn-Opus, das er noch zu Lebzeiten bekommen hat, wird er ausdrücklich als Pionier der Technologie- und Kundenkommunikation beschrieben. Dort zieht sich durch viele Kapitel dieselbe Grundidee: weg von Callcenter-Attacken, Warteschleifen und starren Kanälen; hin zu personalisierten, lernfähigen, elektronischen Assistenten.

Bommer erkannte früh: Der Kunde will kein Callcenter, sondern Erledigung

Bommers eigentliche Einsicht war radikal einfach: Kunden wollen nicht telefonieren, klicken, suchen oder warten. Sie wollen, dass ihr Anliegen erledigt wird. Niemand ruft freiwillig eine Hotline an. Niemand hangelt sich aus Freude durch Service-Unterseiten. Niemand wiederholt gern Kundennummern, Geburtsdaten und Vertragsdetails.

Deshalb sprach Bommer früh über Messaging, Chatbots, KI und kognitive Self-Service-Strukturen. Seine These war: Unternehmen brauchen keine separate App, keine separate Hotline-Nummer und keine isolierten Service-Unterseiten mehr. Kundenkommunikation müsse dort stattfinden, wo der Kunde ohnehin kommuniziert – im Messenger, im Chat, in der App, im intelligenten Assistenten.

Aus dem Callcenter-Agenten wird der Dirigent intelligenter Systeme

Bommer war dabei kein naiver Automatisierungsromantiker. Er sah nicht einfach den Menschen verschwinden. Er sah eine neue Arbeitsteilung zwischen Mensch und Maschine.

Einfache Fälle übernimmt der Bot. Komplexe, emotionale oder unklare Fälle gehen an menschliche Agenten. Diese Agenten werden nicht mehr nur Gesprächsarbeiter sein, sondern Bot-Manager, Eskalationsprofis, Trainer und Qualitätskuratoren. Genau diese Idee findet sich im Bommer-Manuskript: Chatbots und menschliche Agenten müssen wie in einem „Tango“ zusammenspielen.

Das ist bis heute der Prüfstein jeder seriösen KI-Strategie im Kundenservice. Vollautomatisierung ohne Übergabe erzeugt neuen Frust. Rein menschlicher Service ohne Automatisierung bleibt teuer, langsam und nicht skalierbar. Erst die intelligente Kombination beendet den Hotline-Terror.

Der Sonntagabend wird zum Lackmustest der Serviceökonomie

Der Sonntagabend aus dem F.A.Z.-Beispiel ist mehr als eine Anekdote. Er ist der Lackmustest moderner Kundenkommunikation. Funktioniert der Service nur montags bis freitags von acht bis 18 Uhr, dann ist er nicht kundenzentriert, sondern organisationszentriert.

Digitale Märkte schlafen nicht. Onlineshops verkaufen rund um die Uhr. Dann müssen auch grundlegende Servicehandlungen rund um die Uhr möglich sein. Wer nachts bestellen kann, muss nachts auch stornieren können. Wer am Wochenende kauft, darf am Wochenende nicht in eine Prozessfalle laufen.

Agentic Commerce ist nur ein Teil der größeren Revolution

Die F.A.Z. stellt am Ende die Frage, ob sich Kunden künftig eher für vollautomatisierte Kaufabschlüsse durch KI-Agenten interessieren – also Agentic Commerce – oder eher für intelligente Produktsuche, Agentic Search.

Aus Bommers Perspektive ist diese Gegenüberstellung zu eng. Entscheidend ist nicht, ob der Agent sucht oder kauft. Entscheidend ist, ob er im Interesse des Kunden handelt. Mal soll er Toilettenpapier nachbestellen. Mal soll er die richtige Hautcreme finden. Mal soll er eine Rechnung erklären, einen Vertrag prüfen, eine Stornierung auslösen oder eine Reklamation sauber dokumentieren.

Die nächste Stufe der Kundenkommunikation ist deshalb nicht nur Conversational Commerce. Sie ist Delegated Service: Der Kunde delegiert Aufgaben an ein System, dem er vertraut.

Europas Chance liegt nicht in aggressiver Manipulation, sondern in verlässlicher Assistenz

Im F.A.Z.-Beitrag weist Grieben die Angst vor asiatischen Billiganbietern wie Temu und Shein teilweise zurück. Technisch sei deren Datenauswertung keine Raketenwissenschaft; die Aggressivität liege eher im Shopdesign und im Marketing.⁴

Das ist eine wichtige Unterscheidung. Die europäische Antwort auf Plattformdruck darf nicht darin bestehen, noch aggressivere Interfaces zu bauen. Sie muss in besserer, vertrauenswürdigerer Assistenz liegen: Datenschutz, Transparenz, saubere Prozessautomatisierung, nachvollziehbare Entscheidungen und echte Entlastung. KI im Kundenservice darf keine Manipulationsmaschine sein. Sie muss ein verlässlicher Erledigungsraum werden.

Der Hotline-Terror ist kein Naturgesetz

Der klassische Kundendienst behandelt Kundenanliegen oft wie Störungen. Der Kunde muss sich anpassen: an Servicezeiten, Menülogiken, Ticketnummern, Zuständigkeiten und Prozessgrenzen. Genau das ist der Hotline-Terror.

Aber dieser Terror ist kein Naturgesetz. Er ist das Ergebnis schlechter Integration, defensiver Organisationen und einer Servicekultur, die Kommunikation mit Abwehr verwechselt. KI kann diese Logik aufbrechen – allerdings nur, wenn sie tief in Prozesse, Daten und Entscheidungsregeln eingebettet wird.

Michael Bommers Vermächtnis wird jetzt marktreif

Der F.A.Z.-Beitrag über Novomind zeigt, dass viele Ideen nun in die betriebliche Wirklichkeit einziehen, die Michael Bommer lange vorher antizipiert hatte: intelligente Kundendialoge statt Callcenter-Attacken, elektronische Assistenten statt Warteschleifen, Messaging statt Kanalchaos, Prozessautomatisierung statt Vertröstung.

Deshalb gehört Bommer in die Genealogie dieser Entwicklung. Novomind liefert heute eine marktfähige Plattform für den industriellen Einsatz. Aber Bommer war einer derjenigen, die den Paradigmenwechsel früh formuliert haben. Er sah, dass Kundenkommunikation nicht länger vom Unternehmen her gedacht werden darf, sondern vom Anliegen des Menschen.

Die neue Kundenkommunikation beginnt dort, wo die Hotline endet

Die Zukunft des Kundenservice liegt nicht im schöneren Warten. Sie liegt im Ende des Wartens. Sie liegt nicht in der freundlicheren Hotline-Stimme, sondern in Systemen, die Anliegen erkennen, prüfen und lösen. Sie liegt nicht in mehr Kanälen, sondern in weniger Reibung.

Der falsche Hosenkauf am Sonntagabend zeigt, was auf dem Spiel steht. Die KI-Plattformen von heute zeigen, was technisch möglich wird. Und Michael Bommer zeigt, wer diese Richtung früh verstanden hat: eine Kundenkommunikation jenseits des Hotline-Terrors – persönlich, intelligent, asynchron, handlungsfähig.

Erst Awareness, dann Applaus: Urlaub in Zeiten der Ich-AG

Es begann, wie es immer beginnt. Mit einer Anreise voller Hoffnung, im Gepäck eine neue Badehose, die vegan ist, atmungsaktiv und angeblich aus recycelten Fischerbooten besteht. Man wollte dieses Jahr bewusster reisen, also hatte man sich für das „Resonanz-Retreat“ entschieden – Yoga bei Sonnenaufgang, Waldbaden bei Sonnenhöchststand, und abends dann: Scampipfanne. Natürlich „nachhaltig“. Natürlich all-you-can-eat. Natürlich mit Safran, aber nur aus der Region.

Die Gruppe war bunt gemischt. Man verstand sich blendend. Zumindest bis man reden musste. Dann fingen alle an zu schweigen. Oder zu posten. Jeder Blick war ein Selfie-Filter, jede Regung ein vorsorglich geübter Skandal-Umkurver. Die Gespräche klangen wie LinkedIn-Profile mit WLAN-Störung.

Am zweiten Tag wurde ein Promi gesichtet. Ex-Fernsehgesicht, ehemals „Kult“ – wenn man sich darunter jemanden vorstellen kann, der in den 90ern beim Frühstücksfernsehen zwischen den Wetterkarten vergessen wurde. Signore Showdown, wie wir ihn insgeheim nannten, war von ein paar ambitionierten Jung-PRlern mitgeschleift worden, die glaubten, ein prominenter Name würde dem Retreat Tiefe verleihen. Stattdessen brachte er bloß ein orthopädisches Nackenkissen und eine Aura von Altbackenheit mit.

Showdown saß tagsüber schweigend am Pool, nachts schnarchte er wie ein abgelehnter Radiobeitrag über Männergesundheit. Er war das Fossil der alten Medienwelt, konserviert in Aftershave und Altersstarrsinn. Die Gruppe mochte ihn – aber nur in der Theorie. In der Praxis war er so beweglich wie ein ausrangierter Bürostuhl, sprach ausschließlich in Anekdoten, in denen er der Held war, und verbrauchte beim Duschen mehr Wasser als ein durchschnittlicher Brunnen in Marokko.

Dann kam der Zwischenfall. Jemand kollabierte. Einfach so, mitten im Gruppengespräch über ökologischen Fußabdruck und Mikroplastik im Himalaya. Ein dumpfer Aufschrei, ein Stuhl fiel um, eine Sonnenbrille flog in den Pool. Und was passierte?

„Scampipfanne?“ fragte jemand. Reflexartig. Instinktiv. Ohne Ironie.

Man war ja hungrig, es war fast 13 Uhr. Und der Mensch, der da zu Boden ging, war weder besonders bekannt noch glutenfrei. Keine Priorität also.

Die Gruppe formierte sich wie ein Rudel enttäuschter Publikumslieblinge: besorgt, aber nicht zuständig. Der Kollaps störte – vor allem den Tagesplan. Irgendjemand murmelte „Awareness-Raum, dritte Etage“, ein anderer suchte die Notfallnummer – im WLAN-geschützten Achtsamkeitsmodus.

Signore Showdown schlief weiter.

So endete der Retreat nicht mit Erkenntnis, sondern mit einem schiefen Gruppenbild, in dem alle etwas zu verspannt lächelten, weil niemand wusste, ob der oder die Zusammengebrochene wieder aufgestanden war oder gerade abtransportiert wurde. Es war auch egal. Das Licht war gut.

Und abends? Gab es wieder Scampipfanne. Natürlich mit Zitrone. Natürlich regional. Natürlich alles bewusst.

Aber irgendwas war weg. Vielleicht das letzte Quäntchen Würde. Vielleicht auch nur der Knoblauch.

Im Archiv der finsteren Jahre: Helmuth Kiesel las in der Bonner Buchhandlung Böttger aus seiner Literaturgeschichte der Jahre 1933 bis 1945 – Der Abend wurde zu einer Lektion über das Lesen im moralischen Ausnahmezustand

Ein Standardwerk betritt die Buchhandlung

Die Bonner Buchhandlung Böttger war an diesem Abend mehr als ein Veranstaltungsort. Sie war ein Resonanzraum für eine alte, nie erledigte Frage: Was darf Literaturgeschichte wissen wollen, wenn sie sich jenen Jahren nähert, in denen Sprache befohlen, Bücher verbrannt, Autoren vertrieben, Morde verschleiert und dennoch Gedichte geschrieben wurden?

Alfred Böttger eröffnete den Abend mit jener Mischung aus Bonner Buchhändlerwitz, bibliophilem Ernst und kanonischem Instinkt, die eine Lesung in eine kleine Institution verwandeln kann. Er sprach von einem Werk, auf das er, wie er bekannte, im Grunde vierzig Jahre gewartet habe: Helmuth Kiesels „Schreiben in finsteren Zeiten“, erschienen bei C. H. Beck, 1392 Seiten stark, gebunden, achtundsechzig Euro. Nicht einfach ein Band über die Literatur des Nationalsozialismus, vielmehr der noch fehlende Schlussstein einer großen Literaturgeschichtsschreibung, der elfte Band jener Reihe, deren Einbände Generationen von Germanisten kennen.

Deutschsprachig heißt: beschädigt, verstreut, gerettet

Kiesel begann mit einem Wort, das harmlos klingt und doch die ganze Dramatik seines Unternehmens enthält: deutschsprachig. Nicht „deutsche Literatur“ allein, denn von 1933 an war die deutsche Sprache kein nationaler Besitz mehr, falls sie es je gewesen sein sollte. Sie wurde in Zürich gesprochen, in Wien, in Prag, in Palästina, in Kalifornien, in den baltischen und siebenbürgischen Restlandschaften einer alten Bildungstopographie. Friedrich Torberg, den Kiesel anführte, konnte sich der Sprache nach als deutscher Schriftsteller, der Herkunft nach als Österreicher, den sittlichen Fundamenten nach als Jude verstehen. Ein einziger Begriff reichte da nicht mehr aus.

Das war die erste philologische Lehre dieses Abends: Literaturgeschichte beginnt nicht beim Urteil, auch nicht beim Freispruch. Sie beginnt bei der Genauigkeit des Wortes. Wer „deutschsprachig“ sagt, nimmt die zerstreuten Archive, die Emigration, die Schweizer und österreichischen Sonderwege, die verbannten Stimmen und die im Reich verbliebenen Stimmen in einen gemeinsamen, gefährlichen Hörraum auf.

Der Bann der Urteile

Über dieser Literatur liegt ein moralischer Bann. Thomas Manns Verdikt, alles zwischen 1933 und 1945 in Deutschland Gedruckte sei mit Blut und Schande behaftet, steht wie ein Brandmal über der Nachgeschichte. Kiesel machte deutlich, wie stark solche Aussagen die Forschung prägten: Weimarer Republik, Exil, innere Emigration, Reichsliteratur – das alles wurde nach 1945 nicht nur gelesen, es wurde sortiert, beschämt, verschwiegen, gerettet, ausgeschieden.

Der Skandal seines Buches liegt nicht darin, dass es relativiert. Er liegt darin, dass es differenziert. Differenzierung ist in diesem Feld keine Milde, keine Entlastung, kein Freibrief. Sie ist die strengere Form der Anklage. Denn erst wer genau sieht, erkennt, wo Opportunismus beginnt, wo Feigheit in Stil übergeht, wo Tarnung Widerstand werden kann, wo literarische Größe moralisch beschädigt bleibt und wo das Vergessen selbst zu einer zweiten Form der Gewalt wird.

Literatur als Waffe, Literatur als Seismograph

Kiesel las und erläuterte aus seinem Buch, als wolle er die Literatur jener Jahre aus der archivalischen Starre lösen. Sie erscheint bei ihm als Reflexionsmedium und als Eingriffsinstrument. Der Satz „Kunst ist Waffe“, den die Zeit kannte, ist kein Beiwerk, er ist eine Signatur. Autoren wurden in die Politik hineingezogen, von außen bedrängt, von innen geängstigt, vom Regime verfolgt, verführt oder gebraucht.

Dabei erzählte Kiesel nicht nur von den großen Namen: Thomas Mann, Brecht, Hesse, Jünger, Seghers, Benn. Er ging auch in die Randzonen, wo Gedichte der Begeisterung neben Gedichten der Angst stehen, wo ein Parteitagsgedicht den Tod als heimlichen Diktator hinter der Rede des Führers erscheinen lässt, wo Friedrich Georg Jüngers „Der Mohn“ die Sprache der Antike nutzt, um Gegenwart zu maskieren. Philologie heißt hier: die Tarnkappe anheben, ohne den Text zu zerbrechen.

Der Buchhändler und der schwierige Jünger

Dann geschah, was bei guten Buchhandlungsabenden immer geschehen kann: Die Veranstaltung verließ den vorgesehenen Pfad. Alfred Böttger kam auf Ernst Jünger zu sprechen. Er erzählte von seiner eigenen, lange gespaltenen Beziehung zu diesem Autor. Vor Jahrzehnten habe er eine signierte Halbleder-Gesamtausgabe günstig erworben, mehr aus spekulativem Instinkt als aus Liebe. Sie stand erst unten, im Dunkel, fast wie ein problematisches Erbstück. Im Laufe der Jahre rückte sie näher an den Bereich des täglichen Blicks. Aus Distanz wurde Lektüre, aus Lektüre eine Zumutung, aus der Zumutung eine Notwendigkeit.

Böttger verwies auf Kiesel als Herausgeber und Kommentator der historisch-kritischen Jünger-Ausgaben: „In Stahlgewittern“, „Auf den Marmorklippen“, „Strahlungen“, „Der Kampf als inneres Erlebnis“. Gerade in einer Zeit, in der die Kategorien der politischen Moral wieder hastiger und schärfer werden, könne man Jünger nicht umgehen. Man müsse ihn lesen, genauer: man müsse ihn in der philologisch gesicherten Gestalt lesen, die Kiesel ihm gegeben hat.

Die Überraschung aus Bad Saulgau

Dass man bei Jünger noch immer Überraschungen erleben kann, stellte die Jünger-Tagung 2025 in Bad Saulgau unter Beweis. Dort wurde im Zusammenhang mit Detlev Schöttkers „Die Archive des Chronisten“ ein Kommentar Hannah Arendts über Jüngers „Strahlungen“ ins Licht gerückt, 1950 veröffentlicht, zugänglich und doch von der Forschung jahrzehntelang kaum wahrgenommen. Arendt erkannte in Jüngers Kriegstagebüchern einen besonders aufrichtigen Beleg für die Schwierigkeit, moralische Wertvorstellungen in einer Welt zu bewahren, in der Wahrheit und Moral ihren erkennbaren Ausdruck verloren hatten. Helmuth Kiesel, Herausgeber der historisch-kritischen Ausgabe der „Strahlungen“, reagierte bewegt; hätte er den Satz gekannt, hätte er ihn als Motto der Ausgabe erwogen.

Auch andere Funde dieser Tagung öffneten neue Räume: ein bisher unveröffentlichter Brief Friedrich Georg Jüngers an Ernst vom 16. Februar 1962, der den Bruderzwist schärfer zeigt, als es die öffentliche Legende vom geschwisterlichen Gleichklang erlaubt; Hinweise auf Joschka Fischers frühe Jünger-Lektüre; Heiner Müllers Notiz über Jünger als ein „vergessenes Geschoss“; Benns distanzierter Geburtstagsgruß. Der Autor, den man seit Jahrzehnten erledigt zu haben glaubt, kehrt aus den Archiven nicht gereinigt zurück, auch nicht verdammt, vielmehr schwieriger, unruhiger, gegenwärtiger.

Die Moral der Genauigkeit

Das ist der tiefere Zusammenhang zwischen Kiesels Bonner Lesung und Böttgers Jünger-Exkurs. Beide handelten von der Zumutung, dass Literatur nicht aus den Urteilen besteht, die über sie gefällt wurden. Sie besteht aus Texten, Varianten, Kontexten, Briefen, Erstdrucken, Rezensionen, Verschiebungen, Lücken. Die Moral der Philologie ist keine Schwäche des Urteils. Sie ist dessen Voraussetzung.

Kiesels „Schreiben in finsteren Zeiten“ ist daher kein Monument im Sinn eines Grabmals. Es ist ein Instrument. Man schlägt es auf und gerät in eine Landschaft, in der jedes Wort seine Akte hat. Die Größe des Unternehmens liegt nicht allein in der Masse des Materials, in den tausenden Namen, Titeln, Rezeptionszeugnissen. Sie liegt in der Weigerung, die Epoche auf eine bequem handhabbare Formel zu bringen.

Die Bonner Lesung zeigte, dass Literaturgeschichte dort am stärksten ist, wo sie den Leser nicht beruhigt. Sie führt in die finsteren Zeiten nicht, um dort nach nachträglicher Übersicht zu suchen. Sie führt hinein, weil dort die deutsche Sprache ihre gefährlichsten Prüfungen bestand und verlor, weil dort Schreiben Flucht, Anpassung, Tarnung, Widerstand, Karriere, Gebet, Verrat und Erinnerung zugleich sein konnte.

Am Ende stand in der Buchhandlung Böttger kein versöhnlicher Abend. Es stand ein gelehrter Ernst im Raum: Wer diese Jahre lesen will, darf sich nicht mit den bequemen Gewissheiten begnügen. Er muss in die Bücher zurück. Genau dorthin, wo die Urteile entstehen, aus denen man sich später sein Gewissen baut.

Helmuth Kiesel: „Schreiben in finsteren Zeiten. Geschichte der deutschsprachigen Literatur 1933–1945“. C. H. Beck, München 2025. 1392 Seiten, Leinen, 68 Euro.

Autorengespräch: Uwe Schneidewind und die Macht des Neins #Notizzettel

In seinem neuen Buch „Dienstschluss – Herausforderung Kommunalpolitik“ blickt Uwe Schneidewind auf fünf Jahre im Wuppertaler Rathaus zurück. Der ehemalige Präsident des Wuppertal Instituts für Klima, Umwelt, Energie, der Ende 2020 als gemeinsamer Kandidat von Grünen und CDU zum Oberbürgermeister gewählt wurde, hatte sich vorgenommen, Theorie in konkrete lokale Transformation zu übersetzen. Doch seine Bilanz ist ernüchternd: Er spricht von einer „politischen Ökonomie des Neins“, die Veränderung systematisch blockiert. Das Kernargument: In der Lokalpolitik verschaffen sich Menschen Macht, indem sie Vorhaben schlicht verhindern. Diese „Nein‑Profis“ haben, so Schneidewind, kaum Gestaltungsanspruch, bauen dadurch aber eine starke Verhandlungsposition gegenüber denen auf, die gestalten wollen. Für ehrenamtliche Ratsmitglieder gebe es dabei kaum Rechenschaftspflicht; wer Fortschritt ausbremse oder unqualifiziertes Personal auswähle, müsse nicht mit Konsequenzen rechnen.

Die politische Ökonomie des Neins: Lebendige Demokratie ist häufig von der Überzeugung getragen, dass sich erst durch Kritik an bestehender Praxis politische Handlungsmöglichkeiten ergeben. Es gibt bei vielen das Selbstverständnis, dass derjenige, der Kritik übt, die Demokratie stärkt. Dies schafft allerdings eine Rechtfertigung für Akteure im politischen Betrieb, denen es bei ihrer Kritik nicht um die Stärkung von Demokratie geht, sondern um eigene Motivlagen. Sie nutzen den positiv belegten Klang der Kritik für eine spezielle Praxis des »Neins« und entwickeln darin eine hohe Kunstfertigkeit. Dies funktioniert besonders gut in Zeiten fundamentaler Umbrüche und umfassender Transformation, denn diese Phasen zeichnen sich durch zwei wichtige Charakteristika aus: (1) Sie muten Menschen viel zu und lösen damit Verunsicherung und Ängste vor Veränderung aus. (2) Sie erfordern bisher nicht erprobte Ansätze, denn das bestehende politische Instrumentarium reicht nicht aus, um umfassende Transformationen anzustoßen. Ein solches innovatives Vorgehen ist strukturell fehleranfällig. Genau das liefert Ansatzpunkte für eine besondere Kaste professioneller Nein-Sager. Diese politischen Akteure sind in hohem Maße darin erprobt zu blockieren. Dafür verfügen sie über ein breites Instrumentarium, das sie oft bis zur Perfektion entwickelt haben: Es reicht vom Rückgriff auf formale und rechtliche Bedenken, der Infragestellung der Relevanz eines Problems, der Überdramatisierung von Folgen einer Veränderung bis hin zur persönlichen Diffamierung von Treibern der Transformation, um deren Vorhaben zu delegitimieren. Nein-Sager wissen genau: Transformateure sind darauf angewiesen, dass sich auch andere für Veränderungsprojekte stark machen, um Herausforderungen gemeinsam erfolgreich zu meistern. Und sie zahlen häufig einen Preis dafür, Blockaden zu überwinden und weiterzukommen. Blockierer heimsen diese Preise wiederum ein; sie agieren quasi als Zollstationen an den Pfaden der Transformation. Mit dem gewonnenen »Transformationszoll« in Form inhaltlicher Zugeständnisse oder dem Zugang zu Ämtern erreichen sie Machterhalt und -ausbau. Es gibt ganze Netzwerke von politischen Akteuren, die in ihrem gesamten beruflichen und politischen Wirken wenig Konstruktives auf den Weg gebracht haben, aber hohe Künstler der Blockade sind.

Ich war während meiner Amtszeit – insbesondere nach dem Auseinanderbrechen der schwarz-grünen Koalition im Jahr 2022 – in der misslichen Situation, auf keine stabile Mehrheit im Stadtrat zurückgreifen zu können. Fortan gab es eine geschlossene Mehrheit von SPD, CDU und FDP gegen mich, die sich darin einig war, dem Oberbürgermeister keinen relevanten Erfolg in seiner Amtszeit mehr zu gönnen. Das Ziel war, mich bei der nächsten Wahl im Jahr 2025 durch einen Kandidaten der eigenen Partei abzulösen. Wichtige Anliegen ließen sich ab diesem Zeitpunkt nur noch über Bande spielen, das heißt, die sichtbaren Initiatoren zentraler Pläne mussten Akteure sein, hinter denen sich eine Mehrheit versammeln konnte. Als Oberbürgermeister galt es, sich maximal zurückzunehmen und aus dem Hintergrund heraus zu agieren, um die Vorhaben nicht zu gefährden.

Als Beispiel dient die Debatte um die Nachnutzung des ehemaligen Kaufhof‑Gebäudes. Schneidewind wollte den leerstehenden Bau zusammen mit einem privaten Projektentwickler zu einem Bildungsstandort mit Schule und Zentralbibliothek umbauen. Ende Juni 2024 lehnte der Rat diese Idee mit großer Mehrheit ab; er wolle keine Schule im Kaufhaus und kündigte stattdessen an, einen neuen Schulbedarfsplan zu erarbeiten und lediglich die Bibliotheksnutzung zu prüfen. Kurz darauf brachten SPD, CDU und FDP einen gemeinsamen Antrag ein, der den Standort für eine Schule ausdrücklich ausschloss und die Verwaltung beauftragte, ein Bibliothekskonzept für den Kaufhof und andere Standorte auszuarbeiten. Schneidewind deutet diese Vorgänge als Beleg für Machtpolitik und verweist darauf, dass ein Jahr später ein fast identisches Konzept ohne Schule einstimmig beschlossen wurde – für ihn ein typischer Transformationszoll, den die „Nein‑Profis“ erheben.

Die unangenehmste Form der Blockade ist die Mobilisierung von strafrechtlich relevanten Rechtsmitteln gegen einzelne Personen. Ich bin davon in meiner Amtszeit glücklicherweise verschont geblieben, habe sie aber in meinem lokalen und regionalen Umfeld immer wieder erleben müssen, denn das Handeln der öffentlichen Hand bewegt sich in einem besonders verrechtlichten Rahmen. Bei einer engen Auslegung aller Datenschutz-, Informationspflicht-, Reisekosten-, Firmenwagennutzungs-, Anti-Diskriminierungs-, Vergabe- und Anti-Korruptionsregeln wird eine auf Ergebnisse und Effizienz ausgerichtete und mit Augenmaß durchgeführte Amtsführung extrem erschwert. Unvermeidlich gerät man hier in Graubereiche. Und es gibt Akteure in Verwaltung und Politik, die solche (vermeintlichen) Verstöße registrieren und in »Giftboxen« sammeln, um sie in geeigneten Momenten hervorzuholen und zu nutzen. Schließlich ist nichts effektiver als eine öffentlich inszenierte Strafanzeige wegen vermeintlicher Untreue kurz vor der Wahlkampfphase, der dann öffentlich begleitete Untersuchungen folgen. Mein Solinger Amtskollege Tim Kurzbach erlebte genau das 2024, als ihm Anstiftung zur Untreue vorgeworfen wurde. Es war eine der Erfahrungen, die seine Entscheidung beeinflussten, trotz guter Wiederwahlchancen nach zwei Amtszeiten nicht nochmals für das Amt anzutreten. 

Der Band ist keine reine Abrechnung. Schneidewind berichtet vom alltäglichen Systemversagen bei Schwimmbädern, Schulbau und Nahverkehr, benennt aber auch „Inseln des Gelingens“, die in vermeintlicher Ohnmacht entstehen, wenn Projekte wachsen und Engagierte sich vernetzen. Eine Rezension in der Süddeutschen Zeitung beschreibt das Buch als Mischung aus Reform‑Plädoyer und Abrechnung, legt aber nahe, dass die Bilanz eher negativ ausfällt: Schneidewind klage über Blockade‑Föderalismus und die Überflüssigkeit mancher Stadträte, biete wissenschaftliche Ansätze, reiße Vieles aber nur an.

Ein weiteres Thema des Interviews wird die politische Kultur in Deutschland sein. Schneidewind warnt vor einer destruktiven Kritikkultur und der Verrohung der Debatten. Er verweist auf Kollegen wie Silvio Witt in Neubrandenburg, der seinen Rücktritt angekündigt hat – als Reaktion auf persönliche Anfeindungen, den Wahlerfolg der AfD und die Entscheidung der Stadtvertretung, die Regenbogenfahne abzuhängen. Solche Fälle seien keine Einzelfälle und zeigten, wie sehr sich Hate‑Speech und populistische Stimmungsmache auf kommunale Amtsträger auswirken.

Wie unterscheidet Schneidewind zwischen legitimer Opposition und destruktiver Blockade? Welche Rolle spielt der eigene Politikstil, wenn sich einstige Verbündete abwenden? Und welche Vorschläge hat der Wissenschaftler für einen lernenden Regulierungsrahmen, mehr Experimentierräume und eine konstruktive Debattenkultur? Das Buch bietet Stoff für eine Debatte über Transformationskraft, kommunale Demokratie und die Frage, ob es gelingen kann, die „Kraft des Ja“ gegen das institutionaliserte Nein zu setzen.

Wie kann man als Nicht-Handelnder agieren? Beim Wissenschaftstheoretiker und Philosophen Karl Popper wird man fündig. Er spricht von der „Stückwerk-Sozialtechnik“. Sein politisches Ideal ist das schrittweise Herumprobieren oder Herumbasteln. Es geht nicht um die Durchsetzung von Tabula-Rasa-Methoden oder um die Allwissenheit von Politikern, die sich gerne in der Pose des Machers darstellen, sondern um Versuch und Irrtum. Niemand ist in der Lage, alles richtig zu machen. Niemand kann genau wissen, wie sich Gesellschaft und Wirtschaft entwickeln. Politische Ziele können nach Ansicht von Popper ehrgeizig formuliert werden. Im Regierungsalltag können sie aber auch fehlschlagen.

Problematisch in der Politik sei häufig die Kombination von Wirrnis und Aggressivität in der politischen Debatte, so Popper.

Mit der Stückwerk-Sozialtechnik pflege man hingegen eine nüchterne Diskussionskultur, da es nicht um abstrakte Ideale geht, unter denen möglicherweise jeder etwas anderes versteht, sondern um kleine Schritte.

Die Maschine, die Wissenschaft verändert – Zwischen User Modeling, Transformer und virtuellem Labor: Künstliche Intelligenz verändert, wie Forschung fragt, prüft und Verantwortung verteilt

Wer verstehen will, wohin sich Künstliche Intelligenz entwickelt, sollte zwei Forschungstraditionen zusammenlesen, die lange getrennt wirkten. Die eine stammt aus der frühen dialogorientierten KI: Wolfgang Wahlster und Alfred Kobsa untersuchten, wie technische Systeme Modelle ihrer Nutzer bilden, um sinnvoll antworten, beraten, erklären oder warnen zu können. Die andere Linie führt zum Transformer, jener Architektur, die seit 2017 große Teile der modernen KI geprägt hat. In „Attention Is All You Need“ beschreiben Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit und ihre Mitautoren eine Architektur, die auf Selbstaufmerksamkeit beruht und ohne rekurrente Netze oder Faltungen auskommt.

Beide Linien treffen heute in einer neuen Frage zusammen. Künstliche Intelligenz verarbeitet längst nicht mehr nur Sprache. Sie ordnet Moleküle, Zellen, Bilder, Datenbanken, Sensordaten, Texte, Theorien und Experimente. Sie wirkt in der Medizin, in der Robotik, in Lernsystemen, in der Verwaltung, in der Suche, in Empfehlungssystemen und in der Grundlagenforschung. Ihre Leistungsfähigkeit hängt nicht allein von größeren Modellen ab. Entscheidend wird, wie gut sie Situationen, Absichten, Unsicherheit, Rollen, Risiken und wissenschaftliche Ziele modelliert.

Der Mensch vor dem System

Wahlster und Kobsa formulierten schon in den achtziger Jahren eine Einsicht, die heute wieder an Gewicht gewinnt. Ein Dialogsystem soll nicht mechanisch auf Eingaben reagieren. Es muss Annahmen darüber bilden, was der Nutzer weiß, was er will, welche Pläne er verfolgt und welche falschen Vorstellungen ihn möglicherweise leiten. Gerade in aufgabenorientierten Dialogen wird ein explizites Modell der Überzeugungen, Ziele und Pläne des Nutzers zum zentralen Problem.

Das bekannteste Beispiel wirkt harmlos. Fragt jemand nach der nächsten Tankstelle, reicht die geographisch nächste Adresse nicht aus. Hilfreich ist die nächste Tankstelle, die geöffnet ist. Die Antwort muss also den wahrscheinlichen Zweck der Frage erkennen. Das System reagiert auf eine Lage, nicht bloß auf eine Zeichenfolge.

In dieser kleinen Szene liegt ein Grundproblem heutiger KI. Ein medizinisches System muss unterscheiden, ob ein Patient, eine Ärztin oder ein Angehöriger fragt. Ein Lernsystem muss erfassen, welche Begriffe verstanden wurden. Ein Behördenassistent muss erkennen, ob jemand eine Regel sucht, missversteht oder an ihr scheitert. Ein Roboter muss die Fähigkeiten und Risiken der Menschen im Arbeitsraum berücksichtigen. Ohne Nutzer- oder Situationsmodell bleibt KI reaktiv. Mit einem guten Modell kann sie kooperativ handeln.

Der Transformer als Beziehungsarchitektur

Der Transformer löste zunächst ein technisches Problem der Sequenzverarbeitung. Ältere Sprachmodelle arbeiteten häufig Schritt für Schritt. Die rekurrente Verarbeitung erschwerte paralleles Training und lange Abhängigkeiten. Der Transformer ersetzt diese Logik durch Selbstaufmerksamkeit. Elemente einer Sequenz können direkt auf andere Elemente Bezug nehmen. Das Modell erfasst Beziehungen über weite Distanzen hinweg und lässt sich effizient parallelisieren.

Im Autorennachweis des Transformer-Papers findet sich ein wissenschaftshistorisch wichtiger Satz: Jakob Uszkoreit schlug vor, rekurrente Netze durch Self-Attention zu ersetzen, und gab den Anstoß, diese Idee systematisch zu prüfen. Dieser Hinweis ist mehr als eine Fußnote der KI-Geschichte. Er markiert den Übergang von einer KI, die Sequenzen abarbeitet, zu einer KI, die Relationen großräumig gewichtet.

Sprache wurde dadurch zu einem Beziehungsraum. Später weitete sich diese Logik auf Bilder, Code, Proteine, Moleküle, Sensorik und wissenschaftliche Daten aus. Der Transformer steht damit für eine neue Form maschineller Modellierung: Zusammenhänge werden nicht vollständig vorab in Regeln gegossen. Sie werden aus Daten, Kontexten und Rückkopplungen erschlossen.

Jakob Uszkoreit und die Rückkehr der Ingenieurintuition

Bei der Paneldebatte „The Future of Science in the Age of AI“ am Eröffnungstag des Google AI Center Berlin am 5. März 2026 wurde diese Verschiebung zur Leitfrage. Auf dem Podium saßen Yossi Matias, Jakob Uszkoreit, Fabian Theis, Alena Buyx und Klaus-Robert Müller. Die Diskussion kreiste um die Frage, ob KI Wissenschaft nur beschleunigt oder ihre innere Ordnung verändert.

Uszkoreit setzte dabei den entscheidenden Akzent. Der Transformer entstand nicht aus einer abgeschlossenen mathematischen Theorie des Verstehens. Er entstand aus einer technischen Idee, die funktionierte. Für Uszkoreit ist das kein Betriebsunfall der Wissenschaft, eher eine Rückkehr zu einer älteren Dynamik. In vielen Epochen kam die Ingenieurkunst vor der Theorie. Menschen bauten, variierten, prüften, verbesserten. Die systematische Erklärung folgte später.

Damit verschiebt sich auch das Bild der Forschung. Wissenschaft beginnt nicht immer mit einer fertigen Theorie, aus der Experimente abgeleitet werden. Oft beginnt sie mit einem wirksamen Eingriff, einem überraschenden Befund, einem Artefakt, das mehr kann als erwartet. KI verstärkt diese Bewegung. Sie erzeugt Hypothesen, findet Muster, entwirft Moleküle, schlägt Experimente vor. Verstehen bleibt wichtig, aber es entsteht häufiger nach dem Gelingen.

Wenn Hypothesen billig werden, wird Prüfung kostbar

Yossi Matias beschrieb in Berlin KI als Beschleuniger wissenschaftlicher Entdeckung. KI-Agenten können Literatur auswerten, Hypothesen erzeugen, Entwürfe kritisieren, Lücken in Argumentationen markieren und Forschungswege vorsortieren. Daraus entsteht die Vorstellung eines virtuellen Labors, das auch jungen Wissenschaftlerinnen und Wissenschaftlern zur Verfügung steht.

Diese Entwicklung verändert die akademische Arbeitsteilung. Wissenschaftliche Reife war lange mit Langsamkeit verbunden: lesen, vergleichen, rechnen, scheitern, verwerfen, erneut beginnen. Wenn Systeme Teile dieser Arbeit übernehmen, verschwindet die Forscherin nicht. Ihre Aufgabe verlagert sich. Sie muss stärker urteilen, auswählen, priorisieren und validieren.

Gerade darin liegt die neue Knappheit. Ideen können massenhaft generiert werden. Hypothesen lassen sich in Tausenden Varianten bilden. Der Engpass liegt bei der Prüfung. Reproduzierbarkeit, Fehlerabschätzung, experimentelle Bestätigung und institutionelle Qualitätskontrolle werden wichtiger als die bloße Erzeugung neuer Vorschläge. KI macht die Wissenschaft schneller. Sie zwingt sie zugleich, ihre Prüfverfahren zu härten.

Biologie als Testfall

Fabian Theis machte deutlich, warum die Lebenswissenschaften zu einem zentralen Testfeld dieser Entwicklung werden. In der Biologie fehlen oft jene kompakten Gesetze, die der Physik über lange Zeit Orientierung gaben. Zellen, Gewebe, Krankheiten und Therapien bilden ein Geflecht von Wechselwirkungen, das menschliche Intuition überfordert.

KI kann hier Muster über Millionen von Zellen und molekularen Zuständen hinweg erkennen. Sie kann Krankheitsverläufe modellieren, Zellzustände vergleichen und Kombinationen von Interventionen entwerfen. Der Mensch bleibt nicht außen vor. Doch seine Rolle verändert sich. Er wird zum Interpreten, Prüfer und Gestalter maschinell erzeugter Wissensräume.

Damit zeigt sich eine Parallele zum User Modeling. In beiden Fällen geht es um Annahmen unter Unsicherheit. Was weiß das System? Was vermutet es? Welche Daten fehlen? Welche Konsequenzen hat ein Eingriff? Die Frage betrifft nicht nur den einzelnen Nutzer. Sie betrifft biologische Systeme, medizinische Entscheidungen, wissenschaftliche Hypothesen und gesellschaftliche Anwendungen.

Die Mathematik bleibt unentbehrlich

Klaus-Robert Müller brachte in die Debatte eine notwendige Nüchternheit ein. KI ist mathematisch fundiert, doch die Wissenschaften unterscheiden sich darin, wie viel Daten sie besitzen und wie teuer Irrtümer sind. In der Bildklassifikation kann ein Fehler harmlos sein. In der Medizin kann er lebensentscheidend werden. In der Quantenchemie oder Molekülsimulation sind Daten oft aufwendig zu berechnen. Dort muss KI physikalisches und mathematisches Vorwissen nutzen, um mit weniger Beispielen tragfähige Aussagen zu gewinnen.

Daraus folgt: Es gibt keine einheitliche Wissenschafts-KI. Jedes Feld bringt eigene Datenlagen, Risiken, Standards und Erklärungspflichten mit. Die Modelle müssen nicht nur leistungsfähig sein. Sie müssen zum jeweiligen Erkenntnis- und Verantwortungsraum passen.

Die Ethik der Forschungsbeschleunigung

Alena Buyx verschob die Frage von der Transparenz auf die Organisation der Wissenschaft. In der Medizin wurde häufig gehandelt, bevor alle Wirkmechanismen vollständig verstanden waren. Aspirin ist ein klassisches Beispiel. Vollständige Erklärung ist nicht immer Voraussetzung verantwortlichen Handelns. Entscheidend ist der Umgang mit Unsicherheit, Risiko und Verantwortung.

Buyx’ Kernfrage betrifft Ausbildung und Infrastruktur. Wenn KI-Werkzeuge allgegenwärtig werden, wer kontrolliert dann Datenzugänge, Modelle und Rechenkapazitäten? Wie bleibt Forschung unabhängig, wenn zentrale Ressourcen bei wenigen Akteuren liegen? Wie bildet man Nachwuchs aus, wenn junge Forschende mit KI plötzlich Aufgaben bewältigen können, für die früher ein ganzes Labor nötig war?

Ihr Beispiel aus der Chirurgie trifft den Punkt. Minimalinvasive Verfahren veränderten das Operieren grundlegend. Chirurgen mussten neue Techniken lernen, zugleich mussten sie wissen, wann der alte Eingriff nötig bleibt. Für die KI-Wissenschaft gilt etwas Ähnliches. Forschende sollen neue Werkzeuge nutzen. Sie müssen aber erkennen können, wann das Werkzeug versagt.

Personalisierung als Machtform

Damit führt die Berliner Debatte zurück zu Wahlster und Kobsa. Personalisierung ist keine bloße Bequemlichkeit. Sie entscheidet, welche Information jemand erhält, welche Komplexität reduziert wird, welche Wege empfohlen werden und welche Optionen verschwinden. Das gilt für Lernplattformen, medizinische Systeme, Suchmaschinen, Forschungsassistenten, Verwaltungssysteme und Robotik.

Ein System, das Menschen modelliert, erzeugt keine neutrale Beschreibung. Es arbeitet mit Annahmen. Diese Annahmen können hilfreich, falsch, riskant oder diskriminierend sein. Deshalb ist die Unterscheidung zwischen Wissen, Vermutung, Rollenannahme und statistischer Zuschreibung zentral.

Wahlster und Kobsa sahen dieses Problem früh. Ein User Model ist bei ihnen nicht einfach eine Sammlung von Informationen über eine Person. Es ist eine eigene Wissensquelle mit expliziten Annahmen, die vom übrigen Systemwissen unterscheidbar sein müssen. Die Modellierungskomponente soll solche Annahmen aufbauen, aktualisieren, löschen, konsistent halten und anderen Systemteilen verfügbar machen.

Diese begriffliche Präzision fehlt vielen heutigen KI-Systemen. Sie passen sich an, ohne ihre Annahmen offenzulegen. Sie prognostizieren, ohne klar zwischen Evidenz und Zuschreibung zu trennen. Sie wirken intelligent, während ihr Bild vom Menschen verborgen bleibt.

Wissenschaftliche Literatur als Trainingsmaterial

Uszkoreit brachte in Berlin einen Gedanken ein, der weit über technische Fragen hinausreicht: Wissenschaftliche Literatur lässt sich als von Menschen erzeugte synthetische Daten lesen. Fachartikel speichern nicht nur Erkenntnisse. Sie tragen auch die Anreizstrukturen der Wissenschaft in sich: Publikationsdruck, Zitierlogiken, modische Themen, methodische Vorlieben, institutionelle Hierarchien.

Wenn KI diese Literatur massenhaft auswertet, übernimmt sie nicht nur Wissen. Sie lernt auch Formen wissenschaftlicher Selbstdarstellung. Damit entsteht ein neues Risiko. KI könnte Forschung objektiver machen, weil sie größere Zusammenhänge erkennt. Sie könnte aber auch bestehende Verzerrungen beschleunigen, weil sie aus Texten lernt, die bereits von Karrieren, Gutachten und Förderlogiken geprägt sind.

Die Antwort darauf liegt nicht allein in besseren Modellen. Sie liegt in neuen Prüfverfahren, offenen Daten, Replikationskulturen, transparenter Autorenschaft und Anreizsystemen, die robuste Erkenntnis stärker belohnen als schnelle Produktion.

Aufmerksamkeit reicht nicht

„Attention Is All You Need“ war ein glänzender Titel für einen technischen Durchbruch. Für die gesellschaftliche Wirklichkeit der KI reicht Aufmerksamkeit nicht aus. Ein System braucht Gedächtnis, Zweckbindung, Revidierbarkeit, Risikobewusstsein und eine klare Trennung zwischen Annahme und Erkenntnis.

Die neue KI spricht von Tokens, Parametern, Kontextfenstern und Attention Heads. Die ältere User-Modeling-Forschung sprach von Überzeugungen, Zielen, Plänen, Fehlannahmen, Konsistenz und Revision. Die nächste Generation vertrauenswürdiger KI muss diese Sprachen zusammenführen.

Die nächste Wissenschaft kennt ihre Unsicherheit

Die zentrale Aufgabe liegt nicht darin, KI menschlicher wirken zu lassen. Wichtiger ist, ihre Annahmen über Menschen, Daten, Systeme und Hypothesen prüfbar zu machen. Gute KI wird nicht maximal personalisieren oder maximal generieren. Sie wird situationsgerecht modellieren, Unsicherheit ausweisen und Grenzen respektieren.

Nach der Ära der großen Modelle beginnt die Ära verantwortlicher Modellierung. Sie betrifft nicht nur Sprache. Sie betrifft Wissenschaft, Medizin, Bildung, Verwaltung, Industrie und öffentliche Infrastruktur.

KI verändert Forschung nicht allein durch Geschwindigkeit. Sie verschiebt den Ort, an dem Erkenntnis entsteht: zwischen Theorie und Experiment, Mensch und Modell, Hypothese und Intervention, Verstehen und Wirkung. Genau dort entscheidet sich, ob Wissenschaft im Zeitalter der KI nur produktiver wird. Oder auch klüger.

Zur KI-Forschungsgeschichte, die vor 40 Jahren in Maria Laach bei Bonn begründet wurde, siehe auch das Interview mit Wolfgang Wahlster: