Manche Hochzeiten kommen plötzlich. Diese hier nicht. Nach ungefähr 220 Jahren Verlobung dürfen Hänneschen und Bärbelchen nun also endlich vor den Traualtar. In Köln ist das keine private Angelegenheit zweier Puppen, sondern ein Eingriff ins Brauchtumsgefüge. Man könnte auch sagen: Wenn Hänneschen heiratet, wackelt kurz der Alter Markt.
Die Antwort lautet: Erst einmal wird gefeiert. Dann geht alles schief.
„Nä, dat fängk jo jot aan.“
Der schönste Abend vor dem schlimmsten Morgen
Am Vorabend der Trauung trennen sich die Wege. Die Männer ziehen in die Altstadt, mit Bauchladen, Durst und der bekannten männlichen Zuversicht, dass man schon irgendwie wieder nach Hause findet. Die Frauen feiern derweil ihre eigene Runde und reden über das, was nach dem weißen Kleid kommen könnte: Ehe, Alltag, Kinder, Kochtöpfe, Erwartungen, Enttäuschungen. Das klingt schwerer, als es gespielt wird. Huhmann schreibt keine Volkshochschulkomödie über Rollenbilder, sondern lässt die alten Figuren in eine Gegenwart geraten, in der man nicht mehr jede Eheweisheit unbesehen durchwinkt.
Der Bräutigam hat die Braut vorher im Kleid gesehen. Unglück, sagt der Aberglaube. Im Hänneschen Theater ist Aberglaube kein psychologisches Motiv, sondern ein dramaturgischer Türöffner: Einer tritt falsch ein, und schon poltert die ganze Nacht hinterher.
Hänneschen verschwindet. Schäl schält. Gamaschen-Tünn bekommt seinen finsteren Nutzen. Und aus dem Junggesellenabschied wird eine Rettungsaktion.
„Wat fott es, es fott — außer dä Brüdigam, dä muss widder her.“
Huhuuuu! — Ein Gespräch auf Kölner Niveau
Der Abend hat seine besten Momente dort, wo er gar nicht viel erklären will. Der Uhu oder die Eule ruft: „Huhuuuu!“ Das Publikum antwortet: „Huhuuuu!“ Noch einmal. Wieder Antwort. Ein drittes Mal. Wieder der Saal. Dann fliegt das Tier davon und bedankt sich für das „tiefgehende Gespräch“.
Das ist keine große Allegorie, kein Nachtvogel aus dem Unterbewusstsein, kein Orakel auf Kölsch. Es ist einfach ein Witz, der funktioniert, weil der Saal funktioniert. Drei Rufe, drei Antworten, ein trockener Abgang. Mehr braucht ein gutes Hänneschen-Moment nicht. Die Pointe sitzt, weil sie dem Publikum vertraut. Köln muss man an solchen Stellen nicht bitten mitzumachen; Köln macht mit, wenn der Takt stimmt.
Und an diesem Abend stimmt er oft.
Der Saal spielt mit, als stünde er auf der Besetzungsliste
Überhaupt ist das Publikum an diesem Abend keine höfliche Geräuschkulisse. Es singt. Es schunkelt. Es reagiert schnell, manchmal schneller, als man in einem Stadttheater mit rotem Samt erwarten würde. Im Hänneschen Theater aber gehört diese Unmittelbarkeit zum Vertrag. Wer hier lacht, lacht nicht diskret in die Faust. Wer ein Lied erkennt, hält sich nicht zurück wie im Liederabend. Hier wird der Saal zum Verstärker der Bühne.
Das kann leicht kippen in Heimeligkeit. Tut es aber nicht, weil Huhmann die Figuren nicht nur auf bekannten Knöpfen herumdrücken lässt. Sie gönnt ihnen Widerspruch. Die Frauenrunde ist nicht bloß Gegenprogramm zum Männerausflug. Sie ist ein Ort, an dem Bärbelchens Hochzeit nicht nur gefeiert, sondern auch befragt wird. Was heißt das eigentlich: heiraten? Wird aus Liebe sofort Zuständigkeit? Aus Romantik Hausarbeit? Aus Treue Gewohnheit?
„Jede Jeck es anders — un manche sin et och noch noh der Huhzigg.“
Bärbelchen wartet nicht nur schön herum
Bärbelchen ist in diesem Stück keine Puppenbraut im Wartestand. Sie bekommt keine grelle Emanzipationsrede, die wie aus einem anderen Theater hereingeweht wäre. Besser: Sie handelt. Sie zweifelt, will, sucht, rettet. Huhmann modernisiert das Hänneschen nicht mit Presslufthammer und Warnweste, sondern mit kleinen Verschiebungen. Die Figuren bleiben kenntlich, aber sie stehen nicht mehr ganz dort, wo sie vor fünfzig Jahren gestanden hätten.
Das ist die Kunst dieses Abends. Er erlaubt sich neue Fragen, ohne den alten Tonfall zu verraten. Es wird getrunken, getrickst, getarnt, gesungen, gerettet. Und zwischendurch blitzt auf, dass selbst ein Dorf aus Holz- und Stoffköpfen nicht in der Zeit stehen bleibt.
„Et Hätz es us Holz? Kann sin. Kloppe deit et trotzdem.“
Tünnes als Antonia, Schäl als Schäl — die Ordnung der Unordnung
Natürlich braucht ein solcher Abend seine Unordnung. Der Schäl muss schäbig sein dürfen. Tünnes muss gutmütig bleiben, auch wenn die Lage gefährlich wird. Wenn er als liebliche Antonia verkleidet Trude Herrs „Ich will keine Schokolade“ ins Spiel bringt, ist das mehr als eine Nummer zum Wiedererkennen. Es gehört zu dieser kölschen Theatermechanik, in der Verkleidung nicht verdeckt, sondern freilegt. Einer spielt eine andere, und plötzlich ist die Wahrheit ein bisschen näher.
Die Wendungen kommen mit Tempo, aber nicht wahllos. Der verschwundene Bräutigam ist kein bloßer Vorwand, sondern der Motor des Abends. Erst als Hänneschen weg ist, zeigt sich, wer wen braucht, wer wen verrät, wer wen sucht und wer im entscheidenden Moment mehr kann als nur Sprüche klopfen.
Am Ende steht der Saal
Dass am Schluss geheiratet wird, kann niemanden ernsthaft überraschen. Alles andere hätte vermutlich eine Bürgerversammlung zur Folge. Aber Huhmann lässt diese Hochzeit nicht billig fallen wie Konfetti. Sie muss erst durch die Nacht, durch Schnaps, Aberglauben, Betrug, Verkleidung und Rettung hindurch. Danach ist sie nicht weniger romantisch, sondern rheinischer: Man weiß, was alles schiefgehen kann, und macht es trotzdem.
Die Standing Ovation am Ende wirkt deshalb nicht wie Pflichtapplaus für eine Lokalheilige. Sie ist Zustimmung zu einem Eingriff, der riskanter ist, als er auf den ersten Blick aussieht. Hänneschen und Bärbelchen zu verheiraten heißt, an einer kölschen Dauereinrichtung zu rütteln. Huhmann rüttelt kräftig genug, dass es Spaß macht, aber nicht so grob, dass einem die Figuren aus der Hand fallen.
Das Hänneschen Theater zeigt mit „Endlich Huhzigg“, dass Tradition nicht dadurch lebendig bleibt, dass man sie in Ruhe lässt. Man muss sie gelegentlich stören, besingen, austricksen, retten und am Ende mit dem ganzen Saal hochleben lassen.
„Huhuuuu!“ ruft der Uhu. „Huhuuuu!“ ruft Köln zurück. Und dann wird geheiratet. Oder auch nicht.
Siebzehn Minuten Messe-TV können ausreichen, um ein ganzes deutsches Führungsproblem freizulegen. Auf der einen Seite liegen die Zahlen, geschniegelt, geordnet, dashboardfähig. Auf der anderen Seite sitzt die Entscheidungsmacht, die sich gern strategisch gibt, in kritischen Augenblicken aber oft wieder in jene altvertraute Mischung aus Routine, Rangordnung und innerem Wetter zurückfällt. Dazwischen arbeitet HR, kennt die Verhältnisse im Haus, sieht die Abwanderung, die Blockaden, die stillen Defekte der Organisation, findet für all das jedoch zu selten eine Form, die oben wirklich ankommt.
Julia Merkel hat diesem Missstand im Gespräch auf der Zukunft Personal Süd eine überraschend präzise Form gegeben. People Analytics, so ihre Linie, lebt nicht vom Zahlensammeln. Es lebt davon, dass aus Daten eine verständliche Geschichte wird. Eine Geschichte darüber, wo ein Unternehmen steht, was ihm fehlt, worauf es zuläuft, welche Talente es gewinnt, welche es verliert, welche Fähigkeiten wachsen und welche Führungskräfte Entwicklung fördern oder aus Besitzstandsangst klein halten. Genau in diesem Übergang von der Kennziffer zur erzählbaren Lagebeschreibung beginnt strategische Personalarbeit.
Das klingt zunächst wie eine hübsche Managementformel. In Wahrheit ist es eine Machtfrage. Zahlen sprechen nicht. Sie klopfen nicht beim CEO an. Sie zerren keinem CFO den Blick aus der Excel-Zelle. Sie stellen keinen Antrag auf Zukunft. Sie liegen da. Erst durch die richtige Erzählung erhalten sie Richtung, Gewicht und Eingriffskraft.
Allensbach, Bonn und die Schule des politischen Lesens
In meiner Zeit als Leiter des Bonner Büros des Instituts für Demoskopie Allensbach lernte ich Wolfgang Bergsdorf in seiner Funktion im Bundespresseamt kennen. Das war zwischen 1989 und 1993, in jener wilden Übergangszeit zwischen Mauerfall, Wiedervereinigung und der täglichen Improvisation des Historischen. Ich schrieb damals die Wochenberichte fürs Kanzleramt, saß in den Themenkonferenzen zu den Monatsumfragen und erlebte dort Bergsdorf und Horst Teltschik als zwei sehr verschiedene, aber kongeniale Leser der politischen Wirklichkeit: der eine semantisch bewaffnet, der andere strategisch bis in die Fingerspitzen.
Bergsdorf war kein bloßer Verwalter amtlicher Sprachhygiene. Er verstand Politik als Kampf um Begriffe, als ein Geschäft der Deutung, der Verschiebung, der Besetzung. In seiner Studie über „Herrschaft und Sprache“ hatte er 1983 beschrieben, wie politische Schlüsselwörter Erwartungen verdichten, Stimmungen verstärken und den Bewertungsrahmen gleich mitliefern. Und in einer Passage, die heute fast prophetisch klingt, schreibt er, regelmäßig veröffentlichte Daten böten Politikern die Möglichkeit, die Lage nach ihren Rollen zu bewerten; dieselben Zahlen würden von Regierung und Opposition in unterschiedliche Geschichten übersetzt, einmal beschwichtigend, einmal bedrohlich. „Verweisungssymbole sind das Kleingeld der politischen Sprache“, heißt es dort. Mehr Bonner Wahrheit passt kaum auf eine Seite.
Diese Schule verläßt einen nicht mehr. Seitdem erscheinen Daten nicht mehr als unschuldige Meßwerte, sondern als Rohstoff der Deutung. Sie treten nie nackt in die Welt. Sie kommen immer schon eingekleidet, gerahmt, mit Untertiteln versehen. Genau hier wird der Satz von Julia Merkel stark. Wer in HR mit Zahlen hantiert, muss ihre sprachliche Fassung mitdenken. Sonst bleibt alles bei einem internen Rechenexempel, geschniegelt wie eine Jahresabschlussfolie und so folgenlos wie ein höflich protokollierter Kummer.
Nicht die Gebäude, die Begriffe
Bergsdorfs Bonner Milieu hatte für diese Einsicht noch eine zweite, sehr schöne Zuspitzung. In seiner Studie zitiert er Kurt Biedenkopf mit einem Satz, der wie ein Lehrstück über Macht und Sprache klingt: „Statt der Gebäude der Regierungen werden die Begriffe besetzt, mit denen sie regiert.“ Heiner Geißler hat das als CDU-Generalsekretär mit Bahnhöfen zum Besten gegeben.
Darin steckt mehr Staatskunst als in mancher Führungskräftetagung. Wer Begriffe besetzt, besetzt Wahrnehmung. Wer Wahrnehmung besetzt, lenkt Entscheidungen, oft schon, bevor ein Beschluss gefasst wird. Genau an diesem Punkt liegt die eigentliche Modernität von People Analytics. Die Kunst besteht nicht darin, immer neue Felder in Tabellen zu füllen. Die Kunst besteht darin, jene Begriffe zu formen, mit denen im Unternehmen über Zukunft entschieden wird: Wechselbereitschaft, Zukunftsfähigkeit, Skill-Lücke, Entwicklungspfad, Führung, Bindung, Potenzial, Nachfolge, Lernfähigkeit.
Julia Merkel hat genau das skizziert. Recruiting-Daten wie Time-to-Hire, Cost-of-Hire oder Early Attrition Rate bleiben totes Material, solange niemand sie mit einer erkennbaren Frage verbindet: Was sagt uns das über die Handlungsfähigkeit dieses Unternehmens? Was zeigt es über seine innere Beweglichkeit? Wo wird Personal noch als Ressource verwaltet, wo schon als strategische Energie begriffen?
Herbert Anton und die Poetik der Personalarbeit
An dieser Stelle betritt Herbert Anton die Szene, und zwar nicht als Fremdkörper, sondern als überraschend passender Geist. In der Lesung in der Bonner Buchhandlung Böttger über ihn wird er als Lehrer beschrieben, dessen Freitagsvorlesungen nicht durch trockene Gelehrsamkeit, sondern durch eine lebendige Dialektik aus Literatur, Philosophie und Deutungskraft wirkten. Seine Zuhörer nahmen aus diesen Stunden nicht bloß Stoff mit, sie nahmen eine veränderte Art des Sehens mit. Jochen Hörisch spricht dort vom „Wunsch, Sein und Dasein zu deuten“ und von der Fähigkeit, dem Gewicht der Welt sprachlich standzuhalten. Anton schlug Böttger einen Werbespruch vor: „Schlange stehen erlaubt“. So etwas bleibt im Hirn.
Genau darin liegt die heimliche Verbindung zur Welt von Julia Merkel. Auch People Analytics ist zunächst nur Material. Erst in der Deutung wird daraus eine Form des Weltbezugs. Herbert Anton hätte vermutlich gesagt, dass die Zahl noch kein Gedanke ist, vielleicht nicht einmal ein halber. Sie ist ein Versprechen auf Deutung, weiter nichts. Die Wahrheit beginnt nicht im Zahlenfriedhof, sie beginnt dort, wo aus den Zahlen eine Lagebeschreibung wird, die trägt.
Im Ton Herbert Antons könnte man sagen: HR scheitert selten an der Datenlage. Es scheitert an der semantischen Armut seiner Selbstbeschreibung. Es redet zu oft wie eine Abteilung, obwohl es über die Verfassung des Ganzen Auskunft geben könnte. Es spricht in Indikatoren, wo ein Schicksalsbericht nötig wäre. Es liefert Kurven, wo ein Unternehmen lernen müsste, sich selbst zu lesen.
Die stille Revolution der Personalarbeit
Was Julia Merkel im Messe-TV andeutete, lässt sich mit etwas Bosheit so zuspitzen: Die Personalarbeit ist aus dem Stadium des fürsorglichen Beipacks herausgewachsen und weiß es selbst oft noch nicht. Sie sitzt vielerorts noch unterhalb des Vorstands, organisatorisch in CFO-Nähe oder in irgendeiner Ordnung der zweiten Reihe, wird zu Transformation befragt, darf Kultur entwerfen und Recruiting beschleunigen, soll aber bitte nicht vergessen, dass die eigentliche Musik anderswo spielt.
Genau das ändert sich, sobald aus Daten Geschichten werden, die auf der Vorstandsetage in Entscheidungen eingreifen. Wer zeigen kann, wie Skill Gaps die Zukunftsfähigkeit eines Unternehmens unterhöhlen, wie mangelnde Entwicklungsförderung Abwanderung produziert, wie schwaches Nachfolgemanagement Risiken aufstaut oder wie Führung auf Potenziale wirkt, verlässt die Sozialzone der Personalfunktion. Er bewegt sich in Richtung Strategie.
Das ist keine kosmetische Aufwertung. Denn auf einmal wird Personal nicht mehr als Folgeproblem der Strategie behandelt, sondern als ihr stiller Untergrund. Die Zukunft eines Hauses entscheidet sich dann nicht bloß am Produkt, am Kapital oder an der Marktposition. Sie entscheidet sich an seiner Fähigkeit, Fähigkeiten zu erkennen, zu entwickeln und gegen die Trägheit des Apparates zu verteidigen.
Der Aufsichtsrat nach dem Frühstück
Von dort ist der Weg in die oberen Kontrollgeschosse nicht weit. Denn sobald HR seine Daten in wirksame Geschichten übersetzt, stellt sich die nächste Frage: Wer hört oben eigentlich zu? Wer fordert nach? Wer prüft, ob das Unternehmen personell für die Zukunft gerüstet ist?
Hier gewinnt der alte Aufsichtsrat eine neue Farbe. Früher, so habe ich es einmal beschrieben, konnte sich ein Kontrollgremium in noblen Hotels in Flughafennähe treffen, die Beschlussvorlagen des Vorstands abnicken und die eigene Pflichterfüllung mit Anwesenheit verwechseln. Das habe ich als Führungskraft in der Wirtschaft mehrfach erlebt bei der Vorbereitung solcher Treffen. Diese Epoche ist vorbei. Die Rechtsprechung hat die Anforderungen verschärft, die Beweislast faktisch umgedreht, die Rolle des Aufsichtsrats vom dekorativen Oberstockwerk in eine Zone realer Haftung verschoben. Es reicht folglich nicht mehr aus, Beschlussvorlagen nur zustimmend zur Kenntnis zu nehmen.
Vor diesem Hintergrund bekommt Merkels Blick auf Gremienarbeit besonderes Gewicht. Sie fragt in Aufsichtsräten gezielt nach Succession Planning, Skill Management, Zukunftsfähigkeit und Investitionen in Menschen. Das ist eben kein Wohlfühlthema für den dritten Teil der Sitzung, nachdem Liquidität, Rechtsstreitigkeiten und Bilanzrisiken abgehakt sind. Es ist ein Kontrollthema erster Ordnung.
Denn was nützt die beste Krisenüberwachung, wenn das Unternehmen personell auf Sicht fährt? Was hilft die sauberste Berichterstattung, wenn Führungskräfte Weiterbildung aus Angst vor interner Mobilität blockieren? Auch das habe ich als Hochschuldozent erlebt. Was bedeutet Governance, wenn die Frage, ob ein Unternehmen künftig noch die richtigen Leute, die richtigen Fähigkeiten und die richtige innere Beweglichkeit besitzt, freundlich gewürdigt, aber nicht ernsthaft bearbeitet wird?
Frauen, Verbindungen und die alten Spiegel
Im Gespräch wurde das Thema Frauen in Aufsichtsräten fast beiläufig aufgerufen, und gerade diese Beiläufigkeit hatte Witz. Was müsse geschehen, damit mehr Frauen in die Kontrollgremien kommen? Man müsse mehr Frauen benennen, sagte Merkel. Schlichter lässt sich ein institutioneller Missstand kaum freilegen.
Der Satz hat Wucht, weil er ohne Empörungsornament auskommt. Es fehlt nicht an Qualifikation. Es fehlt oft an Sichtbarkeit, an Zugang, an jener Mischung aus Netz, Reputation und Einladung, in der Macht sich gern selber reproduziert. Noch spannender war ihr zweiter Hinweis: Unterrepräsentiert seien nicht nur Frauen, unterrepräsentiert sei auch HR-Kompetenz selbst. Da sitzt die Ironie der Gegenwart. Ausgerechnet in einer Ära, in der Transformation, Nachfolge, Skills, Lernfähigkeit und Kultur die halbe Zukunftsdebatte tragen, dominieren in vielen Gremien noch immer die vertrauten Lebensläufe aus Finanzen, Recht und klassischer operativer Führung.
Natürlich braucht ein Aufsichtsrat diese Kompetenzen. Wer Haftung, Bilanz, Kapitalherkunft oder Krisenindikatoren nicht lesen kann, gehört dort nicht hin. Merkel sagt auch genau das: Man müsse mit Zahlen umgehen, Bilanzlogik verstehen, juristische Grundfragen mitdenken, strategisch lesen und nah am Geschäft bleiben. Nur endet die Zukunftsfähigkeit eines Unternehmens eben nicht in der Bilanz. Sie beginnt dort, wo das Unternehmen die Fähigkeiten seiner Leute, seine internen Entwicklungspfade und seine personelle Wandlungsfähigkeit ernst nimmt.
Die neue Härte des weichen Themas
Das Gespräch mit Julia Merkel hatte darum eine eigentümliche Qualität. Es war freundlich, sachlich, unprätentiös. Zugleich räumte es mit einer ganzen Reihe deutscher Bequemlichkeiten auf. Mit der Bequemlichkeit, Daten für objektiv und selbsterklärend zu halten. Mit der Bequemlichkeit, HR auf Prozessverwaltung zu reduzieren. Mit der Bequemlichkeit, Aufsicht als formales Nicken zu verwechseln. Mit der Bequemlichkeit, Frauen- und HR-Kompetenz in Gremien noch immer wie Ergänzungsmaterial zu behandeln.
Das vermeintlich weiche Thema Personal gewinnt seine Härte erst in der richtigen Sprache. Wer Menschen nur verwaltet, bleibt im Untergeschoss des Unternehmens. Wer aus Daten eine Lagebeschreibung formt, die CEO, CFO und Aufsichtsrat nicht umgehen können, greift in die Unternehmensverfassung ein.
Bergsdorf hätte daran vermutlich seine Freude gehabt. Er wusste, dass politische Sprache nicht Dekoration, sondern ein Mittel gesellschaftlicher Kontrolle ist. Herbert Anton hätte wiederum erinnert, dass Deutung keine Verzierung des Wirklichen darstellt, sondern seine Erschließung. Julia Merkel sitzt genau zwischen diesen beiden Polen. Sie beschreibt eine Personalarbeit, die zugleich präzise messen und klug erzählen muss. Eine Personalarbeit, die ihre Zahlen nicht nur vorzeigen, sondern in Handlung übersetzen will.
Man kann es auch knapper sagen. Die Daten sind das Kleingeld. Die Geschichte ist die Währung. Und wer im Unternehmen nur zählt, ohne zu deuten, wird am Ende selbst gezählt.
Wer viel liest, kennt das eigentümliche Verschwinden des Gelesenen. Man hat Sätze markiert, PDFs gespeichert, Bücher angestrichen, Studien abgelegt, Interviews transkribiert, Notizen in Hefte geschrieben, Links gesammelt, Gesprächsfetzen festgehalten. Nichts davon ist verloren. Und doch ist es oft nicht mehr erreichbar. Es liegt irgendwo, aber es arbeitet nicht. Es ist vorhanden, aber stumm.
Ihtesham Ali hat für dieses Problem eine knappe Formel gefunden (allerdings mit einem krassen Fehler im X-Posting): Information ohne Verbindung ist unsichtbar. Der Satz wirkt so einfach, dass man ihn leicht unterschätzt. Er beschreibt nicht nur eine Schwäche des Gedächtnisses. Er beschreibt die Schwäche fast aller Ablagesysteme. Sie speichern, aber sie verbinden nicht. Sie sortieren, aber sie bringen nichts ins Gespräch. Sie schaffen Ordnung, aber häufig eine Ordnung, in der Gedanken begraben werden.
A German bureaucrat who never held a single academic position wrote more books than most universities produce in a decade, and the system he used has been sitting in libraries for 70 years waiting for someone to build it into software.
Niklas Luhmanns Zettelkasten war das Gegenteil einer solchen Ablage. Er war keine Sammlung von Exzerpten, kein Themenarchiv, keine Materialhalde. Er war ein System, das Antworten geben konnte, weil es aus Verweisen bestand. Der einzelne Zettel war nicht wichtig, weil er an der richtigen Stelle lag. Er war wichtig, weil er an andere Zettel anschließen konnte. Sein Wert entstand aus Nachbarschaften, Querverbindungen, Widersprüchen, Umwegen.
Genau daran arbeitet Sohn@Sohn längst weiter. Nicht als nostalgische Rückkehr zur Karteikarte, sondern als KI-gestütztes Verfahren der Kombinatorik. Wir nennen es, vorläufig und nicht ohne Absicht, eine Luhmann-KI. Sie ist keine Software im trivialen Sinne, kein weiteres Tool zur Dokumentenverwaltung, keine Suchmaschine mit höflicher Benutzeroberfläche. Sie ist eine Arbeitsweise: analoge Notizzettel, digitale Archive, gescannte PDFs, Bücher, Studien, Transkripte, Gesprächsnotizen, Videos, Blogtexte und KI-Abfragen werden so verschaltet, dass aus Material Verbindungen werden. Man könnte sagen: Der Zettelkasten ist bei Sohn@Sohn nicht mehr nur Möbel, sondern Methode.
Keine Rubrik für ein Lebenswerk
Luhmann erklärt im Gespräch mit Gerhard Johann Lischka sehr genau, worin die eigentliche Pointe seines Systems liegt. Lischka fragt nach dem „bekannten Zettelkasten“, nach diesem „wissenschaftlichen Adaptionsgefüge“, in dem man jeden Zettel „im ganzen System wiederfinden“ und „ganz neue Strukturen herstellen“ könne (DVD „Am Nerv der Zeit“ Interviews mit Jean Baudrillard, Lyotard, Kittler, Lenk, Warhol, Capote und vielen anderen spannenden Persönlichkeiten).
Luhmann antwortet mit einer fast trockenen Präzision: „Die Entscheidung, die unwahrscheinliche Entscheidung ist zunächst, dass man keine systematische Gliederung hat für die Stellordnung der Zettel.“ Kein System großer Rubriken also, keine vorab festgelegte Taxonomie, kein Inhaltsverzeichnis des künftigen Denkens. Man solle nicht „von vornherein das Ganze einteilen in Großrubriken“ und dann „immer einen Platz suchen“ müssen. Was man für ein Buch brauche, tauge nicht für ein Lebenswerk. An die Stelle dieses Gliederungsraums trete „eine feste Nummerierung“. Jeder Zettel habe „eine Nummer, die wird nie geändert“.
Das ist mehr als eine technische Auskunft. Es ist eine Theorie des Denkens. Ein Buch verlangt Gliederung, weil es abgeschlossen werden muss. Ein Lebenswerk verlangt Anschlüsse, weil es offen bleiben muss. Die Nummer ist bei Luhmann kein Käfig. Sie stabilisiert den Ort, damit die Verweise beweglich werden können. Die Stelle, „wo er steht“, sagt Luhmann, sei „immer diese Nummerierung“. Von dort könne man ausdehnen, von „21 auf 21 A“, von „21 A auf 21 A 1“ und weiter. Noch wichtiger: Die feste Nummerierung ermögliche, „dass man von jedem Zettel auf jeden anderen verweisen kann“.
Damit ist der Kern schon benannt. Nicht die Ablage ist entscheidend, sondern die Verweisung. Wenn man überlege, „wo man etwas hineintut“, wo man „einen Gedanken notiert und hinstellt“, sei das „nicht so wichtig“. Habe man mehrere Möglichkeiten, „regelt man das durch Verweisung“. Man notiert also: Dieser Zettel steht hier, aber für einen anderen Gedanken ist er dort wichtig. Deshalb wird ein Verweis gesetzt. Was für klassische Ordnungssysteme ein Problem wäre, wird bei Luhmann zum produktiven Normalfall. Ein Gedanke gehört nicht nur an eine Stelle. Er kann mehrere Zukünfte haben.
Der Fischzug durch die eigenen Gedanken
Luhmann beschreibt den Effekt dieses Verfahrens in einer Formulierung, die man für die Gegenwart der KI kaum überschätzen kann. Wenn man das „über Jahre oder Jahrzehnte“ tue, ergebe sich „ein Netz von Verweisungen“. Dann könne man, wenn man einen Zusammenhang „beim Vorhinein fasst“, „in einem Fischzug Zettel und Gedanken herausziehen“, die man „nie vorher als Einheit oder als Zusammenhang gesehen hat“. Der Zettelkasten wird so zu einer Art Selbstüberraschungsapparat. Luhmann spricht ausdrücklich davon, dass der Kasten „eine Art, sich selber zu überraschen“ ermögliche — „mit den Ergebnissen der eigenen Tätigkeit natürlich“. Und dann die entscheidende Ergänzung: Es gehe um „eine Kombinatorik, die nicht vorausgeklagt ist, nicht vorausgesehen ist, die auch nicht systematisiert ist“, sondern sich „aus diesen Beziehungen zwischen notierten Gedanken ergibt“.
Das ist der Satz, an dem die Luhmann-KI von Sohn@Sohn ansetzt. Nicht die Maschine denkt. Nicht der Algorithmus ersetzt den Autor. Aber ein gut gebautes Verfahren kann Beziehungen sichtbar machen, die in der Arbeit längst angelegt sind, ohne schon als Gedanke vorzuliegen. Genau wie der Zettelkasten bei Luhmann keine fremde Intelligenz war, sondern die eigene Arbeit in anderer Form zurückspielte, soll die Sohn@Sohn-KI das Archiv nicht bloß durchsuchen. Sie soll den Zusammenhang zeigen, den man noch nicht gesucht hat.
Luhmann gibt im Interview ein Beispiel. Er müsse einen Vortrag über Konstruktivismus halten. Natürlich gebe es dazu eine Zettelgruppe. Aber Konstruktivismus stehe nicht nur bei Wissenschaft. Er sei zugleich eine Theorie, „mit der die Wissenschaft sich selbst reflektiert“. Also gebe es Verweisungen auf andere Wissenschaftstheorien, auf Wirtschaftstheorie, auf das „Beobachten von Beobachtungen“, auf den Begriff der Beobachtung und weiter auf den Begriff der Unterscheidung. „Das wird immer komplizierter natürlich“, sagt Luhmann. Aber gerade in dieser Komplikation liegt die Kraft. Wer am Begriff des Konstruktivismus arbeitet, muss sich fragen, was sich bei der Theorie des Unterscheidens ergeben hat.
Das ist keine bloße Fußnotenökonomie. Es ist eine dynamische Denkform. Ein Begriff wird nicht definiert und abgelegt. Er wird in ein Feld gesetzt, in dem andere Begriffe ihn verändern. Konstruktivismus spricht mit Wissenschaft, Beobachtung, Wirtschaft, Politik, Unterscheidung. Genau so muss ein digitales Archiv arbeiten, wenn es mehr sein will als ein Speicher.
Der Zettelkasten ist nicht nur Ablage
Lischka fragt Luhmann, ob dieser Kasten so etwas wie ein „erweitertes Gehirn“ sei. Luhmann nimmt die Formulierung auf, verschiebt sie aber sofort. Das Gehirn liefere einem ja auch nicht immer genau das, „was man gedacht hat, dass einem einfallen würde“. Manchmal komme „ein schöner Unsinn oder irgendwas anderes heraus“. Und dann der Satz, der in jeden Entwurf einer Luhmann-KI gehört: „Der Zettelkasten reagiert auch in dieser Weise mit Überraschung.“ Deshalb sei er „nicht nur eine Ablage“.
Man muss diesen Satz sehr wörtlich nehmen. Ein Archiv, das nur ablegt, ist tot. Ein Archiv, das mit Überraschung reagiert, wird zum Gesprächspartner. Es beantwortet nicht nur die Frage, die man gestellt hat. Es erzeugt eine Antwort, die auf die eigene Arbeit zurückgeht, aber den eigenen Plan überschreitet. Das ist keine Mystik der Karteikarte. Es ist eine nüchterne Folge der Verweisstruktur.
Die Sohn@Sohn-KI übernimmt genau diese Funktion unter digitalen Bedingungen. Sie verwaltet nicht einfach Dokumente. Sie stellt Beziehungen her. Sie liest ein PDF nicht als abgeschlossene Datei, sondern als möglichen Anschluss. Sie behandelt ein Interview nicht als Transkript, sondern als Feld von Denkpartikeln. Sie zieht eine Sentiment-Analyse nicht als Stimmungsbarometer heran, sondern als relationales Material. Was bei Luhmann die feste Nummer und der Querverweis leisten, leisten bei Sohn@Sohn die Kombination aus analoger Notiz, digitalem Archiv, semantischer Suche, KI-gestützter Vergleichsoperation und redaktionellem Urteil.
Von der Bonner OB-Wahl zum digitalen Zettelkasten
Dass Sohn@Sohn diese Logik nicht erst als Theorie formuliert, sondern praktisch anwendet, zeigte sich bereits im Sentiment-Verfahren zur Bonner Oberbürgermeisterwahl. Dort ging es nicht darum, einzelne Äußerungen als bloße Stimmungsbrocken zu zählen. Entscheidend war die Relation. Welche Begriffe tauchen gemeinsam auf? Welche Themen verbinden sich mit Zustimmung, Ablehnung, Ironie, Abwehr? Wo bilden sich Resonanzräume? Wo laufen öffentliche Wahrnehmung, politische Kommunikation und mediale Verstärkung auseinander?
Das ist dieselbe Denkfigur in einem anderen Material. Aus Einzelaussagen wird erst dann ein Befund, wenn sie zueinander ins Verhältnis gesetzt werden. Eine Stimmung ist nicht einfach vorhanden. Sie entsteht aus Wiederholung, Anschluss, Differenz, Gegenrede, Verdichtung. Das Sentiment-Verfahren liest öffentliche Kommunikation nicht als linearen Strom, sondern als Feld von Beziehungen.
Die Luhmann-KI überträgt diesen Gedanken auf Wissensarbeit. Ein PDF ist keine Erkenntnis. Ein Buch ist noch kein Gedanke. Ein Interview ist noch kein Argument. Erst wenn eine Passage aus einem Luhmann-Gespräch mit einem Amazon-Geschäftsbericht, einer Serres-Lektüre, einem Ingold-Satz, einer alten Sohn@Sohn-Notiz und einer aktuellen politischen Beobachtung kollidiert, beginnt das Material zu sprechen.
Der Fehler vieler digitaler Systeme liegt darin, dass sie Dokumente behandeln, als seien Dokumente die Einheit des Denkens. Man muss sich nur die E-Akte des Staates anschauen: Luhmann wusste es besser. Die Einheit des Denkens ist kleiner, beweglicher, gefährlicher. Es ist die Notiz, der Einfall, die Beobachtung, der Satz, der Widerspruch, der Anschluss.
Theorie beginnt mit Unterscheidungen
Luhmanns Zettelkasten lässt sich nicht von seiner Theorie trennen. Schon früh im Lischka-Gespräch sagt er, dass Gesellschaftstheorie mit den üblichen empirischen Methoden nicht zu haben sei. Die „Survey and Research Methode“ oder das Experiment seien für begrenzte Erkenntniszwecke geeignet, reichten aber „offensichtlich für die Gesellschaftstheorie nicht aus“. Der Grund: Im Gesellschaftsbereich gebe es Selbstreferenz. „Die Gesellschaft ist ein System, das sich selber beschreibt.“ Die Theorien über das System müssten in der Gesellschaft selbst produziert werden. Deshalb reiche „das ganze Arsenal der Denkmittel“ von Empirie bis klassischer Logik nicht aus.
Das ist für die Luhmann-KI wichtiger, als es zunächst scheint. Ein Archiv beschreibt nicht einfach eine Wirklichkeit da draußen. Es ist selbst Teil der Beobachtung. Die Auswahl der Quellen, die Art der Notizen, die Verbindungen, die Abfragen, die Begriffe — all das produziert eine eigene Beschreibung. Wer mit KI arbeitet, arbeitet nicht mit neutraler Sichtbarkeit. Er arbeitet mit Beobachtungen zweiter Ordnung.
Luhmann sagt an anderer Stelle, jedes wissenschaftliche Unternehmen, überhaupt jede Erkenntnis, müsse „mit Unterscheidungen“ anfangen. „System und Umwelt“ sei eine der leistungsfähigsten Unterscheidungen. Bei jeder Analyse müsse man fragen, „von welchem System aus gesehen ist das die Umwelt?“ oder „was ist das jeweilige System, das ich beschreibe, und nicht die Umwelt?“
Auch das gilt für digitale Archive. Es gibt nicht einfach „alle Daten“. Es gibt immer ein System, das auswählt, was als Quelle erscheint, was als Umgebung erscheint, was als Rauschen erscheint, was als Anschluss erscheint. Die Sohn@Sohn-KI muss deshalb nicht nur suchen, sondern ihren Beobachtungsstandpunkt wechseln können. Eine Passage kann aus Sicht politischer Kommunikation, aus Sicht Medientheorie, aus Sicht Plattformökonomie, aus Sicht Wahlkampf oder aus Sicht systemtheoretischer Gesellschaftsbeschreibung etwas anderes bedeuten.
Realität braucht Theorie
Luhmann wehrt im Interview den Verdacht ab, Theorie habe nichts mit Realität zu tun. Es gebe, sagt er, „die Fähigkeit, spektakuläre Fakten einfach zu sehen und das Aufregende daran zu erkennen, von einem theoretischen Hintergrund her“. Man brauche „genügend Naivität“, um „etwas wirklich Auffallendes“ in der modernen Gesellschaft zu sehen. Und man könne mit komplexen Theorien „sehr dichte Beschreibungen“ liefern, etwa des Wirtschaftssystems, des Wissenschaftssystems oder der Politik. Diese seien vielleicht nicht punktuell empirisch abgesichert, könnten aber den Eindruck einer „Rekonstruktion der Realität“ erwecken — unter Umständen sogar einer „realistischeren Realität“ als jener, die man sonst in ihrer Komplexität nicht in den Griff bekomme.
Das ist eine wunderbare Beschreibung dessen, was beispielsweise gute Essayistik leisten muss. Sie zählt nicht nur Fakten auf. Sie macht Fakten auffällig. Sie bringt sie in eine Form, in der ihre Bedeutung sichtbar wird. Auch das Sentiment-Verfahren zur Bonner OB-Wahl hatte nicht den Sinn, bloß Daten zu stapeln. Es sollte zeigen, welche Konstellationen politisch auffällig werden. Was trägt? Was kippt? Welche Begriffe ziehen andere Begriffe an? Welche Themen haben Resonanz, welche nur Lautstärke?
Die Luhmann-KI arbeitet nach demselben Prinzip. Sie sucht nicht nur Belege. Sie sucht Verdichtungen. Sie zeigt, wo ein Material anfängt, theoretisch zu werden.
Komplexität entsteht durch Reduktion
Eine weitere Luhmann-Passage gehört in den Kern dieses Verfahrens. Auf die Frage nach wachsender Komplexität sagt Luhmann: „Aller Aufbau von Komplexität“ sei „bedingt durch Reduktion“. Wenn alles, was in der Umwelt ist, Punkt für Punkt ins Gehirn übersetzt werden müsste, gäbe es keinen Unterschied zwischen Gehirn und Anderem. Auch Sprache brauche Reduktion: Ohne distinkte Worte, die sich von anderen Geräuschen unterscheiden, könne es keine komplexe Sprachwahl geben. Mehr Komplexität sei aber nicht automatisch Fortschritt; sie sei eine Erscheinung der Evolution.
Das ist eine Warnung an jede KI-Euphorie. Mehr Material erzeugt nicht automatisch mehr Erkenntnis. Mehr PDFs, mehr Uploads, mehr Transkripte, mehr Daten, mehr Screenshots machen das Denken nicht besser. Komplexität entsteht erst durch brauchbare Reduktion. Die Notiz ist eine Reduktionsform. Der Verweis ist eine Reduktionsform. Die Frage ist eine Reduktionsform. Der Essay ist eine Reduktionsform.
Sohn@Sohn arbeitet daher nicht an einer maximalen Materialanhäufung, sondern an einer produktiven Reduktionskunst. Die Luhmann-KI muss nicht alles gleich wichtig nehmen. Sie muss verdichten, ohne zu verarmen. Sie muss auswählen, ohne die Kombinatorik zu zerstören. Sie muss aus Überfluss Form machen.
Zufall, Irritation, Struktur
Noch näher an das digitale Verfahren führt Luhmanns Begriff der strukturellen Kopplung. Die Beziehung zwischen System und Umwelt habe immer einen Zufallscharakter, sagt er, weil die Umwelt nicht von vornherein mit dem System synchronisiert sei. Es gebe Umweltereignisse und Systemereignisse; sie würden im Moment gekoppelt, dann werde das im System als „Irritation“ bemerkt, als „Anregung“, die nächste Struktur so oder so festzulegen. Die Struktur selbst werde aber „immer im System festgelegt“. Luhmann spricht von einem Zusammenhang zwischen zufälligen Erscheinungen in der Umwelt und einer „schon präparierten Struktur“, die dadurch gereizt oder irritiert werde.
Das ist fast schon eine Beschreibung der Arbeit mit einem lebendigen Archiv. Ein neues Dokument trifft auf eine bestehende Struktur. Ein Amazon-Satz über Wandering trifft auf Serres und Dr. Immerthal. Eine Passage aus Lischka trifft auf Ali. Ein alter Sohn@Sohn-Text über den Luhmann-Algorithmus trifft auf ein KI-Verfahren. Die Umwelt liefert keine fertige Erkenntnis. Sie irritiert ein vorbereitetes System. Erkenntnis entsteht, wenn die Irritation Anschluss findet.
Deshalb ist die Luhmann-KI kein Automat für Beliebigkeit. Sie braucht ein präpariertes Archiv, eigene Zettel, eigene Begriffe, eigene Fragestellungen, eine publizistische Geschichte. Ohne diese Struktur gäbe es nur Datenrauschen. Mit ihr kann ein Fund plötzlich Bedeutung bekommen.
Medium und Form im Archiv
Besonders fruchtbar wird das Lischka-Interview dort, wo Luhmann über Medium und Form spricht. Er habe, sagt er, noch keine ganz klare Vorstellung, neige aber dazu, Medium und Form für eine ebenso grundsätzliche Unterscheidung zu halten wie System und Umwelt. Es gebe keine simple Zuordnung, nicht Umwelt gleich Medium und System gleich Form. Erst „aus der Kombination dieser Artenunterscheidungen“ ergäben sich weiterführende Möglichkeiten.
Luhmann erläutert das mit Fritz Heider: Man müsse unterscheiden zwischen „lose gekoppelten Partikel-Elementen“ und „strikter, selektiv strikter gekoppelten Elementen“. In der Sprache gebe es viele Worte, aber es sei nicht vorgeschrieben, „welches Wort auf welches folgt“. Gerade deshalb könne man „immer neu koppeln“ und „neue Sätze bilden“. Die Elemente würden dadurch nicht verbraucht, nur ihre Kopplung werde neu geregelt.
Das ist eine fast perfekte Theorie des Archivs. Die Quellen sind das Medium. Der Essay ist eine Form. Die Notizen sind lose gekoppelte Elemente. Die Verweise erzeugen strengere Kopplungen. Nach dem Text lösen sich diese Kopplungen wieder, und das Material bleibt verfügbar. Ein Luhmann-Zitat ist nach seiner Verwendung nicht verbraucht. Ein Geschäftsbericht ist nicht erledigt, weil er einmal herangezogen wurde. Eine Sentiment-Auswertung kann in einem anderen Zusammenhang erneut Form gewinnen.
Luhmann sagt über Geld, Preise und Sprache, die Kopplung dürfe „das Medium nicht verbrauchen“, sondern müsse es „immer wieder auflösen“. Durch die Sprache seien die genutzten Worte nicht weg, sondern würden sogar regeneriert; wenn man sie häufig benutze, erinnere man sie besser. Auch Geld „wandert“ und werde immer wieder als kopplungsfähig regeneriert.
Für Sohn@Sohn heißt das: Ein gutes Archiv wird durch Benutzung nicht kleiner. Es wird stärker. Jede neue Kopplung erzeugt Spuren für spätere Kopplungen. Genau darin liegt der Unterschied zwischen Dateiablage und Denkmedium.
Wandering mit Verweisen
Michel Serres hat für diese Bewegung ein großes Bild gefunden: die Nordwest-Passage. Es geht um den Weg zwischen getrennten Wissensinseln, um Übergänge zwischen exakten Wissenschaften, Literatur, Mythos, Technik, Gesellschaft. Erkenntnis verläuft nicht immer auf gerader Linie. Sie muss durch Eis, Nebel, Strömungen, Seitenwege. Der kürzeste Weg ist nicht notwendig der fruchtbarste.
Interessanterweise taucht eine verwandte Denkfigur im Amazon-Geschäftsbericht 2018 unter dem Begriff „Wandering“ auf. Dort heißt es, im Geschäft wisse man manchmal genau, wohin man wolle; dann könne man planen und effizient ausführen. Wandering dagegen sei nicht effizient, aber auch nicht zufällig. Es werde geführt von Ahnung, Intuition, Neugier und der Überzeugung, dass sich der unordentliche, seitliche Weg lohne. Die großen, nichtlinearen Entdeckungen verlangten mit hoher Wahrscheinlichkeit ein solches Wandering.
Luhmanns Zettelkasten ist ein solches Wandering in Papierform. Man folgt Verweisen, Nebenwegen, Ketten, Abzweigungen. Man beginnt bei Konstruktivismus und landet bei Beobachtung, Unterscheidung, Wissenschaft, Wirtschaft, Reflexionstheorien. Der Weg ist nicht linear, aber auch nicht beliebig. Er wird durch frühere Anschlüsse geführt.
Die Luhmann-KI von Sohn@Sohn übersetzt dieses Wandering in eine digitale Praxis. Sie verbindet Suchbewegung und Zufall, Archiv und Intuition, Datenanalyse und Essay. Sie erlaubt Effizienz, wenn ein konkreter Beleg gesucht wird. Aber sie erlaubt auch Umwege, wenn noch gar nicht klar ist, was der eigentliche Gedanke sein könnte.
Die produktive Unordnung
Luhmann baut den Zufall strukturell ein. Keine Großrubriken, feste Nummern, bewegliche Verweise. Der Zettelkasten versucht, die Vorteile von Ordnung mit den Vorteilen der Unordnung zu kombinieren. Das führt zur Serendipität, zur Fähigkeit, etwas zu finden, was man gar nicht gesucht hat. Genau diese überraschende Erkenntnis wird durch Mehrfachablage, Nebengedanken und interne Verweisung möglich.
Die Sohn@Sohn-KI baut den Zufall digital ein. Nicht als Spielerei, sondern als Methode. Sie soll nicht nur bestätigen, was schon gesucht wurde. Sie soll Kombinationen anbieten, die gegen die eigene Erwartung arbeiten. Sie soll den „Zauber des Zufalls“, die „Unordnung in der Ordnung“ und den „Charme der nicht vorhersehbaren Kombinatorik“ nicht durch algorithmische Glätte zerstören, sondern technisch neu ermöglichen.
Ingolds Autor ist ein Leser
Felix Philipp Ingold liefert im selben Lischka-Kontext eine literarische Entsprechung zu dieser Arbeitsweise. Der Autor, sagt Ingold sinngemäß, müsse heute nicht mehr primär Produzent sein. Er müsse „ein guter Leser, ein guter Betrachter“ sein, ein „Wahrnehmungsspezialist“. Es gehe darum, bereits vorhandenes Material, Texte oder Bilder, „neu sichtbar“ zu machen. Er könne sich sogar vorstellen, dass jemand aus drei oder vier geliebten Büchern Passagen exzerpiert, sie mit Textfragmenten anderer Epochen kombiniert — und daraus entstehe ein neues Buch. Der Autor sei dann nicht derjenige, der sich anmaße, etwas völlig Neues zu sagen, sondern jemand, der aus geführten, aber nicht zu Ende geführten Diskursen „etwas noch nicht Gesehenes, noch nicht Gehörtes, noch nicht Gekanntes arrangiert“.
Das ist ein Gegenprogramm zur Originalitätsrhetorik. Der Autor erschafft nicht aus dem Nichts. Er arrangiert. Er setzt vorliegende Texte, Bilder, Stimmen, Fragmente, Epochen, Begriffe neu zueinander. Ingold verwendet dafür Begriffe wie „Konstellation“ und „Arrangement“. Genau diese Wörter passen zu Luhmanns Verweislogik. Und sie passen zu Sohn@Sohn: Die KI wird nicht dazu benutzt, Texte aus dem Nichts zu erzeugen. Sie wird benutzt, um vorhandenes Material anders lesbar zu machen.
Das Archiv als Gegenüber
Luhmann interessiert sich im Gespräch mit Lischka auch für die Frage, wie Massenmedien Gesellschaft beschreiben. Er fragt, welches Bild von Gesellschaft entsteht, wenn wir sie ständig in jener Form wahrnehmen, in der Massenmedien sie präsentieren: „aufregende Ereignisse“, eines nach dem anderen, „fast ohne Gedächtnis“, schnell erfassbar. Eine komplexe Gesellschaftstheorie stoße an die Grenzen der Medienfähigkeit. Vielleicht werde daraus ein esoterisches Buch, das nur wenige kennen. Dennoch sieht Luhmann die Möglichkeit, Themen, die in den Massenmedien vorbereitet sind, soziologisch zu bearbeiten und Theorieansprüche wieder an die Öffentlichkeit zurückzugeben.
Das berührt die Sohn@Sohn-Praxis unmittelbar. Live-Gespräche, Interviews, Wahlkampfstimmungen, Social-Media-Resonanzen, Studien, Bücher und Archivfunde werden nicht getrennt behandelt. Sie werden so miteinander verbunden, dass aus flüchtigen Ereignissen Gedächtnis entsteht. Genau darin unterscheidet sich ein publizistisches Verfahren von bloßer Aktualitätsproduktion. Die Gegenwart wird nicht nur kommentiert. Sie wird in ein Archiv eingespeist, das später antworten kann.
Keine Quelle ohne Gegenüber
Ali hat recht: Information ohne Verbindung ist unsichtbar. Aber für Sohn@Sohn ist dieser Satz keine Entdeckung am Wegesrand. Er beschreibt eine Praxis, die bereits läuft. Das Sentiment-Verfahren bei der Bonner OB-Wahl hat gezeigt, wie aus verstreuten Äußerungen ein relationales Lagebild entstehen kann. Die Luhmann-KI erweitert dieses Prinzip auf Wissensbestände. Sie macht aus Archiven Gesprächsräume. Nicht als Kopie des alten Zettelkastens.
Klaus Janowitz hat mit dem Begriff der Technogenese einen brauchbaren Hebel geliefert. Der Ausdruck verschiebt den Blick weg von der alten Frage, ob Technik die Gesellschaft prägt oder die Gesellschaft die Technik. Diese Schablone taugt nicht mehr viel. Janowitz setzt an die Stelle der Kausalität eine Verschränkung. Technik, soziale Ordnung und individuelle Dispositionen laufen in langen Ketten, greifen ineinander, erzeugen Rückwirkungen. Für die Soziologie ist das ein Fortschritt. Für mein Interesse an Kittler reicht es nicht.
Der Begriff Technogenese ist stark, solange er nicht beruhigt. Sobald aus ihm ein harmonisches Ko-Evolutionsbild wird, verliert er Schärfe. Dann klingt Geschichte wie ein lernfähiges Arrangement. Doch Mediengeschichte verläuft nicht als Gespräch zwischen gleichberechtigten Partnern. Sie verläuft als Serie technischer Zumutungen, als Umbau von Adressen, Kanälen, Speicherformen, Zugriffen. Jede neue Apparatur stellt alte Gewissheiten unter Strom. Janowitz öffnet die Tür. Kittler tritt ein und löscht das Licht der soziologischen Behaglichkeit.
Mein Einsatz bei Janowitz beginnt an der Stelle, an der seine Perspektive mir zu sanft wird. „Interdependenz“ ist ein brauchbares Wort, doch es klingt nach Gleichgewicht. Die Geschichte der Medien kennt kein Gleichgewicht. Sie kennt Monopole und deren Zerfall. Sie kennt Standardisierungen, die plötzlich ganze Berufsfelder verschieben. Sie kennt technische Formate, die aus einer Kultur des Sinns eine Kultur der Signale machen.
Deshalb führe ich Janowitz auf Kittler zu. Nicht, um den soziologischen Begriff zu verwerfen. Eher, um ihn unter Druck zu setzen. Bei Kittler taucht Technik nicht als „Faktor“ unter anderen auf. Technik ist kein Kontext der Gesellschaft. Technik ist die operative Grammatik dessen, was eine Gesellschaft speichern, übertragen, zählen, befehlen und erinnern kann. Wer diese Ebene verfehlt, redet über Oberflächen. Die Soziologie liebt Oberflächen: Rollen, Institutionen, Normen, Milieus, Habitus. Kittler zieht darunter die Kabel.
Foucault endet am Archiv
Kittlers Ausgangspunkt ist bekannt: Foucaults Archive reichen für die Moderne nicht mehr aus. Spätestens seit dem späten 19. Jahrhundert zerfällt das Monopol des Buches. Schrift bleibt wichtig, nur verliert sie ihre Alleinherrschaft. Töne, Bilder, Signale, maschinenschriftliche Texte drängen in die kulturelle Matrix. Das Archiv wird technisch plural. An dieser Stelle kippt der gesamte Wissensraum.
Für die Soziologie ist das eine Zumutung. Sie konnte sich lange darauf verlassen, Gesellschaft an Texten, Institutionen und Symbolordnungen abzulesen. Kittler zwingt sie, mit Grammophon, Film, Telephon, Schreibmaschine und Computer zu rechnen. Nicht als hübsches Beiwerk der Moderne. Als deren Unterbau. Aus dieser Perspektive wirkt ein großer Teil der Soziologie wie eine Disziplin, die das Ergebnis beschreibt, nachdem die Apparate ihre Vorarbeit längst erledigt haben.
Janowitz sieht die Verschränkung von Technik und Gesellschaft. Kittler macht aus der Verschränkung eine Hierarchie der Bedingungen. Erst die medientechnische Form entscheidet, was als Mitteilung, Gedächtnis, Befehl, Präsenz oder Autorität zirkulieren kann. Die Gesellschaft spricht nicht frei. Sie spricht in Formaten.
Das Buch war eine Disziplinaranlage
An diesem Punkt wird die Sache konkret. Das Buch war in der bürgerlichen Epoche nicht bloß Träger von Bildung. Das Buch war eine Disziplinaranlage. Es ordnete Zugang, Autorität, Verwaltung, Geltung. Es band Schreiben an Handschrift, Handschrift an Bildung, Bildung an den männlichen Staats- und Amtskörper. Daraus entstand jene symbolische Selbstverständlichkeit, die das 19. Jahrhundert als Kultur der Schrift ausgab.
Die Soziologie hat dieses Regime oft zu freundlich beschrieben. Öffentlichkeit, Lesekultur, bürgerliche Vernunft, nationale Bildung. Das stimmt auf einer Ebene. Auf einer anderen war das Buch eine Zugangstechnologie mit scharf gezogenen Schwellen. Nicht jede und jeder schrieb an derselben Stelle des Systems. Private Briefe, Salonkultur, Gefühlsschrift, Tagebuch, Frömmigkeit – das alles zirkulierte, blieb jedoch am Rand der strategischen Schriftmacht. Im Zentrum saßen Verwaltung, Universität, Amt, Kanon, Druck und Prüfung. Dort herrschte der Mann, ausgebildet, geschniegelt, mit jener Schulgrammatik, die Schrift als Sozialprivileg führte.
Kittler trifft hier den Nerv. Seine Pointe lautet nicht, dass Frauen nie geschrieben hätten. Seine Pointe lautet, dass die Schaltstellen des Schreibens männlich besetzt waren. Das Buch war Männerwelt, weil seine Infrastruktur Männerwelt war.
Die Schreibmaschine zerstört die Würde der Hand
Dann erscheint die Schreibmaschine. Nicht als Fortschritt. Als Unterbrechung. Plötzlich verliert die Handschrift ihren Nimbus. Das Schriftbild kommt nicht mehr aus der individuellen Geste, aus jener Verbindung von Körper, Stil und Bildung, auf die sich die männliche Schriftkultur so viel zugutehielt. Die Taste tritt an die Stelle der Hand. Das Zeichen wird standardisiert. Der Stolz auf die schöne Schrift sinkt vom Rang einer Kulturleistung zu einer nostalgischen Gewohnheit.
Hier öffnet sich die Bresche. Männer in Büros hielten an der Handschrift fest. Frauen griffen nach der Maschine. Diese Bewegung gehört zu den stärksten Sätzen Kittlers. Nicht eine moralische Einsicht bringt die alte Ordnung ins Wanken. Ein Apparat erledigt die Vorarbeit. Er macht ein Monopol technisch obsolet. Frauen dringen in Kontore, Verwaltungen, Börsen, Kanzleien ein, weil die Maschine eine Kulturtechnik de-auratisiert. Das ist der historische Moment, in dem aus dem Pathos des Schreibens eine Operation wird.
Janowitz’ Begriff Technogenese gewinnt hier erst seine volle Härte. Technik und Gesellschaft entwickeln sich nicht gemeinsam in einem milden Wechselspiel. Eine Apparatur kappt die Verbindung zwischen Schrift und männlichem Habitus. Damit fällt kein Patriarchat in sich zusammen. Doch sein mediales Rückgrat bekommt Risse.
Das Telephon besetzt die Schnittstelle neu
Mit der Telephonie wiederholt sich der Vorgang auf einer anderen Ebene. Nun geht es nicht mehr um die Spur auf Papier, nun geht es um die Stimme im Netz. Auch hier entsteht kein neutrales Kommunikationsmittel. Es entsteht eine neue soziale Topologie. Vermittlungsämter, Stöpselstellen, Netzknoten, Operatorinnen. Die technische Infrastruktur ruft eine neue Figur hervor: die Frau als Interface.
An dieser Stelle wird Kittler für die Soziologie unbequem. Denn er beschreibt keine bloße Erweiterung von Berufschancen. Er zeigt, wie technische Systeme menschliche Bedienkörper benötigen, solange sie noch nicht vollautomatisch laufen. Diese Bedienkörper werden in die Machtkreise des Systems eingezogen. Die Telefonistin steht nicht am Rand der Moderne. Sie sitzt an einer ihrer neuralgischen Stellen. Kommunikation läuft durch ihre Hände, ihre Stimme, ihre Aufmerksamkeit.
Wer da noch von „Anwendung“ spricht, hat die Sache nicht verstanden. Das Medium erzeugt seine sozialen Träger neu. Aus dieser Einsicht folgt eine Soziologie der Schnittstellen. Nicht Klassen allein, nicht Institutionen allein, nicht Milieus allein. Schnittstellen. Dort werden Körper, Stimmen, Disziplinen und Hierarchien neu verteilt.
KI markiert den nächsten Schnitt: Nicht mehr nur Bedienkörper werden in technische Systeme eingespannt, sondern Bildungs-, Beratungs- und Entscheidungsläufe selbst werden auf Losgröße 1 umgestellt. Darin liegt, mit dem KI-Forscher Wolfgang Wahlster gelesen, ihr antielitäres Potential. Wenn tutorielles Lernen tatsächlich auf Einzelpersonen ausgerichtet wird, wenn Systeme dranbleiben, motivieren, Fehlkonzepte diagnostizieren und individuelle Förderung dort leisten, wo überfüllte Klassen, dünne Beratungsstrukturen und soziale Herkunft bislang wie eiserne Filter wirken, dann fällt eine der ältesten Kopplungen der Moderne: die Kopplung von Herkunft und Zukunft.
Wahlster formuliert genau diesen Punkt, wenn er sagt, Losgröße 1 könne helfen, das Muster „Herkunft gleich Zukunft“ zu durchbrechen, weil individuelle Förderung nicht länger ein Privileg derer bleiben müsse, die ohnehin schon über Kapital, Milieu und institutionelle Nähe verfügen. KI wäre dann nicht der neue Apparat der Selektion, sondern erstmals ein Mittel, mit dem sich die aristokratische Logik knapper Förderung technisch unterlaufen lässt. Die harte These lautet deshalb: Dort, wo KI ernsthaft personalisiert, diagnostiziert und ermutigt, beginnt nicht einfach bessere Pädagogik, sondern die materielle Chance auf eine Gesellschaft, in der biografische Startnachteile ihre Selbstverständlichkeit verlieren.
Technik ist keine Umwelt der Gesellschaft
Hier liegt mein eigentlicher Widerspruch gegen einen zu mild gelesenen Janowitz. Technik darf nicht als Umwelt der Gesellschaft behandelt werden. Auch nicht als Ergänzung. Technik ist die Bedingung, unter der Gesellschaft ihre eigene Umwelt überhaupt erst unterscheiden kann. Erst wenn Signale von Rauschen getrennt, Daten adressiert, Texte standardisiert, Stimmen übertragen, Bilder gespeichert und Rechenoperationen automatisiert werden, stabilisiert sich jene Ordnung, die wir nachträglich „Gesellschaft“ nennen.
Kittler zwingt die Soziologie dazu, auf den Boden ihrer eigenen Voraussetzungen hinabzusteigen. Nicht Normen zuerst. Nicht Werte zuerst. Nicht Kommunikation zuerst. Zuerst die Speicher. Die Kanäle. Die Befehlszeichen. Die Standardisierungen. Die Kopplungen von Militär, Bürokratie und Industrie. Die Zahlencodes. Die Diskretisierung der Welt.
Janowitz schreibt klug gegen lineare Fortschrittserzählungen an. Das überzeugt. Nur würde ich einen Schritt weitergehen: Technogenese meint nicht bloß wechselseitige Formung. Technogenese meint die historische Tatsache, dass Apparate den Möglichkeitsraum des Sozialen verschieben. Nicht metaphorisch. Operativ.
Turing und das Ende der alten Gewissheiten
Mit Turing tritt das in seine radikale Phase. Das Imitationsspiel, wie Kittler es liest, beginnt mit Mann und Frau und endet bei Mensch und Maschine. Diese Verschiebung ist nicht beiläufig. Sie zeigt, dass die alten Differenzen nur noch als Vorstufe einer neuen Vergleichsordnung dienen. Nicht mehr die Geschlechterdifferenz organisiert die tiefste Trennlinie, sondern die Frage, ob ein Rechner in derselben symbolischen Form operieren kann wie ein Mensch.
Von da an wird alles anders. Der Computer erscheint nicht als weiteres Medium in einer Reihe. Er absorbiert die Reihe. Text, Bild, Ton, Zahl, Signal – alles wird anschließbar, alles wird verarbeitbar, alles wird manipulierbar. Aus getrennten Medien werden Datenlagen. Aus kulturellen Ausdrucksformen werden Operationszustände. Der Computer ist keine Erweiterung des Buches. Er ist dessen Entthronung.
Hier wird eine weitere Schwäche vieler soziologischer Technikbegriffe sichtbar. Sie bleiben zu nah an der Semantik des Gebrauchs. Wer nutzt was? Wer eignet sich etwas an? Wer profitiert? Diese Fragen sind nicht falsch. Nur greifen sie zu spät. Zuerst entscheidet die Architektur. Erst danach folgen Nutzungen, Aneignungen, Konflikte, Deutungen. Die Form der Maschine kommt vor ihrem sozialen Kommentar.
Elias, Luhmann, Janowitz – und dann Kittler
Janowitz knüpft seinen Begriff der Technogenese mit Recht an Norbert Elias. Das hat analytische Eleganz. Langfristige Prozesse, Wandel von Dispositionen, Interdependenzketten, Zivilisationsdynamik. Nur bleibt bei Elias die materielle Härte der Apparate merkwürdig fern. Die Zivilisation erscheint dort an Tischsitten, Affektregimen, Verhaltensschwellen. Das hat Größe. Es bleibt an vielen Stellen papiernah.
Kittler verschiebt die Bühne. Nun geht es um technische Aufschreibesysteme, um die Medien, in denen überhaupt erst festgelegt wird, was registrierbar ist. Auch Luhmann hilft nur begrenzt weiter. Seine Form/Medium-Unterscheidung ist elegant, seine Theorie der Technik scharfsinnig, doch die elektrische, optische, akustische und rechnerische Materialität bleibt bei ihm zu oft in der Höhe des Systems aufgehoben. Kittler fällt tiefer. Er fällt auf Kabel, Chips, Codes, Maschinen, Geräte. Eben dort, wo Soziologie schmutzig wird und Philosophie nervös.
Janowitz liefert den Anschluss, den die deutschsprachige Soziologie lange vermieden hat. Ich würde nur den Druck erhöhen. Technogenese darf kein verständiger Sammelbegriff für Wechselwirkungen bleiben. Sie markiert die Verschiebung vom Sozialen als Deutungssystem zum Sozialen als Effekt medientechnischer Operationsweisen.
Nach Janowitz beginnt die Härte
Mein Vorschlag lautet daher: Janowitz lesen, dann Kittler nachlegen. Technogenese lesen, dann an den Punkt treiben, an dem aus Ko-Evolution Umcodierung wird. Nicht Technik „und“ Gesellschaft. Nicht Mensch „und“ Medium. Nicht Kultur „und“ Infrastruktur. Diese Additionen verwässern die Sache. Entscheidender ist die Frage, welche Apparate eine Epoche besitzt, welche Speicherformen sie bevorzugt, welche Befehle sie standardisiert, welche Schnittstellen sie personell oder maschinell besetzt.
Von dort aus wirken die großen soziologischen Kategorien anders. Klasse erscheint als Verteilungsform von Zugängen zu Apparaten. Geschlecht erscheint als historische Zuteilung von Bedienbarkeit, Sichtbarkeit, Schreibmacht. Öffentlichkeit erscheint als Effekt von Übertragungsregimen. Wissen erscheint als Funktion seiner Speichermedien. Macht erscheint als Fähigkeit, die technischen Bedingungen des Sichtbaren und Sagbaren zu setzen.
Das ist der Punkt, an dem ich Janowitz weiterdrehe. Nicht gegen ihn. Über ihn hinaus. Sein Begriff öffnet die Sache. Kittler macht sie unabweisbar.
Die Soziologie hat sich lange eingeredet, Technik sei ein Gegenstand ihrer Analyse. In Wahrheit hat Technik viel häufiger die Bedingungen der Analyse selbst gesetzt. Wer heute noch über Plattformen, KI, algorithmische Sichtbarkeit oder digitale Öffentlichkeit spricht, ohne die technische Form in den Vordergrund zu ziehen, wiederholt die alte Fehleinschätzung des Bildungsbürgertums gegenüber der Schreibmaschine: Man hält den Apparat für ein Hilfsmittel und merkt zu spät, dass er die Ordnung umstellt.
Darum führt der Weg von Janowitz zu Kittler. Der eine gibt den Begriff. Der andere liefert den Stromstoß. Und erst unter dieser Spannung beginnt eine Soziologie, die der Gegenwart gewachsen ist.
Alfred Böttger eröffnete den Abend so, wie nur er solche Abende eröffnet: halb Buchhändler, halb Zeremonienmeister, halb Feuerwehrhauptmann der Literatur. Man könne, sagte er, in seiner Buchhandlung nicht nur geistig entflammen; hier sei auch „sehr viel brennendes Material“, deshalb müsse er zunächst die Fluchtwege erläutern. „Man brennt ja oft nach Büchern, manchmal springt die Flamme über“, und mit einem Stolz, der jedes Bauordnungsamt in Verlegenheit bringen müsste, fragte er ins Publikum: „Welche Buchhandlung hat drei Fluchtwege?“ Danach kam der eigentliche Satz des Abends, jener Böttger-Satz, in dem Reklame, Pathos und Bonner Bürgerpflicht ineinanderfielen: Wer dieses Buch nicht studiere, „läuft an seiner eigenen Zeitgenossenschaft vorbei“. Man hörte das und wusste sofort: Jetzt wird nicht bloß vorgestellt, jetzt wird eine Gegenwart verhandelt.
Udo Di Fabio nahm die Vorlage dankbar auf, aber nicht im Ton des Marktschreiers. Eher mit jener kontrollierten Ironie, die seine Souveränität ausmacht. Ein Agent habe ihm, erzählte er, schon im Manuskriptstadium versprochen, aus „Verfeindlichung“ einen Großauflagenstoff zu machen. Seine Antwort auf diese Verheißung war der schönste Satz gegen den ganzen gegenwärtigen Empörungsbetrieb: Wer wirklich Auflage machen wolle, dürfe über Verfeindlichung nicht reflektieren, sondern müsse sie bedienen. Mehr muss man über den publizistischen Markt der Gegenwart kaum sagen. Di Fabio will nicht auf der Welle reiten, er will zeigen, aus welchem Material sie gemacht ist. Und so stand an diesem Abend ein ehemaliger Verfassungsrichter da, der sich nicht als Mahner inszenierte, sondern als Diagnostiker der beschädigten liberalen Mitte. Sein Buch, sagte er, biete keine schnell verdauliche Nahrung; und tatsächlich war dies ein Vortrag gegen die Instant-Mentalität des politischen Betriebs.
Der Gegner wird abgeschafft
Di Fabios Grundgedanke ist scharf und einfach genug, um zu tragen: Die westlichen Demokratien stehen nicht vor dem Untergang, aber vor einer „epochalen Zäsur“. Nicht die Demokratie stirbt; sie verfeindlicht sich. Diese Pointe richtet sich gegen das freundliche Selbstverständnis der Jahrzehnte nach 1989. Fukuyamas These vom Ende der Geschichte, erinnerte Di Fabio, habe damals die Phantasie beflügelt: kein Systemgegner mehr, keine ideologische Großkonkurrenz, stattdessen Global Governance, Weltrepublik, Vereinigte Staaten von Europa, der politische Raum als allmählich technokratisierte Verständigungszone. Er selbst habe sich, gestand er, damals sogar einmal von dieser Stimmung anstecken lassen. Eben deshalb bekommt seine Rücknahme Gewicht. Man hörte nicht den Besserwisser im Nachhinein, sondern einen Zeitgenossen, der seine eigene Verstrickung offenlegt.
An dieser Stelle betritt Carl Schmitt die Bühne. Di Fabio nannte ihn „einen gefährlichen Denker, aber einen faszinierenden Denker“, einen Mann, der mit der freiheitlich-demokratischen Grundordnung „so gar nichts am Hut“ gehabt habe und doch ein Meister im Auffinden folgenreicher Unterscheidungen gewesen sei. Das ist präzise gesagt. Schmitts Freund-Feind-Schema beschreibt zunächst tatsächlich etwas Reales im politischen Raum: Regierung und Opposition sind keine Kaffeegesellschaft, Parteifreunde sind selten Freunde, und Politik lebt nicht von Harmonie. Aber Schmitts Formel kippt dort ins Giftige, wo der Gegner nicht mehr der andere mit gleichen Rechten ist, sondern der Feind ohne Existenzrecht. Genau da beginnt, so Di Fabio, die Verfeindlichung: wenn aus Streit ein Existenzkampf wird und aus Konkurrenz ein Vernichtungswunsch. Er erinnerte an die fünfziger und sechziger Jahre, an Adenauers antikommunistische Härte, an den Alarmismus rund um die Notstandsgesetze, an Parolen wie „Brandt an die Wand“, an die Idee eines Feindstrafrechts im Terrorismusdiskurs. Man merkte: Seine These ist nicht, dass die Bundesrepublik jetzt Weimar wiederholt; seine These ist, dass sie anfängt, mit deren schlechtesten semantischen Gewohnheiten zu kokettieren.
Die Verengung des Meinungskorridors
Am überzeugendsten wurde der Abend dort, wo Di Fabio von der großen Theorie in die konkreten Disziplinierungen des Alltags wechselte. Er sprach von einer unnötigen „Verengung des Meinungskorridors“, von Haltungsvorgaben, von einer öffentlichen Moral, die weniger an Überzeugung als an Konformität interessiert sei. Sein Misstrauen gegen den Begriff „Haltung“ war einer der stärksten Momente des Vortrags. „Der Haltungsbegriff ist nicht mein Lieblingsbegriff“, sagte er, und dann kam jener Satz, der weit über jedes tagespolitische Gezänk hinausweist: Haltung sei für ihn „die Zumutung, dass mir jemand sagen will, wie ich denken soll und wie ich argumentieren soll“. Das ist kein kulturkämpferischer Reflex, sondern eine liberale Grundintuition. Ein öffentlicher Raum, der nicht mehr argumentieren, sondern nur noch signalisieren will, wechselt vom Gespräch zur Gesinnungsaufsicht.
Di Fabio erzählte das nicht abstrakt, sondern an zwei Erfahrungen, die seine intellektuelle Redlichkeit unter Beweis stellten. In der Corona-Pandemie, sagte er, sei er selbst Mainstream gewesen, auf der vorsichtigen Seite, beratend sogar für Nordrhein-Westfalen tätig. Gerade deshalb habe ihn die Art abgestoßen, in der Skepsis oder Abweichung sofort mit Etiketten wie „Corona-Leugner“ oder gar „Verfassungsfeind“ versehen wurde. Sein Beispiel eines Hamburger Mathematikers, der die Laborhypothese zum Ursprung des Virus diskutierte und dafür beinahe administrativ gemaßregelt worden wäre, hatte am Abend die Wirkung eines Lakmustests: Nicht die Position steht hier im Mittelpunkt, sondern die Frage, wie schnell eine Gesellschaft von der Widerlegung zur Verdammung übergeht. Noch schärfer wurde es in seiner Erinnerung an 2015, als er mit dem Plädoyer für Grenzkontrollen „auf der falschen Seite“ stand und spürte, wie man im katholischen Milieu plötzlich nicht mehr als Diskurspartner, sondern als moralisch kontaminierte Figur behandelt wurde. So spricht kein Tribun des Ressentiments; so spricht einer, der aus beiden Richtungen die gleiche Intoleranz kennengelernt hat.
Der zerbrochene Spiegel
Dann folgte die eigentliche medientheoretische Passage des Abends. Di Fabio beschrieb die Öffentlichkeit von heute als „zerbrochenen Spiegel“: Alles sei noch da, alles noch sichtbar, aber das Bild nicht mehr einheitlich. Früher, mit Luhmann gesprochen, las Presse vor allem Presse; es gab verschiedene Blätter, verschiedene politische Tableaus, aber noch einen wechselseitig aufeinander bezogenen Meinungsraum. Heute zerfällt diese Bezogenheit in algorithmisch bewirtschaftete Fragmente. Das Netz, sagte Di Fabio, habe die utopische Hoffnung einer digitalen Agora nur kurz gestreift; was sich stattdessen durchsetze, sei eine Technik der Stimmungsproduktion. Seine Rede von der „TikTokisierung“ war in diesem Punkt nicht kulturpessimistische Pose, sondern eine genaue Beschreibung: politische Manipulation ohne Umweg über Urteilskraft, Affektsteuerung statt Deliberation. Hier traf Di Fabio einen Nerv der Gegenwart. Nicht weil er Neues sagte, sondern weil er das längst Bekannte aus dem Ton der Empörung herausnahm und wieder in Begriffe überführte.
Auch seine Beobachtung der „volatilen Gesellschaft“ saß. Der Verlust der alten Ligaturen — Familie, Vereine, Kirchen, Gewerkschaften, Parteien — hat den Einzelnen freier und zugleich verlassener gemacht. Wo solche Bindungen ausdünnen, wächst der Hunger nach Identität. Wenn die Mitte ihn nicht stillt, erledigen es Tucker Carlson, Musk oder der nächste digitale Erwecker. Di Fabio formulierte das vorsichtig, aber der Kern war klar: Populismus ist nicht bloß Bosheit, sondern auch ein Symptom delegierter Sinnproduktion. Eine Politik, die sich nur noch als Regulierungstechnik versteht, verliert den Kompass und darf sich nicht wundern, wenn andere ihn mit groben Händen an sich reißen.
Wo der Vortrag schwächer wurde
An Kraft verlor der Abend dort, wo Di Fabio die Verfeindlichung an die Produktivitätsschwäche der gewerblichen Wirtschaft band. Er sprach von einer „schrumpfenden gewerblichen Wirtschaft“, von fehlendem Produktivitätszuwachs, von einer Gesellschaft, in der man „mehr arbeiten“ müsse, weil der alte Trost, alle Probleme durch Wachstum zu lösen, nicht mehr trage. Das ist als politischer Weckruf nicht falsch. Aber als ökonomische Diagnose blieb es zu fatalistisch. Denn hier wurde Produktivität fast wie ein Naturereignis verhandelt, als sei der Rückgang ein Schicksal alter Industrien, nicht auch das Ergebnis versäumter Investitionen, fehlender technologischer Modernisierung und einer erschöpften Innovationskultur.
Gerade die von KfW Research und ZEW vorgelegten Befunde, die im Hintergrund dieser Debatte stehen, weisen in eine andere Richtung. Dort heißt es nicht: Deutschland habe einfach Pech mit der Geschichte. Dort heißt es: Das Produktivitätswachstum ist gesunken, zugleich haben die Digitalisierungsaktivitäten im Mittelstand deutlich an Schwung verloren; Deutschland hinkt bei Digitalisierungsinvestitionen international hinterher. Und noch wichtiger: Unternehmen mit hohem Digitalkapital profitieren überproportional produktiv von weiterer Digitalisierung; die Lücke zwischen Vorreitern und Nachzüglern wächst, wenn die Nachzügler nicht investieren. Digitalisierung ist, so die Studie, eine kontinuierliche Aufgabe, verbunden mit Kompetenzen, Prozessumbau und technologischem Lernen. Das ist nicht weniger dramatisch als Di Fabios Lagebild, aber es ist präziser. Es verschiebt den Akzent von Schicksal auf Verantwortung.
Hier lag der blinde Fleck des Abends. Di Fabio denkt die Krise des politischen Raums groß, aber er unterschätzt die Leerstelle der Wissensökonomie. Mit alter Industriepolitik ist kein Blumentopf mehr zu gewinnen; eine bloß nostalgische Rückkehr zur Ordnung der Fabrik behebt weder KI-Rückstand noch digitale Stagnation. Der Publizist Wolf Lotter hat oft genauer beschrieben, woran Deutschland krankt: nicht an einem Mangel an Maschinenromantik, sondern an einer Unterinvestition in Wissen, Können und produktive Selbständigkeit. Der Kampf um die Zukunft wird längst nicht mehr nur an Grenzen entschieden, sondern in Rechenzentren, Ausbildungswegen, Prozessdesigns und Softwarearchitekturen.
Der kleine Angstmacher aus Plettenberg
Gerade deshalb lohnt sich der Rückblick auf Carl Schmitt. Di Fabio benutzt ihn klug als Warnfigur, manchmal fast zu klug, weil er dessen intellektuellen Glanz mitführt, um die eigene Diagnose zu schärfen. Doch man sollte Schmitt nicht zu viel Größe gönnen. Hinter der Freund-Feind-Metaphysik steckt selten heroische Entschlossenheit; oft steckt dahinter, wie schon seine Interpreten gezeigt haben, nichts als panische Ordnungssehnsucht. Die Formel vom Politischen ist weniger ein Mutbeweis als ein Angstapparat. Schmitt wollte nie Probleme lösen; er wollte den Zustand definieren, in dem Lösungen ausgesetzt werden dürfen. Die Verfeindlichung ist für ihn kein Übel, sondern Material. Darum ist er so gefährlich: weil er aus Nervosität Weltanschauung macht. Der kleine Angsthase im Studierzimmer erfindet den Ausnahmezustand, um sich vor der Zumutung des Pluralismus zu retten. Dass Di Fabio das im Kern weiß, machte den Ernst seines Schmitt-Exkurses aus.
Mehr Republik wagen
Was bleibt von diesem Abend? Vor allem die Einsicht, dass Di Fabio dort am stärksten ist, wo er den Liberalismus gegen seine sentimentalen Selbstmissverständnisse verteidigt. Gegen das freundliche Zeitalter, das sich für geschichtslos hielt. Gegen den Haltungston, der Überzeugungen durch Gesinnung ersetzt. Gegen die Lust am Pranger, die aus dem Gegner erst eine Karikatur und dann einen Feind macht. Und gegen die träge Hoffnung, die liberale Ordnung werde sich von selbst reproduzieren, wenn man nur genug Begriffe von Resilienz und Transformation auf sie wirft.
Alfred Böttger hatte gesagt, man laufe an der eigenen Zeitgenossenschaft vorbei, wenn man dieses Buch nicht lese. Das ist buchhändlerisch übertrieben und im Kern richtig. Di Fabios Buch ist nicht in allen Passagen gleich stark. Dort, wo es ökonomisch konkret werden müsste, verliert es Schärfe. Dort, wo es die Tonlagen des politischen Raums beschreibt, ist es von großer Genauigkeit. Die beste Pointe des Abends lautete darum nicht, dass wir in finstere Zeiten zurückkehren. Sie lautete: Die Demokratie wird nicht zuerst von ihren Feinden zerstört, sondern von ihrer Gewohnheit, sich selbst in Feindlager aufzuspalten. Wer diese Bewegung erkennt, hat noch keinen Ausweg. Aber er hat den ersten Schritt getan, nicht selbst zum Symptom zu werden.
Europa beginnt nicht erst in Brüssel, Straßburg oder Frankfurt. Europa beginnt früher, tiefer unten, an Flüssen, auf Märkten, in Druckereien, in Lesegesellschaften, in halbvergessenen Städten, deren Bewohner gezwungen waren, über Grenzen nachzudenken, lange bevor das Wort „Integration“ politisch Karriere machte. Bonn, diese kleine kurkölnische Residenzstadt, war im späten 18. Jahrhundert ein solcher Ort. Und Johann Joseph Eichhoff war einer ihrer überraschendsten Söhne.
Man kann ihn leicht verkennen. Auf den ersten Blick scheint er eine lokale Figur zu sein: ein Mann aus Bonn, aus Kessenich, aus der Übergangszeit zwischen Kurfürst, Revolution und Wiener Kongress. Bei näherem Hinsehen aber wird aus dem Lokalpatrioten eine europäische Gestalt. Eichhoff dachte nicht kleinräumig, obwohl er aus einer kleinteiligen Welt stammte. Er dachte den Rhein als Verkehrsraum, nicht als Besitzgrenze. Er dachte Handel als Verbindung, nicht als Misstrauensordnung. Und er dachte Politik als Kunst, aus vielen Teilen ein vernünftiges Ganzes zu machen. Gerade deshalb ist er heute aktuell.
Der Rhein als politische Schule
Es gibt Lebensläufe, die aus Büchern entstehen. Und es gibt Lebensläufe, die aus Landschaften entstehen. Eichhoffs eigentliches Lehrbuch war der Rhein. Wer an diesem Strom lebte und zugleich erleben musste, wie er durch Zölle, Mauten, Kontrollen, fiskalische Eitelkeiten und territoriale Eifersucht verstümmelt wurde, konnte den Unsinn der Kleinstaaterei kaum übersehen. Der Rhein war ja nicht bloß ein Fluss. Er war die große Verkehrsader Mitteleuropas, ein natürlicher Zusammenhang, der politisch zerschnitten wurde.
Johann Joseph Eichhoff begriff dies früher als viele andere. Er sah, dass nicht die Natur das Problem war, sondern die Ordnung. Nicht der Strom war zu schmal, sondern die Köpfe waren es. Wo jeder kleine Herr am Ufer seine Hand aufhielt, wo jeder Grenzposten den freien Verkehr als Gelegenheit zur Behinderung verstand, wurde aus einem europäischen Raum ein Flickenteppich aus Schranken.
Eichhoff hat daraus eine Einsicht gewonnen, die bis heute gültig ist: Wohlstand entsteht nicht aus Barrieren, sondern aus Verbindungen.
Der Binnenmarkt, bevor er so hieß
Es gehört zu den bemerkenswertesten Seiten Eichhoffs, dass er diesen Zusammenhang nicht nur administrativ, sondern theoretisch durchdrang. In seiner Schrift über den Artikel XIX der Deutschen Bundesakte formulierte er mit großer Klarheit, Deutschland müsse in kommerzieller Hinsicht „nur ein Ganzes“ werden. Die Binnenzölle der Einzelstaaten sollten fallen, die künstlichen „Sperrketten“ zwischen den Territorien verschwinden. Was hier zu lesen ist, ist im Kern nicht weniger als eine frühe Theorie des Binnenmarktes.
Bemerkenswert ist vor allem der Ton. Eichhoff schwärmt nicht. Er argumentiert. Er ist kein Visionär im nebelhaften Sinn, sondern ein Praktiker der Vernunft. Er weiß, dass politische Integration nicht durch Deklamation entsteht, sondern durch Verfahren, durch Vereinbarungen, durch abgestufte Übergänge. Wo die große Lösung noch nicht möglich war, schlug er kleinere Zusammenschlüsse vor, regionale Verständigungen, pragmatische Schritte zu einem größeren Ganzen. Das ist nicht nur ökonomisch klug; es ist politisch modern. Europa ist ja bis heute nicht an seinen Idealen gescheitert, sondern immer dann gefährdet, wenn es den Weg von der Idee zur Institution nicht mehr findet. Eichhoff fand ihn.
Gegen die Eitelkeit der Zölle
Das Grundmuster, gegen das Eichhoff anschrieb, ist keineswegs vergangen. Die Versuchung der Abschottung, die Lust an der Zollschranke, die Einbildung, nationale Stärke beginne dort, wo der Nachbar behindert wird – all das ist auch der Gegenwart nicht fremd. Man hört es in neuen Protektionismen, in der Sehnsucht nach wirtschaftlicher Entkopplung, in dem alten politischen Reflex, Grenzen mit Vernunft zu verwechseln.
Eichhoff wusste, dass Zölle fast nie nur den Fremden treffen. Sie verteuern Waren, hemmen Austausch, schädigen Produzenten wie Konsumenten und erzeugen am Ende mehr Misstrauen als Wohlstand. Die Grenze, das war für ihn keine heroische Linie, sondern oft nur eine teure Dummheit. Das ist der Punkt, an dem aus dem Kessenicher Verwaltungsdenker ein Autor von europäischem Rang wird: Er erkennt Interdependenz, bevor das Wort Mode wurde. Man könnte sagen: Eichhoff hatte ein Gespür für die Infrastruktur der Freiheit.
Die Aufklärung im Geheimen
Aber damit ist nur die eine Hälfte seiner Bedeutung beschrieben. Die andere liegt in jenem Milieu, aus dem er hervorging. Johann Joseph Eichhoff war kein bloßer Technokrat der Schifffahrt. Er gehörte zu einem Kreis, in dem Aufklärung nicht als Dekor, sondern als Lebensform begriffen wurde. In Bonn trafen sich damals Musik, Literatur, Verwaltung, Reformwillen und geheime Geselligkeit auf eigentümliche Weise. Und mitten in diese Welt führt die Geschichte der Illuminaten.
Schon der Name hat etwas Romanhaftes; und doch wäre es falsch, die Sache als bloßes Kuriosum abzutun. Die Illuminaten waren keine folkloristische Verschwörertruppe, sondern eine radikale, ehrgeizige, halbverdeckte Organisationsform der Aufklärung. Ihr Anspruch war groß: Vernunft, Wissenschaft, sittliche Selbsterziehung, Reform der Gesellschaft, Kampf gegen geistige Enge und gegen die Macht des bloßen Herkommens. Dass Bonn eine Filiale dieses Ordens besaß, ist mehr als ein hübscher Befund der Kulturgeschichte. Es zeigt, wie elektrisiert selbst die scheinbare Provinz vom Geist der Zeit war. Und in diesem Bonner Kreis finden sich eben auch die Eichhoffs.
Die Brüder Eichhoff und das Labor der Moderne
Der eine, Johann Peter Eichhoff, war Publizist, Historiker, Herausgeber, eine der produktiven Stimmen der rheinischen Aufklärung. Er arbeitete an Zeitschriften, an Texten, an jener bürgerlichen Öffentlichkeit, ohne die es keine Moderne gibt. Der andere, Johann Joseph, sollte später auf dem Feld der Verwaltung, des Handels und der Verkehrspolitik wirken. Zusammen bilden sie fast ein Lehrstück: Aufklärung braucht den Schreiber und den Praktiker, den Redakteur und den Organisator, den Mann des Wortes und den Mann der Institution.
Gerade darin liegt die eigentliche Bedeutung der Familie Eichhoff. Sie war nicht bloß gebildet; sie war zukunftsorientiert. In ihr verbanden sich publizistische Energie, politisches Denken, praktische Reformvernunft und jener Mut zur geistigen Entgrenzung, den die Aufklärung hervorbrachte. Dass Johann Joseph als junger Mann in den Kreis der Illuminaten eintrat, als er noch im kurfürstlichen Dienst stand, ist dafür bezeichnend. Hier zeigt sich ein Milieu, in dem Herkunft nicht mehr Schicksal sein sollte. Talent, Geist, Bildung und Wille begannen, die alten Hierarchien zu unterlaufen.
Das ist vielleicht die modernste Pointe dieser Bonner Geschichte: Europa entstand nicht nur aus Diplomatie, sondern auch aus sozialem Aufstieg durch Bildung.
Beethoven, Bonn und die große Unruhe
Hinzu kommt die Musik. Bonn war nicht nur Verwaltungsstadt, sondern ein Ort intensiver kultureller Vernetzung. Beethoven gehört in diese Szenerie ebenso wie Neefe, Simrock, Ries und andere Gestalten jener kurfürstlichen Welt, die im Rückblick oft provinzieller erscheint, als sie war. Johann Joseph Eichhoff war diesem Milieu nicht äußerlich verbunden. Er stand mittendrin. Das erklärt etwas von seiner geistigen Beweglichkeit. Wer in einer Welt aufwächst, in der Musik, Lektüre, Diskussion, Amt und Reformimpuls sich berühren, der denkt früher oder später in größeren Zusammenhängen.
Eichhoff hat diesen Horizont nie verloren. Was ihn von vielen Zeitgenossen unterschied, war nicht nur seine Kritik an der territorialen Zersplitterung, sondern die innere Unruhe, die hinter dieser Kritik steht. Er wollte nicht bloß verwalten; er wollte ordnen. Nicht bloß erhalten; verbessern. Nicht bloß die Wirklichkeit hinnehmen; sie vernünftiger machen. Das ist Aufklärung in ihrer besten Form: keine Pose, sondern Arbeit an den Verhältnissen.
Vom Geheimorden ins Amt
Man kann Eichhoffs politische Laufbahn deshalb auch als die Verwandlung einer geistigen Haltung in institutionelles Handeln lesen. Aus dem jungen Mann im aufklärerischen Netzwerk wurde ein Verwaltungsfachmann, aus dem Angehörigen eines halbverdeckten Reformmilieus ein öffentlicher Funktionsträger. Er war Bürgermeister, Unterpräfekt, später Generaldirektor der Rheinschifffahrtsverwaltung. Er bewegte sich zwischen Revolutionserfahrung, napoleonischer Umgestaltung und europäischer Neuordnung nach 1815.
Das Bemerkenswerte daran ist nicht bloß der soziale Aufstieg. Bemerkenswert ist die Kontinuität des Denkens. Eichhoff blieb im Kern derselbe: ein Mann, der Verbindungen schaffen wollte, der an die Vernünftigkeit größerer Räume glaubte und die Kleinteiligkeit des bloß Gewachsenen nicht mit historischer Würde verwechselte. In seiner Person wird sichtbar, wie tief der Impuls der Aufklärung in die politische Praxis hineinreichen konnte. Nicht jeder Illuminat wurde ein Europäer. Aber bei Eichhoff lässt sich zeigen, wie aus aufklärerischer Entgrenzung europäische Politik im Kleinen wird.
Die Familie und der weite Blick
An diesem Punkt gewinnt auch die spätere Familiengeschichte Gewicht. Dazu zählt Wilhelm Josef Eichhoff. Er erforschte Ende des 19. Jahrhunderts die verheerende Wirkung des Borkenkäfers in Europa.
Johann Joseph dachte den europäischen Binnenraum voraus, Wilhelm Josef beschrieb früh ein Naturproblem in europäischer Dimension. Der eine sah, dass Handel nicht an Grenzen enden darf; der andere erkannte, dass biologische Prozesse sich um politische Grenzen nicht kümmern. So verschieden diese Felder sind, so sehr verbindet sie doch ein geistiger Habitus: Zusammenhänge erkennen, bevor sie Gemeingut werden; Probleme sehen, bevor sie Katastrophen heißen. Das macht die Eichhoffs zu einer Familie der Moderne.
Warum Eichhoff heute zählt
Warum also Johann Joseph Eichhoff heute noch aktuell ist? Weil in ihm etwas sichtbar wird, das Europa immer wieder neu lernen muss: Große politische Räume entstehen nicht durch Schlagworte, sondern durch offene Wege, vernünftige Institutionen und die Bereitschaft, den Nachbarn nicht als Bedrohung, sondern als Partner zu begreifen. Eichhoff war kein Europäer trotz seiner rheinischen Herkunft. Er war es gerade ihretwegen. Der Rhein zwang ihn zur Weite. Die Bonner Aufklärung lehrte ihn die Vernunft. Das illuminatische Milieu gab ihm den Mut, Verhältnisse als veränderbar zu denken. Und die Verwaltungspraxis zeigte ihm, wie man Ideen in Ordnung überführt.
In einer Zeit, in der Europa wieder über Grenzen, Zölle, nationale Interessen, Abschottung und Misstrauen spricht, ist das nicht wenig. Eichhoff erinnert daran, dass der Gegensatz zwischen Patriotismus und Offenheit oft nur ein Missverständnis ist. Gerade wer seine Region, seinen Fluss, seine Stadt und ihre Zukunft ernst nimmt, muss europäisch denken. Alles andere endet in Schrankenwärtermentalität.
Der Kessenicher und das unvollendete Europa
Vielleicht liegt darin die schönste Pointe dieser Figur: dass ausgerechnet ein Kessenicher, also ein Mann aus einem scheinbar kleinen Raum, ein so großes Denken entwickeln konnte. Die Geschichte Europas ist voller solcher Gestalten. Nicht immer kommen die wichtigsten Einsichten aus den Hauptstädten. Manchmal entstehen sie dort, wo die Widersprüche des Kontinents alltäglich erfahrbar sind – an Stromlandschaften, in Grenzräumen, in Städten mittlerer Größe, in Milieus, die gezwungen sind, über sich hinauszudenken.
Johann Joseph Eichhoff gehört in diese Reihe. Er war ein Europäer vor Europa. Einer, der begriff, dass Wohlstand Bewegung braucht, dass Freiheit auch eine Frage der Verkehrsordnung ist und dass politische Vernunft immer dort beginnt, wo die künstlichen Schranken der Eitelkeit enden. Das unvollendete Europa von heute hätte Grund, sich an ihn zu erinnern.
Deutschland redet über KI wie über Wetter. Mal hell, mal dunkel, viel Stimmung, wenig Substanz. Die neue Gemeinschaftsstudie von KfW Research und dem ZEW Mannheim räumt mit diesem Nebel auf. Sie zeigt, wie der digitale Rückstand im Mittelstand aussieht, was er kostet und weshalb einige Unternehmen trotzdem nach vorn marschieren. Im Zentrum stehen zwei Namen. Irene Bertschek, Digitalökonomin am ZEW Mannheim und an der Universität Gießen, hat den Zusammenhang von Digitalinvestitionen und Produktivität vermessen. Dirk Schumacher, Chefvolkswirt der KfW, hat die Lage des Mittelstands auf den Tisch gelegt. Zusammen liefern beide das Protokoll einer Spaltung.
Acht Milliarden weniger Mut
Die erste Zahl ist ein Warnsignal mit Nachhall: Der deutsche Mittelstand investierte zuletzt nur noch 23,8 Milliarden Euro in seine Digitalisierung. Das sind 8,1 Milliarden Euro weniger als in der Vorperiode, preisbereinigt sogar 8,6 Milliarden. Parallel fiel der Anteil der Unternehmen mit abgeschlossenen Digitalisierungsvorhaben von 35 auf 30 Prozent. Fünf Prozentpunkte weniger Aktivität, mitten in einer Phase schwachen Produktivitätswachstums. Das ist keine Delle. Das ist ein Rückzug.
Schumacher zeichnet dazu das größere Bild. Deutschland verliert bei den IT-Investitionen den Anschluss an die führenden Länder. Im europäischen Vergleich liegt das Land bei der Nutzung von KI auf Rang 9, bei Online-Verkäufen auf Rang 17, bei digitalen Kompetenzen oberhalb des Basisniveaus sogar auf Rang 23. Für eine Industrienation, die ihre Stärke aus Präzision, Tempo und Export zieht, ist das kein Schönheitsfehler. Es ist eine Gefahr für das Geschäftsmodell des Landes.
Irene Bertschek und die harte Logik des Digital-Kapitals
Irene Bertschek untersucht nicht Modewörter, sie untersucht Wirkung. Grundlage ihrer Arbeit ist das KfW-Mittelstandspanel von 2017 bis 2022, die wichtigste repräsentative Erhebung für Unternehmen bis 500 Millionen Euro Jahresumsatz. Ihr Ergebnis passt in einen Satz und verändert die ganze Debatte: Je höher der digitale Kapitalstock eines Unternehmens, desto stärker der Produktivitätseffekt jeder weiteren Investition. Wer bereits digital aufgestellt ist, holt aus dem nächsten Euro mehr heraus als der Rest.
Die Rechenbeispiele sind klein im Komma und gewaltig in der Wirkung. Steigt das digitale Kapital eines Unternehmens um zehn Prozent, erhöht sich die Produktivität im Durchschnitt um 0,159 Prozent. In der Spitzengruppe der bereits stark digitalisierten Unternehmen führt derselbe Impuls zu 0,808 Prozent mehr Produktivität. Fünfmal so viel Hebel aus derselben Bewegung. Digitalisierung arbeitet also wie Zinseszins. Wer einen Sockel besitzt, baut Höhe auf. Wer keinen Sockel besitzt, tritt auf der Stelle.
Noch schärfer wird das Bild beim Rückstand zu den Besten der Branche. Zehn Prozent mehr digitales Kapital verringern diese Produktivitätslücke im Durchschnitt um 0,139 Prozent. Bei den Unternehmen mit dem höchsten digitalen Kapitalstock schrumpft die Lücke um 0,542 Prozent. Das heißt: Die Vorreiter holen aus jedem zusätzlichen digitalen Euro nicht nur mehr Tempo, sie schließen auch schneller zum oberen Ende der Wertschöpfung auf. Die Nachzügler bleiben im Gegenwind hängen.
Der Canyon im Mittelstand
Wie tief die Kluft bereits ist, zeigen die Bestände. Die obersten 25 Prozent der mittelständischen Unternehmen verfügen im Schnitt über 156.600 Euro digitalen Kapitalstock. Die untere Hälfte liegt bei weniger als 50 Euro. Diese Zahl muss man zweimal lesen. Weniger als 50 Euro. Auf der einen Seite Unternehmen mit Datenbasis, Systemen, Erfahrung und Lernkurve. Auf der anderen Seite Betriebe, in denen Digitalisierung in unregelmäßigen Schüben auftaucht und wegen der schnellen Abschreibung digitalen Kapitals fast ebenso rasch wieder verpufft.
Auch nach Unternehmensgröße zeigt sich die neue Klassengesellschaft. Bei Mittelständlern mit mehr als 50 Beschäftigten haben 63 Prozent Digitalisierungsvorhaben abgeschlossen. Bei Unternehmen mit weniger als fünf Beschäftigten sind es 27 Prozent. Noch konzentrierter wirkt das Geld: Die größten zwei Prozent der Unternehmen vereinen 41 Prozent der gesamten Digitalisierungsausgaben auf sich. Der Rückstand ist damit kein diffuser Eindruck. Er ist messbar, konzentriert und strukturell.
Was Testo begriffen hat
Testo ist in dieser Landschaft kein Zufallstreffer, kein Ausreißer, kein glücklicher Einzelfall. Das Unternehmen zeigt, wie ein Mittelständler die Richtung wechselt, bevor der Markt ihn dazu zwingt. Seit rund 70 Jahren ist Testo im globalen Markt für digitale Messlösungen unterwegs, vor allem in Heizung, Lüftung, Klima, Food und Pharma. Die Studie „Die Zukunftsmacher“ beschreibt, was den Unterschied ausmacht: Testo hat früh Softwarekompetenzen aufgebaut und vor rund sieben Jahren ein eigenes Solutions-Geschäft entwickelt. Aus dem Hersteller von Messgeräten wurde ein Anbieter von Hardware, Software und Services. Genau dort beginnt eine andere Form von Wertschöpfung.
Das Unternehmen wächst trotz Bürokratie, Fachkräftemangel und Standortlasten jährlich um fünf bis neun Prozent. Das Wachstum hängt nicht an einem einzelnen Gerät. Es hängt an der Fähigkeit, Messdaten in Entscheidungen zu verwandeln. Frittieröl-Sensoren sagen Wechselzeitpunkte voraus. In der Lebensmittelindustrie laufen Bakterienerkennung und Predictive Analytics. Im Handwerk erleichtert KI die Auswertung von Messdaten, etwa bei komplexen Installationen wie Wärmepumpen. Aus einem Wert auf dem Display wird ein Eingriff in den laufenden Betrieb des Kunden. Dort verdient die Zukunft ihr Geld.
Das Frittieröl als Lehrstück der Netzökonomie
Das Beispiel aus der Großküche wirkt unscheinbar. Eben darin steckt seine Wucht. Früher maß ein Gerät die Ölqualität, ein Mitarbeiter entschied nach Erfahrung, Sicherheitsreserve oder Bauchgefühl. Heute kann Testo aus der laufenden Messung einen datenbasierten Service bauen: Sensorik erfasst den Zustand des Öls, Modelle berechnen den optimalen Wechselzeitpunkt, der Betreiber spart Material, sichert Qualität und gewinnt einen klaren Rhythmus im Prozess. Das ist die eigentliche Verschiebung. Das Produkt endet nicht mehr beim Verkauf. Es läuft beim Kunden weiter, Tag für Tag, als Empfehlung, Steuerung und Service.
Der Mittelstand hat über Jahre Geräte verkauft und Service als Beilage geführt. Testo dreht die Gewichte um. Der Service wird zum Träger der Kundenbeziehung. Die Daten werden zum Rohstoff weiterer Angebote. Das Messgerät wird zur Eintrittskarte in ein laufendes Geschäftsmodell. Wer diesen Übergang beherrscht, entkommt dem Preiswettbewerb der alten Industrie. Wer ihn verpasst, liefert Hardware mit schmaler Marge und hofft auf Stückzahl.
KI als Betriebsmittel, nicht als Bühneneffekt
Testo investiert rund zehn Prozent seines Budgets in Digitalisierung; etwa 30 Prozent davon fließen in KI. Die Erträge tauchen intern bereits sichtbar auf: automatisierte Auftragsbearbeitung, intelligentes Wissensmanagement, ein zentrales Contact Center, Effizienzgewinne von acht bis 15 Prozent in der Softwareentwicklung. Dazu kommen eine interne KI-Akademie, ein AI-Enabler-Team, eine geprüfte Toolbox und klare Leitplanken für dezentrale Umsetzung. Führungskräfte wurden zuerst geschult. Alle Mitarbeitenden sollen ein Mindestzertifikat erreichen. Diese Architektur erklärt, weshalb Testo aus KI mehr zieht als viele größere Unternehmen aus ihren Pilotprojekten.
Das passt exakt zu Bertscheks Befund. Erst der Grundstock, dann der Ertrag. Erst die digitale Substanz, dann die Rendite. Viele Mittelständler investieren so, als könne man Produktivität per Einkaufsliste bestellen. Testo investiert wie ein Unternehmen, das die Kette verstanden hat: Datenqualität, Softwarekompetenz, Rollen, Lernprozesse, Produkte, Services. Ein Glied fehlt, die Wirkung bricht. Eine geschlossene Kette, die Wirkung skaliert.
Dirk Schumacher und die zweite Chance des Mittelstands
Schumacher sieht in KI nicht nur eine Kraft der Verschärfung. Er spricht auch über eine Chance zur Angleichung. Wenn jedes Unternehmen auf Knopfdruck Zugang zu den großen Sprach- und Wissensmodellen erhält, könnte sich Produktivität auf breiter Front anheben. Entscheidend ist für ihn der Zugang: Bleiben diese Modelle offen genug, bezahlbar genug und anwendbar genug für konkrete betriebliche Probleme? Gelingt es der deutschen Wirtschaft, daraus spezifische Edge Solutions zu bauen? Dann könnte KI den Abstand zwischen Vorreitern und Nachzüglern teilweise verringern. Wird um diese Modelle ein teurer Schutzwall errichtet, wächst die Kluft weiter.
In diesem Gedanken steckt die politische Brisanz der ganzen Debatte. Deutschland braucht nicht bloß mehr KI. Deutschland braucht einen Mittelstand, der mit ihr arbeiten kann. Bertschek nennt dafür die Voraussetzungen: kontinuierliche Investitionen, laufende Aktualisierung der Digitalkompetenzen, mehr digitale Bildung in Schule, Ausbildung und Studium, Kooperation mit digitalen Start-ups. Schumacher ergänzt den finanzpolitischen Blick: Gerade kleinere und mittlere Unternehmen verfügen oft über zu geringe Mittel, deshalb bleibt Förderung ein Hebel. Beide sprechen über dieselbe Aufgabe aus zwei Blickwinkeln. Das Land braucht Masse im Fortschritt, nicht nur Leuchttürme am Rand.
Die eigentliche Lehre
Was unterscheidet Testo von vielen anderen Mittelständlern? Nicht ein Tool. Nicht ein Workshop. Nicht eine schöne Präsentation über KI. Testo hat den Messwert in ein Geschäftsmodell verwandelt. Das Unternehmen verkauft keine Hardware mit digitalem Anhängsel. Es übersetzt Daten in Entscheidungen, Entscheidungen in Services, Services in Bindung, Bindung in Ertrag. Darin liegt der Vorsprung.
Die Zahlen dazu stammen nicht aus einer Werbebroschüre, sie stammen aus der wichtigsten Mittelstandsanalyse des Landes. 23,8 Milliarden Euro Digitalisierungsausgaben im Mittelstand, acht Milliarden weniger als zuvor. 35 Prozent aktive Unternehmen, jetzt nur noch 30. Ein oberes Viertel mit 156.600 Euro digitalem Kapitalstock. Eine untere Hälfte mit weniger als 50 Euro. Zehn Prozent mehr Digital-Kapital bringen im Durchschnitt 0,159 Prozent Produktivität, in der Spitzengruppe 0,808 Prozent. Zehn Prozent mehr Digital-Kapital verkleinern die Produktivitätslücke um 0,139 Prozent, in der Spitzengruppe um 0,542 Prozent. Auf dem Papier wirken diese Werte klein. In der Wirklichkeit entscheiden sie über Marktanteile, Investitionskraft, Löhne, Resilienz und am Ende über die Frage, wer in diesem Land die industrielle Zukunft schreibt. Testo hat darauf bereits eine Antwort gegeben. Viele andere haben noch nicht einmal mit dem Satz begonnen.
Man erkennt ein Zeitalter nicht immer an seinen großen Maschinen. Manchmal verrät es sich in einer kleinen Zahl auf dem Bildschirm. Der Snap-Score gehört zu diesen unscheinbaren Signalen. Er misst nichts, was man Bildung, Urteil oder Erfahrung nennen würde, und doch öffnet er Türen in eine jugendliche Welt, in der Sichtbarkeit, Resonanz und Zugehörigkeit längst algorithmisch vorformatiert werden. Wer diese Zahl für belanglosen App-Klimbim hält, unterschätzt ihren soziologischen Gehalt. Sie zeigt, wie tief das Zählen bereits in die Sozialform eingesickert ist.
Auf der Zukunft Personal Süd sprach Jens Eschenbächer, Professor für Internationales Management und Personalwirtschaft an der Hochschule Bremen, über genau diese Verschiebung. Sein Thema, „Vom Scrollen zum Sinn“, berührt Personalmanagement, Schule, Hochschule und Elternhaus zugleich. Denn die junge Generation betritt die Welt nicht mehr durch dieselben Vorräume wie ihre Vorgänger. TikTok, Instagram, Snapchat und Chatbots sind nicht bloß Kanäle, über die man sich gelegentlich ablenkt. Sie bilden die Eingangshallen einer Wirklichkeit, in der Aufmerksamkeit zur Währung, Vergleich zur Gewohnheit und Interaktion zur stillen Pflicht geworden ist. Die Hochschule Bremen führt Eschenbächer entsprechend in den Feldern Change Management, Employer Branding, Recruiting, Generationen-Management und Arbeitsmotivation.
Der Fehler der älteren Generation beginnt dort, wo sie diese Lage moralisch missversteht. Sie hält die Jugend für verdorben, wo in Wahrheit die Bedingungen der Sozialisation sich verschoben haben. Nicht der junge Mensch ist aus der Form geraten. Die Form selbst hat sich geändert. Wer heute heranwächst, lernt Anerkennung, Anschluss und Selbstbeobachtung in einer Medienordnung, die jeden Blick, jede Regung und jede Regung auf eine Regung in messbare Spuren übersetzt. Die eigentliche Frage lautet deshalb nicht, ob junge Menschen zu viel online sind. Die Frage lautet, in welcher Öffentlichkeit sie überhaupt erst lernen, was ein Urteil ist, was Aufmerksamkeit bedeutet und warum ein Leben mehr sein sollte als ein gut gepflegtes Profil.
Der Snap-Score zählt nicht Sinn, sondern Taktung
Snapchat selbst beschreibt den Snap-Score mit entwaffnender Offenheit als Ergebnis einer „supergeheimen“ Gleichung aus versandten und empfangenen Snaps, geposteten Storys und weiteren Faktoren; senken oder zurücksetzen lässt sich der Wert nicht. Mehr sagt die Plattform nicht. Mehr muss sie auch nicht sagen. Gerade diese Leerstelle macht den Score so wirksam. Er erklärt nichts, aber er ordnet. Er bewertet nicht Qualität, sondern Taktung. Er verleiht kein Ansehen im alten Sinn, sondern Sichtbarkeit im Betriebsmodus der Plattform.
Im Gespräch mit Eschenbächer bekommt diese kleine Plattformzahl eine größere Bedeutung. Der Snap-Score taugt als Codewort unter Vierzehnjährigen, weil er etwas markiert, das außerhalb ihrer Welt kaum jemand noch versteht. Man fragt nicht nach ihm, um eine Zahl zu erfahren. Man fragt nach ihm, um Zugehörigkeit zu testen. Wer darüber sprechen kann, kennt die neue Grammatik des Dabeiseins. Der Score ist die Eintrittskarte in einen Diskurs, der nicht über Argumente, sondern über andauernde Erreichbarkeit stabilisiert wird.
Hier beginnt die eigentliche Kritik am Score-Hype. Denn der Reiz solcher Werte liegt in einer stillen Verwechslung. Aktivität erscheint als Bedeutung, Frequenz als Nähe, Zahl als sozialer Rang. Das ist die Ökonomie der Plattformen in Reinform. Sie wollen keine Persönlichkeit erkennen, sondern Wiederkehr sichern. Je öfter jemand auftaucht, antwortet, schickt, klickt, desto besser für die Maschine. Der Snap-Score belohnt also nicht Weltbezug, sondern Umlaufgeschwindigkeit.
Das Profil ersetzt die alte Identität
An dieser Stelle hilft der Soziologe Dirk Baecker weiter. In seinem Buch „Digitalisierung“ beschreibt er die digitale Gegenwart nicht als bloßen Siegeszug technischer Apparate, sondern als gesellschaftliche Umstellung der Wahrnehmung. Digitale Geräte werden zu digitalen Medien. Sie rechnen nicht nur, sie verändern, wie Menschen sich selbst und andere beobachten. Baecker spricht in diesem Zusammenhang von Profilierung. Das moderne Individuum, einst auf Identität bedacht, bemüht sich nun um ein Profil, um im Netzwerk ansprechbar und attraktiv zu bleiben. Soziale Medien, schreibt er, verschärfen den Zwang, sich mit anderen zu vergleichen und Eigenschaften zuzulegen, die die paradoxe Aufgabe lösen sollen, zugleich Imitat und unverwechselbar zu sein. Profilierung wird aus Daten gewonnen, liefert Daten und markiert den Menschen als Punkt oder Vektor im Datenraum.
Damit ist der Snap-Score plötzlich kein Jugendgimmick mehr, sondern ein Baustein einer Profilgesellschaft. Der junge Mensch soll nicht nur da sein, er soll lesbar sein. Nicht nur sprechen, sondern metrisch ansprechbar werden. Nicht nur etwas erleben, sondern es in eine Zählform überführen. Das hat eine stille Brutalität. Denn was sich nicht zählen lässt, sinkt im Rang. Langsame Entwicklung, widersprüchliche Gedanken, stilles Lernen, halbgare Versuche, gehemmt formulierte Einsichten, der ganze tastende Charakter des Erwachsenwerdens: all das hat auf der Score-Anzeige keinen guten Stand.
Baecker liefert damit den größeren Rahmen für Eschenbächers Beobachtung. Wenn digitale Medien nicht bloß Werkzeuge sind, sondern die Taktung von Wahrnehmung, Vergleich und Kommunikation verändern, dann ist der Snap-Score keine harmlose Spielerei mehr. Er wird zum kleinen sozialen Messgerät einer großen Verschiebung: Anerkennung erscheint als Zahl, Zugehörigkeit als Aktivität, Sichtbarkeit als Dauerbetrieb. Genau an dieser Stelle beginnt die eigentliche Gefahr nicht erst bei der offenen Manipulation, sondern schon bei der stillen Gewöhnung an eine Welt, die Verhalten in Metriken übersetzt und diese Metriken dann für Wirklichkeit ausgibt. Baecker beschreibt Digitalisierung deshalb als gesellschaftliches Phänomen, in dem Technik, Wahrnehmung, Bewusstsein und Kommunikation neu gekoppelt werden; digitale Medien verändern den Maßstab, das Tempo und das Schema der Erfahrung. Wer das verstanden hat, wird Jugendlichen nicht einfach weniger Handyzeit verordnen. Er wird begreifen, dass ihr Verhältnis zur Welt längst in anderen Rhythmen geformt wird.
Gigerenzer hatte recht, aber das Problem ist gewachsen
Genau hier bekommt die ältere Warnung von Gerd Gigerenzer ihr heutiges Gewicht. Auf der re:publica 2016 in Berlin, in der Media-Convention-Diskussion „Wider die Herrschaft der Algorithmen! Wie bekommen wir die Kontrolle zurück?“, plädierte er für eine neue Aufklärung im digitalen Zeitalter: mehr Urteilskraft, weniger Maschinenfrömmigkeit. Sein Einwand zielte auf einen Denkfehler, der seither nur größer geworden ist. Algorithmen finden Muster und werden dann behandelt, als hätten sie Ursachen verstanden. Gigerenzers Beispiel waren die Google Flu Trends – ein einst gefeierter Vorhersageapparat, der gerade dort versagte, wo sich die Wirklichkeit nicht mehr an die fortgerechneten Muster hielt. Was damals als Kritik am Big-Data-Triumphalismus begann, trifft heute noch tiefer. Denn inzwischen ordnen Algorithmen nicht mehr nur Suchergebnisse und Feeds. Sie strukturieren Selbstbilder, Lernwege, Sichtbarkeit und soziale Resonanz.
Die jüngere Forschung hat dafür einen präziseren Begriff gefunden: algorithmic literacy. Gemeint ist nicht bloß Medienkompetenz im alten Sinn, sondern die Fähigkeit, algorithmische Auswahl, Rankings, Vorschläge und Scorings in ihrer Logik, ihren Interessenlagen und ihren Grenzen zu erkennen. Diese Kompetenz wird inzwischen ausdrücklich als Voraussetzung beschrieben, um sich in einer algorithmisch strukturierten Welt überhaupt noch souverän zu bewegen.
Gigerenzers alter Kantianismus bekommt damit eine neue Schärfe. Aufklärung heißt heute nicht nur, Quellen zu prüfen. Aufklärung heißt, Verfahren zu durchschauen. Wer ordnet meine Aufmerksamkeit? Wer übersetzt Verhalten in Zahl? Wer erzeugt die Illusion, ein Score sei ein Urteil? Wer schlägt mir Inhalte vor und nennt das Komfort? Die Unmündigkeit des digitalen Zeitalters beginnt nicht erst bei der Lüge. Sie beginnt beim bequemen Hinnehmen einer Metrik, die so tut, als sei sie neutral.
Der Chatbot ist Helfer und Versuchung zugleich
Eschenbächers Gespräch kippt an der besten Stelle gerade nicht in Kulturpessimismus. Der Chatbot erscheint dort nicht nur als Gefahr, sondern auch als Möglichkeit. Wer aus einem überforderten, vielsprachigen, sozial zerrissenen Umfeld kommt, könnte von einem System profitieren, das in Losgröße 1 erklärt, nachfragt, geduldig bleibt und keine Rangliste der Streber und Querulanten pflegt. Die Vorstellung ist nicht abwegig. Sie berührt einen alten Gedanken von Herbert W. Franke, den das Gespräch aufruft: Der Lehrer sieht oft nur die Streber und die Störenfriede; die graue Mitte fällt durch. Ein Lernsystem, das sich tatsächlich auf den einzelnen einstellt, wäre für viele kein Verfall, sondern ein Aufstiegsmittel.
Auch hier lohnt wieder Baecker. In seinem Kapitel über Kommunikation mit Rechnern macht er einen feinen Unterschied. Rechner kommunizieren nicht wie Menschen. Aber sie beteiligen sich an Kommunikation, indem sie Berechnungen in soziale Zusammenhänge einspeisen. Die Maschine kann überraschen, erinnern, antworten, anschlussfähig wirken; doch sie operiert anders. Baecker nennt sie deshalb nicht bloß künstlich, sondern in gewissem Sinn fremd. Seine Pointe lautet: Nicht die mögliche Verwechslung von Mensch und Maschine ist das Entscheidende, sondern die Frage, wie sich diese fremde Intelligenz kooperativ in soziale Systeme einfügt.
Das trifft Eschenbächers Ambivalenz genau. Der Chatbot kann helfen. Er kann Fakten erklären, Vokabeln trainieren, Strukturen sichtbar machen, sogar warnen, wenn er an Grenzen stößt. Aber er nimmt dem Menschen auch Arbeit des Denkens ab. Das ist kein kleiner Nebeneffekt. Wer jede erste Schwierigkeit an den Assistenten delegiert, trainiert nicht Urteil, sondern Abkürzung. Der Rechner wird dann nicht zum Lerngerät, sondern zum Ausweichraum vor eigener Anstrengung.
Bildung muß von der Antwort auf die Frage umstellen
Daraus folgt für Schule und Hochschule keine romantische Rückkehr zum Kreidestaub. Auch das wäre nur ein Ausweichmanöver. Wenn Chatbots Faktenwissen jederzeit liefern, verlieren reine Reproduktionsprüfungen an Sinn. Wer in der Klausur nur noch herausfinden muss, wann irgendwer geboren wurde oder welche Formel irgendwo steht, konkurriert mit einer Maschine, die genau dafür gebaut wurde. Eschenbächer zieht daraus die richtige Konsequenz: Nicht mehr Auswendiglernen, sondern Urteilskompetenz muss in den Mittelpunkt rücken.
Dieser Satz klingt harmlos und ist in Wahrheit eine kleine Revolution. Denn Urteil entsteht nicht durch bloßes Abrufen von Wissen. Es entsteht in Projekten, Widersprüchen, Vergleichen, Verteidigungen, eigenen Irrtümern, schlechteren und besseren Fassungen. Wenn Studierende Themen selbst bauen, Umfragen durchführen, Quellen vergleichen, Videos schneiden, Experten befragen, fremde Milieus verstehen lernen und dann das eigene Ergebnis gegen Kritik behaupten müssen, beginnen sie erst wirklich zu denken. Genau dort verliert der Score seine Herrschaft. Das Projekt kennt keinen Snap-Score. Es kennt nur gelungene oder missratene Arbeit.
Baecker formuliert die pädagogische Lage in einem Satz, der über die Hochschule hinausweist: Die Kommunikation der Selektion eines Lebenslaufs durch Erziehung in Schule und Universität stehe vor dem Problem, eine individuelle Profilierung in einem Kontext zu unterstützen, der die massenhafte Kopie desselben ermöglicht und minimale Abweichung präferiert. Präziser kann man die gegenwärtige Bildungskrise kaum fassen. Wenn alle dieselben Tools nutzen, dieselben Formulierungen generieren und sich auf ähnliche Oberflächen einigen, wird die kleine Differenz kostbar.
Der Score kriecht bereits ins Arbeitsleben
Die Zukunft Personal Süd ist für dieses Thema der richtige Ort, weil hier Schule, Arbeitsmarkt und Unternehmenspraxis ineinandergreifen. Wer heute fünfzehn ist, bringt morgen dieselbe Scoring-Sozialisation in Praktikum, Bewerbung und Betrieb mit. Wer gelernt hat, sich als Profil im Datenraum zu pflegen, wird auch auf LinkedIn nicht plötzlich zu einem unbeobachteten Bürger der alten Republik. Die Plattformform wandert mit.
Darum betrifft der Score-Hype längst nicht nur Jugendliche. Er steckt im Bewerberranking, in Aktivitätsmetriken, in Reichweitenwerten, in internen Performance-Dashboards, in Engagement-Scores, in Produktivitätsschatten, die aus digitalen Spuren gezogen werden. Der Arbeitsmarkt importiert dieselbe Verwechslung wie Snapchat: dass eine sauber zählbare Aktivität schon etwas über Eignung, Urteil oder Charakter aussage. Das ist der Punkt, an dem Netzpolitik und Wirtschaftspolitik sich treffen.
Denn eine Wirtschaft, die junge Menschen nur noch über Sichtbarkeit, Schnelligkeit und metrische Anschlussfähigkeit liest, bekommt genau jene Belegschaften, die sie sich selbst antrainiert. Mehr Profil, weniger Substanz. Mehr Aktivität, weniger Urteil. Mehr Score, weniger Sinn.
Keine Kulturpanik, sondern eine Umbauaufgabe
Eschenbächer hat im Gespräch etwas Kluges gesagt: An den jungen Menschen sei überhaupt nichts falsch. Der Satz verdient, gegen eine ganze Industrie der Alarmrhetorik verteidigt zu werden. Falsch ist nicht die Generation. Falsch ist der reflexhafte Versuch der Älteren, eine neue Medienordnung mit alten moralischen Kategorien zu erschlagen. Wer nur Verfall sieht, wird keine Institution erneuern. Wer die Veränderung der Sozialform ernst nimmt, muss bei Schule, Hochschule, Unternehmen und Plattformregulierung zugleich ansetzen.
Die Aufgabe wäre damit klar. Weniger hysterische Geräteangst. Weniger Fetisch für Reichweitenzahlen. Weniger didaktische Bequemlichkeit. Weniger blindes Vertrauen in die scheinbare Objektivität von Scores. Dafür mehr Urteilstraining, mehr Projektarbeit, mehr Aufklärung über algorithmische Verfahren, mehr geistige Widerständigkeit gegen metrische Selbstverwechslung.
Der Snap-Score ist nur eine kleine Zahl. Aber wie so oft im digitalen Zeitalter ist das Kleine nicht harmlos, sondern tief. Er zeigt, wie schnell aus einer technischen Funktion eine soziale Eintrittskarte wird. Und wie rasch eine Gesellschaft beginnt, ihre Kinder danach zu lesen, ob sie im Takt der Maschine mithalten.
Der Daumen lernt heute tatsächlich früher als der Verstand. Gerade deshalb sollte man den Verstand nicht abschaffen, sondern endlich ernster nehmen.
Auf der Zukunft Personal Süd in Stuttgart ging es zunächst um das, worum es auf solchen Bühnen fast immer geht: um Trends, Vordenker, Zukunftsfähigkeit, um die nächste Welle des Managements. Zugeschaltet war Prof. Dr. Karlheinz Schwuchow, Professor für International Management, Gründer des Center for International Management Studies in Bremen, langjähriger Herausgeber des Jahrbuchs Personalentwicklung und später der HR-Trends, dazu Autor, Herausgeber und Mitautor von weit über hundertfünfzig Publikationen zu Personalmanagement, Führung und Managemententwicklung. Wenn jemand aus der deutschen HR-Welt nicht bloß Moden auflistet, sondern Verschiebungen im Denken registriert, dann er. Entsprechend präzise war sein Zugriff auf das Thinkers50-Radar: Nicht die nächste KI-Ekstase interessierte ihn, sondern der auffällige Übergang von der Technikfaszination zu Fragen der Verantwortung, der Führung und der organisationalen Urteilskraft. KI, sagte Schwuchow, bleibe Werkzeug statt Wesen; sie erkenne Muster ohne Verständnis; gerade im Personalbereich dürfe man Algorithmen nicht vermenschlichen. Die knappste Formel des Gesprächs lautete: Technologie ist Infrastruktur, der Mensch bleibt Architekt. Damit war das Thema nicht nur gesetzt, sondern auf seinen philosophischen Kern gebracht.
Wer diesen Satz ernst nimmt, landet nicht im Werbeprospekt der Softwareanbieter, sondern in Bad Homburg, bei jener Tagung der Forschungsgruppe „Poetik und Hermeneutik“, die im September 1994 unter dem Titel „Kontingenz“ über Zufall, Möglichkeit, Schicksal und Ordnung nachdachte. Dort wurde mit größerer begrifflicher Genauigkeit über Fragen gesprochen, die heute unter dem Etikett künstlicher Intelligenz zurückkehren: Was heißt es, wenn Systeme Ordnung erzeugen? Was geschieht, wenn Berechnung den Zufall verdrängen will? Und worin besteht Kreativität, wenn das Kombinieren von Möglichkeiten nicht mehr an Personen, sondern an Apparate delegiert wird?
Der Mensch als Architekt – und die Maschine als Anti-Zufall
Schwuchows Satz vom Menschen als Architekt taugt deshalb so gut als Aufhänger, weil er die Grenze markiert, an der die aktuelle KI-Rhetorik unscharf wird. Die Maschine berechnet, korreliert, variiert, generiert. Sie erweitert die Macht des Registrierens. Aber sie urteilt nicht im starken Sinn; sie entscheidet nicht im Raum von Sinn, Verantwortung und Risiko. Gerade im Personalmanagement ist diese Unterscheidung entscheidend. Dort ist die Versuchung besonders groß, Prognosen mit Einsicht zu verwechseln: im Recruiting, in der Kompetenzdiagnostik, in der Leistungsbewertung, in der Fluktuationsvorhersage. Schwuchows Warnung vor der Vermenschlichung von Algorithmen ist daher nicht bloß methodische Vorsicht, sondern eine Absage an die infantile Metaphysik der Gegenwart, die Software gern als Halbwesen behandelt.
Das Gespräch in Stuttgart hatte noch einen zweiten Vorzug: Es warf die Kreativitätsfrage nicht an einen wolkigen Himmel der Inspiration zurück. George Newman, den Schwuchow als einen der einschlägigen Thinkers50-Namen hervorhob, steht für die These, Kreativität sei Handwerk, nicht Magie. Ideen, so die Pointe, werden nicht bloß empfangen, sie werden systematisch gefunden; Innovation verlangt Suchbewegungen, Prozesse, Erkenntnisarchitekturen. Das ist gegen den Mythos des bloßen Geistesblitzes überzeugend. Zugleich wurde im Interview selbst sofort sichtbar, wie unzureichend jede rein prozessuale Fassung bleibt: Der Interviewer insistierte auf Kontingenz, auf Geistesblitzen, auf jener nicht planbaren Marktfähigkeit, mit der sich eine bestimmte Kombination plötzlich durchsetzt. Schwuchows Antwort war klug genug, den Widerspruch nicht zu glätten: Im großen Maßstab braucht Innovation Prozesse; im konkreten Fall braucht sie Organisationen, die dem einzelnen Einfall Resonanz geben, statt ihn als Spleen abzutun. Kreativität ist also Handwerk – aber Handwerk unter Wetter.
Bad Homburg lehrt: Handeln beginnt dort, wo etwas auch anders sein kann
Rüdiger Bubner hat im Bad-Homburger Band den aristotelischen Kern des Problems freigelegt. Zufall ist für ihn nicht einfach mangelndes Wissen. Gründe eliminieren den Zufall; im Bereich der Gründe bewegt man sich schon jenseits seiner Sphäre. Aber genau deshalb bleibt das Handeln auf einen anderen Raum angewiesen: auf den Raum des „Auch-anders-sein-Könnens“. Wäre die Welt vollständig festgelegt, gäbe es keine Praxis, keine Zielsetzung, kein Gelingen und kein Scheitern. Handeln setzt Offenheit voraus. Zufall begleitet es, so Bubner, „wie ein Schatten“.
Man könnte sagen: Das ist die Stelle, an der die Managementliteratur gewöhnlich nervös wird. Denn sie träumt von Steuerung, lebt aber von Kontingenz. Sie preist Planbarkeit, lebt aber von Entscheidungen unter Unsicherheit. Sie schwärmt von Prozessen, ist aber auf Ereignisse angewiesen. Personalmanagement ist dafür ein Paradefall. Es hat mit Menschen zu tun, die anders reagieren können, als Modelle erwarten; mit Fähigkeiten, die im falschen Kontext unsichtbar bleiben; mit Ideen, die im hierarchischen Betrieb untergehen und erst außerhalb Resonanz finden. Wer diese Zone des Nichtfestgelegten restlos austreiben will, gewinnt vielleicht Ordnung, verliert aber den Gegenstand, den er zu organisieren vorgibt.
Renate Lachmann und die lange Vorgeschichte des Algorithmus
Besonders hellsichtig liest sich heute Renate Lachmann. Ihre Überlegungen zu den „Agenten der Kombinatorik“ reichen von Raimundus Lullus bis Athanasius Kircher und beschreiben eine lange Kulturgeschichte der Apparate, die den Zufall bändigen sollen. Ars memoriae und Mnemotechnik, so Lachmann, richten sich in ihren unterschiedlichen Ausprägungen auf die Bannung des Zufalls. Durch Systematiken wird Ordnung in vergangene Daten gebracht; Ereignisse, Erfahrungen und Wissenselemente werden in Zusammenhänge gestellt; dort, wo sich Mnemotechnik mit der ars combinatoria verbindet, werden aus diesen Systemen sogar Voraussagen möglich. Im numerischen Erfassen und tabellarischen Darstellen von Wissensdaten geht es auf die Eliminierung des Zufalls und die vollständige Berechenbarkeit der Vorgänge zu.
Das ist nicht bloß gelehrte Barockarchäologie. Es ist die präzise Vorgeschichte dessen, was heute unter KI firmiert. Datenbanken, taxonomische Raster, generative Routinen, probabilistische Vorhersagen: All das steht in einer Tradition, die den Zufall nicht erträgt und Zukunft aus Registratur gewinnen will. Der moderne Algorithmus ist der jüngste Apparat einer sehr alten Hoffnung: dass sich die Welt durch hinreichende Ordnung des Vergangenen für das Kommende verfügbar machen lasse.
Lachmann bleibt jedoch nicht bei der Triumphgeschichte der Kombinatorik stehen. Ihr schärfster Gedanke setzt gegen die berechnete Maschine die Phantastik, die ingeniöse Metapher, das unerhörte Ereignis. Dort entsteht Neues nicht als bloße Kombination des Vorhandenen, sondern als Bruch eines Erwartungshorizonts. Das Plötzliche, Unerklärliche, Verstörende desautomatisiert die bisherigen Deutungsmuster. Kreativität im starken Sinn ist deshalb nicht einfach Generierung, sondern Regelüberschreitung; nicht nur Variation, sondern Diskontinuität. Gerade darin liegt die produktive Differenz zwischen Kombinatorik und Schöpfung. Die Maschine kann Möglichkeiten durchspielen. Aber das wirklich Neue erscheint dort, wo eine Ordnung ihren eigenen Rahmen sprengt.
Spielen heißt: den Zufall nicht abschaffen, sondern mit ihm umgehen
Hermann Lübbe hat diese Einsicht in einer Form formuliert, die der Gegenwart besonders wehtun dürfte: im Begriff des Spiels. Zufallsspiele, schreibt er, machen Kontingenz erfahrbar; sie zwingen dazu, mit nicht vollständig disponiblen Umständen umzugehen. Noch treffender ist seine Bemerkung über das Schach. Würden die Notwendigkeiten des Spiels vollständig entdeckt, wäre die Geschichte des Schachs an ihr Ende gelangt. Ein Spiel, dessen Ausgang restlos in eine zwingende Strategie aufgelöst werden kann, hört auf, ein Spiel zu sein.
Das ist eine Lektion für jede Organisation, die sich in Richtung totaler Berechenbarkeit rationalisiert. Man kann Prozesse perfektionieren, Suchräume verkleinern, Risiken modellieren, Fehlervarianzen reduzieren. Aber ab einem bestimmten Punkt verwandelt sich die Organisation in ein Schachproblem, das seine Lebendigkeit eingebüßt hat. Wer das Unternehmen in eine Maschine des Notwendigen umbauen will, zerstört genau jene Zone, in der Entdeckung, Irritation und Innovation entstehen. Kreativität verlangt keine reine Willkür. Sie verlangt aber einen Spielraum, in dem nicht alles vorab entschieden ist.
Fortuna, Occasio und die alte Frage, ob der Mensch sein Glück packt
Aleida Assmann schlägt den Bogen von Chaucer über Boethius bis Shakespeare. Schon ihr Einstieg ist sprechend: eine Medaille aus dem 15. Jahrhundert zeigt einen kräftigen Mann, der Occasio am Haarschopf packt und Cupido bändigt. Tugend greift in das Spiel des Zufalls ein. Das ist das klassische Bild souveräner Selbstbehauptung. Doch Assmann kontrastiert diese Renaissancegeste mit der mittelalterlichen Welt Chaucers, in der Palamon und Arcite den Mächten von Fortuna und Liebe ausgeliefert bleiben. Zwischen diesen beiden Figuren – dem Herrn der Gelegenheit und dem Opfer der Fügung – bewegt sich bis heute das moderne Management.
Boethius ist in dieser Konstellation nicht bloß eine historische Station, sondern der eigentliche Prüfstein. Denn in seiner Consolatio verschwindet Fortuna nicht einfach; sie wird in einen größeren Horizont gerückt. Das ist vielleicht die zivilisierteste Antwort auf die technologische Hybris der Gegenwart. Kontingenz muss nicht vergötzt werden. Aber sie verschwindet auch nicht dadurch, dass man sie in Scorecards zerlegt. Die moderne Organisation schwankt deshalb fortwährend zwischen Renaissance und Mittelalter: zwischen der Pose, alles in den Griff zu bekommen, und der Erfahrung, dass immer wieder etwas dazwischenkommt, das nicht im System stand.
Hieronymus Bosch malt die Randzonen der Ordnung
An Hieronymus Bosch lässt sich diese Spannung bildmächtig beobachten. Der Essay über „Bosch’s Contingency“ im Bad-Homburger Kontext zeigt, dass die scheinbar wuchernden, exzentrischen, bisweilen monströsen Bildwelten Boschs keineswegs bloßes Chaos sind. Sie stehen in historischen Kontexten, in ikonographischen Ordnungen, in kulturellen Syntaxen. Und doch wirken sie, gerade in ihren Randfiguren, wie eine Revolte gegen jedes glatte Weltbild. Kontingenz erscheint hier nicht als Formlosigkeit, sondern als Überfülle des Möglichen innerhalb einer Ordnung, die nicht mehr ganz Herr ihrer selbst ist.
Für Organisationen ist das auf eigentümliche Weise instruktiv. Das Abseitige, Schräge, Querliegende erscheint im Betrieb oft zuerst als Störung: der unpassende Kandidat, die regelwidrige Idee, die merkwürdige Beobachtung, der Einfall, der im Meeting keine saubere Heimat findet. Von fern sieht das nach Rauschen aus. Von nahem kann es der Ort sein, an dem ein System mehr wahrnimmt als seine Routinen. Hieronymus Bosch wäre in dieser Lesart der Maler jener organisationalen Einsicht, dass nicht alles Wertvolle geschniegelt erscheint.
Fehlerkultur ist keine Milde, sondern eine Form organisierter Erkenntnis
Darin liegt auch der Ernst der Stuttgarter Diskussion über Fehlermanagement. Schwuchow macht im Gespräch deutlich, dass eine Organisation weder mit behaglicher Nachsicht noch mit kaltem Leistungsdruck innovativ wird. Sicherheit ohne Standards endet im gemütlichen Leerlauf; hohe Ansprüche ohne Sicherheit erzeugen Angst, Umwege und Resignation. Produktiv wird die Organisation erst dort, wo sie Misserfolge nicht sofort moralisiert, sondern als Erkenntnisereignisse bearbeitet.
Das ist der Punkt, an dem Personalmanagement aus dem Seminarraum der Wohlfühlrhetorik heraustritt und epistemisch wird. Fehlerkultur ist keine Frage des netten Tons. Sie ist eine institutionelle Technik, Kontingenz in Wissen zu überführen, ohne sie vorher zu verbieten. Wer das Unternehmen so führt, dass nur noch das Bestätigte auftauchen darf, bekommt keine Kreativität, sondern angepasste Wiederholung.
Was von Stuttgart nach Bad Homburg führt
Aus dem Gespräch mit Karlheinz Schwuchow bleibt am Ende mehr als ein kluger Messesatz. Es bleibt eine Schneise durch das Gerede der Gegenwart. KI kann speichern, ordnen, korrelieren, kombinieren, generieren. Sie vergrößert die Reichweite des Anti-Zufalls. Aber sie hebt den Bereich des Handelns nicht auf. Und sie ersetzt vor allem nicht jene schöpferische Urteilskraft, die aus einem überraschenden Ereignis mehr macht als bloß einen Datenpunkt.
Die Bad-Homburger Debatten helfen, diese Grenze scharf zu sehen. Bubner erinnert daran, dass Praxis Offenheit braucht. Lübbe zeigt, dass totale Notwendigkeit das Spiel zerstört. Assmann führt vor, wie Fortuna und Verfügung ineinander verkeilt bleiben. Lachmann beschreibt die lange Kulturgeschichte der Apparate, die Zufall verbannen wollen – und die Gegenmacht der Phantastik, die mit Regelüberschreitung antwortet. Hieronymus Bosch schließlich hält die Randzonen der Ordnung sichtbar, in denen das Glatte seine Wahrheit verliert.
Darum liegt die Zukunft des Personalmanagements weder im Kult des Geistesblitzes noch im Glauben an die totale Prozesslogik. Sie liegt in einer schwierigeren Kunst: Organisationen so zu bauen, dass sie systematisch suchen und dennoch vom Unerwarteten getroffen werden können. Das verlangt eine neue Nüchternheit gegenüber der KI und einen alten Respekt vor der Kontingenz. Kreativität entsteht nicht dort, wo der Zufall verschwunden ist. Sie beginnt dort, wo eine Ordnung stark genug ist, die eigene Überraschung auszuhalten.
Warum der Mittelstand mit Ausbildung allein nicht produktiver wird – und weshalb die neue Technologie die Kluft zwischen Vorreitern und Nachzüglern noch vergrößern könnte
Die Pressekonferenz von KfW Research und ZEW Mannheim hat einen Zusammenhang freigelegt, der in der deutschen Digitaldebatte gern zerlegt wird, obwohl er nur zusammen verstanden werden kann: Der Mittelstand leidet nicht an einem einzelnen Defizit, sondern an drei gleichzeitig. Es fehlt an Investitionen in Digitalisierung und KI. Es fehlt an digitalen Kompetenzen. Und es bremst eine alternde Unternehmerschaft, die bei Nachfolge, Risiko und Zukunftsausgaben oft vorsichtiger agiert, als es die technologische Lage erlaubt. Aus diesem Dreiklang wächst die Produktivitätslücke.
Dirk Schumacher hat diesen Befund in seiner KfW-Präsentation mit der Nüchternheit eines Chefvolkswirts formuliert, was ihn nur noch eindringlicher macht: Das Produktivitätswachstum in Deutschland sinkt seit Jahren, die Digitalisierungsaktivitäten im Mittelstand verlieren „deutlich an Schwung“, und die Unterschiede zwischen Vorreitern und Nachzüglern sind signifikant. Deutschland ist bei der Anwendung digitaler Technologien allenfalls europäisches Mittelfeld; bei höheren digitalen Kompetenzen ist das Bild noch magerer. Wer daraus nur ein Bildungsproblem macht, verharmlost die Lage. Wer daraus nur ein Finanzierungsproblem macht, ebenso.
Die eigentliche Nachricht aus Frankfurt: Die Lücke wächst nicht trotz, sondern wegen der Zurückhaltung
Die neue KfW-ZEW-Lagebeschreibung ist vor allem deshalb so brisant, weil sie einen falschen Trost zerstört. Deutschland digitalisiert sich schnell an der Spitze und zu zögerlich in der Fläche. Der Anteil der Unternehmen mit abgeschlossenen Digitalisierungsvorhaben sank zuletzt auf 30 Prozent. Die gesamten Digitalisierungsausgaben des Mittelstands fielen auf 23,8 Milliarden Euro. Gleichzeitig konzentrieren sich diese Ausgaben auf größere und ohnehin stärkere Unternehmen. Die Spitze investiert, der Rest taktiert.
Die zweite Zahl ist fast noch aufschlussreicher. Das digitale Kapital ist extrem ungleich verteilt: Die oberen 25 Prozent der mittelständischen Unternehmen verfügen im Schnitt über 156.600 Euro an Digital-Kapital; bei den unteren 50 Prozent liegt der Bestand bei durchschnittlich unter 50 Euro. Das ist keine normale Streuung mehr. Das ist eine tektonische Verwerfung im Mittelstand. Wo Kapitalstock fehlt, fehlen nicht nur Computer und Software. Dort fehlen Erfahrung, Prozesse, Anschlussfähigkeit, Lernkurven.
Digitalkapital wirkt wie Zinseszins
Genau das belegt die ZEW-Studie mit einer Klarheit, die wirtschaftspolitisch unerquicklich ist. Ein um zehn Prozent höherer digitaler Kapitalstock geht im Durchschnitt mit 0,159 Prozent höherer Produktivität einher. In der Gruppe der bereits am stärksten digitalisierten Unternehmen steigt dieser Zusammenhang auf 0,808 Prozent. Digitalisierung belohnt also nicht alle gleich. Sie belohnt jene stärker, die schon investiert haben.
Noch wichtiger ist der zweite Befund: Ein höherer Digitalisierungsgrad hilft Unternehmen, zu den produktivsten Firmen ihrer Branche aufzuschließen. Aber auch hier gilt: Je größer der vorhandene Kapitalstock, desto stärker der Effekt. Digitalisierung wirkt damit wie Zinseszins. Wer früh beginnt, profitiert überproportional. Wer zu spät kommt, verliert nicht nur Niveau, sondern Abstand. Die wachsende Produktivitätslücke ist deshalb kein Betriebsunfall des Marktes. Sie ist die logische Folge asymmetrischer Investitionen.
Ausbildung und Start-up-Kooperationen sind richtig – aber sie tragen den Kapitalstock nicht ins Haus
Professorin Irene Bertschek, Leiterin des ZEW-Forschungsbereichs „Digitale Ökonomie“, hat in ihrer Präsentation zu Recht darauf hingewiesen, dass Investitionen in Digitalisierung mit besseren und regelmäßig aktualisierten Digitalkompetenzen verbunden werden müssen. Auch Kooperationen mit digitalen Start-ups könnten helfen, technologisches Know-how in Unternehmen zu holen. Das ist richtig. Aber in der Diskussion wurde ebenso deutlich, dass diese Instrumente für sich genommen keine Investitionswende auslösen. Bertschek räumte ausdrücklich ein, das seien „begleitende Maßnahmen“; das Wichtigste seien „die Investitionen in die Technologie“.
Genau darin liegt der ökonomische Kern. Kompetenzen verbessern die Fähigkeit, Technologie zu nutzen. Sie schaffen aber noch keinen technologischen Kapitalstock. Start-up-Kooperationen können Wissen importieren. Sie ersetzen aber keine Datenarchitektur, keine Automatisierungstiefe, keine Integration in Einkauf, Produktion, Vertrieb und Service. Wer glaubt, mit ein paar Schulungsprogrammen und etwas Gründungsromantik lasse sich die Investitionsschwäche des Mittelstands therapieren, verwechselt Voraussetzung und Ursache.
Bertschek hat den zweiten Teil des Problems ebenso offen benannt. Natürlich könne es passieren, sagte sie, „dass auch bei der KI jetzt diese Produktivitätslücke noch größer wird“. Wenn die Vorreiterunternehmen stark investieren und „der große Bulk an wenig Digitalisierten“ nicht nachkommt, werde sich die Lücke weiter vergrößern. Man hätte es kaum präziser sagen können. KI ist kein sozialdemokratischer Produktivitätsbooster. Sie verteilt ihren Ertrag nicht automatisch gleichmäßig.
Ob KI nivelliert oder spaltet, entscheidet sich am Zugang
Die vielleicht klügste Antwort des Tages kam von Dirk Schumacher. Er hat die Warnung nicht relativiert, sondern erweitert. Ja, KI könne die Unterschiede vergrößern. Aber sie könne sie auch „nivellieren“. Entscheidend sei, „wie wird der Zugang zu diesen Foundational Models sein?“ Wenn jedes Unternehmen mit vertretbarem Aufwand auf leistungsfähige Modelle zugreifen und daraus spezialisierte Lösungen bauen könne, dann ließe sich Produktivität auch in der Breite heben. Wenn dagegen Abschottung, knapper Zugang und hohe Gebühren dominieren, nehme die Volkswirtschaft „einen ganz anderen Pfad“.
Darin steckt eine ordnungspolitische Pointe, die über diese Pressekonferenz hinausweist. KI ist kein Naturereignis. Ob sie die Kluft zwischen Vorreitern und Nachzüglern verbreitert oder verkleinert, hängt nicht nur von der Technologie selbst ab, sondern von ihrer Verfügbarkeit, ihren Preisen, ihrer Integrierbarkeit und der Fähigkeit des Mittelstands, daraus anwendungsnahe Lösungen zu bauen. Wer also fragt, ob KI die Lücke vergrößert, muss zugleich fragen, wem der Zugang gehört und wer ihn sich leisten kann.
Die Alterung der Unternehmerschaft ist kein Randthema, sondern ein Investitionshemmnis
Hinzu kommt ein Faktor, der in vielen Innovationsdebatten wie ein ungebetener Gast behandelt wird: Demografie. Schumacher hat auch hier keinen Nebel erzeugt. Das Nachfolgeproblem, sagte er, sei „leider ein empirischer Fakt“. Die Alterung der Unternehmerschaft werde „at the margin wahrscheinlich auch zu weniger Digitalisierungsaktivitäten führen“. Gerade deshalb sei das aber kein Argument, bei der Digitalisierung kürzerzutreten. Im Gegenteil: Weil die Investitionsneigung durch Alterung und ungelöste Nachfolge sinkt, werden die übrigen Hebel umso wichtiger.
Auch hier zeigt sich: Die Produktivitätslücke des Mittelstands ist eben nicht nur technologisch, sondern strukturell. Wer eine alternde Unternehmerlandschaft, knappe Nachfolger, steigende Unsicherheit und schwache Investitionen zusammendenkt, versteht, warum Appelle an Lernbereitschaft allein ins Leere laufen. Ein Unternehmen digitalisiert nicht, weil es dazu moralisch ermuntert wird. Es digitalisiert, wenn Kapital, Führung, Kompetenz und Zukunftsperspektive zusammenkommen.
Was die Hidden Champions den Zögerern voraus haben
Die Zukunftsmacher-Studie des Smarter-Service-Instituts liefert das Gegenbild zum zögerlichen Teil des Mittelstands (der Autor dieses Beitrags hat an der Studie mitgearbeitet). Dort sprechen Hidden Champions und führende Familienunternehmen nicht über KI als hübsches Zusatzmodul, sondern als Investitions- und Wettbewerbsfrage. Im Durchschnitt fließen dort rund 30 Prozent des Investitionsbudgets in Digitalisierung; jeder fünfte Digitalisierungs-Euro geht bereits in KI. Die Unternehmen berichten im Schnitt von 22 Prozent Produktivitätssteigerung durch KI. Und die Studie hält ausdrücklich fest: Je stärker Unternehmen in Digitalisierung und KI investieren, desto höher ist ihr Reifegrad; rund 37 Prozent des Investment-Ertrags entstehen durch Fortschritte in der digitalen Maturity.
EDAG formuliert die Konsequenz ohne Schonung: „Wer nicht integriert, verliert Wettbewerbsfähigkeit.“ Der Engineering-Dienstleister investiert einen signifikanten Teil seines EBIT in digitale Transformation und erzielt bereits 20 bis 30 Prozent Zeitersparnis in ersten Projekten. Internorm sagt dasselbe in pragmatischerem Ton: KI werde dort eingesetzt, wo sie „sofort Wirkung“ zeige; entscheidend sei das Zusammenspiel von Datenbasis, Mindset und Fehlerkultur. Das Unternehmen investiert rund ein Prozent des Umsatzes in Digitalisierung und arbeitet seit Jahren an Forecasting, Lager- und Einkaufsoptimierung. MIWE wiederum macht aus dem industriellen Alltag eine Lektion in Produktivitätsökonomie: Digitale Assistenten verarbeiten täglich Millionen SAP-Datensätze; die Firma berichtet von 10 bis 20 Prozent Performancegewinnen im Materialmanagement und 20 bis 25 Prozent Produktivitätssteigerung in der Produktion. ACO schließlich bringt die Demografiefrage auf eine prägnante Formel: „KI ersetzt keine Jobs – sie verhindert, dass uns Know-how verloren geht.“
Diese Sätze erklären den Unterschied besser als jede Förderbroschüre. Die Vorreiter warten nicht, bis Kompetenzen perfekt, Prozesse ausdefiniert und Risiken restlos abgefedert sind. Sie investieren, um Kompetenzen aufzubauen, Prozesse zu verbessern und Risiken zu beherrschen. Die Nachzügler behandeln Digitalisierung dagegen noch immer wie ein vertagbares Projekt. Die einen bauen Kapitalstock auf. Die anderen pflegen Bedenken.
Weniger Digitalfolklore, mehr Investitionsrealismus
Die wirtschaftspolitische Konsequenz liegt damit offen zutage. Deutschland muss die Produktivitätsfrage des Mittelstands endlich als das behandeln, was sie ist: als Zusammenspiel von Kapital, Kompetenz und Demografie. Bertschek hat recht, wenn sie auf Digitalkompetenzen und Start-up-Kooperationen pocht. Schumacher hat recht, wenn er den Primat der Technologieinvestition und die Gefahr einer größeren KI-Kluft hervorhebt. Die Zukunftsmacher zeigen, dass beides nur trägt, wenn Unternehmen tatsächlich investieren, integrieren und skalieren.
Der deutsche Mittelstand steht damit vor einer unbequemen Wahrheit. KI wird die Schwachen nicht automatisch mitziehen. Sie wird jene belohnen, die vorbereitet sind: mit Kapital, mit Können, mit Führung und mit dem Mut, aus der Vorsicht auszubrechen. Wer weiter zu wenig investiert und darauf hofft, Schulung allein werde den Rückstand heilen, verwechselt pädagogischen Trost mit ökonomischer Realität. KI verzeiht keinen Investitionsstau.