Aufschreibesysteme statt Interdependenzen: Eine soziologische Zuspitzung nach Klaus Janowitz und Friedrich Kittler

Klaus Janowitz hat mit dem Begriff der Technogenese einen brauchbaren Hebel geliefert. Der Ausdruck verschiebt den Blick weg von der alten Frage, ob Technik die Gesellschaft prägt oder die Gesellschaft die Technik. Diese Schablone taugt nicht mehr viel. Janowitz setzt an die Stelle der Kausalität eine Verschränkung. Technik, soziale Ordnung und individuelle Dispositionen laufen in langen Ketten, greifen ineinander, erzeugen Rückwirkungen. Für die Soziologie ist das ein Fortschritt. Für mein Interesse an Kittler reicht es nicht.

Der Begriff Technogenese ist stark, solange er nicht beruhigt. Sobald aus ihm ein harmonisches Ko-Evolutionsbild wird, verliert er Schärfe. Dann klingt Geschichte wie ein lernfähiges Arrangement. Doch Mediengeschichte verläuft nicht als Gespräch zwischen gleichberechtigten Partnern. Sie verläuft als Serie technischer Zumutungen, als Umbau von Adressen, Kanälen, Speicherformen, Zugriffen. Jede neue Apparatur stellt alte Gewissheiten unter Strom. Janowitz öffnet die Tür. Kittler tritt ein und löscht das Licht der soziologischen Behaglichkeit.

Mein Einsatz bei Janowitz beginnt an der Stelle, an der seine Perspektive mir zu sanft wird. „Interdependenz“ ist ein brauchbares Wort, doch es klingt nach Gleichgewicht. Die Geschichte der Medien kennt kein Gleichgewicht. Sie kennt Monopole und deren Zerfall. Sie kennt Standardisierungen, die plötzlich ganze Berufsfelder verschieben. Sie kennt technische Formate, die aus einer Kultur des Sinns eine Kultur der Signale machen.

Deshalb führe ich Janowitz auf Kittler zu. Nicht, um den soziologischen Begriff zu verwerfen. Eher, um ihn unter Druck zu setzen. Bei Kittler taucht Technik nicht als „Faktor“ unter anderen auf. Technik ist kein Kontext der Gesellschaft. Technik ist die operative Grammatik dessen, was eine Gesellschaft speichern, übertragen, zählen, befehlen und erinnern kann. Wer diese Ebene verfehlt, redet über Oberflächen. Die Soziologie liebt Oberflächen: Rollen, Institutionen, Normen, Milieus, Habitus. Kittler zieht darunter die Kabel.

Foucault endet am Archiv

Kittlers Ausgangspunkt ist bekannt: Foucaults Archive reichen für die Moderne nicht mehr aus. Spätestens seit dem späten 19. Jahrhundert zerfällt das Monopol des Buches. Schrift bleibt wichtig, nur verliert sie ihre Alleinherrschaft. Töne, Bilder, Signale, maschinenschriftliche Texte drängen in die kulturelle Matrix. Das Archiv wird technisch plural. An dieser Stelle kippt der gesamte Wissensraum.

Für die Soziologie ist das eine Zumutung. Sie konnte sich lange darauf verlassen, Gesellschaft an Texten, Institutionen und Symbolordnungen abzulesen. Kittler zwingt sie, mit Grammophon, Film, Telephon, Schreibmaschine und Computer zu rechnen. Nicht als hübsches Beiwerk der Moderne. Als deren Unterbau. Aus dieser Perspektive wirkt ein großer Teil der Soziologie wie eine Disziplin, die das Ergebnis beschreibt, nachdem die Apparate ihre Vorarbeit längst erledigt haben.

Janowitz sieht die Verschränkung von Technik und Gesellschaft. Kittler macht aus der Verschränkung eine Hierarchie der Bedingungen. Erst die medientechnische Form entscheidet, was als Mitteilung, Gedächtnis, Befehl, Präsenz oder Autorität zirkulieren kann. Die Gesellschaft spricht nicht frei. Sie spricht in Formaten.

Das Buch war eine Disziplinaranlage

An diesem Punkt wird die Sache konkret. Das Buch war in der bürgerlichen Epoche nicht bloß Träger von Bildung. Das Buch war eine Disziplinaranlage. Es ordnete Zugang, Autorität, Verwaltung, Geltung. Es band Schreiben an Handschrift, Handschrift an Bildung, Bildung an den männlichen Staats- und Amtskörper. Daraus entstand jene symbolische Selbstverständlichkeit, die das 19. Jahrhundert als Kultur der Schrift ausgab.

Die Soziologie hat dieses Regime oft zu freundlich beschrieben. Öffentlichkeit, Lesekultur, bürgerliche Vernunft, nationale Bildung. Das stimmt auf einer Ebene. Auf einer anderen war das Buch eine Zugangstechnologie mit scharf gezogenen Schwellen. Nicht jede und jeder schrieb an derselben Stelle des Systems. Private Briefe, Salonkultur, Gefühlsschrift, Tagebuch, Frömmigkeit – das alles zirkulierte, blieb jedoch am Rand der strategischen Schriftmacht. Im Zentrum saßen Verwaltung, Universität, Amt, Kanon, Druck und Prüfung. Dort herrschte der Mann, ausgebildet, geschniegelt, mit jener Schulgrammatik, die Schrift als Sozialprivileg führte.

Kittler trifft hier den Nerv. Seine Pointe lautet nicht, dass Frauen nie geschrieben hätten. Seine Pointe lautet, dass die Schaltstellen des Schreibens männlich besetzt waren. Das Buch war Männerwelt, weil seine Infrastruktur Männerwelt war.

Die Schreibmaschine zerstört die Würde der Hand

Dann erscheint die Schreibmaschine. Nicht als Fortschritt. Als Unterbrechung. Plötzlich verliert die Handschrift ihren Nimbus. Das Schriftbild kommt nicht mehr aus der individuellen Geste, aus jener Verbindung von Körper, Stil und Bildung, auf die sich die männliche Schriftkultur so viel zugutehielt. Die Taste tritt an die Stelle der Hand. Das Zeichen wird standardisiert. Der Stolz auf die schöne Schrift sinkt vom Rang einer Kulturleistung zu einer nostalgischen Gewohnheit.

Hier öffnet sich die Bresche. Männer in Büros hielten an der Handschrift fest. Frauen griffen nach der Maschine. Diese Bewegung gehört zu den stärksten Sätzen Kittlers. Nicht eine moralische Einsicht bringt die alte Ordnung ins Wanken. Ein Apparat erledigt die Vorarbeit. Er macht ein Monopol technisch obsolet. Frauen dringen in Kontore, Verwaltungen, Börsen, Kanzleien ein, weil die Maschine eine Kulturtechnik de-auratisiert. Das ist der historische Moment, in dem aus dem Pathos des Schreibens eine Operation wird.

Janowitz’ Begriff Technogenese gewinnt hier erst seine volle Härte. Technik und Gesellschaft entwickeln sich nicht gemeinsam in einem milden Wechselspiel. Eine Apparatur kappt die Verbindung zwischen Schrift und männlichem Habitus. Damit fällt kein Patriarchat in sich zusammen. Doch sein mediales Rückgrat bekommt Risse.

Das Telephon besetzt die Schnittstelle neu

Mit der Telephonie wiederholt sich der Vorgang auf einer anderen Ebene. Nun geht es nicht mehr um die Spur auf Papier, nun geht es um die Stimme im Netz. Auch hier entsteht kein neutrales Kommunikationsmittel. Es entsteht eine neue soziale Topologie. Vermittlungsämter, Stöpselstellen, Netzknoten, Operatorinnen. Die technische Infrastruktur ruft eine neue Figur hervor: die Frau als Interface.

An dieser Stelle wird Kittler für die Soziologie unbequem. Denn er beschreibt keine bloße Erweiterung von Berufschancen. Er zeigt, wie technische Systeme menschliche Bedienkörper benötigen, solange sie noch nicht vollautomatisch laufen. Diese Bedienkörper werden in die Machtkreise des Systems eingezogen. Die Telefonistin steht nicht am Rand der Moderne. Sie sitzt an einer ihrer neuralgischen Stellen. Kommunikation läuft durch ihre Hände, ihre Stimme, ihre Aufmerksamkeit.

Wer da noch von „Anwendung“ spricht, hat die Sache nicht verstanden. Das Medium erzeugt seine sozialen Träger neu. Aus dieser Einsicht folgt eine Soziologie der Schnittstellen. Nicht Klassen allein, nicht Institutionen allein, nicht Milieus allein. Schnittstellen. Dort werden Körper, Stimmen, Disziplinen und Hierarchien neu verteilt.

KI markiert den nächsten Schnitt: Nicht mehr nur Bedienkörper werden in technische Systeme eingespannt, sondern Bildungs-, Beratungs- und Entscheidungsläufe selbst werden auf Losgröße 1 umgestellt. Darin liegt, mit dem KI-Forscher Wolfgang Wahlster gelesen, ihr antielitäres Potential. Wenn tutorielles Lernen tatsächlich auf Einzelpersonen ausgerichtet wird, wenn Systeme dranbleiben, motivieren, Fehlkonzepte diagnostizieren und individuelle Förderung dort leisten, wo überfüllte Klassen, dünne Beratungsstrukturen und soziale Herkunft bislang wie eiserne Filter wirken, dann fällt eine der ältesten Kopplungen der Moderne: die Kopplung von Herkunft und Zukunft.

Wahlster formuliert genau diesen Punkt, wenn er sagt, Losgröße 1 könne helfen, das Muster „Herkunft gleich Zukunft“ zu durchbrechen, weil individuelle Förderung nicht länger ein Privileg derer bleiben müsse, die ohnehin schon über Kapital, Milieu und institutionelle Nähe verfügen. KI wäre dann nicht der neue Apparat der Selektion, sondern erstmals ein Mittel, mit dem sich die aristokratische Logik knapper Förderung technisch unterlaufen lässt. Die harte These lautet deshalb: Dort, wo KI ernsthaft personalisiert, diagnostiziert und ermutigt, beginnt nicht einfach bessere Pädagogik, sondern die materielle Chance auf eine Gesellschaft, in der biografische Startnachteile ihre Selbstverständlichkeit verlieren.

Technik ist keine Umwelt der Gesellschaft

Hier liegt mein eigentlicher Widerspruch gegen einen zu mild gelesenen Janowitz. Technik darf nicht als Umwelt der Gesellschaft behandelt werden. Auch nicht als Ergänzung. Technik ist die Bedingung, unter der Gesellschaft ihre eigene Umwelt überhaupt erst unterscheiden kann. Erst wenn Signale von Rauschen getrennt, Daten adressiert, Texte standardisiert, Stimmen übertragen, Bilder gespeichert und Rechenoperationen automatisiert werden, stabilisiert sich jene Ordnung, die wir nachträglich „Gesellschaft“ nennen.

Kittler zwingt die Soziologie dazu, auf den Boden ihrer eigenen Voraussetzungen hinabzusteigen. Nicht Normen zuerst. Nicht Werte zuerst. Nicht Kommunikation zuerst. Zuerst die Speicher. Die Kanäle. Die Befehlszeichen. Die Standardisierungen. Die Kopplungen von Militär, Bürokratie und Industrie. Die Zahlencodes. Die Diskretisierung der Welt.

Janowitz schreibt klug gegen lineare Fortschrittserzählungen an. Das überzeugt. Nur würde ich einen Schritt weitergehen: Technogenese meint nicht bloß wechselseitige Formung. Technogenese meint die historische Tatsache, dass Apparate den Möglichkeitsraum des Sozialen verschieben. Nicht metaphorisch. Operativ.

Turing und das Ende der alten Gewissheiten

Mit Turing tritt das in seine radikale Phase. Das Imitationsspiel, wie Kittler es liest, beginnt mit Mann und Frau und endet bei Mensch und Maschine. Diese Verschiebung ist nicht beiläufig. Sie zeigt, dass die alten Differenzen nur noch als Vorstufe einer neuen Vergleichsordnung dienen. Nicht mehr die Geschlechterdifferenz organisiert die tiefste Trennlinie, sondern die Frage, ob ein Rechner in derselben symbolischen Form operieren kann wie ein Mensch.

Von da an wird alles anders. Der Computer erscheint nicht als weiteres Medium in einer Reihe. Er absorbiert die Reihe. Text, Bild, Ton, Zahl, Signal – alles wird anschließbar, alles wird verarbeitbar, alles wird manipulierbar. Aus getrennten Medien werden Datenlagen. Aus kulturellen Ausdrucksformen werden Operationszustände. Der Computer ist keine Erweiterung des Buches. Er ist dessen Entthronung.

Hier wird eine weitere Schwäche vieler soziologischer Technikbegriffe sichtbar. Sie bleiben zu nah an der Semantik des Gebrauchs. Wer nutzt was? Wer eignet sich etwas an? Wer profitiert? Diese Fragen sind nicht falsch. Nur greifen sie zu spät. Zuerst entscheidet die Architektur. Erst danach folgen Nutzungen, Aneignungen, Konflikte, Deutungen. Die Form der Maschine kommt vor ihrem sozialen Kommentar.

Elias, Luhmann, Janowitz – und dann Kittler

Janowitz knüpft seinen Begriff der Technogenese mit Recht an Norbert Elias. Das hat analytische Eleganz. Langfristige Prozesse, Wandel von Dispositionen, Interdependenzketten, Zivilisationsdynamik. Nur bleibt bei Elias die materielle Härte der Apparate merkwürdig fern. Die Zivilisation erscheint dort an Tischsitten, Affektregimen, Verhaltensschwellen. Das hat Größe. Es bleibt an vielen Stellen papiernah.

Kittler verschiebt die Bühne. Nun geht es um technische Aufschreibesysteme, um die Medien, in denen überhaupt erst festgelegt wird, was registrierbar ist. Auch Luhmann hilft nur begrenzt weiter. Seine Form/Medium-Unterscheidung ist elegant, seine Theorie der Technik scharfsinnig, doch die elektrische, optische, akustische und rechnerische Materialität bleibt bei ihm zu oft in der Höhe des Systems aufgehoben. Kittler fällt tiefer. Er fällt auf Kabel, Chips, Codes, Maschinen, Geräte. Eben dort, wo Soziologie schmutzig wird und Philosophie nervös.

Janowitz liefert den Anschluss, den die deutschsprachige Soziologie lange vermieden hat. Ich würde nur den Druck erhöhen. Technogenese darf kein verständiger Sammelbegriff für Wechselwirkungen bleiben. Sie markiert die Verschiebung vom Sozialen als Deutungssystem zum Sozialen als Effekt medientechnischer Operationsweisen.

Nach Janowitz beginnt die Härte

Mein Vorschlag lautet daher: Janowitz lesen, dann Kittler nachlegen. Technogenese lesen, dann an den Punkt treiben, an dem aus Ko-Evolution Umcodierung wird. Nicht Technik „und“ Gesellschaft. Nicht Mensch „und“ Medium. Nicht Kultur „und“ Infrastruktur. Diese Additionen verwässern die Sache. Entscheidender ist die Frage, welche Apparate eine Epoche besitzt, welche Speicherformen sie bevorzugt, welche Befehle sie standardisiert, welche Schnittstellen sie personell oder maschinell besetzt.

Von dort aus wirken die großen soziologischen Kategorien anders. Klasse erscheint als Verteilungsform von Zugängen zu Apparaten. Geschlecht erscheint als historische Zuteilung von Bedienbarkeit, Sichtbarkeit, Schreibmacht. Öffentlichkeit erscheint als Effekt von Übertragungsregimen. Wissen erscheint als Funktion seiner Speichermedien. Macht erscheint als Fähigkeit, die technischen Bedingungen des Sichtbaren und Sagbaren zu setzen.

Das ist der Punkt, an dem ich Janowitz weiterdrehe. Nicht gegen ihn. Über ihn hinaus. Sein Begriff öffnet die Sache. Kittler macht sie unabweisbar.

Die Soziologie hat sich lange eingeredet, Technik sei ein Gegenstand ihrer Analyse. In Wahrheit hat Technik viel häufiger die Bedingungen der Analyse selbst gesetzt. Wer heute noch über Plattformen, KI, algorithmische Sichtbarkeit oder digitale Öffentlichkeit spricht, ohne die technische Form in den Vordergrund zu ziehen, wiederholt die alte Fehleinschätzung des Bildungsbürgertums gegenüber der Schreibmaschine: Man hält den Apparat für ein Hilfsmittel und merkt zu spät, dass er die Ordnung umstellt.

Darum führt der Weg von Janowitz zu Kittler. Der eine gibt den Begriff. Der andere liefert den Stromstoß. Und erst unter dieser Spannung beginnt eine Soziologie, die der Gegenwart gewachsen ist.

Der freundliche Ausnahmezustand ist vorbei – Udo Di Fabio bei Böttger: eine brillante Diagnose — und ein blinder Fleck

Alfred Böttger eröffnete den Abend so, wie nur er solche Abende eröffnet: halb Buchhändler, halb Zeremonienmeister, halb Feuerwehrhauptmann der Literatur. Man könne, sagte er, in seiner Buchhandlung nicht nur geistig entflammen; hier sei auch „sehr viel brennendes Material“, deshalb müsse er zunächst die Fluchtwege erläutern. „Man brennt ja oft nach Büchern, manchmal springt die Flamme über“, und mit einem Stolz, der jedes Bauordnungsamt in Verlegenheit bringen müsste, fragte er ins Publikum: „Welche Buchhandlung hat drei Fluchtwege?“ Danach kam der eigentliche Satz des Abends, jener Böttger-Satz, in dem Reklame, Pathos und Bonner Bürgerpflicht ineinanderfielen: Wer dieses Buch nicht studiere, „läuft an seiner eigenen Zeitgenossenschaft vorbei“. Man hörte das und wusste sofort: Jetzt wird nicht bloß vorgestellt, jetzt wird eine Gegenwart verhandelt.

Udo Di Fabio nahm die Vorlage dankbar auf, aber nicht im Ton des Marktschreiers. Eher mit jener kontrollierten Ironie, die seine Souveränität ausmacht. Ein Agent habe ihm, erzählte er, schon im Manuskriptstadium versprochen, aus „Verfeindlichung“ einen Großauflagenstoff zu machen. Seine Antwort auf diese Verheißung war der schönste Satz gegen den ganzen gegenwärtigen Empörungsbetrieb: Wer wirklich Auflage machen wolle, dürfe über Verfeindlichung nicht reflektieren, sondern müsse sie bedienen. Mehr muss man über den publizistischen Markt der Gegenwart kaum sagen. Di Fabio will nicht auf der Welle reiten, er will zeigen, aus welchem Material sie gemacht ist. Und so stand an diesem Abend ein ehemaliger Verfassungsrichter da, der sich nicht als Mahner inszenierte, sondern als Diagnostiker der beschädigten liberalen Mitte. Sein Buch, sagte er, biete keine schnell verdauliche Nahrung; und tatsächlich war dies ein Vortrag gegen die Instant-Mentalität des politischen Betriebs.

Der Gegner wird abgeschafft

Di Fabios Grundgedanke ist scharf und einfach genug, um zu tragen: Die westlichen Demokratien stehen nicht vor dem Untergang, aber vor einer „epochalen Zäsur“. Nicht die Demokratie stirbt; sie verfeindlicht sich. Diese Pointe richtet sich gegen das freundliche Selbstverständnis der Jahrzehnte nach 1989. Fukuyamas These vom Ende der Geschichte, erinnerte Di Fabio, habe damals die Phantasie beflügelt: kein Systemgegner mehr, keine ideologische Großkonkurrenz, stattdessen Global Governance, Weltrepublik, Vereinigte Staaten von Europa, der politische Raum als allmählich technokratisierte Verständigungszone. Er selbst habe sich, gestand er, damals sogar einmal von dieser Stimmung anstecken lassen. Eben deshalb bekommt seine Rücknahme Gewicht. Man hörte nicht den Besserwisser im Nachhinein, sondern einen Zeitgenossen, der seine eigene Verstrickung offenlegt.

An dieser Stelle betritt Carl Schmitt die Bühne. Di Fabio nannte ihn „einen gefährlichen Denker, aber einen faszinierenden Denker“, einen Mann, der mit der freiheitlich-demokratischen Grundordnung „so gar nichts am Hut“ gehabt habe und doch ein Meister im Auffinden folgenreicher Unterscheidungen gewesen sei. Das ist präzise gesagt. Schmitts Freund-Feind-Schema beschreibt zunächst tatsächlich etwas Reales im politischen Raum: Regierung und Opposition sind keine Kaffeegesellschaft, Parteifreunde sind selten Freunde, und Politik lebt nicht von Harmonie. Aber Schmitts Formel kippt dort ins Giftige, wo der Gegner nicht mehr der andere mit gleichen Rechten ist, sondern der Feind ohne Existenzrecht. Genau da beginnt, so Di Fabio, die Verfeindlichung: wenn aus Streit ein Existenzkampf wird und aus Konkurrenz ein Vernichtungswunsch. Er erinnerte an die fünfziger und sechziger Jahre, an Adenauers antikommunistische Härte, an den Alarmismus rund um die Notstandsgesetze, an Parolen wie „Brandt an die Wand“, an die Idee eines Feindstrafrechts im Terrorismusdiskurs. Man merkte: Seine These ist nicht, dass die Bundesrepublik jetzt Weimar wiederholt; seine These ist, dass sie anfängt, mit deren schlechtesten semantischen Gewohnheiten zu kokettieren.

Die Verengung des Meinungskorridors

Am überzeugendsten wurde der Abend dort, wo Di Fabio von der großen Theorie in die konkreten Disziplinierungen des Alltags wechselte. Er sprach von einer unnötigen „Verengung des Meinungskorridors“, von Haltungsvorgaben, von einer öffentlichen Moral, die weniger an Überzeugung als an Konformität interessiert sei. Sein Misstrauen gegen den Begriff „Haltung“ war einer der stärksten Momente des Vortrags. „Der Haltungsbegriff ist nicht mein Lieblingsbegriff“, sagte er, und dann kam jener Satz, der weit über jedes tagespolitische Gezänk hinausweist: Haltung sei für ihn „die Zumutung, dass mir jemand sagen will, wie ich denken soll und wie ich argumentieren soll“. Das ist kein kulturkämpferischer Reflex, sondern eine liberale Grundintuition. Ein öffentlicher Raum, der nicht mehr argumentieren, sondern nur noch signalisieren will, wechselt vom Gespräch zur Gesinnungsaufsicht.

Di Fabio erzählte das nicht abstrakt, sondern an zwei Erfahrungen, die seine intellektuelle Redlichkeit unter Beweis stellten. In der Corona-Pandemie, sagte er, sei er selbst Mainstream gewesen, auf der vorsichtigen Seite, beratend sogar für Nordrhein-Westfalen tätig. Gerade deshalb habe ihn die Art abgestoßen, in der Skepsis oder Abweichung sofort mit Etiketten wie „Corona-Leugner“ oder gar „Verfassungsfeind“ versehen wurde. Sein Beispiel eines Hamburger Mathematikers, der die Laborhypothese zum Ursprung des Virus diskutierte und dafür beinahe administrativ gemaßregelt worden wäre, hatte am Abend die Wirkung eines Lakmustests: Nicht die Position steht hier im Mittelpunkt, sondern die Frage, wie schnell eine Gesellschaft von der Widerlegung zur Verdammung übergeht. Noch schärfer wurde es in seiner Erinnerung an 2015, als er mit dem Plädoyer für Grenzkontrollen „auf der falschen Seite“ stand und spürte, wie man im katholischen Milieu plötzlich nicht mehr als Diskurspartner, sondern als moralisch kontaminierte Figur behandelt wurde. So spricht kein Tribun des Ressentiments; so spricht einer, der aus beiden Richtungen die gleiche Intoleranz kennengelernt hat.

Der zerbrochene Spiegel

Dann folgte die eigentliche medientheoretische Passage des Abends. Di Fabio beschrieb die Öffentlichkeit von heute als „zerbrochenen Spiegel“: Alles sei noch da, alles noch sichtbar, aber das Bild nicht mehr einheitlich. Früher, mit Luhmann gesprochen, las Presse vor allem Presse; es gab verschiedene Blätter, verschiedene politische Tableaus, aber noch einen wechselseitig aufeinander bezogenen Meinungsraum. Heute zerfällt diese Bezogenheit in algorithmisch bewirtschaftete Fragmente. Das Netz, sagte Di Fabio, habe die utopische Hoffnung einer digitalen Agora nur kurz gestreift; was sich stattdessen durchsetze, sei eine Technik der Stimmungsproduktion. Seine Rede von der „TikTokisierung“ war in diesem Punkt nicht kulturpessimistische Pose, sondern eine genaue Beschreibung: politische Manipulation ohne Umweg über Urteilskraft, Affektsteuerung statt Deliberation. Hier traf Di Fabio einen Nerv der Gegenwart. Nicht weil er Neues sagte, sondern weil er das längst Bekannte aus dem Ton der Empörung herausnahm und wieder in Begriffe überführte.

Auch seine Beobachtung der „volatilen Gesellschaft“ saß. Der Verlust der alten Ligaturen — Familie, Vereine, Kirchen, Gewerkschaften, Parteien — hat den Einzelnen freier und zugleich verlassener gemacht. Wo solche Bindungen ausdünnen, wächst der Hunger nach Identität. Wenn die Mitte ihn nicht stillt, erledigen es Tucker Carlson, Musk oder der nächste digitale Erwecker. Di Fabio formulierte das vorsichtig, aber der Kern war klar: Populismus ist nicht bloß Bosheit, sondern auch ein Symptom delegierter Sinnproduktion. Eine Politik, die sich nur noch als Regulierungstechnik versteht, verliert den Kompass und darf sich nicht wundern, wenn andere ihn mit groben Händen an sich reißen.

Wo der Vortrag schwächer wurde

An Kraft verlor der Abend dort, wo Di Fabio die Verfeindlichung an die Produktivitätsschwäche der gewerblichen Wirtschaft band. Er sprach von einer „schrumpfenden gewerblichen Wirtschaft“, von fehlendem Produktivitätszuwachs, von einer Gesellschaft, in der man „mehr arbeiten“ müsse, weil der alte Trost, alle Probleme durch Wachstum zu lösen, nicht mehr trage. Das ist als politischer Weckruf nicht falsch. Aber als ökonomische Diagnose blieb es zu fatalistisch. Denn hier wurde Produktivität fast wie ein Naturereignis verhandelt, als sei der Rückgang ein Schicksal alter Industrien, nicht auch das Ergebnis versäumter Investitionen, fehlender technologischer Modernisierung und einer erschöpften Innovationskultur.

Gerade die von KfW Research und ZEW vorgelegten Befunde, die im Hintergrund dieser Debatte stehen, weisen in eine andere Richtung. Dort heißt es nicht: Deutschland habe einfach Pech mit der Geschichte. Dort heißt es: Das Produktivitätswachstum ist gesunken, zugleich haben die Digitalisierungsaktivitäten im Mittelstand deutlich an Schwung verloren; Deutschland hinkt bei Digitalisierungsinvestitionen international hinterher. Und noch wichtiger: Unternehmen mit hohem Digitalkapital profitieren überproportional produktiv von weiterer Digitalisierung; die Lücke zwischen Vorreitern und Nachzüglern wächst, wenn die Nachzügler nicht investieren. Digitalisierung ist, so die Studie, eine kontinuierliche Aufgabe, verbunden mit Kompetenzen, Prozessumbau und technologischem Lernen. Das ist nicht weniger dramatisch als Di Fabios Lagebild, aber es ist präziser. Es verschiebt den Akzent von Schicksal auf Verantwortung.

Hier lag der blinde Fleck des Abends. Di Fabio denkt die Krise des politischen Raums groß, aber er unterschätzt die Leerstelle der Wissensökonomie. Mit alter Industriepolitik ist kein Blumentopf mehr zu gewinnen; eine bloß nostalgische Rückkehr zur Ordnung der Fabrik behebt weder KI-Rückstand noch digitale Stagnation. Der Publizist Wolf Lotter hat oft genauer beschrieben, woran Deutschland krankt: nicht an einem Mangel an Maschinenromantik, sondern an einer Unterinvestition in Wissen, Können und produktive Selbständigkeit. Der Kampf um die Zukunft wird längst nicht mehr nur an Grenzen entschieden, sondern in Rechenzentren, Ausbildungswegen, Prozessdesigns und Softwarearchitekturen.

Der kleine Angstmacher aus Plettenberg

Gerade deshalb lohnt sich der Rückblick auf Carl Schmitt. Di Fabio benutzt ihn klug als Warnfigur, manchmal fast zu klug, weil er dessen intellektuellen Glanz mitführt, um die eigene Diagnose zu schärfen. Doch man sollte Schmitt nicht zu viel Größe gönnen. Hinter der Freund-Feind-Metaphysik steckt selten heroische Entschlossenheit; oft steckt dahinter, wie schon seine Interpreten gezeigt haben, nichts als panische Ordnungssehnsucht. Die Formel vom Politischen ist weniger ein Mutbeweis als ein Angstapparat. Schmitt wollte nie Probleme lösen; er wollte den Zustand definieren, in dem Lösungen ausgesetzt werden dürfen. Die Verfeindlichung ist für ihn kein Übel, sondern Material. Darum ist er so gefährlich: weil er aus Nervosität Weltanschauung macht. Der kleine Angsthase im Studierzimmer erfindet den Ausnahmezustand, um sich vor der Zumutung des Pluralismus zu retten. Dass Di Fabio das im Kern weiß, machte den Ernst seines Schmitt-Exkurses aus.

Mehr Republik wagen

Was bleibt von diesem Abend? Vor allem die Einsicht, dass Di Fabio dort am stärksten ist, wo er den Liberalismus gegen seine sentimentalen Selbstmissverständnisse verteidigt. Gegen das freundliche Zeitalter, das sich für geschichtslos hielt. Gegen den Haltungston, der Überzeugungen durch Gesinnung ersetzt. Gegen die Lust am Pranger, die aus dem Gegner erst eine Karikatur und dann einen Feind macht. Und gegen die träge Hoffnung, die liberale Ordnung werde sich von selbst reproduzieren, wenn man nur genug Begriffe von Resilienz und Transformation auf sie wirft.

Alfred Böttger hatte gesagt, man laufe an der eigenen Zeitgenossenschaft vorbei, wenn man dieses Buch nicht lese. Das ist buchhändlerisch übertrieben und im Kern richtig. Di Fabios Buch ist nicht in allen Passagen gleich stark. Dort, wo es ökonomisch konkret werden müsste, verliert es Schärfe. Dort, wo es die Tonlagen des politischen Raums beschreibt, ist es von großer Genauigkeit. Die beste Pointe des Abends lautete darum nicht, dass wir in finstere Zeiten zurückkehren. Sie lautete: Die Demokratie wird nicht zuerst von ihren Feinden zerstört, sondern von ihrer Gewohnheit, sich selbst in Feindlager aufzuspalten. Wer diese Bewegung erkennt, hat noch keinen Ausweg. Aber er hat den ersten Schritt getan, nicht selbst zum Symptom zu werden.

Warum Johann Joseph Eichhoff, der Kessenicher, ein Europäer vor Europa war

Die Provinz als Vorhut

Europa beginnt nicht erst in Brüssel, Straßburg oder Frankfurt. Europa beginnt früher, tiefer unten, an Flüssen, auf Märkten, in Druckereien, in Lesegesellschaften, in halbvergessenen Städten, deren Bewohner gezwungen waren, über Grenzen nachzudenken, lange bevor das Wort „Integration“ politisch Karriere machte. Bonn, diese kleine kurkölnische Residenzstadt, war im späten 18. Jahrhundert ein solcher Ort. Und Johann Joseph Eichhoff war einer ihrer überraschendsten Söhne.

Man kann ihn leicht verkennen. Auf den ersten Blick scheint er eine lokale Figur zu sein: ein Mann aus Bonn, aus Kessenich, aus der Übergangszeit zwischen Kurfürst, Revolution und Wiener Kongress. Bei näherem Hinsehen aber wird aus dem Lokalpatrioten eine europäische Gestalt. Eichhoff dachte nicht kleinräumig, obwohl er aus einer kleinteiligen Welt stammte. Er dachte den Rhein als Verkehrsraum, nicht als Besitzgrenze. Er dachte Handel als Verbindung, nicht als Misstrauensordnung. Und er dachte Politik als Kunst, aus vielen Teilen ein vernünftiges Ganzes zu machen. Gerade deshalb ist er heute aktuell.

Der Rhein als politische Schule

Es gibt Lebensläufe, die aus Büchern entstehen. Und es gibt Lebensläufe, die aus Landschaften entstehen. Eichhoffs eigentliches Lehrbuch war der Rhein. Wer an diesem Strom lebte und zugleich erleben musste, wie er durch Zölle, Mauten, Kontrollen, fiskalische Eitelkeiten und territoriale Eifersucht verstümmelt wurde, konnte den Unsinn der Kleinstaaterei kaum übersehen. Der Rhein war ja nicht bloß ein Fluss. Er war die große Verkehrsader Mitteleuropas, ein natürlicher Zusammenhang, der politisch zerschnitten wurde.

Johann Joseph Eichhoff begriff dies früher als viele andere. Er sah, dass nicht die Natur das Problem war, sondern die Ordnung. Nicht der Strom war zu schmal, sondern die Köpfe waren es. Wo jeder kleine Herr am Ufer seine Hand aufhielt, wo jeder Grenzposten den freien Verkehr als Gelegenheit zur Behinderung verstand, wurde aus einem europäischen Raum ein Flickenteppich aus Schranken.

Eichhoff hat daraus eine Einsicht gewonnen, die bis heute gültig ist: Wohlstand entsteht nicht aus Barrieren, sondern aus Verbindungen.

Der Binnenmarkt, bevor er so hieß

Es gehört zu den bemerkenswertesten Seiten Eichhoffs, dass er diesen Zusammenhang nicht nur administrativ, sondern theoretisch durchdrang. In seiner Schrift über den Artikel XIX der Deutschen Bundesakte formulierte er mit großer Klarheit, Deutschland müsse in kommerzieller Hinsicht „nur ein Ganzes“ werden. Die Binnenzölle der Einzelstaaten sollten fallen, die künstlichen „Sperrketten“ zwischen den Territorien verschwinden. Was hier zu lesen ist, ist im Kern nicht weniger als eine frühe Theorie des Binnenmarktes.

Bemerkenswert ist vor allem der Ton. Eichhoff schwärmt nicht. Er argumentiert. Er ist kein Visionär im nebelhaften Sinn, sondern ein Praktiker der Vernunft. Er weiß, dass politische Integration nicht durch Deklamation entsteht, sondern durch Verfahren, durch Vereinbarungen, durch abgestufte Übergänge. Wo die große Lösung noch nicht möglich war, schlug er kleinere Zusammenschlüsse vor, regionale Verständigungen, pragmatische Schritte zu einem größeren Ganzen. Das ist nicht nur ökonomisch klug; es ist politisch modern. Europa ist ja bis heute nicht an seinen Idealen gescheitert, sondern immer dann gefährdet, wenn es den Weg von der Idee zur Institution nicht mehr findet. Eichhoff fand ihn.

Gegen die Eitelkeit der Zölle

Das Grundmuster, gegen das Eichhoff anschrieb, ist keineswegs vergangen. Die Versuchung der Abschottung, die Lust an der Zollschranke, die Einbildung, nationale Stärke beginne dort, wo der Nachbar behindert wird – all das ist auch der Gegenwart nicht fremd. Man hört es in neuen Protektionismen, in der Sehnsucht nach wirtschaftlicher Entkopplung, in dem alten politischen Reflex, Grenzen mit Vernunft zu verwechseln.

Eichhoff wusste, dass Zölle fast nie nur den Fremden treffen. Sie verteuern Waren, hemmen Austausch, schädigen Produzenten wie Konsumenten und erzeugen am Ende mehr Misstrauen als Wohlstand. Die Grenze, das war für ihn keine heroische Linie, sondern oft nur eine teure Dummheit. Das ist der Punkt, an dem aus dem Kessenicher Verwaltungsdenker ein Autor von europäischem Rang wird: Er erkennt Interdependenz, bevor das Wort Mode wurde. Man könnte sagen: Eichhoff hatte ein Gespür für die Infrastruktur der Freiheit.

Die Aufklärung im Geheimen

Aber damit ist nur die eine Hälfte seiner Bedeutung beschrieben. Die andere liegt in jenem Milieu, aus dem er hervorging. Johann Joseph Eichhoff war kein bloßer Technokrat der Schifffahrt. Er gehörte zu einem Kreis, in dem Aufklärung nicht als Dekor, sondern als Lebensform begriffen wurde. In Bonn trafen sich damals Musik, Literatur, Verwaltung, Reformwillen und geheime Geselligkeit auf eigentümliche Weise. Und mitten in diese Welt führt die Geschichte der Illuminaten.

Schon der Name hat etwas Romanhaftes; und doch wäre es falsch, die Sache als bloßes Kuriosum abzutun. Die Illuminaten waren keine folkloristische Verschwörertruppe, sondern eine radikale, ehrgeizige, halbverdeckte Organisationsform der Aufklärung. Ihr Anspruch war groß: Vernunft, Wissenschaft, sittliche Selbsterziehung, Reform der Gesellschaft, Kampf gegen geistige Enge und gegen die Macht des bloßen Herkommens. Dass Bonn eine Filiale dieses Ordens besaß, ist mehr als ein hübscher Befund der Kulturgeschichte. Es zeigt, wie elektrisiert selbst die scheinbare Provinz vom Geist der Zeit war. Und in diesem Bonner Kreis finden sich eben auch die Eichhoffs.

Die Brüder Eichhoff und das Labor der Moderne

Der eine, Johann Peter Eichhoff, war Publizist, Historiker, Herausgeber, eine der produktiven Stimmen der rheinischen Aufklärung. Er arbeitete an Zeitschriften, an Texten, an jener bürgerlichen Öffentlichkeit, ohne die es keine Moderne gibt. Der andere, Johann Joseph, sollte später auf dem Feld der Verwaltung, des Handels und der Verkehrspolitik wirken. Zusammen bilden sie fast ein Lehrstück: Aufklärung braucht den Schreiber und den Praktiker, den Redakteur und den Organisator, den Mann des Wortes und den Mann der Institution.

Gerade darin liegt die eigentliche Bedeutung der Familie Eichhoff. Sie war nicht bloß gebildet; sie war zukunftsorientiert. In ihr verbanden sich publizistische Energie, politisches Denken, praktische Reformvernunft und jener Mut zur geistigen Entgrenzung, den die Aufklärung hervorbrachte. Dass Johann Joseph als junger Mann in den Kreis der Illuminaten eintrat, als er noch im kurfürstlichen Dienst stand, ist dafür bezeichnend. Hier zeigt sich ein Milieu, in dem Herkunft nicht mehr Schicksal sein sollte. Talent, Geist, Bildung und Wille begannen, die alten Hierarchien zu unterlaufen.

Das ist vielleicht die modernste Pointe dieser Bonner Geschichte: Europa entstand nicht nur aus Diplomatie, sondern auch aus sozialem Aufstieg durch Bildung.

Beethoven, Bonn und die große Unruhe

Hinzu kommt die Musik. Bonn war nicht nur Verwaltungsstadt, sondern ein Ort intensiver kultureller Vernetzung. Beethoven gehört in diese Szenerie ebenso wie Neefe, Simrock, Ries und andere Gestalten jener kurfürstlichen Welt, die im Rückblick oft provinzieller erscheint, als sie war. Johann Joseph Eichhoff war diesem Milieu nicht äußerlich verbunden. Er stand mittendrin. Das erklärt etwas von seiner geistigen Beweglichkeit. Wer in einer Welt aufwächst, in der Musik, Lektüre, Diskussion, Amt und Reformimpuls sich berühren, der denkt früher oder später in größeren Zusammenhängen.

Eichhoff hat diesen Horizont nie verloren. Was ihn von vielen Zeitgenossen unterschied, war nicht nur seine Kritik an der territorialen Zersplitterung, sondern die innere Unruhe, die hinter dieser Kritik steht. Er wollte nicht bloß verwalten; er wollte ordnen. Nicht bloß erhalten; verbessern. Nicht bloß die Wirklichkeit hinnehmen; sie vernünftiger machen. Das ist Aufklärung in ihrer besten Form: keine Pose, sondern Arbeit an den Verhältnissen.

Vom Geheimorden ins Amt

Man kann Eichhoffs politische Laufbahn deshalb auch als die Verwandlung einer geistigen Haltung in institutionelles Handeln lesen. Aus dem jungen Mann im aufklärerischen Netzwerk wurde ein Verwaltungsfachmann, aus dem Angehörigen eines halbverdeckten Reformmilieus ein öffentlicher Funktionsträger. Er war Bürgermeister, Unterpräfekt, später Generaldirektor der Rheinschifffahrtsverwaltung. Er bewegte sich zwischen Revolutionserfahrung, napoleonischer Umgestaltung und europäischer Neuordnung nach 1815.

Das Bemerkenswerte daran ist nicht bloß der soziale Aufstieg. Bemerkenswert ist die Kontinuität des Denkens. Eichhoff blieb im Kern derselbe: ein Mann, der Verbindungen schaffen wollte, der an die Vernünftigkeit größerer Räume glaubte und die Kleinteiligkeit des bloß Gewachsenen nicht mit historischer Würde verwechselte. In seiner Person wird sichtbar, wie tief der Impuls der Aufklärung in die politische Praxis hineinreichen konnte. Nicht jeder Illuminat wurde ein Europäer. Aber bei Eichhoff lässt sich zeigen, wie aus aufklärerischer Entgrenzung europäische Politik im Kleinen wird.

Die Familie und der weite Blick

An diesem Punkt gewinnt auch die spätere Familiengeschichte Gewicht. Dazu zählt Wilhelm Josef Eichhoff. Er erforschte Ende des 19. Jahrhunderts die verheerende Wirkung des Borkenkäfers in Europa. 

Johann Joseph dachte den europäischen Binnenraum voraus, Wilhelm Josef beschrieb früh ein Naturproblem in europäischer Dimension. Der eine sah, dass Handel nicht an Grenzen enden darf; der andere erkannte, dass biologische Prozesse sich um politische Grenzen nicht kümmern. So verschieden diese Felder sind, so sehr verbindet sie doch ein geistiger Habitus: Zusammenhänge erkennen, bevor sie Gemeingut werden; Probleme sehen, bevor sie Katastrophen heißen. Das macht die Eichhoffs zu einer Familie der Moderne.

Warum Eichhoff heute zählt

Warum also Johann Joseph Eichhoff heute noch aktuell ist? Weil in ihm etwas sichtbar wird, das Europa immer wieder neu lernen muss: Große politische Räume entstehen nicht durch Schlagworte, sondern durch offene Wege, vernünftige Institutionen und die Bereitschaft, den Nachbarn nicht als Bedrohung, sondern als Partner zu begreifen. Eichhoff war kein Europäer trotz seiner rheinischen Herkunft. Er war es gerade ihretwegen. Der Rhein zwang ihn zur Weite. Die Bonner Aufklärung lehrte ihn die Vernunft. Das illuminatische Milieu gab ihm den Mut, Verhältnisse als veränderbar zu denken. Und die Verwaltungspraxis zeigte ihm, wie man Ideen in Ordnung überführt.

In einer Zeit, in der Europa wieder über Grenzen, Zölle, nationale Interessen, Abschottung und Misstrauen spricht, ist das nicht wenig. Eichhoff erinnert daran, dass der Gegensatz zwischen Patriotismus und Offenheit oft nur ein Missverständnis ist. Gerade wer seine Region, seinen Fluss, seine Stadt und ihre Zukunft ernst nimmt, muss europäisch denken. Alles andere endet in Schrankenwärtermentalität.

Der Kessenicher und das unvollendete Europa

Vielleicht liegt darin die schönste Pointe dieser Figur: dass ausgerechnet ein Kessenicher, also ein Mann aus einem scheinbar kleinen Raum, ein so großes Denken entwickeln konnte. Die Geschichte Europas ist voller solcher Gestalten. Nicht immer kommen die wichtigsten Einsichten aus den Hauptstädten. Manchmal entstehen sie dort, wo die Widersprüche des Kontinents alltäglich erfahrbar sind – an Stromlandschaften, in Grenzräumen, in Städten mittlerer Größe, in Milieus, die gezwungen sind, über sich hinauszudenken.

Johann Joseph Eichhoff gehört in diese Reihe. Er war ein Europäer vor Europa. Einer, der begriff, dass Wohlstand Bewegung braucht, dass Freiheit auch eine Frage der Verkehrsordnung ist und dass politische Vernunft immer dort beginnt, wo die künstlichen Schranken der Eitelkeit enden. Das unvollendete Europa von heute hätte Grund, sich an ihn zu erinnern.

Die neue Teilung der Wirtschaft: Warum Testo wächst, während der Mittelstand digital an Höhe verliert – Livetalk auf LinkedIn um 12 Uhr @KfW_Research @bertschek_irene

Deutschland redet über KI wie über Wetter. Mal hell, mal dunkel, viel Stimmung, wenig Substanz. Die neue Gemeinschaftsstudie von KfW Research und dem ZEW Mannheim räumt mit diesem Nebel auf. Sie zeigt, wie der digitale Rückstand im Mittelstand aussieht, was er kostet und weshalb einige Unternehmen trotzdem nach vorn marschieren. Im Zentrum stehen zwei Namen. Irene Bertschek, Digitalökonomin am ZEW Mannheim und an der Universität Gießen, hat den Zusammenhang von Digitalinvestitionen und Produktivität vermessen. Dirk Schumacher, Chefvolkswirt der KfW, hat die Lage des Mittelstands auf den Tisch gelegt. Zusammen liefern beide das Protokoll einer Spaltung.

Acht Milliarden weniger Mut

Die erste Zahl ist ein Warnsignal mit Nachhall: Der deutsche Mittelstand investierte zuletzt nur noch 23,8 Milliarden Euro in seine Digitalisierung. Das sind 8,1 Milliarden Euro weniger als in der Vorperiode, preisbereinigt sogar 8,6 Milliarden. Parallel fiel der Anteil der Unternehmen mit abgeschlossenen Digitalisierungsvorhaben von 35 auf 30 Prozent. Fünf Prozentpunkte weniger Aktivität, mitten in einer Phase schwachen Produktivitätswachstums. Das ist keine Delle. Das ist ein Rückzug.

Schumacher zeichnet dazu das größere Bild. Deutschland verliert bei den IT-Investitionen den Anschluss an die führenden Länder. Im europäischen Vergleich liegt das Land bei der Nutzung von KI auf Rang 9, bei Online-Verkäufen auf Rang 17, bei digitalen Kompetenzen oberhalb des Basisniveaus sogar auf Rang 23. Für eine Industrienation, die ihre Stärke aus Präzision, Tempo und Export zieht, ist das kein Schönheitsfehler. Es ist eine Gefahr für das Geschäftsmodell des Landes.

Irene Bertschek und die harte Logik des Digital-Kapitals

Irene Bertschek untersucht nicht Modewörter, sie untersucht Wirkung. Grundlage ihrer Arbeit ist das KfW-Mittelstandspanel von 2017 bis 2022, die wichtigste repräsentative Erhebung für Unternehmen bis 500 Millionen Euro Jahresumsatz. Ihr Ergebnis passt in einen Satz und verändert die ganze Debatte: Je höher der digitale Kapitalstock eines Unternehmens, desto stärker der Produktivitätseffekt jeder weiteren Investition. Wer bereits digital aufgestellt ist, holt aus dem nächsten Euro mehr heraus als der Rest.

Die Rechenbeispiele sind klein im Komma und gewaltig in der Wirkung. Steigt das digitale Kapital eines Unternehmens um zehn Prozent, erhöht sich die Produktivität im Durchschnitt um 0,159 Prozent. In der Spitzengruppe der bereits stark digitalisierten Unternehmen führt derselbe Impuls zu 0,808 Prozent mehr Produktivität. Fünfmal so viel Hebel aus derselben Bewegung. Digitalisierung arbeitet also wie Zinseszins. Wer einen Sockel besitzt, baut Höhe auf. Wer keinen Sockel besitzt, tritt auf der Stelle.

Noch schärfer wird das Bild beim Rückstand zu den Besten der Branche. Zehn Prozent mehr digitales Kapital verringern diese Produktivitätslücke im Durchschnitt um 0,139 Prozent. Bei den Unternehmen mit dem höchsten digitalen Kapitalstock schrumpft die Lücke um 0,542 Prozent. Das heißt: Die Vorreiter holen aus jedem zusätzlichen digitalen Euro nicht nur mehr Tempo, sie schließen auch schneller zum oberen Ende der Wertschöpfung auf. Die Nachzügler bleiben im Gegenwind hängen.

Der Canyon im Mittelstand

Wie tief die Kluft bereits ist, zeigen die Bestände. Die obersten 25 Prozent der mittelständischen Unternehmen verfügen im Schnitt über 156.600 Euro digitalen Kapitalstock. Die untere Hälfte liegt bei weniger als 50 Euro. Diese Zahl muss man zweimal lesen. Weniger als 50 Euro. Auf der einen Seite Unternehmen mit Datenbasis, Systemen, Erfahrung und Lernkurve. Auf der anderen Seite Betriebe, in denen Digitalisierung in unregelmäßigen Schüben auftaucht und wegen der schnellen Abschreibung digitalen Kapitals fast ebenso rasch wieder verpufft.

Auch nach Unternehmensgröße zeigt sich die neue Klassengesellschaft. Bei Mittelständlern mit mehr als 50 Beschäftigten haben 63 Prozent Digitalisierungsvorhaben abgeschlossen. Bei Unternehmen mit weniger als fünf Beschäftigten sind es 27 Prozent. Noch konzentrierter wirkt das Geld: Die größten zwei Prozent der Unternehmen vereinen 41 Prozent der gesamten Digitalisierungsausgaben auf sich. Der Rückstand ist damit kein diffuser Eindruck. Er ist messbar, konzentriert und strukturell.

Was Testo begriffen hat

Testo ist in dieser Landschaft kein Zufallstreffer, kein Ausreißer, kein glücklicher Einzelfall. Das Unternehmen zeigt, wie ein Mittelständler die Richtung wechselt, bevor der Markt ihn dazu zwingt. Seit rund 70 Jahren ist Testo im globalen Markt für digitale Messlösungen unterwegs, vor allem in Heizung, Lüftung, Klima, Food und Pharma. Die Studie „Die Zukunftsmacher“ beschreibt, was den Unterschied ausmacht: Testo hat früh Softwarekompetenzen aufgebaut und vor rund sieben Jahren ein eigenes Solutions-Geschäft entwickelt. Aus dem Hersteller von Messgeräten wurde ein Anbieter von Hardware, Software und Services. Genau dort beginnt eine andere Form von Wertschöpfung.

Das Unternehmen wächst trotz Bürokratie, Fachkräftemangel und Standortlasten jährlich um fünf bis neun Prozent. Das Wachstum hängt nicht an einem einzelnen Gerät. Es hängt an der Fähigkeit, Messdaten in Entscheidungen zu verwandeln. Frittieröl-Sensoren sagen Wechselzeitpunkte voraus. In der Lebensmittelindustrie laufen Bakterienerkennung und Predictive Analytics. Im Handwerk erleichtert KI die Auswertung von Messdaten, etwa bei komplexen Installationen wie Wärmepumpen. Aus einem Wert auf dem Display wird ein Eingriff in den laufenden Betrieb des Kunden. Dort verdient die Zukunft ihr Geld.

Das Frittieröl als Lehrstück der Netzökonomie

Das Beispiel aus der Großküche wirkt unscheinbar. Eben darin steckt seine Wucht. Früher maß ein Gerät die Ölqualität, ein Mitarbeiter entschied nach Erfahrung, Sicherheitsreserve oder Bauchgefühl. Heute kann Testo aus der laufenden Messung einen datenbasierten Service bauen: Sensorik erfasst den Zustand des Öls, Modelle berechnen den optimalen Wechselzeitpunkt, der Betreiber spart Material, sichert Qualität und gewinnt einen klaren Rhythmus im Prozess. Das ist die eigentliche Verschiebung. Das Produkt endet nicht mehr beim Verkauf. Es läuft beim Kunden weiter, Tag für Tag, als Empfehlung, Steuerung und Service.

Der Mittelstand hat über Jahre Geräte verkauft und Service als Beilage geführt. Testo dreht die Gewichte um. Der Service wird zum Träger der Kundenbeziehung. Die Daten werden zum Rohstoff weiterer Angebote. Das Messgerät wird zur Eintrittskarte in ein laufendes Geschäftsmodell. Wer diesen Übergang beherrscht, entkommt dem Preiswettbewerb der alten Industrie. Wer ihn verpasst, liefert Hardware mit schmaler Marge und hofft auf Stückzahl.

KI als Betriebsmittel, nicht als Bühneneffekt

Testo investiert rund zehn Prozent seines Budgets in Digitalisierung; etwa 30 Prozent davon fließen in KI. Die Erträge tauchen intern bereits sichtbar auf: automatisierte Auftragsbearbeitung, intelligentes Wissensmanagement, ein zentrales Contact Center, Effizienzgewinne von acht bis 15 Prozent in der Softwareentwicklung. Dazu kommen eine interne KI-Akademie, ein AI-Enabler-Team, eine geprüfte Toolbox und klare Leitplanken für dezentrale Umsetzung. Führungskräfte wurden zuerst geschult. Alle Mitarbeitenden sollen ein Mindestzertifikat erreichen. Diese Architektur erklärt, weshalb Testo aus KI mehr zieht als viele größere Unternehmen aus ihren Pilotprojekten.

Das passt exakt zu Bertscheks Befund. Erst der Grundstock, dann der Ertrag. Erst die digitale Substanz, dann die Rendite. Viele Mittelständler investieren so, als könne man Produktivität per Einkaufsliste bestellen. Testo investiert wie ein Unternehmen, das die Kette verstanden hat: Datenqualität, Softwarekompetenz, Rollen, Lernprozesse, Produkte, Services. Ein Glied fehlt, die Wirkung bricht. Eine geschlossene Kette, die Wirkung skaliert.

Dirk Schumacher und die zweite Chance des Mittelstands

Schumacher sieht in KI nicht nur eine Kraft der Verschärfung. Er spricht auch über eine Chance zur Angleichung. Wenn jedes Unternehmen auf Knopfdruck Zugang zu den großen Sprach- und Wissensmodellen erhält, könnte sich Produktivität auf breiter Front anheben. Entscheidend ist für ihn der Zugang: Bleiben diese Modelle offen genug, bezahlbar genug und anwendbar genug für konkrete betriebliche Probleme? Gelingt es der deutschen Wirtschaft, daraus spezifische Edge Solutions zu bauen? Dann könnte KI den Abstand zwischen Vorreitern und Nachzüglern teilweise verringern. Wird um diese Modelle ein teurer Schutzwall errichtet, wächst die Kluft weiter.

In diesem Gedanken steckt die politische Brisanz der ganzen Debatte. Deutschland braucht nicht bloß mehr KI. Deutschland braucht einen Mittelstand, der mit ihr arbeiten kann. Bertschek nennt dafür die Voraussetzungen: kontinuierliche Investitionen, laufende Aktualisierung der Digitalkompetenzen, mehr digitale Bildung in Schule, Ausbildung und Studium, Kooperation mit digitalen Start-ups. Schumacher ergänzt den finanzpolitischen Blick: Gerade kleinere und mittlere Unternehmen verfügen oft über zu geringe Mittel, deshalb bleibt Förderung ein Hebel. Beide sprechen über dieselbe Aufgabe aus zwei Blickwinkeln. Das Land braucht Masse im Fortschritt, nicht nur Leuchttürme am Rand.

Die eigentliche Lehre

Was unterscheidet Testo von vielen anderen Mittelständlern? Nicht ein Tool. Nicht ein Workshop. Nicht eine schöne Präsentation über KI. Testo hat den Messwert in ein Geschäftsmodell verwandelt. Das Unternehmen verkauft keine Hardware mit digitalem Anhängsel. Es übersetzt Daten in Entscheidungen, Entscheidungen in Services, Services in Bindung, Bindung in Ertrag. Darin liegt der Vorsprung.

Die Zahlen dazu stammen nicht aus einer Werbebroschüre, sie stammen aus der wichtigsten Mittelstandsanalyse des Landes. 23,8 Milliarden Euro Digitalisierungsausgaben im Mittelstand, acht Milliarden weniger als zuvor. 35 Prozent aktive Unternehmen, jetzt nur noch 30. Ein oberes Viertel mit 156.600 Euro digitalem Kapitalstock. Eine untere Hälfte mit weniger als 50 Euro. Zehn Prozent mehr Digital-Kapital bringen im Durchschnitt 0,159 Prozent Produktivität, in der Spitzengruppe 0,808 Prozent. Zehn Prozent mehr Digital-Kapital verkleinern die Produktivitätslücke um 0,139 Prozent, in der Spitzengruppe um 0,542 Prozent. Auf dem Papier wirken diese Werte klein. In der Wirklichkeit entscheiden sie über Marktanteile, Investitionskraft, Löhne, Resilienz und am Ende über die Frage, wer in diesem Land die industrielle Zukunft schreibt. Testo hat darauf bereits eine Antwort gegeben. Viele andere haben noch nicht einmal mit dem Satz begonnen.

Darüber sprechen wir mit Testo um 12 Uhr auf LinkedIn.

Was der Snap-Score über die junge Generation verrät #ZPSued

Man erkennt ein Zeitalter nicht immer an seinen großen Maschinen. Manchmal verrät es sich in einer kleinen Zahl auf dem Bildschirm. Der Snap-Score gehört zu diesen unscheinbaren Signalen. Er misst nichts, was man Bildung, Urteil oder Erfahrung nennen würde, und doch öffnet er Türen in eine jugendliche Welt, in der Sichtbarkeit, Resonanz und Zugehörigkeit längst algorithmisch vorformatiert werden. Wer diese Zahl für belanglosen App-Klimbim hält, unterschätzt ihren soziologischen Gehalt. Sie zeigt, wie tief das Zählen bereits in die Sozialform eingesickert ist.

Auf der Zukunft Personal Süd sprach Jens Eschenbächer, Professor für Internationales Management und Personalwirtschaft an der Hochschule Bremen, über genau diese Verschiebung. Sein Thema, „Vom Scrollen zum Sinn“, berührt Personalmanagement, Schule, Hochschule und Elternhaus zugleich. Denn die junge Generation betritt die Welt nicht mehr durch dieselben Vorräume wie ihre Vorgänger. TikTok, Instagram, Snapchat und Chatbots sind nicht bloß Kanäle, über die man sich gelegentlich ablenkt. Sie bilden die Eingangshallen einer Wirklichkeit, in der Aufmerksamkeit zur Währung, Vergleich zur Gewohnheit und Interaktion zur stillen Pflicht geworden ist. Die Hochschule Bremen führt Eschenbächer entsprechend in den Feldern Change Management, Employer Branding, Recruiting, Generationen-Management und Arbeitsmotivation.

Der Fehler der älteren Generation beginnt dort, wo sie diese Lage moralisch missversteht. Sie hält die Jugend für verdorben, wo in Wahrheit die Bedingungen der Sozialisation sich verschoben haben. Nicht der junge Mensch ist aus der Form geraten. Die Form selbst hat sich geändert. Wer heute heranwächst, lernt Anerkennung, Anschluss und Selbstbeobachtung in einer Medienordnung, die jeden Blick, jede Regung und jede Regung auf eine Regung in messbare Spuren übersetzt. Die eigentliche Frage lautet deshalb nicht, ob junge Menschen zu viel online sind. Die Frage lautet, in welcher Öffentlichkeit sie überhaupt erst lernen, was ein Urteil ist, was Aufmerksamkeit bedeutet und warum ein Leben mehr sein sollte als ein gut gepflegtes Profil.

Der Snap-Score zählt nicht Sinn, sondern Taktung

Snapchat selbst beschreibt den Snap-Score mit entwaffnender Offenheit als Ergebnis einer „supergeheimen“ Gleichung aus versandten und empfangenen Snaps, geposteten Storys und weiteren Faktoren; senken oder zurücksetzen lässt sich der Wert nicht. Mehr sagt die Plattform nicht. Mehr muss sie auch nicht sagen. Gerade diese Leerstelle macht den Score so wirksam. Er erklärt nichts, aber er ordnet. Er bewertet nicht Qualität, sondern Taktung. Er verleiht kein Ansehen im alten Sinn, sondern Sichtbarkeit im Betriebsmodus der Plattform.

Im Gespräch mit Eschenbächer bekommt diese kleine Plattformzahl eine größere Bedeutung. Der Snap-Score taugt als Codewort unter Vierzehnjährigen, weil er etwas markiert, das außerhalb ihrer Welt kaum jemand noch versteht. Man fragt nicht nach ihm, um eine Zahl zu erfahren. Man fragt nach ihm, um Zugehörigkeit zu testen. Wer darüber sprechen kann, kennt die neue Grammatik des Dabeiseins. Der Score ist die Eintrittskarte in einen Diskurs, der nicht über Argumente, sondern über andauernde Erreichbarkeit stabilisiert wird.

Hier beginnt die eigentliche Kritik am Score-Hype. Denn der Reiz solcher Werte liegt in einer stillen Verwechslung. Aktivität erscheint als Bedeutung, Frequenz als Nähe, Zahl als sozialer Rang. Das ist die Ökonomie der Plattformen in Reinform. Sie wollen keine Persönlichkeit erkennen, sondern Wiederkehr sichern. Je öfter jemand auftaucht, antwortet, schickt, klickt, desto besser für die Maschine. Der Snap-Score belohnt also nicht Weltbezug, sondern Umlaufgeschwindigkeit.

Das Profil ersetzt die alte Identität

An dieser Stelle hilft der Soziologe Dirk Baecker weiter. In seinem Buch „Digitalisierung“ beschreibt er die digitale Gegenwart nicht als bloßen Siegeszug technischer Apparate, sondern als gesellschaftliche Umstellung der Wahrnehmung. Digitale Geräte werden zu digitalen Medien. Sie rechnen nicht nur, sie verändern, wie Menschen sich selbst und andere beobachten. Baecker spricht in diesem Zusammenhang von Profilierung. Das moderne Individuum, einst auf Identität bedacht, bemüht sich nun um ein Profil, um im Netzwerk ansprechbar und attraktiv zu bleiben. Soziale Medien, schreibt er, verschärfen den Zwang, sich mit anderen zu vergleichen und Eigenschaften zuzulegen, die die paradoxe Aufgabe lösen sollen, zugleich Imitat und unverwechselbar zu sein. Profilierung wird aus Daten gewonnen, liefert Daten und markiert den Menschen als Punkt oder Vektor im Datenraum.

Damit ist der Snap-Score plötzlich kein Jugendgimmick mehr, sondern ein Baustein einer Profilgesellschaft. Der junge Mensch soll nicht nur da sein, er soll lesbar sein. Nicht nur sprechen, sondern metrisch ansprechbar werden. Nicht nur etwas erleben, sondern es in eine Zählform überführen. Das hat eine stille Brutalität. Denn was sich nicht zählen lässt, sinkt im Rang. Langsame Entwicklung, widersprüchliche Gedanken, stilles Lernen, halbgare Versuche, gehemmt formulierte Einsichten, der ganze tastende Charakter des Erwachsenwerdens: all das hat auf der Score-Anzeige keinen guten Stand.

Baecker liefert damit den größeren Rahmen für Eschenbächers Beobachtung. Wenn digitale Medien nicht bloß Werkzeuge sind, sondern die Taktung von Wahrnehmung, Vergleich und Kommunikation verändern, dann ist der Snap-Score keine harmlose Spielerei mehr. Er wird zum kleinen sozialen Messgerät einer großen Verschiebung: Anerkennung erscheint als Zahl, Zugehörigkeit als Aktivität, Sichtbarkeit als Dauerbetrieb. Genau an dieser Stelle beginnt die eigentliche Gefahr nicht erst bei der offenen Manipulation, sondern schon bei der stillen Gewöhnung an eine Welt, die Verhalten in Metriken übersetzt und diese Metriken dann für Wirklichkeit ausgibt. Baecker beschreibt Digitalisierung deshalb als gesellschaftliches Phänomen, in dem Technik, Wahrnehmung, Bewusstsein und Kommunikation neu gekoppelt werden; digitale Medien verändern den Maßstab, das Tempo und das Schema der Erfahrung. Wer das verstanden hat, wird Jugendlichen nicht einfach weniger Handyzeit verordnen. Er wird begreifen, dass ihr Verhältnis zur Welt längst in anderen Rhythmen geformt wird.

Gigerenzer hatte recht, aber das Problem ist gewachsen

Genau hier bekommt die ältere Warnung von Gerd Gigerenzer ihr heutiges Gewicht. Auf der re:publica 2016 in Berlin, in der Media-Convention-Diskussion „Wider die Herrschaft der Algorithmen! Wie bekommen wir die Kontrolle zurück?“, plädierte er für eine neue Aufklärung im digitalen Zeitalter: mehr Urteilskraft, weniger Maschinenfrömmigkeit. Sein Einwand zielte auf einen Denkfehler, der seither nur größer geworden ist. Algorithmen finden Muster und werden dann behandelt, als hätten sie Ursachen verstanden. Gigerenzers Beispiel waren die Google Flu Trends – ein einst gefeierter Vorhersageapparat, der gerade dort versagte, wo sich die Wirklichkeit nicht mehr an die fortgerechneten Muster hielt. Was damals als Kritik am Big-Data-Triumphalismus begann, trifft heute noch tiefer. Denn inzwischen ordnen Algorithmen nicht mehr nur Suchergebnisse und Feeds. Sie strukturieren Selbstbilder, Lernwege, Sichtbarkeit und soziale Resonanz.

Die jüngere Forschung hat dafür einen präziseren Begriff gefunden: algorithmic literacy. Gemeint ist nicht bloß Medienkompetenz im alten Sinn, sondern die Fähigkeit, algorithmische Auswahl, Rankings, Vorschläge und Scorings in ihrer Logik, ihren Interessenlagen und ihren Grenzen zu erkennen. Diese Kompetenz wird inzwischen ausdrücklich als Voraussetzung beschrieben, um sich in einer algorithmisch strukturierten Welt überhaupt noch souverän zu bewegen.

Gigerenzers alter Kantianismus bekommt damit eine neue Schärfe. Aufklärung heißt heute nicht nur, Quellen zu prüfen. Aufklärung heißt, Verfahren zu durchschauen. Wer ordnet meine Aufmerksamkeit? Wer übersetzt Verhalten in Zahl? Wer erzeugt die Illusion, ein Score sei ein Urteil? Wer schlägt mir Inhalte vor und nennt das Komfort? Die Unmündigkeit des digitalen Zeitalters beginnt nicht erst bei der Lüge. Sie beginnt beim bequemen Hinnehmen einer Metrik, die so tut, als sei sie neutral.

Der Chatbot ist Helfer und Versuchung zugleich

Eschenbächers Gespräch kippt an der besten Stelle gerade nicht in Kulturpessimismus. Der Chatbot erscheint dort nicht nur als Gefahr, sondern auch als Möglichkeit. Wer aus einem überforderten, vielsprachigen, sozial zerrissenen Umfeld kommt, könnte von einem System profitieren, das in Losgröße 1 erklärt, nachfragt, geduldig bleibt und keine Rangliste der Streber und Querulanten pflegt. Die Vorstellung ist nicht abwegig. Sie berührt einen alten Gedanken von Herbert W. Franke, den das Gespräch aufruft: Der Lehrer sieht oft nur die Streber und die Störenfriede; die graue Mitte fällt durch. Ein Lernsystem, das sich tatsächlich auf den einzelnen einstellt, wäre für viele kein Verfall, sondern ein Aufstiegsmittel.

Auch hier lohnt wieder Baecker. In seinem Kapitel über Kommunikation mit Rechnern macht er einen feinen Unterschied. Rechner kommunizieren nicht wie Menschen. Aber sie beteiligen sich an Kommunikation, indem sie Berechnungen in soziale Zusammenhänge einspeisen. Die Maschine kann überraschen, erinnern, antworten, anschlussfähig wirken; doch sie operiert anders. Baecker nennt sie deshalb nicht bloß künstlich, sondern in gewissem Sinn fremd. Seine Pointe lautet: Nicht die mögliche Verwechslung von Mensch und Maschine ist das Entscheidende, sondern die Frage, wie sich diese fremde Intelligenz kooperativ in soziale Systeme einfügt.

Das trifft Eschenbächers Ambivalenz genau. Der Chatbot kann helfen. Er kann Fakten erklären, Vokabeln trainieren, Strukturen sichtbar machen, sogar warnen, wenn er an Grenzen stößt. Aber er nimmt dem Menschen auch Arbeit des Denkens ab. Das ist kein kleiner Nebeneffekt. Wer jede erste Schwierigkeit an den Assistenten delegiert, trainiert nicht Urteil, sondern Abkürzung. Der Rechner wird dann nicht zum Lerngerät, sondern zum Ausweichraum vor eigener Anstrengung.

Bildung muß von der Antwort auf die Frage umstellen

Daraus folgt für Schule und Hochschule keine romantische Rückkehr zum Kreidestaub. Auch das wäre nur ein Ausweichmanöver. Wenn Chatbots Faktenwissen jederzeit liefern, verlieren reine Reproduktionsprüfungen an Sinn. Wer in der Klausur nur noch herausfinden muss, wann irgendwer geboren wurde oder welche Formel irgendwo steht, konkurriert mit einer Maschine, die genau dafür gebaut wurde. Eschenbächer zieht daraus die richtige Konsequenz: Nicht mehr Auswendiglernen, sondern Urteilskompetenz muss in den Mittelpunkt rücken.

Dieser Satz klingt harmlos und ist in Wahrheit eine kleine Revolution. Denn Urteil entsteht nicht durch bloßes Abrufen von Wissen. Es entsteht in Projekten, Widersprüchen, Vergleichen, Verteidigungen, eigenen Irrtümern, schlechteren und besseren Fassungen. Wenn Studierende Themen selbst bauen, Umfragen durchführen, Quellen vergleichen, Videos schneiden, Experten befragen, fremde Milieus verstehen lernen und dann das eigene Ergebnis gegen Kritik behaupten müssen, beginnen sie erst wirklich zu denken. Genau dort verliert der Score seine Herrschaft. Das Projekt kennt keinen Snap-Score. Es kennt nur gelungene oder missratene Arbeit.

Baecker formuliert die pädagogische Lage in einem Satz, der über die Hochschule hinausweist: Die Kommunikation der Selektion eines Lebenslaufs durch Erziehung in Schule und Universität stehe vor dem Problem, eine individuelle Profilierung in einem Kontext zu unterstützen, der die massenhafte Kopie desselben ermöglicht und minimale Abweichung präferiert. Präziser kann man die gegenwärtige Bildungskrise kaum fassen. Wenn alle dieselben Tools nutzen, dieselben Formulierungen generieren und sich auf ähnliche Oberflächen einigen, wird die kleine Differenz kostbar.

Der Score kriecht bereits ins Arbeitsleben

Die Zukunft Personal Süd ist für dieses Thema der richtige Ort, weil hier Schule, Arbeitsmarkt und Unternehmenspraxis ineinandergreifen. Wer heute fünfzehn ist, bringt morgen dieselbe Scoring-Sozialisation in Praktikum, Bewerbung und Betrieb mit. Wer gelernt hat, sich als Profil im Datenraum zu pflegen, wird auch auf LinkedIn nicht plötzlich zu einem unbeobachteten Bürger der alten Republik. Die Plattformform wandert mit.

Darum betrifft der Score-Hype längst nicht nur Jugendliche. Er steckt im Bewerberranking, in Aktivitätsmetriken, in Reichweitenwerten, in internen Performance-Dashboards, in Engagement-Scores, in Produktivitätsschatten, die aus digitalen Spuren gezogen werden. Der Arbeitsmarkt importiert dieselbe Verwechslung wie Snapchat: dass eine sauber zählbare Aktivität schon etwas über Eignung, Urteil oder Charakter aussage. Das ist der Punkt, an dem Netzpolitik und Wirtschaftspolitik sich treffen.

Denn eine Wirtschaft, die junge Menschen nur noch über Sichtbarkeit, Schnelligkeit und metrische Anschlussfähigkeit liest, bekommt genau jene Belegschaften, die sie sich selbst antrainiert. Mehr Profil, weniger Substanz. Mehr Aktivität, weniger Urteil. Mehr Score, weniger Sinn.

Keine Kulturpanik, sondern eine Umbauaufgabe

Eschenbächer hat im Gespräch etwas Kluges gesagt: An den jungen Menschen sei überhaupt nichts falsch. Der Satz verdient, gegen eine ganze Industrie der Alarmrhetorik verteidigt zu werden. Falsch ist nicht die Generation. Falsch ist der reflexhafte Versuch der Älteren, eine neue Medienordnung mit alten moralischen Kategorien zu erschlagen. Wer nur Verfall sieht, wird keine Institution erneuern. Wer die Veränderung der Sozialform ernst nimmt, muss bei Schule, Hochschule, Unternehmen und Plattformregulierung zugleich ansetzen.

Die Aufgabe wäre damit klar. Weniger hysterische Geräteangst. Weniger Fetisch für Reichweitenzahlen. Weniger didaktische Bequemlichkeit. Weniger blindes Vertrauen in die scheinbare Objektivität von Scores. Dafür mehr Urteilstraining, mehr Projektarbeit, mehr Aufklärung über algorithmische Verfahren, mehr geistige Widerständigkeit gegen metrische Selbstverwechslung.

Der Snap-Score ist nur eine kleine Zahl. Aber wie so oft im digitalen Zeitalter ist das Kleine nicht harmlos, sondern tief. Er zeigt, wie schnell aus einer technischen Funktion eine soziale Eintrittskarte wird. Und wie rasch eine Gesellschaft beginnt, ihre Kinder danach zu lesen, ob sie im Takt der Maschine mithalten.

Der Daumen lernt heute tatsächlich früher als der Verstand. Gerade deshalb sollte man den Verstand nicht abschaffen, sondern endlich ernster nehmen.

KI, Kontingenz, Kreativität: Ein Gespräch in Stuttgart, das plötzlich bis Boethius reicht #ZPSued #MesseTV

Auf der Zukunft Personal Süd in Stuttgart ging es zunächst um das, worum es auf solchen Bühnen fast immer geht: um Trends, Vordenker, Zukunftsfähigkeit, um die nächste Welle des Managements. Zugeschaltet war Prof. Dr. Karlheinz Schwuchow, Professor für International Management, Gründer des Center for International Management Studies in Bremen, langjähriger Herausgeber des Jahrbuchs Personalentwicklung und später der HR-Trends, dazu Autor, Herausgeber und Mitautor von weit über hundertfünfzig Publikationen zu Personalmanagement, Führung und Managemententwicklung. Wenn jemand aus der deutschen HR-Welt nicht bloß Moden auflistet, sondern Verschiebungen im Denken registriert, dann er. Entsprechend präzise war sein Zugriff auf das Thinkers50-Radar: Nicht die nächste KI-Ekstase interessierte ihn, sondern der auffällige Übergang von der Technikfaszination zu Fragen der Verantwortung, der Führung und der organisationalen Urteilskraft. KI, sagte Schwuchow, bleibe Werkzeug statt Wesen; sie erkenne Muster ohne Verständnis; gerade im Personalbereich dürfe man Algorithmen nicht vermenschlichen. Die knappste Formel des Gesprächs lautete: Technologie ist Infrastruktur, der Mensch bleibt Architekt. Damit war das Thema nicht nur gesetzt, sondern auf seinen philosophischen Kern gebracht.

Wer diesen Satz ernst nimmt, landet nicht im Werbeprospekt der Softwareanbieter, sondern in Bad Homburg, bei jener Tagung der Forschungsgruppe „Poetik und Hermeneutik“, die im September 1994 unter dem Titel „Kontingenz“ über Zufall, Möglichkeit, Schicksal und Ordnung nachdachte. Dort wurde mit größerer begrifflicher Genauigkeit über Fragen gesprochen, die heute unter dem Etikett künstlicher Intelligenz zurückkehren: Was heißt es, wenn Systeme Ordnung erzeugen? Was geschieht, wenn Berechnung den Zufall verdrängen will? Und worin besteht Kreativität, wenn das Kombinieren von Möglichkeiten nicht mehr an Personen, sondern an Apparate delegiert wird?

Der Mensch als Architekt – und die Maschine als Anti-Zufall

Schwuchows Satz vom Menschen als Architekt taugt deshalb so gut als Aufhänger, weil er die Grenze markiert, an der die aktuelle KI-Rhetorik unscharf wird. Die Maschine berechnet, korreliert, variiert, generiert. Sie erweitert die Macht des Registrierens. Aber sie urteilt nicht im starken Sinn; sie entscheidet nicht im Raum von Sinn, Verantwortung und Risiko. Gerade im Personalmanagement ist diese Unterscheidung entscheidend. Dort ist die Versuchung besonders groß, Prognosen mit Einsicht zu verwechseln: im Recruiting, in der Kompetenzdiagnostik, in der Leistungsbewertung, in der Fluktuationsvorhersage. Schwuchows Warnung vor der Vermenschlichung von Algorithmen ist daher nicht bloß methodische Vorsicht, sondern eine Absage an die infantile Metaphysik der Gegenwart, die Software gern als Halbwesen behandelt.

Das Gespräch in Stuttgart hatte noch einen zweiten Vorzug: Es warf die Kreativitätsfrage nicht an einen wolkigen Himmel der Inspiration zurück. George Newman, den Schwuchow als einen der einschlägigen Thinkers50-Namen hervorhob, steht für die These, Kreativität sei Handwerk, nicht Magie. Ideen, so die Pointe, werden nicht bloß empfangen, sie werden systematisch gefunden; Innovation verlangt Suchbewegungen, Prozesse, Erkenntnisarchitekturen. Das ist gegen den Mythos des bloßen Geistesblitzes überzeugend. Zugleich wurde im Interview selbst sofort sichtbar, wie unzureichend jede rein prozessuale Fassung bleibt: Der Interviewer insistierte auf Kontingenz, auf Geistesblitzen, auf jener nicht planbaren Marktfähigkeit, mit der sich eine bestimmte Kombination plötzlich durchsetzt. Schwuchows Antwort war klug genug, den Widerspruch nicht zu glätten: Im großen Maßstab braucht Innovation Prozesse; im konkreten Fall braucht sie Organisationen, die dem einzelnen Einfall Resonanz geben, statt ihn als Spleen abzutun. Kreativität ist also Handwerk – aber Handwerk unter Wetter.

Bad Homburg lehrt: Handeln beginnt dort, wo etwas auch anders sein kann

Rüdiger Bubner hat im Bad-Homburger Band den aristotelischen Kern des Problems freigelegt. Zufall ist für ihn nicht einfach mangelndes Wissen. Gründe eliminieren den Zufall; im Bereich der Gründe bewegt man sich schon jenseits seiner Sphäre. Aber genau deshalb bleibt das Handeln auf einen anderen Raum angewiesen: auf den Raum des „Auch-anders-sein-Könnens“. Wäre die Welt vollständig festgelegt, gäbe es keine Praxis, keine Zielsetzung, kein Gelingen und kein Scheitern. Handeln setzt Offenheit voraus. Zufall begleitet es, so Bubner, „wie ein Schatten“.

Man könnte sagen: Das ist die Stelle, an der die Managementliteratur gewöhnlich nervös wird. Denn sie träumt von Steuerung, lebt aber von Kontingenz. Sie preist Planbarkeit, lebt aber von Entscheidungen unter Unsicherheit. Sie schwärmt von Prozessen, ist aber auf Ereignisse angewiesen. Personalmanagement ist dafür ein Paradefall. Es hat mit Menschen zu tun, die anders reagieren können, als Modelle erwarten; mit Fähigkeiten, die im falschen Kontext unsichtbar bleiben; mit Ideen, die im hierarchischen Betrieb untergehen und erst außerhalb Resonanz finden. Wer diese Zone des Nichtfestgelegten restlos austreiben will, gewinnt vielleicht Ordnung, verliert aber den Gegenstand, den er zu organisieren vorgibt.

Renate Lachmann und die lange Vorgeschichte des Algorithmus

Besonders hellsichtig liest sich heute Renate Lachmann. Ihre Überlegungen zu den „Agenten der Kombinatorik“ reichen von Raimundus Lullus bis Athanasius Kircher und beschreiben eine lange Kulturgeschichte der Apparate, die den Zufall bändigen sollen. Ars memoriae und Mnemotechnik, so Lachmann, richten sich in ihren unterschiedlichen Ausprägungen auf die Bannung des Zufalls. Durch Systematiken wird Ordnung in vergangene Daten gebracht; Ereignisse, Erfahrungen und Wissenselemente werden in Zusammenhänge gestellt; dort, wo sich Mnemotechnik mit der ars combinatoria verbindet, werden aus diesen Systemen sogar Voraussagen möglich. Im numerischen Erfassen und tabellarischen Darstellen von Wissensdaten geht es auf die Eliminierung des Zufalls und die vollständige Berechenbarkeit der Vorgänge zu.

Das ist nicht bloß gelehrte Barockarchäologie. Es ist die präzise Vorgeschichte dessen, was heute unter KI firmiert. Datenbanken, taxonomische Raster, generative Routinen, probabilistische Vorhersagen: All das steht in einer Tradition, die den Zufall nicht erträgt und Zukunft aus Registratur gewinnen will. Der moderne Algorithmus ist der jüngste Apparat einer sehr alten Hoffnung: dass sich die Welt durch hinreichende Ordnung des Vergangenen für das Kommende verfügbar machen lasse.

Lachmann bleibt jedoch nicht bei der Triumphgeschichte der Kombinatorik stehen. Ihr schärfster Gedanke setzt gegen die berechnete Maschine die Phantastik, die ingeniöse Metapher, das unerhörte Ereignis. Dort entsteht Neues nicht als bloße Kombination des Vorhandenen, sondern als Bruch eines Erwartungshorizonts. Das Plötzliche, Unerklärliche, Verstörende desautomatisiert die bisherigen Deutungsmuster. Kreativität im starken Sinn ist deshalb nicht einfach Generierung, sondern Regelüberschreitung; nicht nur Variation, sondern Diskontinuität. Gerade darin liegt die produktive Differenz zwischen Kombinatorik und Schöpfung. Die Maschine kann Möglichkeiten durchspielen. Aber das wirklich Neue erscheint dort, wo eine Ordnung ihren eigenen Rahmen sprengt.

Spielen heißt: den Zufall nicht abschaffen, sondern mit ihm umgehen

Hermann Lübbe hat diese Einsicht in einer Form formuliert, die der Gegenwart besonders wehtun dürfte: im Begriff des Spiels. Zufallsspiele, schreibt er, machen Kontingenz erfahrbar; sie zwingen dazu, mit nicht vollständig disponiblen Umständen umzugehen. Noch treffender ist seine Bemerkung über das Schach. Würden die Notwendigkeiten des Spiels vollständig entdeckt, wäre die Geschichte des Schachs an ihr Ende gelangt. Ein Spiel, dessen Ausgang restlos in eine zwingende Strategie aufgelöst werden kann, hört auf, ein Spiel zu sein.

Das ist eine Lektion für jede Organisation, die sich in Richtung totaler Berechenbarkeit rationalisiert. Man kann Prozesse perfektionieren, Suchräume verkleinern, Risiken modellieren, Fehlervarianzen reduzieren. Aber ab einem bestimmten Punkt verwandelt sich die Organisation in ein Schachproblem, das seine Lebendigkeit eingebüßt hat. Wer das Unternehmen in eine Maschine des Notwendigen umbauen will, zerstört genau jene Zone, in der Entdeckung, Irritation und Innovation entstehen. Kreativität verlangt keine reine Willkür. Sie verlangt aber einen Spielraum, in dem nicht alles vorab entschieden ist.

Fortuna, Occasio und die alte Frage, ob der Mensch sein Glück packt

Aleida Assmann schlägt den Bogen von Chaucer über Boethius bis Shakespeare. Schon ihr Einstieg ist sprechend: eine Medaille aus dem 15. Jahrhundert zeigt einen kräftigen Mann, der Occasio am Haarschopf packt und Cupido bändigt. Tugend greift in das Spiel des Zufalls ein. Das ist das klassische Bild souveräner Selbstbehauptung. Doch Assmann kontrastiert diese Renaissancegeste mit der mittelalterlichen Welt Chaucers, in der Palamon und Arcite den Mächten von Fortuna und Liebe ausgeliefert bleiben. Zwischen diesen beiden Figuren – dem Herrn der Gelegenheit und dem Opfer der Fügung – bewegt sich bis heute das moderne Management.

Boethius ist in dieser Konstellation nicht bloß eine historische Station, sondern der eigentliche Prüfstein. Denn in seiner Consolatio verschwindet Fortuna nicht einfach; sie wird in einen größeren Horizont gerückt. Das ist vielleicht die zivilisierteste Antwort auf die technologische Hybris der Gegenwart. Kontingenz muss nicht vergötzt werden. Aber sie verschwindet auch nicht dadurch, dass man sie in Scorecards zerlegt. Die moderne Organisation schwankt deshalb fortwährend zwischen Renaissance und Mittelalter: zwischen der Pose, alles in den Griff zu bekommen, und der Erfahrung, dass immer wieder etwas dazwischenkommt, das nicht im System stand.

Hieronymus Bosch malt die Randzonen der Ordnung

An Hieronymus Bosch lässt sich diese Spannung bildmächtig beobachten. Der Essay über „Bosch’s Contingency“ im Bad-Homburger Kontext zeigt, dass die scheinbar wuchernden, exzentrischen, bisweilen monströsen Bildwelten Boschs keineswegs bloßes Chaos sind. Sie stehen in historischen Kontexten, in ikonographischen Ordnungen, in kulturellen Syntaxen. Und doch wirken sie, gerade in ihren Randfiguren, wie eine Revolte gegen jedes glatte Weltbild. Kontingenz erscheint hier nicht als Formlosigkeit, sondern als Überfülle des Möglichen innerhalb einer Ordnung, die nicht mehr ganz Herr ihrer selbst ist.

Für Organisationen ist das auf eigentümliche Weise instruktiv. Das Abseitige, Schräge, Querliegende erscheint im Betrieb oft zuerst als Störung: der unpassende Kandidat, die regelwidrige Idee, die merkwürdige Beobachtung, der Einfall, der im Meeting keine saubere Heimat findet. Von fern sieht das nach Rauschen aus. Von nahem kann es der Ort sein, an dem ein System mehr wahrnimmt als seine Routinen. Hieronymus Bosch wäre in dieser Lesart der Maler jener organisationalen Einsicht, dass nicht alles Wertvolle geschniegelt erscheint.

Fehlerkultur ist keine Milde, sondern eine Form organisierter Erkenntnis

Darin liegt auch der Ernst der Stuttgarter Diskussion über Fehlermanagement. Schwuchow macht im Gespräch deutlich, dass eine Organisation weder mit behaglicher Nachsicht noch mit kaltem Leistungsdruck innovativ wird. Sicherheit ohne Standards endet im gemütlichen Leerlauf; hohe Ansprüche ohne Sicherheit erzeugen Angst, Umwege und Resignation. Produktiv wird die Organisation erst dort, wo sie Misserfolge nicht sofort moralisiert, sondern als Erkenntnisereignisse bearbeitet.

Das ist der Punkt, an dem Personalmanagement aus dem Seminarraum der Wohlfühlrhetorik heraustritt und epistemisch wird. Fehlerkultur ist keine Frage des netten Tons. Sie ist eine institutionelle Technik, Kontingenz in Wissen zu überführen, ohne sie vorher zu verbieten. Wer das Unternehmen so führt, dass nur noch das Bestätigte auftauchen darf, bekommt keine Kreativität, sondern angepasste Wiederholung.

Was von Stuttgart nach Bad Homburg führt

Aus dem Gespräch mit Karlheinz Schwuchow bleibt am Ende mehr als ein kluger Messesatz. Es bleibt eine Schneise durch das Gerede der Gegenwart. KI kann speichern, ordnen, korrelieren, kombinieren, generieren. Sie vergrößert die Reichweite des Anti-Zufalls. Aber sie hebt den Bereich des Handelns nicht auf. Und sie ersetzt vor allem nicht jene schöpferische Urteilskraft, die aus einem überraschenden Ereignis mehr macht als bloß einen Datenpunkt.

Die Bad-Homburger Debatten helfen, diese Grenze scharf zu sehen. Bubner erinnert daran, dass Praxis Offenheit braucht. Lübbe zeigt, dass totale Notwendigkeit das Spiel zerstört. Assmann führt vor, wie Fortuna und Verfügung ineinander verkeilt bleiben. Lachmann beschreibt die lange Kulturgeschichte der Apparate, die Zufall verbannen wollen – und die Gegenmacht der Phantastik, die mit Regelüberschreitung antwortet. Hieronymus Bosch schließlich hält die Randzonen der Ordnung sichtbar, in denen das Glatte seine Wahrheit verliert.

Darum liegt die Zukunft des Personalmanagements weder im Kult des Geistesblitzes noch im Glauben an die totale Prozesslogik. Sie liegt in einer schwierigeren Kunst: Organisationen so zu bauen, dass sie systematisch suchen und dennoch vom Unerwarteten getroffen werden können. Das verlangt eine neue Nüchternheit gegenüber der KI und einen alten Respekt vor der Kontingenz. Kreativität entsteht nicht dort, wo der Zufall verschwunden ist. Sie beginnt dort, wo eine Ordnung stark genug ist, die eigene Überraschung auszuhalten.

Digitalisierung und KI verzeihen keinen Investitionsstau @KfW_Research @ZEW @bertschek_irene

Warum der Mittelstand mit Ausbildung allein nicht produktiver wird – und weshalb die neue Technologie die Kluft zwischen Vorreitern und Nachzüglern noch vergrößern könnte

Die Pressekonferenz von KfW Research und ZEW Mannheim hat einen Zusammenhang freigelegt, der in der deutschen Digitaldebatte gern zerlegt wird, obwohl er nur zusammen verstanden werden kann: Der Mittelstand leidet nicht an einem einzelnen Defizit, sondern an drei gleichzeitig. Es fehlt an Investitionen in Digitalisierung und KI. Es fehlt an digitalen Kompetenzen. Und es bremst eine alternde Unternehmerschaft, die bei Nachfolge, Risiko und Zukunftsausgaben oft vorsichtiger agiert, als es die technologische Lage erlaubt. Aus diesem Dreiklang wächst die Produktivitätslücke.

Dirk Schumacher hat diesen Befund in seiner KfW-Präsentation mit der Nüchternheit eines Chefvolkswirts formuliert, was ihn nur noch eindringlicher macht: Das Produktivitätswachstum in Deutschland sinkt seit Jahren, die Digitalisierungsaktivitäten im Mittelstand verlieren „deutlich an Schwung“, und die Unterschiede zwischen Vorreitern und Nachzüglern sind signifikant. Deutschland ist bei der Anwendung digitaler Technologien allenfalls europäisches Mittelfeld; bei höheren digitalen Kompetenzen ist das Bild noch magerer. Wer daraus nur ein Bildungsproblem macht, verharmlost die Lage. Wer daraus nur ein Finanzierungsproblem macht, ebenso.

Die eigentliche Nachricht aus Frankfurt: Die Lücke wächst nicht trotz, sondern wegen der Zurückhaltung

Die neue KfW-ZEW-Lagebeschreibung ist vor allem deshalb so brisant, weil sie einen falschen Trost zerstört. Deutschland digitalisiert sich schnell an der Spitze und zu zögerlich in der Fläche. Der Anteil der Unternehmen mit abgeschlossenen Digitalisierungsvorhaben sank zuletzt auf 30 Prozent. Die gesamten Digitalisierungsausgaben des Mittelstands fielen auf 23,8 Milliarden Euro. Gleichzeitig konzentrieren sich diese Ausgaben auf größere und ohnehin stärkere Unternehmen. Die Spitze investiert, der Rest taktiert.

Die zweite Zahl ist fast noch aufschlussreicher. Das digitale Kapital ist extrem ungleich verteilt: Die oberen 25 Prozent der mittelständischen Unternehmen verfügen im Schnitt über 156.600 Euro an Digital-Kapital; bei den unteren 50 Prozent liegt der Bestand bei durchschnittlich unter 50 Euro. Das ist keine normale Streuung mehr. Das ist eine tektonische Verwerfung im Mittelstand. Wo Kapitalstock fehlt, fehlen nicht nur Computer und Software. Dort fehlen Erfahrung, Prozesse, Anschlussfähigkeit, Lernkurven.

Digitalkapital wirkt wie Zinseszins

Genau das belegt die ZEW-Studie mit einer Klarheit, die wirtschaftspolitisch unerquicklich ist. Ein um zehn Prozent höherer digitaler Kapitalstock geht im Durchschnitt mit 0,159 Prozent höherer Produktivität einher. In der Gruppe der bereits am stärksten digitalisierten Unternehmen steigt dieser Zusammenhang auf 0,808 Prozent. Digitalisierung belohnt also nicht alle gleich. Sie belohnt jene stärker, die schon investiert haben.

Noch wichtiger ist der zweite Befund: Ein höherer Digitalisierungsgrad hilft Unternehmen, zu den produktivsten Firmen ihrer Branche aufzuschließen. Aber auch hier gilt: Je größer der vorhandene Kapitalstock, desto stärker der Effekt. Digitalisierung wirkt damit wie Zinseszins. Wer früh beginnt, profitiert überproportional. Wer zu spät kommt, verliert nicht nur Niveau, sondern Abstand. Die wachsende Produktivitätslücke ist deshalb kein Betriebsunfall des Marktes. Sie ist die logische Folge asymmetrischer Investitionen.

Ausbildung und Start-up-Kooperationen sind richtig – aber sie tragen den Kapitalstock nicht ins Haus

Professorin Irene Bertschek, Leiterin des ZEW-Forschungsbereichs „Digitale Ökonomie“, hat in ihrer Präsentation zu Recht darauf hingewiesen, dass Investitionen in Digitalisierung mit besseren und regelmäßig aktualisierten Digitalkompetenzen verbunden werden müssen. Auch Kooperationen mit digitalen Start-ups könnten helfen, technologisches Know-how in Unternehmen zu holen. Das ist richtig. Aber in der Diskussion wurde ebenso deutlich, dass diese Instrumente für sich genommen keine Investitionswende auslösen. Bertschek räumte ausdrücklich ein, das seien „begleitende Maßnahmen“; das Wichtigste seien „die Investitionen in die Technologie“.

Genau darin liegt der ökonomische Kern. Kompetenzen verbessern die Fähigkeit, Technologie zu nutzen. Sie schaffen aber noch keinen technologischen Kapitalstock. Start-up-Kooperationen können Wissen importieren. Sie ersetzen aber keine Datenarchitektur, keine Automatisierungstiefe, keine Integration in Einkauf, Produktion, Vertrieb und Service. Wer glaubt, mit ein paar Schulungsprogrammen und etwas Gründungsromantik lasse sich die Investitionsschwäche des Mittelstands therapieren, verwechselt Voraussetzung und Ursache.

Bertschek hat den zweiten Teil des Problems ebenso offen benannt. Natürlich könne es passieren, sagte sie, „dass auch bei der KI jetzt diese Produktivitätslücke noch größer wird“. Wenn die Vorreiterunternehmen stark investieren und „der große Bulk an wenig Digitalisierten“ nicht nachkommt, werde sich die Lücke weiter vergrößern. Man hätte es kaum präziser sagen können. KI ist kein sozialdemokratischer Produktivitätsbooster. Sie verteilt ihren Ertrag nicht automatisch gleichmäßig.

Ob KI nivelliert oder spaltet, entscheidet sich am Zugang

Die vielleicht klügste Antwort des Tages kam von Dirk Schumacher. Er hat die Warnung nicht relativiert, sondern erweitert. Ja, KI könne die Unterschiede vergrößern. Aber sie könne sie auch „nivellieren“. Entscheidend sei, „wie wird der Zugang zu diesen Foundational Models sein?“ Wenn jedes Unternehmen mit vertretbarem Aufwand auf leistungsfähige Modelle zugreifen und daraus spezialisierte Lösungen bauen könne, dann ließe sich Produktivität auch in der Breite heben. Wenn dagegen Abschottung, knapper Zugang und hohe Gebühren dominieren, nehme die Volkswirtschaft „einen ganz anderen Pfad“.

Darin steckt eine ordnungspolitische Pointe, die über diese Pressekonferenz hinausweist. KI ist kein Naturereignis. Ob sie die Kluft zwischen Vorreitern und Nachzüglern verbreitert oder verkleinert, hängt nicht nur von der Technologie selbst ab, sondern von ihrer Verfügbarkeit, ihren Preisen, ihrer Integrierbarkeit und der Fähigkeit des Mittelstands, daraus anwendungsnahe Lösungen zu bauen. Wer also fragt, ob KI die Lücke vergrößert, muss zugleich fragen, wem der Zugang gehört und wer ihn sich leisten kann.

Die Alterung der Unternehmerschaft ist kein Randthema, sondern ein Investitionshemmnis

Hinzu kommt ein Faktor, der in vielen Innovationsdebatten wie ein ungebetener Gast behandelt wird: Demografie. Schumacher hat auch hier keinen Nebel erzeugt. Das Nachfolgeproblem, sagte er, sei „leider ein empirischer Fakt“. Die Alterung der Unternehmerschaft werde „at the margin wahrscheinlich auch zu weniger Digitalisierungsaktivitäten führen“. Gerade deshalb sei das aber kein Argument, bei der Digitalisierung kürzerzutreten. Im Gegenteil: Weil die Investitionsneigung durch Alterung und ungelöste Nachfolge sinkt, werden die übrigen Hebel umso wichtiger.

Auch hier zeigt sich: Die Produktivitätslücke des Mittelstands ist eben nicht nur technologisch, sondern strukturell. Wer eine alternde Unternehmerlandschaft, knappe Nachfolger, steigende Unsicherheit und schwache Investitionen zusammendenkt, versteht, warum Appelle an Lernbereitschaft allein ins Leere laufen. Ein Unternehmen digitalisiert nicht, weil es dazu moralisch ermuntert wird. Es digitalisiert, wenn Kapital, Führung, Kompetenz und Zukunftsperspektive zusammenkommen.

Was die Hidden Champions den Zögerern voraus haben

Die Zukunftsmacher-Studie des Smarter-Service-Instituts liefert das Gegenbild zum zögerlichen Teil des Mittelstands (der Autor dieses Beitrags hat an der Studie mitgearbeitet). Dort sprechen Hidden Champions und führende Familienunternehmen nicht über KI als hübsches Zusatzmodul, sondern als Investitions- und Wettbewerbsfrage. Im Durchschnitt fließen dort rund 30 Prozent des Investitionsbudgets in Digitalisierung; jeder fünfte Digitalisierungs-Euro geht bereits in KI. Die Unternehmen berichten im Schnitt von 22 Prozent Produktivitätssteigerung durch KI. Und die Studie hält ausdrücklich fest: Je stärker Unternehmen in Digitalisierung und KI investieren, desto höher ist ihr Reifegrad; rund 37 Prozent des Investment-Ertrags entstehen durch Fortschritte in der digitalen Maturity.

EDAG formuliert die Konsequenz ohne Schonung: „Wer nicht integriert, verliert Wettbewerbsfähigkeit.“ Der Engineering-Dienstleister investiert einen signifikanten Teil seines EBIT in digitale Transformation und erzielt bereits 20 bis 30 Prozent Zeitersparnis in ersten Projekten. Internorm sagt dasselbe in pragmatischerem Ton: KI werde dort eingesetzt, wo sie „sofort Wirkung“ zeige; entscheidend sei das Zusammenspiel von Datenbasis, Mindset und Fehlerkultur. Das Unternehmen investiert rund ein Prozent des Umsatzes in Digitalisierung und arbeitet seit Jahren an Forecasting, Lager- und Einkaufsoptimierung. MIWE wiederum macht aus dem industriellen Alltag eine Lektion in Produktivitätsökonomie: Digitale Assistenten verarbeiten täglich Millionen SAP-Datensätze; die Firma berichtet von 10 bis 20 Prozent Performancegewinnen im Materialmanagement und 20 bis 25 Prozent Produktivitätssteigerung in der Produktion. ACO schließlich bringt die Demografiefrage auf eine prägnante Formel: „KI ersetzt keine Jobs – sie verhindert, dass uns Know-how verloren geht.“

Diese Sätze erklären den Unterschied besser als jede Förderbroschüre. Die Vorreiter warten nicht, bis Kompetenzen perfekt, Prozesse ausdefiniert und Risiken restlos abgefedert sind. Sie investieren, um Kompetenzen aufzubauen, Prozesse zu verbessern und Risiken zu beherrschen. Die Nachzügler behandeln Digitalisierung dagegen noch immer wie ein vertagbares Projekt. Die einen bauen Kapitalstock auf. Die anderen pflegen Bedenken.

Weniger Digitalfolklore, mehr Investitionsrealismus

Die wirtschaftspolitische Konsequenz liegt damit offen zutage. Deutschland muss die Produktivitätsfrage des Mittelstands endlich als das behandeln, was sie ist: als Zusammenspiel von Kapital, Kompetenz und Demografie. Bertschek hat recht, wenn sie auf Digitalkompetenzen und Start-up-Kooperationen pocht. Schumacher hat recht, wenn er den Primat der Technologieinvestition und die Gefahr einer größeren KI-Kluft hervorhebt. Die Zukunftsmacher zeigen, dass beides nur trägt, wenn Unternehmen tatsächlich investieren, integrieren und skalieren.

Der deutsche Mittelstand steht damit vor einer unbequemen Wahrheit. KI wird die Schwachen nicht automatisch mitziehen. Sie wird jene belohnen, die vorbereitet sind: mit Kapital, mit Können, mit Führung und mit dem Mut, aus der Vorsicht auszubrechen. Wer weiter zu wenig investiert und darauf hofft, Schulung allein werde den Rückstand heilen, verwechselt pädagogischen Trost mit ökonomischer Realität. KI verzeiht keinen Investitionsstau.

Monokausale Empörung, teure Folgen: Warum die Politik beim Krankenstand zu kurz denkt #Gesundheitsreform #ZPSued

Warum Fehlzeiten kein moralisches Problem sind, sondern ein Führungs-, Fairness- und Produktivitätsthema

Im deutschen Betrieb kursiert über Fehlzeiten noch immer ein grobschlächtiges Menschenbild. Da sitzt irgendwo einer mit spitzem Bleistift, zählt Krankmeldungen, schimpft über Bequemlichkeit, verdächtigt die telefonische Krankschreibung und hofft, mit etwas öffentlicher Strenge werde aus dem Krankenstand bald wieder ein Leistungsstand. Das ist die Denkweise des Holzhammers. Sie schlägt laut auf, trifft aber selten die Ursache.

Im Messe-TV-Studio der Zukunft Personal Süd in Stuttgart hat Bastian Schmidtbleicher-Lück von MOOVE diese Denkfaulheit mit ein paar präzisen Begriffen zerlegt. Sein Ausgangspunkt ist problematisch nur für jene, die einfache Schuldige suchen: Fehlzeiten sind in der modernen Arbeitswelt eben nicht monokausal. Wer nur Grippewellen zählt, versteht den Betrieb nicht. Wer nur Missbrauch vermutet, versteht ihn erst recht nicht. Schmidtbleicher-Lück spricht stattdessen von Residual- und Cluster-Fehlzeiten, von Präsentismus, vom New-Work-Paradoxon und vom „interessierten Schutzbedürfnis“. Hinter den sperrigen Formeln steckt eine schlichte Wahrheit: Arbeit macht nicht nur müde, sie organisiert auch Wahrnehmung, Gerechtigkeit, Überforderung und Schonstrategien.

Die Bettkante ist kein Zufallsprodukt

Einer der stärksten Sätze des Interviews betrifft die sogenannten Clusterkrankenstände. Gemeint sind jene Fehlzeiten, die sich in Teams nicht aus einer medizinischen Welle erklären, sondern aus sozialer Dynamik. Wo hohe Arbeitslast als unfair empfunden wird, wo einige tragen und andere sich entziehen, wo das Team die Gerechtigkeit verloren gibt, wächst eine eigentümliche Moral der Bettkante: Heute eben nicht. In der älteren Sprache hätte man vielleicht von Trotz gesprochen, in der betrieblichen Gegenwart ist es ein Fairnesssignal mit teurem Ausgang.

Das MOOVE-Whitepaper formuliert denselben Zusammenhang nüchterner. Es spricht von Ungerechtigkeits-Triggern: vom Absence Fairness Gap, also dem Eindruck „Ich bin da, die anderen fehlen“, von fehlender Anerkennung für Mehraufwand und von ungerechter Verteilung von Diensten oder Homeoffice. Solche Trigger sind keine weichen Stimmungen, sondern Risikoverstärker. Wer sie systematisch ignoriert, züchtet Fehlzeiten nicht trotz, sondern wegen seiner Organisation.

Hier liegt schon der erste Unterschied zwischen guter Analyse und politischer Parole. Die Parole fragt: Warum fehlen so viele? Die Analyse fragt: Unter welchen Bedingungen beginnt ein Team, Fehlzeiten als gerechte Antwort auf ungerechte Verhältnisse zu behandeln?

Präsentismus: die teuerste Anwesenheit des Betriebs

Der zweite Irrtum der groben Debatte lautet, Anwesenheit sei stets das Gegenteil von Fehlzeit. Auch das stimmt nicht. Schmidtbleicher-Lück verweist im Interview auf ein Phänomen, das gerade in wirtschaftlich unruhigen Zeiten zunimmt: Präsentismus. Menschen arbeiten trotz Krankheit, weil sie Angst um den Arbeitsplatz haben, weil die Kultur es so verlangt oder weil sie niemanden hängenlassen wollen. Das sieht nach Pflichtgefühl aus, ist aber betriebswirtschaftlich oft der teurere Weg. Wer krank weiterarbeitet, kuriert sich langsamer aus, verlängert Verläufe, steckt womöglich andere an, macht mehr Fehler und trägt die Krankheit mit in die nächste Woche.

Das Whitepaper unterlegt diese Beobachtung mit einer größeren Linie. Flexibles Arbeiten, so die Diagnose, reduziert Fehlzeiten keineswegs automatisch. Im Gegenteil: Homeoffice kann virtuellen Präsentismus befördern, also krankes Weiterarbeiten im privaten Raum. Mehr als jede zweite Person gab in den dort referierten TK-/IFBG-Analysen an, mindestens manchmal krank zu arbeiten; mehr als ein Viertel tat dies häufig. Für die Steuerung im Unternehmen heißt das: Wer nur Abwesenheit misst, sieht einen erheblichen Teil des Problems gar nicht.

Damit kippt die gesamte Rhetorik des „mehr Präsenz = weniger Problem“. Das Gegenteil kann der Fall sein. Ein Betrieb voller Kranker, die tapfer in Calls sitzen, ist kein gesundes Unternehmen, sondern ein verschlepptes.

New Work ohne Leitplanken produziert neue Schonformen

Besonders interessant ist Schmidtbleicher-Lücks Begriff des interessierten Schutzbedürfnisses. Das meint nicht bloß sentimentale Führung, sondern einen Mechanismus der Überprotektion. Führungskräfte wollen schützen, oft aus ehrlicher Fürsorge, manchmal auch aus eigenem Harmoniebedürfnis. Zugleich treffen sie auf eine Arbeitswelt, in der alte Regeln abgeräumt wurden, bevor neue tragfähig errichtet waren. Zu viel Flexibilität, zu wenig Klarheit, zu viel basisdemokratischer Nebel, zu wenig Struktur: Auch das kann krank machen. Nicht jeder Mensch möchte Arbeit täglich neu aushandeln. Nicht jeder gewinnt Freiheit, wenn jede Grenze verschwindet.

Das MOOVE-Papier nennt dieses Spannungsfeld das New-Work-Paradoxon. Flexible Modelle versprechen Selbstbestimmung, führen aber ohne Regeln zu Entgrenzung, Ungleichheit zwischen Blue- und White-Collar-Bereichen und Überforderung durch Selbstorganisation. Dazu kommt der kulturelle Nebeneffekt: Wer aus lauter Schutz gar nicht mehr sauber hinschaut, überlässt das Team einer Mischung aus Trittbrettfahrern, schlechtem Gewissen und schleichender Erschöpfung.

Die Pointe ist unerquicklich für beide Lager der Debatte. Die einen wollten New Work als Freiheitserzählung ohne Nebenrechnung. Die anderen wollten nur den alten Kommandoton zurück. Beides greift zu kurz. Ein Betrieb braucht weder Gesinnungsmanagement noch moralische Laxheit. Er braucht Leitplanken.

Fehlzeiten sind ein C-Level-Thema, nicht bloß eine Personalakte

Sobald man den Nebel der Schlagworte verlässt, wird die wirtschaftliche Dimension sichtbar. Laut MOOVE-Whitepaper lagen 2023 die durchschnittlichen Arbeitsunfähigkeitstage je Beschäftigtem in Deutschland bei 21,0 Tagen. Die BAuA schätzt daraus 128 Milliarden Euro Produktionsausfall und 221 Milliarden Euro Verlust an Bruttowertschöpfung. Das ist kein BGM-Nischenthema für freundlich dekorierte Gesundheitstage. Das ist ein Fall für Geschäftsleitung, Controlling und Betriebsorganisation.

Schmidtbleicher-Lück bringt diese Zahl im Interview auf die betriebliche Ebene zurück. Ein Fehltag, sagt er, liege nicht unter 380 Euro. Darüber lässt sich streiten, je nach Branche, Wertschöpfung und Lohnstruktur. Aber die Größenordnung genügt. Entscheidend ist sein zweiter Satz: Man muss kritische Pfade durch die Organisation ziehen wie im Controlling. Anders gesagt: Fehlzeitenmanagement gehört aus der Ecke des diffusen Gesundheitsgeredes in die Welt der Steuerung.

Damit verändert sich auch die Rolle der Personalabteilung. Sie ist dann nicht mehr nur Adressatin von Krankmeldungen, sondern Mitarchitektin eines Systems, das Daten sauber definiert, Muster erkennt, Führung befähigt und Rückkehrprozesse beschleunigt.

Der Betrieb muss lernen, sich selbst zu lesen

Das eigentlich Spannende am MOOVE-Ansatz liegt im Wechsel von der Moral zur Diagnostik. Nicht der laute Verdacht steht am Anfang, sondern ein Ursachenradar. Das Whitepaper arbeitet mit fünf Achsen: Arbeitsanforderungen, Ressourcen, Fairness, Kultur und Work-Design. Dahinter steckt ein nüchterner Gedanke: Fehlzeiten steigen dort, wo mehrere Belastungscluster zusammenkommen und die Ressourcen gleichzeitig schwach sind. Nicht die stärkste Einzelbelastung entscheidet, sondern die unglückliche Kombination.

Besonders hilfreich sind die daraus abgeleiteten Quick Wins. Kein Zauberkasten, eher gutes Handwerk. Ein Montag-/Freitag-Hotspot-Dialog soll Wochenrandmuster sichtbar machen. Ein Prä-BEM-Screening am 25. Kalendertag beschleunigt den Rückkehrdialog. Dual-Check-ins trennen Fokus und Kontext, also Arbeit und Belastung. Ein Ratio-Dashboard macht Fairness, Infofluss und Rückkehrklarheit sichtbar. Ein eAU-Autofeed ins HR-BI sorgt dafür, dass das Reporting nicht erst kommt, wenn das Quartal längst vorbei ist. Solche Maßnahmen klingen unspektakulär. Gerade das macht sie glaubwürdig.

Sie setzen dort an, wo die deutsche Debatte am ungernsten hinsieht: im grauen Alltag von Führungsspanne, Dienstplan, Gesprächsqualität, Datenhygiene und Prozessdisziplin.

Gesunde Arbeit ist kein Wellness-Zusatz, sondern eine Wertschöpfungsfrage

Der wichtigste Satz dieses Interviews könnte deshalb lauten: Fehlzeitenmanagement beginnt nicht bei Maßnahmen, sondern bei Analyse, Management und betriebswirtschaftlicher Rechnung. Erst dann folgen Programme. Das Whitepaper nennt für integrierte Programme einen ROI-Korridor von 1:2,3 bis 1:5,9. Man muss solche Zahlen nicht als Naturgesetz behandeln. Aber sie verschieben die Diskussion. Prävention erscheint dann nicht mehr als hübscher Zuschlag für gute Zeiten, sondern als Investition in Produktivität, Arbeitgeberattraktivität und Resilienz.

Hier berührt der Vortrag von Schmidtbleicher-Lück eine größere Wahrheit über die moderne Arbeitswelt. Viele Unternehmen diskutieren über KI, Transformation, Restrukturierung, Fachkräftemangel und Wettbewerbsfähigkeit, als liefen Körper, Psyche und Gerechtigkeit stumm im Hintergrund mit. Das tun sie nicht. Sie rechnen mit. Immer.

Der kluge Betrieb fragt daher nicht zuerst, wer fehlt, sondern warum bestimmte Teams trotzdem funktionieren und andere nicht. Er betrachtet Fehlzeiten nicht als moralischen Makel, sondern als Risikokarte. Er verwechselt Fürsorge nicht mit Führungslosigkeit. Er hält Regeln nicht für Grausamkeit, sondern für eine Form von Schutz. Und er begreift Gesundheit nicht als Obstkorb am Rand des Geschäfts, sondern als Teil seiner Produktivitätsrechnung.

Gesamtstaatliches Sicherheitsökosystem 2030: Wenn der Ernstfall nicht auf Zuständigkeiten wartet – AFCEA-Umfrage startet

Der Staat als Systemfrage

Deutschland besitzt Behörden, Gesetze, Ausschüsse und Strategiepapiere. Was es im Krisenfall oft nicht besitzt, ist Tempo. Das klingt ungerecht, ist aber eine Erfahrung aus vielen Lagen: Wenn mehrere Störungen gleichzeitig auftreten, löst sich das Problem nicht in Ressorts auf, sondern addiert sich zu einer Systemfrage. Cyberangriff, Sabotage, Desinformation, Ausfälle bei Energie, Telekommunikation oder Verkehr – all das fragt nicht zuerst nach Paragrafen, sondern nach Wirkung. Wer erkennt was? Wer entscheidet? Wer handelt? Und wer bringt das System zurück in den Normalbetrieb?

Vor diesem Hintergrund läuft derzeit eine Befragung zum „gesamtstaatlichen Sicherheitsökosystem 2030“. Es geht darin um nichts weniger als die Frage, ob Deutschland bis zum Ende des Jahrzehnts ein Sicherheitsgefüge hinbekommt, das im Ernstfall als Netzwerk funktioniert. Wir berichten darüber, weil die Debatte sich verschoben hat: weg von Symbolen, hin zu Betriebsbedingungen.

Was „gesamtstaatlich“ wirklich heißt

„Gesamtstaatlich“ ist ein deutsches Lieblingswort, das schnell nach Verwaltungsreform klingt. In der Praxis meint es etwas Konkretes: die Fähigkeit, Bund, Länder und Kommunen so zu koppeln, dass eine Krise nicht an Schnittstellen hängen bleibt. Denn die Zuständigkeiten sind in Deutschland nicht nur verteilt, sie sind auch historisch gewachsen, juristisch geschützt und politisch empfindlich. Das ist im Alltag ein Vorteil. In der Krise kann es ein Problem werden, weil Entscheidungen dann nicht selten über Wege laufen, die für Normalzeiten gebaut wurden.

Ein „Sicherheitsökosystem“ ist deshalb mehr als ein neues Organigramm. Der Begriff ist – bei aller Mode – eigentlich nüchtern: Sicherheit entsteht durch Abhängigkeiten. Sie entsteht vor der Krise durch Aufklärung und Vorsorge, in der Krise durch Führung und Einsatz, nach der Krise durch Wiederanlauf und Reparatur. Wenn einer dieser Abschnitte nicht anschlussfähig ist, wird aus Resilienz Rhetorik.

KRITIS, BOS und Bundeswehr: Drei Welten, eine Lage

In der Befragung spielt das Zusammenspiel mehrerer Akteurswelten eine zentrale Rolle. Das beginnt bei den sogenannten KRITIS, den „kritischen Infrastrukturen“. Damit ist das gemeint, was im Alltag so selbstverständlich funktioniert, dass man es erst beim Ausfall bemerkt: Stromversorgung, Wasser, Telekommunikation, Verkehr, Gesundheitswesen, Finanzsystem. KRITIS ist häufig nicht staatlich organisiert, sondern wird von Unternehmen betrieben, die marktwirtschaftlich arbeiten, aber eine öffentliche Lebensader in der Hand halten. Schon das allein erzeugt eine eigene Spannung: Der Staat trägt Verantwortung, besitzt aber nicht immer die Mittel der direkten Durchgriffsteuerung.

Daneben stehen die BOS, die „Behörden und Organisationen mit Sicherheitsaufgaben“. Das sind Polizei, Feuerwehr, Rettungsdienste, Technisches Hilfswerk, Katastrophenschutz – kurz: die operative Binnenfront des Staates. Und schließlich die Bundeswehr, also die Streitkräfte, deren Rolle im Inneren rechtlich eng gefasst ist, die aber in hybriden Lagen schnell mitbetroffen ist, weil Cyberraum und äußere Sicherheit nicht mehr sauber voneinander zu trennen sind.

Das Problem entsteht dort, wo diese Welten im Ereignisfall nicht dasselbe sehen, nicht dieselben Daten teilen und nicht dieselben Zeithorizonte haben. Ein Sicherheitsökosystem soll genau dieses Dazwischen beherrschbar machen.

Wirkungslogik statt Zuständigkeitslogik

Die Initiatoren der Untersuchung sprechen von „Wirkungslogiken“ statt „Zuständigkeitslogiken“. Das klingt zunächst nach Beratungsdeutsch, beschreibt aber eine schlichte Verschiebung: In der Krise hilft es wenig, zuerst zu klären, wer formal zuständig ist, wenn die Wirkung sofort eintreten muss. Der Strom fällt nicht später aus, nur weil die Genehmigung noch fehlt. Die Wirkungsperspektive fragt zuerst: Was muss jetzt passieren, damit Schaden begrenzt wird? Wer kann das? Wer darf es? Und wie schnell wird aus Dürfen ein Tun?

Dahinter steht ein Gedanke, der in Deutschland erst allmählich politisch salonfähig wird: Sicherheit wird nicht durch perfekte Regeln garantiert, sondern durch funktionierende Abläufe. Regeln sind notwendig, aber ohne Ablaufkompetenz sind sie nur Papier.

Digitale Vernetzung ist keine Modernisierung, sondern Betriebsbedingung

Ein zweiter Schwerpunkt ist die digitale Vernetzung. Auch hier gilt: Das ist kein Technikthema, sondern ein Zeitthema. Wer in getrennten Systemen arbeitet, produziert getrennte Lagebilder. Wer getrennte Lagebilder hat, koordiniert statt zu führen. Und wer nur koordiniert, verliert Minuten – die im digitalen Raum Stundenwirkung entfalten.

„Digital vernetzt“ heißt deshalb nicht, dass irgendwo ein neues Dashboard installiert wird. Es heißt, dass Daten in gleicher Zeit, in gleicher Form und mit klaren Rechten fließen. Es heißt Interoperabilität, also Anschlussfähigkeit von Systemen. Es heißt sichere Kommunikationswege, die nicht im ersten Ausfall verstummen. Und es heißt, dass die Wiederherstellung – also die Rückkehr in den Betrieb nach einem Treffer – nicht als Nachgedanke behandelt wird, sondern als Kernfähigkeit. Resilienz ist dann nicht Tapferkeit, sondern Wiederanlauf.

Ökonomische Sicherheit ist Sicherheitspolitik

Wer Sicherheit heute ausschließlich militärisch denkt, verkürzt. Der Ökonom Christian Growitsch hat in Gesprächen zur ökonomischen Sicherheitspolitik eine Trias formuliert, die sich in jede Sicherheitsarchitektur einschreibt: Rohstoffversorgung, sichere Handelsrouten und technologische Souveränität. Sein Punkt ist, dass eine Volkswirtschaft nur dann handlungsfähig bleibt, wenn sie produzieren, liefern und im Zweifel auch verteidigen kann – und zwar ohne kritische Abhängigkeiten, die im Konfliktfall als Hebel gegen sie genutzt werden.

Damit verschiebt sich der Sicherheitsbegriff in Richtung Infrastruktur, Industriepolitik, Lieferketten, Bildung und Technologie. Das ist unbequem, weil es teure Investitionen verlangt und Prioritäten erzwingt. Es ist aber realistisch, weil die Angriffe der Gegenwart nicht nur Panzer treffen, sondern Kabel, Datenräume, Logistik und Vertrauen.

Hackback: Realpolitische Notwendigkeit

Die Debatte über Handlungsfähigkeit endet zwangsläufig beim heikelsten Begriff der deutschen Cybersicherheitsdiskussion: Hackback. Gemeint sind Gegenmaßnahmen im Cyberraum, also Eingriffe, die über reines Abwehren hinausgehen und die gegnerische Infrastruktur stören oder neutralisieren können. Der Begriff ist politisch vergiftet, weil er nach Vergeltung klingt.

Christian Hummert von der Cyberagentur hat diese sprachliche Schieflage früh offen angesprochen. Er berichtet von Ressentiments aus Teilen der Hackerszene, in der die Cyberagentur als „Hackerbehörde“ kritisiert werde. Und er setzt dem ein Bild entgegen, das in seiner Banalität alles erklärt: Wenn jemand jeden Tag die eigene Wohnungstür kaputt macht, sagt man irgendwann, jetzt sei Schluss. Die Debatte, so Hummert, werde wiederkommen – unabhängig davon, ob man sie „aktive Cyberabwehr“ nennt oder anders.

Das ist die nüchterne Botschaft: Ein Staat, der nur beobachtet, aber nie unterbricht, wird als kalkulierbares Ziel wahrgenommen. Gleichzeitig bleibt der Preis hoch. Im Cyberraum ist Attribution, also die sichere Zuordnung eines Angriffs zu einem Täter, oft schwierig, weil Angriffe über missbrauchte Drittinfrastruktur laufen. Wer vorschnell „zurückschlägt“, trifft womöglich Unbeteiligte. Ein Sicherheitsökosystem muss deshalb die unbequemen Fragen beantworten, statt sie zu umschiffen: Welche Eingriffsschwelle gilt? Welche Beweisanforderungen? Welche Verhältnismäßigkeit? Welche parlamentarische und richterliche Kontrolle – und in welchem Tempo?

Der Ernstfall ist die Stunde der Schnittstellen

Am Ende läuft alles auf eine einfache Wahrheit hinaus: Ein Staat ist im Ernstfall nicht so stark wie seine beste Behörde, sondern so stark wie seine schlechteste Schnittstelle. Das „gesamtstaatliche Sicherheitsökosystem 2030“ ist deshalb kein schönes Bild, sondern eine Zumutung. Es zwingt dazu, nicht mehr über Zuständigkeiten zu reden, sondern über Ketten. Ketten der Erkenntnis, der Entscheidung, der Reaktion, der Wiederherstellung.

Ob diese Befragung mehr wird als eine kluge Bestandsaufnahme, entscheidet sich nicht am Papierumfang, sondern an der Folgerung: Wird aus Diagnose Fähigkeit? Oder bleibt die Erkenntnis eine Fußnote, bis die nächste Krise die Schwächen wieder vorführt – diesmal ohne Schonfrist?

Mitmachen bei der Umfrage.

Herr Merz, der Krankenstand ist kein Pranger: Warum Deutschland Fehlzeiten nicht mit Verdacht senkt, sondern mit Führung, Daten und Gesundheitskompetenz @Bundeskanzler #ZPSüd

Der Krankenstand eignet sich schlecht für schnelle Empörung und sehr gut für schlechte Politik. Man kann ihn in Talkshows hochhalten wie eine Fieberkurve der Nation. Man kann Erwerbstätige unter Generalverdacht stellen, die telefonische Krankschreibung zum Sündenbock erklären und anschließend so tun, als sei Produktivität vor allem eine Frage härterer Ansprache. Man kann aber auch genauer hinsehen. Dann wird aus dem Reizthema ein Managementproblem, ein Führungsproblem, ein Gesundheitsproblem und schließlich ein konjunkturpolitisches Problem.

Auf der Zukunft Personal Süd in Stuttgart stand mit Manuel Fink jemand im Messe-TV-Studio, der diese Debatte aus der betrieblichen Praxis kennt. Er ist Autor des Haufe-Buches „Fehlzeiten aktiv managen“ und hat mit der R.U.F.-Methode – Reduzierung ungeplanter Fehlzeiten – einen Werkzeugkasten entwickelt, der Fehlzeiten nicht moralisch beklagt, sondern betrieblich bearbeitbar macht. Sein Vorschlag an Bundeskanzler Friedrich Merz lautet im Kern: Nicht anklagen, sondern die Republik zu einem gemeinsamen Gesundheits- und Produktivitätsprojekt einladen.

Die falsche Rede beginnt mit Verdacht

Merz hat die Debatte um den hohen Krankenstand angestoßen; die DAK begrüßte den Anstoß grundsätzlich und forderte im Januar 2026 einen Krankenstands-Gipfel im Kanzleramt. Nach DAK-Angaben waren Beschäftigte 2025 im Durchschnitt 19,5 Kalendertage krankgeschrieben; der Krankenstand lag mit 5,4 Prozent stabil auf hohem Niveau. Atemwegserkrankungen verursachten die meisten Fehltage, psychische Erkrankungen legten um 6,9 Prozent zu und rückten vor Muskel-Skelett-Erkrankungen auf Platz zwei.

Damit ist der Befund ernst. Aber Ernst verlangt Genauigkeit. Schon 2024 war der Krankenstand bei DAK-Versicherten leicht auf 5,4 Prozent gesunken; die Kasse warnte vor vorschnellen internationalen Vergleichen und wies darauf hin, dass der sprunghafte Anstieg ab 2022 auch mit dem elektronischen Meldeverfahren zusammenhing. Wer diese Differenzierungen auslässt, produziert kein Problembewusstsein, sondern Abwehr.

Fink sagt im Interview auf der ZP Süd sinngemäß: Wer das Thema nur in den Raum stellt, verschärft den Konflikt zwischen Arbeitgebern und Beschäftigten. Er nennt solche Zuspitzungen „ungeschickt“, weil sie ein Drittel der Bürgerinnen und Bürger vor den Kopf stoßen können. Der Kanzler brauche nicht die Pose des Oberaufsehers, sondern den Ton eines Moderators zwischen Arbeitgebern, Arbeitnehmern, Führungskräften, Betriebsräten und Gesundheitswesen.

Krank ist krank – und doch ist nicht jede Fehlzeit gleich

Der Satz „krank ist krank“ schützt eine zivilisatorische Errungenschaft. Wer krank ist, soll nicht zur Arbeit gehen müssen. Präsentismus – also krank am Arbeitsplatz erscheinen – ist kein Heldentum, sondern oft nur die Vorstufe schlechterer Gesundheit, höherer Fehlerquoten und längerer Ausfälle. Eine Politik, die Beschäftigte in diesen Reflex treibt, spart kurzfristig Tage und produziert langfristig Schaden.

Aber Fink hält gegen die bequeme Kapitulation vor jeder Fehlzeit. In seinem Buch schreibt er, betriebliche Fehlzeiten seien durch aktives Management und Führungsarbeit stärker beeinflussbar, als viele glaubten. Drei der fünf zentralen Ursachen ungeplanter Abwesenheiten seien durch direkte Führung beeinflussbar. Zugleich nennt er zwei Gründe, warum Unternehmen oft nicht handeln: mangelndes Bewusstsein über die Beeinflussbarkeit von Fehlzeiten und mangelnde Konfliktbereitschaft.

Das ist die produktive Mitte der Debatte. Fehlzeiten sind nicht einfach Schicksal. Sie sind aber auch kein Beweis kollektiver Arbeitsmoralverwesung. Wer sie senken will, muss unterscheiden: medizinische Ursachen, psychische Belastungen, Arbeitsorganisation, familiäre Engpässe, Führungsversagen, schlechte Schichtplanung, Konflikte, Überlastung, Präsentismus – und in einer Minderheit auch Missbrauch. Politik, die alles in einen Topf wirft, kocht nur Empörung.

Der Kanzler sollte über Führung sprechen, nicht über Faulheit

Finks stärkster Satz im Interview lautet: „Man kann nicht nicht führen.“ Sobald eine Führungskraft den Raum betritt oder im Videocall erscheint, wird ihr Handeln und Nichthandeln gesehen. Auch das Dulden wird bewertet. Leistungsträgerinnen und Leistungsträger beobachten sehr genau, ob offensichtliches Fehlverhalten einzelner angesprochen wird oder ob die Mehrarbeit still auf jene verteilt wird, die ohnehin zuverlässig sind.

Das ist der eigentliche politische Punkt. Eine kluge Fehlzeitendebatte verteidigt nicht den Generalverdacht, sondern die große Mehrheit der Beschäftigten, die ihren Job ordentlich macht und zugleich erleben muss, dass schlechte Organisation, Konfliktscheu oder unklare Führung das Team belasten. Fink formuliert im Buch die Frage, die in vielen Betrieben unausgesprochen mitläuft: „Warum soll ich mich hier kaputtarbeiten, wenn andere permanent fehlen und nichts passiert?“ Er warnt davor, dass genau diese Wahrnehmung Demotivation befeuert.

Hier könnte Merz ansetzen. Nicht mit dem Satz: Die Leute melden sich zu oft krank. Sondern mit der Botschaft: Wir schützen Krankheit, wir bekämpfen Missbrauch, und wir befähigen Führungskräfte, Abwesenheiten fair, rechtssicher und gesundheitsorientiert zu managen.

Fehlzeiten sind teuer, aber die Rechnung muss sauber sein

Der Krankenstand ist nicht nur ein Sozialthema. Er ist ein Produktivitätsfaktor. Fink rechnet in seinem Buch vor, dass Fehlzeiten aus direkten Kosten und indirekten Kosten bestehen. Zu den direkten Kosten gehören Lohnfortzahlung und Lohnnebenkosten. Indirekte Kosten entstehen durch Produktivitätsverluste, Ersatzpersonal, Überstunden, Qualitätsprobleme, Störungen im Produktionsprozess, Kundenkonflikte und zusätzliche Belastung im Team.

In seinem Beispiel eines produzierenden Unternehmens kommt ein Fehltag eines Mitarbeiters auf 737 Euro, wenn direkte Lohnkosten und Ausfall an Bruttowertschöpfung addiert werden. Für ein Beispielunternehmen mit 130 Beschäftigten und einer Fehlzeitenquote von 6,23 Prozent errechnet Fink jährliche Gesamtkosten von rund 1,36 Millionen Euro. Eine Senkung der Quote um 25 Prozent würde in diesem Beispiel 328.670 Euro pro Jahr einsparen.

Solche Rechnungen sind wichtig, weil sie Fehlzeiten aus der moralischen Ecke holen. Jeder Prozentpunkt weniger Krankenstand ist nicht nur eine Zahl für die Betriebsversammlung. Er kann Investitionen ermöglichen, Standorte sichern, Teams entlasten, Lieferfähigkeit verbessern. Aber nur dann, wenn die Ursachen sauber verstanden werden. Eine pauschale Beschimpfung spart keinen Euro. Eine präzise Analyse schon eher.

Die R.U.F.-Methode als Gegenentwurf zur Kanzlerkeule

Finks Ansatz beginnt nicht beim Verdacht, sondern beim Bewusstsein. In seinem Interview beschreibt er vier Schritte: Bewusstsein schaffen, Kennzahlen regelmäßig kommunizieren, Unterschiede wahrnehmen und Gesundheitsfördergespräche souverän führen. Genau darin liegt der Gegenentwurf zur politischen Grobheit.

Erstens: Unternehmen müssen verstehen, dass Fehlzeiten beeinflussbar sind. Zweitens: Kennzahlen gehören nicht zweimal im Jahr als peinlicher Agendapunkt in die Mitarbeiterversammlung, sondern regelmäßig, verständlich und bereichsbezogen kommuniziert. Drittens: Führungskräfte müssen Muster erkennen können. Wer vier Jahre nicht fehlt und dann zwei Tage ausfällt, braucht ein anderes Gespräch als jemand, der regelmäßig nach bestimmten Mustern fehlt. Viertens: Das Gespräch muss trainiert werden. Nicht jede Frage ist erlaubt. Niemand darf nach Medikamenten oder Diagnosen ausfragen. Aber die Frage, ob eine auffällige Abwesenheitsstruktur etwas mit der Arbeit zu tun hat, ist legitim.

Das ist keine Kontrollpädagogik. Es ist Führungshandwerk. Fink nennt als Hemmnis besonders den Glaubenssatz vieler Führungskräfte: „krank ist krank, da bin ich raus“. Genau dadurch entsteht der blinde Fleck. Führungskräfte kümmern sich um Produktion, Qualität, Service und Kosten, behandeln Fehlzeiten aber als Sache von HR oder Arzt. Damit geben sie einen der wichtigsten betrieblichen Hebel aus der Hand.

Gesundheitskompetenz gehört in die Führungsausbildung

Fink sagt im Interview etwas, das weit über Fehlzeiten hinausweist: Führungswissen gepaart mit Gesundheitskompetenz wird zum Future Skill. Man kann das nüchterner formulieren: Eine Volkswirtschaft mit alternder Belegschaft, Fachkräfteengpässen, steigenden psychischen Belastungen und hoher Arbeitsverdichtung kann sich Führungskräfte ohne Gesundheitskompetenz nicht mehr leisten.

Dass solche Gespräche selten in betriebswirtschaftlichen Studiengängen, Meisterausbildungen oder Führungskräfteprogrammen vorkommen, ist ein Versäumnis. Man lernt Controlling, Strategie, Marketing, Prozessmanagement. Aber kaum jemand lernt, wie man mit auffälligen Fehlzeiten spricht, ohne zu übergriffig zu werden; wie man Präsentismus erkennt; wie man Konflikte im Team entschärft; wie man Fehlzeitenzahlen erklärt; wie man mit Betriebsrat, HR und Arbeitsschutz konstruktiv zusammenarbeitet.

Ein Kanzler, der Produktivität ernst nimmt, müsste daraus eine Bildungsfrage machen. Nicht als neues Bürokratiemonster, sondern als Standard in Führungsausbildung, öffentlichem Dienst, Meisterschulen, Hochschulen und betrieblichen Akademien.

Die Rede, die Merz halten sollte

Fink entwarf im Messe-TV aus dem Stegreif einen Sprechzettel für Merz. Er riet dem Kanzler, die gesamte Republik anzusprechen: Arbeitgeber, Arbeitnehmer, Mitarbeitende, Führungskräfte. Ziel müsse sein, Fehlzeiten nachhaltig zu senken, Gesundheit zu steigern und Lebensqualität durch höhere Mitarbeiterzufriedenheit zu verbessern. Dann solle Merz das wirtschaftliche Moment hinzufügen: Gemeinsam könne man einen milliardenschweren Schatz heben und Deutschland wieder aus eigener Kraft nach vorne bringen.

Man könnte daraus eine Kanzlerrede machen, die ungefähr so beginnt:

„Wir werden Krankheit nicht verdächtigen. Wir werden Beschäftigte nicht gegeneinander ausspielen. Aber wir werden Fehlzeiten auch nicht länger als Naturereignis behandeln. Wer krank ist, bleibt zu Hause. Wer gesund ist, wird gebraucht. Und wer führt, muss wissen, was im Betrieb geschieht. Deshalb starten wir eine nationale Initiative für Gesundheitskompetenz, bessere Führung und transparente Fehlzeitenanalyse. Nicht gegen Beschäftigte, sondern für gesündere Arbeit, verlässlichere Betriebe und eine stärkere Volkswirtschaft.“

Das wäre eine andere Tonlage. Sie würde nicht die Ärztinnen, Arbeitnehmer, Krankenkassen oder Betriebe einzeln beschuldigen. Sie würde Verantwortung verteilen: Unternehmen müssen analysieren und führen. Beschäftigte müssen fair mit dem System umgehen. Krankenkassen müssen Daten und Prävention liefern. Betriebsräte müssen mitgestalten. Politik muss Standards ermöglichen, ohne Misstrauen zur Staatsräson zu machen.

Der Staat muss bei sich selbst beginnen

Fink verweist im Interview auf spektakuläre Fälle im öffentlichen Dienst, etwa die Lehrerin in Nordrhein-Westfalen, die jahrelang nicht unterrichtete und zugleich ein eigenes Geschäft betrieb. Solche Fälle sind selten, aber sie vergiften die Debatte, weil sie das Gefühl nähren, dass der Staat bei sich selbst großzügiger ist als bei anderen.

Gerade deshalb müsste der öffentliche Dienst Vorbild werden: bessere Fehlzeitenanalyse, klare Gesprächsformate, transparente Zuständigkeiten, Gesundheitsförderung, rechtssichere Eskalation bei Missbrauch, Schutz vor Präsentismus und bessere Führungsausbildung. Wer als Regierung die Privatwirtschaft ermahnt, muss im eigenen Apparat zeigen, dass Fehlzeitenmanagement weder Schikane noch Wegsehen bedeutet.

Nicht die telefonische Krankschreibung ist das Zentrum

Die Debatte um die telefonische Krankschreibung ist politisch bequem, weil sie einen klaren Hebel suggeriert. Doch sie ist zu klein für das Problem. Der Krankenstand 2025 blieb laut DAK stabil hoch; psychische Erkrankungen nahmen zu, Atemwegsinfekte verursachten weiterhin die meisten Ausfälle. Das lässt sich nicht allein über den Zugang zur AU lösen.

Fink richtet den Blick auf den Betrieb: Welche Abteilungen liegen über dem Durchschnitt? Welche Muster treten auf? Welche Teams tragen Mehrbelastungen? Welche Führungskraft spricht Fehlzeiten an? Welche Maßnahmen wurden ergriffen? Welche wirken? Sein Buch nennt genau solche Leitfragen für die Standortanalyse: Fehlzeitenquote, Branchenvergleich, auffällige Teams, Kosten, Muster, Gründe, Erkrankungsarten, Kommunikationsrhythmus, Kennzahlen und Wirksamkeit bisheriger Maßnahmen.

Das wäre ein reifer politischer Ansatz: nicht zuerst das Formular verdächtigen, sondern die Ursachen strukturieren.

Der Schatz liegt nicht in der Härte, sondern in der Souveränität

Die Republik kann Fehlzeiten senken, ohne kranke Menschen zu drangsalieren. Sie kann Missbrauch ansprechen, ohne Millionen Beschäftigte unter Verdacht zu stellen. Sie kann Kosten berechnen, ohne Gesundheit zu ökonomisieren. Sie kann Führungskräfte trainieren, ohne sie zu kleinen Betriebsärzten zu machen. Sie kann Daten nutzen, ohne intime Krankheitsgeschichten auszuforschen.

Finks Botschaft an Merz ist deshalb wertvoll, weil sie eine dritte Sprache anbietet. Nicht die Sprache der Beschwerde. Nicht die Sprache der Verharmlosung. Sondern die Sprache der Führung: hinschauen, unterscheiden, kommunizieren, trainieren, handeln.

Der Kanzler müsste diese Sprache nur übernehmen. Dann würde aus der Krankenstandsdebatte keine weitere Front im Kulturkampf um Arbeit, sondern ein produktiver Auftrag: Arbeit so zu organisieren, dass weniger Menschen ausfallen, weniger Teams überlastet werden, weniger Produktivität verloren geht und weniger Beschäftigte das Gefühl haben, für die Konfliktscheu anderer zu bezahlen.

So senkt man Fehlzeiten nicht mit der Kanzlerkeule. Sondern mit Souveränität.