Kupferkessel statt Massenlogik: Eine Stunde Bierunterricht im Ennert-Bräu

Die Gaststube als Maschinenraum

Man betritt keine „Location“, man betritt eine kleine, arbeitende Welt. Die Gaststube steht nicht dekorativ neben dem Brauen – sie ist dessen Schaufenster: Kessel im Blickfeld, Gesprächslärm als Begleitmusik, und irgendwo zwischen Tresen und Kupfer die leise Ahnung, dass hier nicht produziert, sondern gebraut wird. Unten im Keller wird gelagert; abgefüllt und etikettiert wird per Hand. Kein Massenbier, kein Hopfenextrakt, keine Brauerei als PowerPoint.

Der Mann, der an diesem Samstagabend durch die Stunde führt, heißt Luke Lorbetzki, Braumeister aus Beuel. Er macht keine Andacht, sondern lädt zur Zwischenfrage ein – „reinrufen“, wie es in solchen Räumen heißt, in denen man lieber probiert als protokolliert. pdfBierbrauereiEnnert

Zwei Biere, kein Beiwerk

Die Verkostung beginnt nicht mit Dozieren, sondern mit einem kleinen Ratespiel: Was ist das da eigentlich im Glas? Und wie sicher kann man sich sein, wenn man sich sicher fühlt?
An diesem Abend bleiben genau zwei Sorten: Helles und Rotbier. Das wirkt erst wie Einschränkung. Ist aber ein Vorteil: Man kann wirklich hinschmecken, statt sich durch ein Sortenkarussell zu retten.

Das Helle wird hier als „Kölsch in our Art“ erklärt – nicht als Etikettenschwindel, sondern als Hinweis auf die Region und auf den Stil, der bewusst nicht glattgebügelt wird. Kölsch, so Lorbetzki, werde „extrem stark filtriert“, dabei gingen auch Geschmacksstoffe verloren; hier dagegen bleibe das Bier als Naturprodukt unfiltriert – kräftiger, aromatischer, weniger geschniegelt.

Das Rotbier kommt später, weil es schwerer zuzuordnen ist: eher Richtung Red Ale/Pale Ale, mit der Warnung, dass Lagerung und Alterung am Profil mitarbeiten. pdfBierbrauereiEnnert

Malz, das man sehen kann

Wer glaubt, Bier werde vor allem „mit Hopfen“ gemacht, wird freundlich korrigiert: Beim Hellen reicht Basismalz – schlicht, tragfähig, sauber. Beim Rotbier wird es handwerklich farbig: rund 40 Prozent Spezialmalz, geröstet, zuständig für den warmen Ton und die malzige Süße. pdfBierbrauereiEnnert Und plötzlich ist Farbe kein Marketing, sondern ein Prozess, der im Glas sichtbar bleibt.

Riechen ist die heimliche Hauptsache

Dann kommt der Moment, in dem aus „Bier trinken“ eine kleine Lektion über Wahrnehmung wird. Lorbetzki erklärt, dass beim Schmecken weit mehr passiert als bitter–sauer–süß–salzig; der Rest sei im Kern Geruch. Und um das nicht nur zu behaupten, gibt es Zimt auf die Hand: Nase zu, probieren, dann Nase auf – und auf einmal ist die Welt wieder da. pdfBierbrauereiEnnert
Das ist nicht Seminar, das ist Volksaufklärung mit Gewürz. Und nebenbei die Begründung, warum „nichts schmecken“ meist „nichts riechen“ bedeutet.

Hopfen als Pellet – nicht als Extrakt-Idee

Hopfen wird nicht romantisiert, sondern gezeigt: Dolden, Pellets, Bitterkeit, die man besser riecht als kaut. Und dann fällt der Satz, der in einer Zeit industrieller Zutatenlogik fast schon trotzig klingt: Viele Großbrauereien arbeiten mit Hopfenextrakt; da stehen Fässer mit über 500 Litern für Summen, die nach Maschinenpark klingen. pdfBierbrauereiEnnert Pellets seien aktuell das Beste, Extrakt werde zwar stark vorangetrieben – aber hier ist der Rohstoff noch als Rohstoff erkennbar.

Das Glas ist kein Nebendarsteller

Irgendwann geht es nicht mehr nur um Bier, sondern um das Drumherum, das plötzlich Hauptsache wird: Das Glas zum Beispiel. Eine Stange, so wird erklärt, sei gebaut fürs schnelle Trinken, mit wenig Verwirbelung – beim Rotbier dagegen sorgt eine andere Form für mehr Bewegung, mehr freigesetzte Aromen. Das klingt nach Detail. Ist aber der Unterschied zwischen „läuft“ und „spricht“.

Keller, Handventile und andere Gegenwartsverweigerungen

Wer unten in den Keller schaut, versteht: Hier arbeitet vor allem die Hefe – ein bis zwei Wochen, kontrolliert, nicht beschleunigt. Und oben in der Brauküche wird nicht „auf Start gedrückt“. Die Anlage ist fast 30 Jahre alt; umgestellt wird mit Handklappenventilen. Das ist kein Retro-Fetisch, sondern schlicht: Handwerk, bei dem man nicht sechs Stunden die Füße hochlegt.

Bürokratie, Erdnüsse und der kleine Zynismus der Kneipe

In einer Brauerei lernt man auch das deutsche Nebenprodukt jedes Genusses kennen: die Kontrolle. Reinheitsgebot, Labor, Nachweise – und dann der Biersteuerprüfer, der einen Tag lang Bücher wälzt, am Ende vielleicht drei Euro Beanstandung findet, aber 800 Euro kostet. Das Biersteuerbuch wird, so heißt es, teils noch „live“ geführt, nicht digital – ein Museumsstück im laufenden Betrieb.

Und weil Aufklärung ohne Pointe unerquicklich wäre, gibt es zum Schluss noch den Erdnuss-Moment: salzige Erdnüsse machen Bier bitterer, kratziger – und ihr eigentlicher Zweck sei schlicht, dass man mehr trinkt. Selten hat jemand die Kneipenökonomie so ehrlich in einen Satz gepackt.

Ein Abend, der nicht „Event“ sein will

Das Ennert-Bräu zeigt, wie groß eine kleine Brauerei sein kann, wenn sie sich nicht an die Logik der Masse verkauft. Man geht hinaus mit zwei klaren Erinnerungen: dem Hellen, das nicht geschniegelt sein möchte, und dem Rotbier, das mit Malz und Zeit arbeitet. Vor allem aber geht man hinaus mit dem Verdacht, dass Bier nicht bloß Getränk ist, sondern ein System aus Rohstoffen, Sinnen, Lagerung – und einer guten Portion Erdung in Bonn.

Die leise Revolution der digitalen Vorreiter: Wie der Mittelstand KI nicht „einführt“, sondern sein Geschäftsmodell neu erfindet

Im öffentlichen Diskurs wirkt Künstliche Intelligenz oft wie eine Außenbaustelle: ein Technologie-Projekt, das man an die Fassade des bestehenden Unternehmens schraubt. Ein bisschen Copilot hier, ein paar Chatbots dort, dazu ein Strategiepapier – fertig ist die KI-Zukunft.

Die Zukunftsmacher-Studie zeichnet ein völlig anderes Bild. Sie blickt nicht auf Hochglanzpräsentationen, sondern in den Maschinenraum von 55 Familienunternehmen und Hidden Champions, die KI bereits in den Alltag integriert haben – in Vertrieb, Service, Produktion, Logistik, Entwicklung. Nicht als Ornament, sondern als Triebwerk.

Fünf Wege in dieselbe Zukunft

Die Studie beschreibt fünf Transformationspfade – vom „Smart Starter“ bis zum „Smart Enterprise“. Dahinter verbirgt sich ein wichtiger Perspektivwechsel: KI ist kein einmaliger Sprung, sondern eine Abfolge von Etappen, in denen sich das Unternehmen selbst verändert.

  • Der Smart Starter experimentiert. Er baut erste Prototypen, sammelt Daten, testet Use Cases in engen Nischen.
  • Der Smart Mover beginnt, Prozesse zu standardisieren und zu automatisieren. Datenquellen werden verbunden, erste Plattformen entstehen.
  • Der Smart Scaler denkt in Skalierungskurven. Was gestern noch Piloten waren, wird heute zur neuen Norm.
  • Der Smart Orchestrator verknüpft Systeme, Rollen und Datenströme über Bereichsgrenzen hinweg.
  • Das Smart Enterprise schließlich nutzt KI als permanentes Betriebssystem für Entscheidungen, Innovation und Wachstum – nicht mehr als Werkzeug, sondern als Infrastruktur.

Interessant ist: Keiner dieser Pfade beginnt mit der Frage nach dem „besten“ Tool. Die Interviews zeigen vielmehr, dass es immer mit einer geschäftlichen Spannung beginnt: Margendruck, Fachkräftemangel, steigende Komplexität in globalen Nischen, wachsende Serviceanforderungen. KI wird nicht gesucht, weil sie „da“ ist, sondern weil klassische Methoden an ihre Grenzen stoßen.

Die unscheinbare Erfolgsformel

Die Studie fasst die Erfahrungen der Vorreiter in einer Erfolgsformel zusammen. Auf dem Papier wirkt sie fast banal: Menschen, Daten, Plattformstrategie, Agilität und Wertfokus. In der Praxis ist genau dieses Zusammenspiel die eigentliche Kunst.

Menschen – nicht als Störfaktor, sondern als Architekten:
In allen 55 Interviews taucht auf, wie wichtig interne Übersetzerrollen sind – Menschen, die Geschäftslogik und Technik verbinden können. Oft sind es keine „KI-Gurus“, sondern erfahrene Praktiker, die gelernt haben, in Daten zu denken: die Meisterin, die Produktionsleiterin, der Vertriebschef, der schon immer Bauchgefühl mit Zahlen abgeglichen hat. KI verstärkt diese Talente, sie ersetzt sie nicht.

Daten – als Rohstoff und Spiegel des Geschäfts:
Die Vorreiter haben verstanden, dass Datenstrategie nicht im Rechenzentrum beginnt, sondern in der Frage: „Welche Entscheidungen wollen wir besser treffen?“ Ob Absatzprognosen, Predictive Maintenance oder dynamische Bepreisung – erst wenn klar ist, welche Hebel bewegt werden sollen, lohnt sich der Aufwand, Daten zu säubern, zu verknüpfen und in Modelle zu überführen. Die Studie zeigt: Wer Daten nur sammelt, aber nicht an Wertschöpfung koppelt, baut Datensilos – keine KI.

Plattformstrategie – vom Einzelprojekt zur Architektur:
Der entscheidende Unterschied zwischen Pilotbetrieb und Transformation liegt in der Plattform. Die Vorreiter schaffen Umgebungen, auf denen sich Use Cases wiederverwenden, kombinieren und skalieren lassen. Ob als interne Data & AI Platform, als Branchenlösung oder als erweiterte Kundenplattform: Plattformstrategie bedeutet, dass jede neue Anwendung nicht bei null beginnen muss.

Agilität – nicht als Post-It-Ritual, sondern als Lernmodus:
Die Interviews zeigen, wie oft Pilotprojekte scheitern – und warum genau das wertvoll ist. Wo Vorreiter sich unterscheiden: Misserfolge werden nicht versteckt, sondern fließen systematisch in den nächsten Versuch ein. KI-Projekte, die nach sechs Monaten „fertig“ sein sollen, haben in diesem Ökosystem keinen Platz. Stattdessen dominieren kurze Zyklen, klare Hypothesen und die Bereitschaft, lieber zehn kleine Dinge zu testen als ein großes Projekt zu überladen.

Wertfokus – der härteste Teil der Formel:
Am Ende zählt: Welche Effekte auf Umsatz, Marge, Servicequalität, Durchlaufzeit oder Innovationstempo entstehen wirklich? Die erfolgreichen Unternehmen bringen KI konsequent mit wirtschaftlichen Zielgrößen zusammen. Nicht, um jeden Versuch in Echtzeit zu rechtfertigen, sondern um sicherzustellen, dass Technologie den Kurs des Unternehmens verändert und nicht bloß neue Kosten produziert.

Familienunternehmen als Labor für die nächste Wirtschaftsepoche

Besonders bemerkenswert: Es sind nicht die globalen Tech-Giganten, die hier den Takt vorgeben, sondern Familienunternehmen und Hidden Champions. Firmen, deren Geschäftsmodell über Jahrzehnte Feintuning betrieben hat und die nicht aus dem Silicon Valley, sondern aus Sauerland, Schwarzwald oder Siegerland stammen.

Diese Unternehmen haben etwas, das in vielen Konzernen fehlt: eine langfristige Perspektive, klare Eigentümerstrukturen und ein tiefes Verständnis ihrer Märkte. Für sie ist KI kein kurzfristiges Effizienzprogramm, sondern eine Wette auf die nächste Generation: Werden wir in zehn oder fünfzehn Jahren noch dieselbe Relevanz in unseren Nischen haben? Wenn nicht: Wer wird sie uns abnehmen?

Gerade deshalb ist ihre KI-Transformation so interessant. Sie zeigt, wie sich tief verankerte Geschäftsmodelle Schritt für Schritt in datengetriebene Ökosysteme verwandeln – ohne den Kern zu verraten: Qualität, Verlässlichkeit, langfristige Kundenbeziehungen.

Die Rolle des Smarter Service Instituts

In dieser Entwicklung wird deutlich, wie wichtig spezialisierte Begleiter sind. Das Smarter Service Institut positioniert sich nicht als klassisches Beratungshaus, das PowerPoints produziert und wieder verschwindet, sondern als Partner für datengetriebene Geschäftsmodelle im Mittelstand.

Es hilft Unternehmen, aus Einzellösungen ein Gesamtbild zu formen:

  • Welche Use Cases tragen wirklich?
  • Welche Daten haben wir – und welche brauchen wir zusätzlich?
  • Wie sieht eine Plattform aus, die in fünf Jahren noch tragfähig sein wird?
  • Welche organisatorischen Fähigkeiten müssen aufgebaut werden, damit KI Skalierung ermöglicht statt Chaos?

Die Kurzbeschreibung des Instituts wirkt wie ein verbindendes Element zur Studie: Es geht nicht um noch ein Whitepaper, sondern um eine Art Navigationshilfe in einem komplexen Transformationsraum. Die Interviews liefern das Erfahrungswissen, das Institut liefert Struktur und Wegbegleitung.

Was diese Vorreiter der öffentlichen Debatte voraus haben

Während in Talkshows noch darüber diskutiert wird, ob KI Jobs zerstört oder das Abendland rettet, haben die 55 Unternehmen aus der Studie längst eine andere Frage beantwortet: Wie machen wir unser Geschäftsmodell so datenfähig, dass wir in einer KI-getriebenen Wirtschaft nicht Zuschauer, sondern Mitgestalter sind?

Sie zeigen, dass KI-Transformation kein „Luxusprojekt“ ist, sondern ökonomische Notwendigkeit – und dass gerade der deutsche Mittelstand hier einen eigenen Weg finden kann: weniger Spektakel, mehr Substanz; weniger Ankündigung, mehr Umsetzung; weniger Angst, mehr Gestaltungswillen.

Die stille Botschaft der Studie lautet: Wer heute mit KI experimentiert, kann morgen neue Formen von Wertschöpfung erfinden. Wer wartet, wird irgendwann nicht mehr gefragt, ob er mitspielen möchte. Dann ist das Spiel bereits weitergezogen – zu denen, die angefangen haben, nicht über KI zu reden, sondern sie in ihre tägliche Praxis zu übersetzen.

Die stille Supermacht: Was passiert, wenn Stuart Parkin recht behält – und Europa plötzlich die Physik der KI kontrolliert?

Ranga Yogeshwar hat die Lage auf den Punkt gebracht:
Die USA – und in ähnlicher Weise China – dominieren das KI-Wettrennen mit einer „Riesenwette“ auf Hardware. Immer größere Rechenzentren, Milliardensummen für spezialisierte GPUs, gigantische Modelle, die nur mit brachialer Rechenleistung funktionieren. Nvidia liefert den Treibstoff, die Tech-Giganten OpenAI, Google, Meta und Co. verbrennen ihn.

Doch was, wenn diese Wette plötzlich anders ausgeht, als alle erwarten?
Was, wenn Forschungen wie die von Stuart Parkin Erfolg haben – und Speicher- und Rechenarchitekturen Realität werden, die

  • hundert- bis tausendfach energieeffizienter sind,
  • viel weniger kritische Rohstoffe benötigen,
  • und die Grundlogik des heutigen KI-Gigantismus unterlaufen?

Dann ginge es nicht mehr nur um bessere Technik.
Dann ginge es um eine tektonische Verschiebung der Geopolitik.

Das Ende der GPU-Gigantomanie?

Der heutige KI-Boom ist ein Monokultur-Phänomen:

  • standardisierte CMOS-Prozesse,
  • spezialisierte GPU-Architekturen,
  • extreme Abhängigkeit von wenigen Playern in der Fertigung,
  • konzentrierte Macht bei Nvidia & Co.

Parkins Vision – Racetrack Memory, Spintronik, supraleitende Speicher, 3D-Architekturen – zielt auf etwas völlig anderes:
Daten und Modelle werden dort effizient gehalten und bewegt, wo sie gebraucht werden, statt permanent durch Stromfresser-Pipelines geschoben zu werden.

Wenn Speichern und Rechnen plötzlich:

  • um Größenordnungen weniger Energie pro Operation brauchen,
  • in dichterer 3D-Struktur organisiert werden können,
  • direkt speichernahe oder im Speicher selbst stattfinden (Compute-in-Memory),

dann verliert die heutige GPU-Zentralisierung an Strahlkraft.
Statt data center imperialism rückt eine feinkörnige, verteilte, energiearme Rechenwelt in Reichweite.

Das Risiko für die „protzenden Tech-Giganten“:
Ein großer Teil ihrer Marktmacht beruht nicht auf Algorithmen – sondern auf der Fähigkeit, den Energie- und Hardware-Overkill zu finanzieren.
Fällt dieser Overkill als Eintrittsbarriere weg, bricht ein Teil ihres geopolitischen Vorsprungs in sich zusammen.

Chip-Knappheit: Vom Engpass zur Entmystifizierung

Die aktuelle Chip-Knappheit ist hausgemacht:
Wir überfrachten zentrale Silizium-Prozesse mit Aufgaben, die dort nie hingehörten.
Alles – vom KI-Training über simple Sensordaten bis hin zum Auto-Infotainment – läuft durch dieselben wenigen Produktionsengpässe.

Wenn Parkins Technologien skalieren, passiert etwas Bemerkenswertes:

Weniger Silizium pro Funktionseinheit
Racetrack Memory kann Speicher pro Volumen und Energieeinsatz massiv erhöhen. Das heißt: Gleiche Funktion, weniger Fläche, weniger Wafer, weniger Lithografie-Zeit.

Materialdiversifizierung
Spintronische und neuartige Speicher nutzen andere Materialkombinationen (Ferromagnetika, spezielle Oxide etc.). Das entlastet klassische Halbleiterketten und verschiebt Wertschöpfungsteile in andere Material-, Maschinen- und Fertigungswelten.

Längere Nutzungszyklen
Wenn Speicher und Rechenmodule energieeffizienter und langlebiger werden, sinkt der Druck, ständig neue Hardware-Generationen auszurollen. Weniger „Wegwerf-Silizium“ bedeutet: Entschärfung der Knappheitslogik.

    Die geopolitische Folge:
    Die Erpressbarkeit ganzer Volkswirtschaften durch einzelne Chip-Standorte nimmt ab.
    Wer energieeffiziente, materialdiverse Architekturen beherrscht, wird zum Stabilisator im Welthandel – nicht zum Bittsteller.

    Seltene Erden, Batterien, E-Mobilität: Das entkoppelte Szenario

    Heute beißen sich mehrere Megatrends gegenseitig in den Schwanz:

    • KI braucht gigantische Rechenzentren → enorme Strommengen.
    • Energiewende und E-Mobilität brauchen Batterien → enorme Mengen an Lithium, Nickel, Kobalt, seltenen Erden.
    • Leistungselektronik, Motoren, Windräder → wieder seltene Erden, Spezialmagnete, Siliziumkarbid.

    Das Ergebnis: Rohstoffkonflikte, neue Abhängigkeiten, verdeckte Ressourcendiplomatie.

    Wenn Speicher und Rechnen plötzlich um Faktor 100–1000 effizienter werden, ändern sich die Relationen:

    • Rechenzentren brauchen drastisch weniger Energie;
    • Netzausbau und Reservekapazitäten können kleiner dimensioniert werden;
    • die Konkurrenz zwischen „Strom für Rechenzentren“ und „Strom für E-Mobilität / Haushalte“ entspannt sich;
    • weniger Kapazitätserweiterungszwang = weniger Batteriebedarf nur um Lastspitzen der digitalen Infrastruktur abzufedern.

    Hinzu kommt:
    Neue Speichertechnologien können E-Mobilität und Netzstabilität indirekt entlasten, wenn On-Device-Intelligenz (Fahrzeug, Maschine, Sensor) mehr lokal erledigt – statt alles in die Cloud zu schicken. Jeder vermiedene Datenstrom ist ein vermiedener Energiepeak im Backbone.

    Geopolitisch bedeutet das:
    Wer effiziente Speicher und Edge-Intelligenz baut, reduziert seine Rohstoffabhängigkeit – insbesondere gegenüber China, das derzeit weite Teile der Batterie- und Seltene-Erden-Wertschöpfung dominiert.

    Was bedeutet das für die USA und ihre Tech-Giganten?

    Für die USA – insbesondere für Big Tech – wäre Parkins Erfolg eine Zumutung:

    Der Investitionsvorsprung wird entwertet
    Milliarden in GPU-Farmen und Megacluster verlieren an strategischer Bedeutung, wenn neue Player mit effizienter Hardware ähnliche oder bessere KI-Leistungen mit einem Bruchteil der Energie erbringen.

    Nvidia-Monokultur wird fragil
    Spintronik- oder Racetrack-basierte Systeme brauchen andere Bauelemente, andere Fertigungsprozesse, andere IP-Portfolios. Die „Nvidia-Steuer“ auf KI könnte sinken – zugunsten neuer Akteure aus der Speicher- und Materialwelt.

    Cloud zentrierte Geschäftsmodelle geraten unter Druck
    Wenn Speicher und Rechnen billig, dicht und energiearm ins Gerät wandern, verliert das Modell „Alles in unsere Cloud“ an Relevanz.
    Edge + lokale Intelligenz wird attraktiver – vor allem in regulierten Branchen (Industrie, Gesundheit, Verwaltung).

      Die US-Giganten werden versuchen gegenzusteuern – durch Aufkauf, Joint Ventures, Standardisierungs- und Lobbyarbeit. Aber die Physik ist nicht verhandelbar:
      Wer eine um Größenordnungen effizientere Technologie beherrscht, diktiert mittelfristig die Spielregeln.

      Europas Chance

      Und Europa?
      Ausnahmsweise wäre die Ausgangslage nicht schlecht:

      • Parkin forscht in Deutschland (in Halle an der Saale),
      • europäische Institute sind stark in Spintronik, Materialwissenschaft, Quanten- und neuromorpher Hardware,
      • Institutionen wie SPRIND sind genau dafür geschaffen, solche Innovationen zu inkubieren.

      Wenn Europa drei Dinge gleichzeitig hinbekommt, könnte es tatsächlich China und die USA in bestimmten Segmenten in den Schatten stellen:

      1. Strategische Fokussierung
        Nicht noch mehr Milliarden in das Kopieren US-amerikanischer GPU-Logik, sondern gezielte Großprogramme für:
        • Racetrack Memory & Spintronik,
        • neuromorphe und analoge Rechenansätze,
        • supraleitende Speicher und energiearme 3D-Architekturen.
      2. Industriepolitische Geduld
        Parkin selbst sagt: Von der Idee bis zur Industrieanwendung können 20 Jahre vergehen. Europa müsste bereit sein, lange Zeiträume zu finanzieren, ohne schon nach drei Jahren auf Exit-Storys und Unicorn-Labels zu drängen.
      3. Handelspolitische Klugheit
        Wer solche Technologien kontrolliert, kann sie als öffentliche Infrastruktur denken – nicht nur als Exportgut. Offene Standards, faire Lizenzmodelle, Partnerschaften mit dem globalen Süden könnten Europa als „faire Supermacht der Effizienz“ positionieren – im Kontrast zu den proprietären Imperien der USA und der staatskapitalistischen Strategie Chinas.

      Das Szenario ist kühn – aber nicht unrealistisch:
      Ein Europa, das nicht mehr mit Gigawatt prahlt, sondern mit Joule pro Rechenoperation.
      Ein Kontinent, der nicht den größten Datenpalast baut, sondern die effizienteste Rechenarchitektur.
      Eine digitale Ordnung, in der Souveränität und Nachhaltigkeit keine Gegensätze mehr sind.

      Die leise Revolution

      Wenn Stuart Parkin recht behält, wird die nächste große geopolitische Verschiebung nicht durch einen spektakulären Algorithmus ausgelöst, sondern durch eine scheinbar trockene Frage:

      „Wie viele Elektronen müssen sich wirklich bewegen, um ein Bit zu ändern?“

      Die USA und China setzen weiter auf die Riesenwette: mehr Rechenzentren, mehr Chips, mehr Ressourcenverbrauch.
      Parkins Weltbild sagt: Vielleicht habt ihr die falsche Wette gewählt.

      Für Europa wäre das die Gelegenheit, aus der Zuschauerrolle herauszutreten – nicht indem es endlich die gleichen Fehler macht wie die anderen, sondern indem es eine andere Physik, eine andere Ökonomie und eine andere Vorstellung von Fortschritt ernst nimmt.

      Die Zukunft der KI wird nicht nur im Code entschieden.
      Sie wird im Periodensystem geschrieben – und in der Frage, wer den Mut hat, sich von der neuronalen Falle zu lösen.

      Jenseits der Neuronen: Warum Stuart Parkin die Physik der KI-Zukunft neu schreibt

      Wenn heute über Künstliche Intelligenz gesprochen wird, dann fast immer in neuronalen Bildern.
      Geoffrey Hinton und Jürgen Schmidhuber stehen emblematisch für diese Perspektive: Das Gehirn als Blaupause, das künstliche Neuron als Grundbaustein, „Big is Beautiful“ als Wachstumsformel. Größere Netze, mehr Layer, mehr Parameter, mehr Daten, mehr GPUs. Die Erfolgsgeschichte des Deep Learning scheint diese Logik zu bestätigen.

      Doch genau in diesem Triumph steckt eine Falle: die neuronale Falle.
      Wer den Maßstab der Intelligenz auf das Symbol „Neuron“ verengt, übersieht, dass die Natur an ganz anderen Orten mindestens ebenso radikal optimiert hat – in der Physik von Elektronenspins, in topologischen Effekten, in Materialien, die Information nicht nur speichern, sondern führen.

      Und genau hier betritt Stuart Parkin die Bühne. Er ist kein Hirnforscher, kein KI-Vordenker, kein Prophet der Skalierungsgesetze. Er ist Experimentalphysiker – und einer derjenigen, die im Stillen die Grundlage für das geschaffen haben, was wir heute für selbstverständlich halten: Festplatten, Cloud, Streaming, Big Data. Seine Spintronik-Entdeckungen ermöglichten es, die Speicherdichte von Festplatten um den Faktor tausend zu erhöhen – die Basis der modernen Datenökonomie.

      Während Hinton und Schmidhuber das Neuron als Leitmetapher gewählt haben, hat Parkin begriffen, dass man die Natur auch dort befragen kann, wo keine Nervenzellen sind: im Spin, im Material, in der Geometrie von Strömen und Feldern.

      Die neuronale Falle: Wenn „Big is Beautiful“ zur Sackgasse wird

      Die Erfolgsgeschichte der vergangenen zehn Jahre lässt sich in einem Satz zusammenfassen:
      Scale it up.

      Mehr Parameter → bessere Benchmarks.
      Mehr Daten → robustere Generalisierung.
      Mehr GPUs → schnellere Trainingszyklen.

      Hinton sprach von „Kapitulieren vor dem Vorurteil, dass neuronale Netze nur Spielzeug sind“, Schmidhuber von der Konsequenz, die eigene Theorie nun eben in immer größeren Systemen Wirklichkeit werden zu lassen. Das Ergebnis sind Modelle mit Hunderten Milliarden Parametern und ein Energiehunger, der Rechenzentren zu Infrastrukturprojekten im Maßstab von Kraftwerken macht.

      Die Physik hat dazu eine einfache Antwort: So kann es nicht weitergehen.
      Die Transistoren sind nahe am Limit, die thermische Wand ist erreicht, die Stromrechnung wird zum limitierenden Faktor der Innovation. Man kann das Neuron noch tausendmal copy-pasten – die Natur lässt sich davon nicht beeindrucken.

      Stuart Parkin: Der Mann, der den Speicher neu erfunden hat

      Parkin ist das Gegenteil der neuronalen Vordenker. Er kommt nicht aus der Kognitionsmetapher, sondern aus der Materialwissenschaft. Seine Spintronik-Forschung – die Nutzung des Elektronenspins statt nur seiner Ladung – ermöglichte die Entwicklung der sogenannten Spin-Valve-Leseköpfe in Festplatten. Damit wurde die Speicherdichte um das Tausendfache gesteigert, wofür er 2014 den Millennium Technology Prize erhielt.

      Diese Leistung war mehr als ein Ingenieurstreich. Sie war der physikalische Unterbau für das, was wir heute „Cloud“ nennen:

      • riesige Rechenzentren,
      • Streaming-Plattformen,
      • soziale Netzwerke,
      • maschinelles Lernen auf Massendaten.

      Parkin hat damit – nüchtern gesprochen – den Speicher in die Wachstumsdimension gebracht, die KI überhaupt erst ermöglicht.

      Doch er ist damit nicht stehengeblieben. Wo andere weiter im Digitalen optimierten, ging er zurück an die Materie.

      Spintronik statt Neuronenkult: Naturgesetze als Hardware-Design

      Spintronik ist physikalisch unspektakulär und politisch revolutionär zugleich:
      Nicht mehr nur der Stromfluss zählt, sondern die Orientierung des Elektronenspins. Diese zusätzliche Freiheitsgrad erlaubt neue Bauelemente, die nicht nur Informationen speichern, sondern auch ihre Bewegung kontrollieren.

      Parkins Konzept der Racetrack Memory ist in diesem Sinn ein radikaler Bruch mit dem klassischen Speicher-Paradigma. Anstatt Datenblöcke mechanisch unter einem Lesekopf zu bewegen, oder statische Speicherzellen elektrisch anzusprechen, werden magnetische Domänen in Nanodrähten verschoben – Daten, die sich bewegen, Hardware, die stehen bleibt.

      In seinem Gespräch mit Agents of Tech beschreibt Parkin das Ziel so:

      • Speicherdichte wie bei Festplatten,
      • Zugriffszeiten wie bei Halbleiterspeichern,
      • Energieverbrauch um Größenordnungen niedriger,
      • alles in einem rein festkörperbasierten System.

      Wenn das gelingt, wäre Racetrack Memory genau das, was der aktuelle KI-Boom verzweifelt braucht: eine Speicherarchitektur, die nicht mehr im 50-Jahre-Altbau der Festplattentechnik wohnt, sondern im Hochhaus der nächsten Generation.

      „Do the impossible“: Energieeffizienz als physikalische Mission

      Parkin sagt zu seinen Doktorand:innen: „Wir wollen das Unmögliche machen.“
      Damit meint er nichts Mystisches, sondern eine nüchterne Rechnung.

      Das Gehirn arbeitet mit etwa 20 Watt.
      Ein heutiges KI-System, das ähnliche Aufgaben löst, braucht – grob geschätzt – Größenordnungen von Megawatt.

      Parkin formuliert es so: Wir verbrauchen pro Rechenoperation hunderttausendmal zu viel Energie. Und er ist überzeugt, dass diese Lücke nicht durch noch mehr CMOS-Optimierung geschlossen wird, sondern durch neue physikalische Prinzipien: topologische Effekte, dreidimensionale Strukturen, supraleitende Spintronik.

      Seine Programme zu 3D-Racetracks, neuartigen Speicherarchitekturen und supraleitenden Spintronik-Konzepten sind Versuche, dieses „Unmögliche“ in praktikable Technologie zu übersetzen.

      Damit dreht er die Perspektive um: Nicht die KI definiert, was die Hardware zu leisten hat, sondern die Physik gibt der KI eine neue, radikal sparsame Bühne.

      Jenseits der Neuronen: Was Parkin verstanden hat – und andere übersehen

      Hier liegt der entscheidende Unterschied zu Teilen der Deep-Learning-Community:

      • Hinton und Schmidhuber denken primär in Neuronen und Architekturen – wunderbar für Algorithmen, blind für die Grenzen der Substrate.
      • Parkin denkt in Elektronenspins, Domänenwänden, Materialgrenzen, Energiebarrieren – unspektakulär in der Rhetorik, fundamental in der Konsequenz.

      Er nimmt das Gehirn ernst – aber nicht als Metapher, sondern als energetischen Benchmark.
      Wenn das Nervensystem etwas mit 20 Watt kann, dann sollte die Technik sich schämen, wenn sie für vergleichbare Abstraktionsleistungen Megawatt benötigt.

      Während der neuronale Kult das „Big is Beautiful“ zum Dogma erhoben hat, macht Parkin etwas sehr Unzeitgemäßes: Er fragt, wo die Natur das Problem bereits besser gelöst hat – und zwar jenseits der Neuronen.

      • in der extrem redundanten, fehlertoleranten Synapsenverschaltung,
      • in der dreidimensionalen Architektur des Gehirns,
      • in der Art, wie Materie Information speichert, transportiert und auslöscht.

      Neuromorphes Computing ist für ihn kein PR-Etikett, sondern ein hartes Ingenieursproblem: Wie baut man 3D-Strukturen mit Tausenden Verbindungen, die nicht in der Fertigung, im Energiehaushalt oder in der Fehlerkorrektur kollabieren?

      Parkin gegen die Trägheit der Industrie: Warum „Beyond CMOS“ so schwer ist

      Parkin kennt auch die politische Dimension.
      Jede neue Fabrik für klassische Halbleitertechnologie kostet heute 10 bis 20 Milliarden Dollar. Diese Struktur konserviert den Status quo: Alle Beteiligten haben einen massiven Anreiz, die nächste Transistor-Generation durchzudrücken, anstatt radikal umzubauen.

      Racetrack Memory, supraleitende Spintronik, neuartige 3D-Architekturen – all das bedeutet: Abschreiben von Fixkosten, Neuaufbau von Fertigung, Bruch mit Pfadabhängigkeiten.

      Parkin argumentiert dennoch, dass die Investitionsgrößenordnungen vergleichbar wären:
      Die Milliarden, die heute in „noch etwas kleinere“ Transistoren fließen, könnten stattdessen in ein Speichersystem investiert werden, das:

      • deutlich weniger Energie pro Operation verbraucht,
      • kompakter ist,
      • und die KI-Hardware von morgen von ihrem Speicherflaschenhals befreit.

      Es ist genau dieser Punkt, an dem sich neuronale Euphorie und physikalische Nüchternheit treffen:
      Die eine Seite misst Fortschritt in Parameterzahlen, die andere in Joule pro Bit.

      Was folgt daraus für die KI-Zukunft?

      Parkins Werk liefert eine unbequeme, aber befreiende Einsicht:

      1. Die Physik hat das letzte Wort.
        Egal wie klug ein neuronales Modell ist – wenn das Substrat energetisch nicht mithält, wird es nicht skaliert.
      2. Die Naturoptimierung findet nicht nur in Neuronen statt.
        Wer Intelligenz verstehen will, muss auch die „tiefen Schichten“ der Materie betrachten: Spin, Topologie, Supraleitung.
      3. Die nächste KI-Revolution ist eine Speicherrevolution.
        Racetrack Memory, Spintronik, neuartige Speicherklassen – sie sind kein exotischer Rand, sondern ein notwendiger Schritt, wenn KI nicht dauerhaft an den Grenzen von Rechenzentren und Stromnetzen hängen soll.
      4. Europa hätte hier eine Chance.
        Parkin forscht als Direktor am Max-Planck-Institut für Mikrostrukturphysik in Halle an der Saale.
        Genau an dieser Schnittstelle – Grundlagenphysik, Materialinnovation, energieeffiziente Architekturen – könnte ein eigenständiger, europäischer Weg der KI-Infrastruktur entstehen.

      Die Zukunft der KI liegt im Labor, nicht im Datenzentrum

      Während ein Teil der KI-Szene immer neue neuronale Monumente errichtet, arbeitet Stuart Parkin an den unscheinbaren, aber entscheidenden Fragen:

      • Wie viele Elektronen müssen sich wirklich bewegen, um ein Bit zu ändern?
      • Wie sieht eine Architektur aus, die dreidimensional denkt, aber zweidimensional fertigen lässt?
      • Wie baut man Speichersysteme, die eher einem Gehirn ähneln als einem Kraftwerk?

      Schmidhuber und Hinton haben uns gezeigt, wie weit man mit der Neuronenmetapher kommen kann.
      Parkin zeigt, dass die Reise dort nicht endet – sondern dort beginnt, wo wir die Natur jenseits der Neuronen ernst nehmen.

      Die nächste große KI-Epoche wird nicht von der Frage geprägt sein, wer das größte Modell hat.
      Sondern von der Frage, wer die bessere Physik im Rücken hat.

      Prognose: Wenn Parkin mit seiner Forschung Erfolg hat, ist er reif für den Physik-Nobelpreis.

      Siehe auch:

      Livestream-Tipp für Sonntag 20 Uhr: Melting Rust Opera im Bonner Musiktempel Namenlos

      Am Sonntag, 14. Dezember, gibt es auf ichsagmal.com wieder was auf die Ohren: Ab 20 Uhr streamen wir das Konzert von Melting Rust Opera aus dem Namenlos in Bonn im Multistream. Wer auf dunkle Elektronik, Industrial-Anklänge und cineastische Klangflächen steht, sollte sich diesen Slot im Kalender freihalten.

      Melting Rust Opera wurden 2017 gegründet, seitdem sind vier Alben sowie zahlreiche Singles und EPs erschienen. Aktuell veröffentlicht die Band auf dem Label von Carlos Peron, Mitgründer von Yello – zwei gemeinsame Kollabo-Tracks schlagen die Brücke von der Elektronik-Avantgarde der 80er zur Gegenwart. Dazu kommen Remixe unter anderem für Laibach, Anne Clark, A Place to Bury Strangers, Dagobert und andere – ein deutlicher Fingerzeig, wie tief MRO im internationalen Dark-Underground vernetzt sind.

      Der Auftritt im Namenlos hat es in sich: Auf dem Set stehen neue, bislang unveröffentlichte Songs und mehrere Livepremieren, die zum ersten Mal überhaupt auf einer Bühne zu hören sind. Wir holen dieses Konzert ins Netz – ihr müsst nur noch am Sonntag um 20 Uhr einschalten, Lautsprecher aufdrehen und euch vom Bonner Kultlokal direkt ins eigene Wohnzimmer teleportieren.

      ifo meldet Investitionsflaute – was die Zukunftsmacher der Bundesregierung unter Friedrich Merz voraus haben @Bundeskanzler @BMWE_

      Investitionsstau oben, Wachstumsinseln unten

      Die Diagnose aus München ist eindeutig: Das ifo-Institut meldet eine Investitionsflaute. Die Unternehmen kürzen ihre Pläne, verschieben Projekte, fahren Risiken herunter. Besonders hart trifft es Industrie, Fahrzeugbau, Chemie und Maschinenbau – also jene Branchen, die einst als Hochöfen des deutschen Wohlstands galten.

      Die offizielle Begründung: tiefgreifender Strukturwandel, mangelnde Attraktivität des Standorts, Unsicherheit über die Wirtschaftspolitik. Übersetzt heißt das: Die Republik ist verunsichert, der Staat sendet widersprüchliche Signale, die Unternehmen reagieren mit Rückzug.

      Doch während die große Volkswirtschaft auf Pause drückt, läuft in einem anderen Teil der Wirtschaft ein anderes Programm: Die „Zukunftsmacher“ – 55 befragte Hidden Champions und Familienunternehmen – wachsen. 87 Prozent von ihnen, trotz Energiepreisschock, Fachkräftemangel und geopolitischem Dauergrummeln. Rund ein Drittel ihrer Investitionen fließt in Digitalisierung, etwa jeder fünfte Digital-Euro in KI.

      Hier bricht nicht die Investitionsneigung weg. Hier wird der Strukturwandel bezahlt – aus eigenen Mitteln, mit klarer Agenda.

      Was die Zukunftsmacher anders machen

      Der Smarter Service Talk mit Bernhard Steimel und Gunnar Sohn hat das Muster offengelegt: Diese Unternehmen sind keine Start-up-Hypefiguren, sondern oft seit Jahrzehnten im Markt – Maschinenbauer, Hersteller technischer Produkte, Versicherer, Konsumgütermarken. Sie haben gelernt, ihren Wohlstand nicht aus Subventionen, sondern aus Innovation zu ziehen.

      Vier Punkte stechen heraus:

      Erstens: KI ist kein IT-Spielzeug, sondern Wertschöpfungsinstrument.
      Die Verantwortlichen heißen heute „Head of Data & AI“ und sitzen nah am Geschäft, nicht im Serverkeller. KI entscheidet über Einkauf, beschleunigt Softwareentwicklung, steuert Serviceprozesse, hilft beim Mass-Customizing von Fenstern in Losgröße 1.

      Zweitens: Sie beginnen dort, wo der Schmerz am größten ist.
      Automatisierte Protokolle, intelligente Schadensregulierung, KI-gestützte Vertriebsprozesse – kleine, konkrete Use Cases, die Zeit fressen und Nerven kosten. Wenn die Belegschaft merkt, dass der Alltag leichter wird, entsteht Zugkraft von unten.

      Drittens: Sie investieren in Datenbasis und Menschen.
      Data Excellence ist kein Buzzword, sondern harte Arbeit an Stammdaten, Schnittstellen und Qualität. Parallel dazu entsteht eine neue Lernkultur: Peer Learning statt PowerPoint-Schulung, KI-Expertinnen aus den eigenen Reihen statt Beraterkarawane.

      Viertens: Sie erlauben sich Experiment und Irrtum.
      Viele Mittelständler haben sich Elemente aus agiler Softwareentwicklung und Lean-Startup-Methoden angeeignet. Sie testen, verwerfen, verbessern – und zwar schneller, als es jede Förderlogik je genehmigen könnte. Fehler sind hier kein Skandal, sondern Lehrgeld.

      Kurz gesagt: Diese Unternehmen warten nicht darauf, dass der Staat ihnen den Strukturwandel erklärt. Sie organisieren ihn selbst – mit KI, Datenplattformen und neuen Geschäftsmodellen.

      Die falsche Debatte in Berlin

      Währenddessen kreist die große Politik weiter um dieselben Schlagworte: Sondervermögen, Entlastungspakete, Industriewende, Subventionen für die immergleichen Branchen. Das Muster ist bekannt: Wenn es knirscht, werden neue Töpfe aufgelegt, neue Anreize versprochen, alte Strukturen verlängert.

      Die Lektion der Zukunftsmacher lautet genau andersherum:
      Nicht mehr Geld für den Status quo, sondern bessere Bedingungen für Neues.

      Der demografische Wandel verschärft die Lage. Ein überaltertes Unternehmertum investiert seltener in riskante Technologien. Nachfolgeprobleme dämpfen den Mut. Die Zahl der Neugründungen stagniert seit Jahren – ausgerechnet in dem Moment, in dem die Wirtschaft frische Unternehmerinnen und Unternehmer am dringendsten bräuchte.

      Wenn eine Bundesregierung unter Friedrich Merz hier weitermacht wie bisher – mehr Schulden, mehr Sondervermögen, mehr Gießkanne – wird sie die Investitionsflaute eher konservieren als überwinden.

      Was die Bundesregierung jetzt tun muss

      Die Zukunftsmacher liefern kein PR-Narrativ, sondern eine betriebswirtschaftliche Feldstudie. Wer hinschaut, erkennt einen Handlungsplan für die Wirtschaftspolitik.

      Förderlogik umstellen: Weg vom Zuschuss, hin zum Rahmen für Wachstum

      Statt weitere Milliarden in alte Strukturen zu pumpen, sollte die Bundesregierung:

      • steuerliche Superabschreibungen für Investitionen in Dateninfrastruktur, KI und Automatisierung einführen;
      • Förderprogramme konsequent auf messbare Effekte bei Produktivität, Exportfähigkeit und Skalierbarkeit ausrichten;
      • sektorale Subventionen für schrumpfende Industrien reduzieren und die Mittel in innovationsorientierte Programme umlenken, die technologieoffen sind.

      Die Botschaft muss lauten: Der Staat subventioniert nicht das Gestern, sondern erleichtert das Morgen.

      Gründungsrepublik statt Verwaltungsrepublik

      Die Investitionskrise ist auch eine Unternehmerkrise. Deshalb braucht es:

      • ein radikal vereinfachtes Gründungsrecht – digitale Eintragung binnen Tagen, nicht Monaten – ein entsprechendes Projekt des Digitalministeriums sollte zügig vollendet werden;
      • steuerliche Erleichterungen in den ersten fünf Jahren für technologieorientierte Gründungen;
      • systematischen Aufbau von Gründerwissen in Schulen und Hochschulen – nicht als Wahlfach, sondern als Bestandteil der ökonomischen Grundbildung.

      Mehr Unternehmensgründungen bedeuten mehr Investitionen, mehr Wettbewerb, mehr Mut. Ohne diesen Zufluss neuer Player bleiben die Zukunftsmacher Ausnahmen.

      Bildungsoffensive für Daten- und KI-Kompetenz

      Was die Hidden Champions intern tun, muss der Staat im Bildungssystem leisten:

      • verpflichtende Module zu Datenkompetenz, KI-Anwendungen und digitaler Wertschöpfung in beruflicher Bildung, Meisterschulen, Hochschulen;
      • Förderung von Weiterbildungsverbünden, in denen Mittelständler gemeinsam KI-Kompetenzen aufbauen;
      • Programme, die Unternehmen beim Peer Learning unterstützen – denn die besten Trainer sitzen oft bereits im eigenen Betrieb.

      Eine Republik, die KI produktiv nutzen will, kann sich ein Bildungssystem ohne Datenunterricht nicht leisten.

      Fix the Basics: Staat lernt von Mittelstand

      Die Studie ist auch ein Spiegel für den Staat selbst. Während viele Verwaltungen weiter Insellösungen bauen – hier ein Online-Formular, dort ein Terminportal – zeigen die Zukunftsmacher, wie man es nicht machen darf: keine Silos, keine Medienbrüche, keine Pilotfriedhöfe.

      Für eine Regierung hieße das:

      • jede Digitalmaßnahme des Bundes an einer klaren Plattformstrategie ausrichten;
      • Verwaltungs-IT auf wenige, interoperable Standards konsolidieren;
      • Qualitätsziele für Datenbestände definieren – denn ohne saubere Daten wird auch die Verwaltung zum Opfer von „shit in, shit out“.

      Wenn der Staat sich selbst nicht transformiert, wird er auch niemanden glaubwürdig zur Transformation ermutigen.

      Kapital in wertschöpfende Tätigkeiten lenken

      Deutschland ist kein armes Land, aber es investiert zu wenig in seine produktive Zukunft. Die Bundesregierung sollte:

      • steuerliche Anreize für Beteiligungen von Familienvermögen und institutionellen Investoren an technologieorientierten Mittelständlern schaffen;
      • private und öffentliche Investitionsvehikel stärken, die KI, Automation und digitale Geschäftsmodelle finanzieren, statt nur Beton und Betonfolklore;
      • den Kapitalmarkt ausbauen, damit wachstumsstarke Mittelständler jenseits des Bankkredits wachsen können.

      Kapital, das in zukunftsfähige Anwendungen fließt, schafft Wohlstand. Kapital, das in Altstrukturen konserviert wird, blockiert ihn.

      Die Zukunftsmacher sind kein Ausnahmefehler – sie sind die Blaupause

      Die 55 Unternehmen der Studie sind keine statistische Randnotiz, sondern ein Hinweis darauf, was möglich ist, wenn man Investitionen nicht als Risiko, sondern als Überlebensstrategie begreift. Sie investieren in KI, Datenqualität, neue Geschäftsmodelle – und sie wachsen.

      Eine Bundesregierung unter Friedrich Merz steht vor der Wahl: Sie kann die Investitionsflaute verwalten oder sie kann aus den Zukunftsmachern lernen.

      Wer den Strukturwandel ernst nimmt, darf nicht länger versuchen, das Gestern zu stabilisieren. Er muss das Morgen finanzierbar, gründbar und lernbar machen. Die Anleitung liegt auf dem Tisch – in Form einer Studie, die zeigt, wie man in der Krise nicht schrumpft, sondern stärker wird.

      Siehe auch:

      Wärme, Museum, Haushalt: Die Bonner Koalition und der Preis der Beruhigung

      Die Bonner Kooperationsvereinbarung von CDU, SPD und FDP ist nun vollbracht. Die Tonlage: Kooperation der Zuversicht, Kooperation der Einladung, Verantwortung aus der „Mitte“ heraus. Das Vokabular will Befriedung, nicht Polarisierung. Aber genau darin liegt die eigentliche Zumutung dieses Papiers: Es verkauft die Verwaltung der Krise als Zukunftsprojekt – und verwandelt politische Konflikte in ein technokratisches Reparaturprogramm.

      Wer das Papier liest, erkennt schnell die Grundfigur: Bonn als hochbelastete, aber prinzipiell wohlgeordnete Stadt, die vor allem effizienter organisiert werden muss – beim Bauen, beim Verkehr, bei der Energie, beim Personal. Der Zuschnitt ist klassisch: Mehr Wachstum, mehr Wohnungsbau, mehr Gewerbeentwicklung – und parallel dazu die Versicherung, man halte selbstverständlich am Ziel fest, die Stadt bis 2035 klimaneutral zu machen.

      Der entscheidende Satz zur kommunalen Wärmeplanung ist bezeichnend: Sie soll um eine „wirtschaftliche Bewertung“ ergänzt werden, die für Immobilieneigentümer „transparent“ ist; Fernwärme wird ausgebaut, wo sie „wirtschaftlich vertretbar“ ist, ein Anschlusszwang wird ausdrücklich ausgeschlossen. Damit ist das zentrale Projekt der kommunalen Energiewende in einem einzigen Absatz entschärft: Planung ja, aber bitte ohne jede Zumutung – weder für Eigentümer, noch für Stadtwerke, noch für den Haushalt.

      Im Wahlkampf wurde über Wärmeplanung als Richtungsentscheidung gestritten: Wer trägt die Kosten, wer trifft die Entscheidungen, und wie schnell darf es gehen? Die Kooperationsvereinbarung antwortet darauf mit einer Beruhigungsgeste. Der Umbau der fossilen Infrastruktur erscheint nicht mehr als Konflikt um Verteilung und Tempo, sondern als moderates Verwaltungsprojekt, das sich möglichst geräuschlos in bestehende Haushaltslogiken einfügen soll.

      Stadtmuseum: Das Gedächtnis der Stadt als Pflichtaufgabe

      Ähnlich doppeldeutig ist der Abschnitt zur Kulturpolitik. Das Stadtmuseum soll zu einem „modernen und lebendigen Ort des Austauschs über die Bonner Geschichte“ werden – wörtlich klingt das nach urbaner Erneuerung, nach einem offenen Gedächtnisraum für eine Stadt, die sich neu definieren muss. In der Realität steht dahinter ein Dauerstreit: Wie viel ist Bonn bereit, für sein historisches Bewusstsein zu zahlen?

      Das Papier umarmt die Symbolik des Museums, ohne die dahinterliegenden Konflikte offen auszusprechen. Die Debatten der vergangenen Jahre – über Prioritäten zwischen Theater, Oper, Museumslandschaft, über den Umgang mit sanierungsbedürftigen Bauten und explodierenden Kosten – tauchen nur in der indirekten Sprache der „Optimierung von Betriebsstrukturen“ und der „notwendigen Einsparungen im Haushalt“ auf.

      Die Botschaft ist klar: Das kulturelle Gedächtnis der Stadt soll modernisiert werden – aber bitte so, dass es sich in die Logik eines Sparkurses einfügen lässt, der schon feststeht, bevor über Inhalte gesprochen wird.

      Haushaltspolitik: Die unsichtbare Austerität

      Im Finanzkapitel zeigt das Papier seine eigentliche Härte. Keine Steuererhöhungen, die Vermeidung eines Haushaltssicherungskonzepts, Reduzierung der Verschuldung – und parallel der Anspruch, in Bildung, Jugend, Soziales und ökologische Transformation „prioritär“ zu investieren.

      Wie soll das gehen? Die Antwort lautet: Aufgabenkritik, Digitalisierung, KI – und eine sozialverträgliche Schrumpfung des Personalkörpers. Ab dem Doppelhaushalt 2027/2028 sollen im Durchschnitt 100 Vollzeitstellen pro Jahr eingespart werden, ermöglicht durch Prozessoptimierung, digitale Verwaltung, automatisierte Abläufe.

      In der Sprache der Kooperationsvereinbarung klingt das wie eine nüchterne Modernisierungsagenda. Politisch betrachtet bedeutet es: Die neue Mehrheit hat sich auf eine langsame, schleichende Austerität verständigt, deren Bruchstellen erst sichtbar werden, wenn Personal tatsächlich fehlt – in Bürgerämtern, in der Bauverwaltung, in der Jugendhilfe, im Ordnungsdienst.

      Im Wahlkampf wurde über eine andere Form der Einnahmeoptimierung gestritten: über Verkehrsüberwachung, Bußgelder, die buchhalterische Verwandlung von Knöllchen in feste Haushaltspositionen. Dazu findet sich im Papier – erwartbar – kein kritisches Wort. Stattdessen wird das Bild einer Stadt gezeichnet, die ihre Finanzen durch „Optimierung der städtischen Tochtergesellschaften“, neue Geschäftsfelder und bessere Wirtschaftsförderung stabilisiert. Es ist die alte Hoffnung, man könne die strukturelle Unterfinanzierung der Kommunen durch Effizienz, Wachstum und ein bisschen Kreativität kompensieren – ohne die unangenehme Frage zu stellen, wer dafür politisch Verantwortung übernimmt.

      Mobilität: Der Verkehrsstreit als Gutachtenfall

      Auch bei der Mobilität setzt das Papier auf Beruhigung. Der „Verkehrsstreit“ in Bonn soll durch ein unabhängiges Gutachten der Universität oder Hochschule befriedet werden. Alle Bedürfnisse, alle Verkehrsträger, ein großes Konzept, wissenschaftlich abgesichert – und doch so formuliert, dass laufende Planungen nicht unterbrochen werden.

      Der Konflikt zwischen autoorientierter Stadt, ÖPNV-Ausbau, sicherer Radinfrastruktur und Flächenrückbau wird damit aus der politischen Arena in die Welt der Expertise verschoben. Statt eine klare politische Priorität zu benennen – und sich dafür vor den Bürgerinnen und Bürgern zu verantworten – soll ein Gutachten die Konturen des Machbaren definieren. Die Politik reserviert sich die komfortable Rolle dessen, der „auf Basis von Fakten“ entscheidet.

      In der Logik des Papiers ist das konsequent: Wo immer es schwierig wird, werden Konflikte an Prozesse delegiert – an Gutachten, an Aufgabenkritik, an Digitalisierungsvorhaben. Es ist eine Politik, die ihr eigenes Risiko minimiert, indem sie Entscheidungsfragen in Organisationsfragen verwandelt.

      Die Verwaltung als Firewall – und als Risiko

      Besonders aufschlussreich ist der Blick auf die Verwaltung. Sie soll „besser erreichbar“, „digitaler“, „freundlicher“ werden, mit moderner IT, zentralem Serviceportal, Once-Only-Prinzip und einem ambitionierten Onlinezugang. Gleichzeitig wird die Verwaltung zur Kompensationsmaschine einer Politik, die sich fiskalisch eingeengt sieht: Sie soll mehr leisten, während sie personell zurückgebaut wird; Prozesse verschlanken, Controlling ausbauen, Krisenmanagement verbessern, Bevölkerungsschutz stärken, Digitalprojekte stemmen.

      Damit wird die Stadtverwaltung zur Firewall gegen die multiplen Krisen, denen Bonn ausgesetzt ist – Klimawandel, soziale Spaltung, finanzielle Engpässe, demografischer Druck. Doch jede Firewall hat eine Belastungsgrenze. Wenn dieselbe Koalition, die mehr Aufgaben definiert, strukturell weniger Personal vorsieht, dann ist der Systemfehler eingebaut. Er wird nur zeitversetzt sichtbar.

      Zwischen Überschriften und Realität

      Die Kooperationsvereinbarung ist ein Dokument der Beruhigung. Sie verspricht, dass alles zugleich möglich sei: klimaneutrale Modernisierung ohne soziale Brüche, kulturelle Aufwertung ohne Kostendruck, stabile Finanzen ohne Steuererhöhungen, mehr Leistungen mit weniger Personal.

      Im Wahlkampf waren die Konflikte offener: bei der kommunalen Wärmeplanung, beim Stadtmuseum, bei der Haushaltspolitik. Es ging um Tempo, um Prioritäten, um Zumutungen. Die neue Koalition antwortet darauf mit einem Papier, das Konflikte sprachlich absorbiert – und dabei so tut, als ließen sie sich durch Verwaltungsmodernisierung und ein paar kluge Gutachten neutralisieren.

      Was fehlt: Der Mut zur Zumutung

      Eine Stadt wie Bonn – Bundesstadt, UN-Standort, Wissenschaftsmetropole – kann sich auf Dauer nicht mit einer Politik der Beruhigung zufriedengeben. Klimaneutralität bis 2035, eine sozial verträgliche Wärmewende, der Erhalt und die Erneuerung der kulturellen Infrastruktur, eine ehrliche Haushaltspolitik, die nicht auf verdeckte Einnahmequellen und stille Einsparprogramme setzt – all das verlangt eine Sprache, die Konflikte nicht nur benennt, sondern auch aushält.

      Die Kooperationsvereinbarung von CDU, SPD und FDP zeichnet das Bild einer verantwortungsvollen Mitte, die die Dinge im Griff hat. Die eigentliche Frage ist, ob diese Mitte bereit ist, Verantwortung auch dann zu übernehmen, wenn die Beruhigungsgeschichte nicht mehr trägt: wenn Wärmeplanung zur Kostenfrage wird, wenn das Stadtmuseum nicht nur als Projekt, sondern als Priorität verteidigt werden muss, wenn der Sparkurs in der Verwaltung den Alltag der Bürgerinnen und Bürger sichtbar verschlechtert.

      Dann entscheidet sich, ob diese Koalition tatsächlich „gemeinsam für die Zukunft von Bonn“ arbeitet – oder ob sie nur die Gegenwart so lange verwaltet, bis die nächste Krise ihr die Entscheidung abnimmt.

      Die verwechselte Souveränität – Warum Europa im Digitalen nicht herrschen, sondern handeln lernen muss

      Souveränität ist zu einem Wort geworden, das in Europa auf jeder Bühne erklingt: auf dem Digitalgipfel in Berlin, in vertraulichen Runden in Brüssel, in Ministerreden und Strategiepapiersätzen, die klingen wie Durchhalteformeln einer verunsicherten Moderne. Doch je häufiger der Begriff ertönt, desto leerer wirkt er. Fragt man genauer nach, heißt es beschwichtigend: Natürlich ist nicht Autarkie gemeint. Doch was dann?

      Wer in die geistige Tradition eines Kontinents zurückblickt, stößt auf einen Satz, der schärfer kaum gefasst werden kann: „Souverän ist, wer über den Ausnahmezustand entscheidet.“ In diesem einen Satz entlarvt der martialische Staatsrechtler Carl Schmitt die Souveränität als Machtfrage, als letzte Instanz des Handelns, die erst sichtbar wird, wenn alle Normalität zerbricht. Europa wiederholt diesen Satz heute nicht mehr, aber es ringt um seine digitale Entsprechung: Wer entscheidet im Augenblick der Krise? Wer hält die Hand über Daten, Netze, Algorithmen? Und wer hat überhaupt die Fähigkeit zur Entscheidung – oder läuft der Ausnahmezustand längst im Hintergrund, während wir noch von Leitplanken und Roadmaps sprechen?

      Diese Debatte trifft auf einen Staat, dessen Gestalt sich verflüchtigt hat. Rüdiger Altmann nannte das einst „die späte Nachricht vom Staat“: Die alte Figur des Souveräns löst sich in Funktionen, Silben und Nachsilben auf. Aus dem Staat wurden der Sozialstaat, der Rechtsstaat, der Steuer- und der Verwaltungsstaat; heute kämen der Digital-, der Daten-, der Cyber- und der Plattformstaat hinzu. Doch die Zersplitterung der Bezeichnungen bezeugt nicht die Fülle der staatlichen Macht, sondern ihre Erosion. Souveränität, das wird schmerzhaft sichtbar, ist nicht mehr dort, wo man sie traditionell verortet hat.

      Der digitale Ausnahmezustand

      Betrachtet man Europas digitale Lage, wirkt der Ausnahmezustand wie ein permanentes Hintergrundgeräusch. Die Fähigkeit, zentrale Technologien selbst zu kontrollieren, ist begrenzt. Cloud-Infrastrukturen stammen überwiegend von amerikanischen Technologiekonzernen. Halbleiter – das Mark der digitalen Welt – kommen zu großen Teilen aus Ostasien. KI-Modelle, die globale Maßstäbe setzen, entstehen in Kalifornien oder Shenzhen. Und während französische Präsidenten seit Chirac mit Pathos eine europäische Meisterschaft im Digitalen beschwören, bleiben Projekte wie Quaero Fußnoten einer gescheiterten Industriepolitik. Auch in Deutschland hallten Parolen wie „E-Mail made in Germany“ kurz auf, bevor sie von der Realität eingeholt wurden.

      Souveränität, so viel lässt sich in diesem Nebel erkennen, entsteht nicht durch nationale Bekräftigungen. Sie entsteht auch nicht, indem Staaten künstliche Mauern errichten oder ihre digitale Selbstbehauptung an farbfrohe Label knüpfen. Technologie folgt keiner Heraldik. Sie folgt dem Talent, der Investition, dem Mut zur Skalierung – und dem Willen, den Ausnahmezustand nicht verkünden, sondern verhindern zu müssen.

      Die unsichtbaren Träger des europäischen Gewichts

      Wer über Souveränität spricht, sollte die Orte aufsuchen, an denen sie tatsächlich entsteht: die Mittelständler, die tief in der globalen Wertschöpfung verankert sind. Die Firmen, die das iPhone mitprägen, ohne deren Komponenten kein autonomes Fahren möglich wäre, deren 3-D-Drucker auf der Internationalen Raumstation schweben. Es sind diese namenlosen Präzisionsunternehmen aus Baden, Schwaben oder Ostwestfalen, die weltweit unentbehrlich geworden sind – nicht durch politische Programme, sondern durch handwerkliche Radikalität und technische Überlegenheit.

      Doch gerade diese Unternehmen stellen die unbequeme Frage: Was geschieht, wenn geopolitische Rivalen die Lieferketten straffen? Wenn Industrien politisiert werden? Wenn Technologien sanktioniert, Embargos verhängt, Exportkontrollen ausgeweitet werden? Werden deutsche Zulieferer, deren Bauteile ein Tesla oder Apple unabdingbar braucht, souverän – oder einfach ersetzbar? Und wer trifft die Entscheidung im Ausnahmezustand: die Europäer oder die Plattformkonzerne, die längst globale Imperien sind?

      Die erschöpfte Innovationskraft

      Hinzu kommt eine Entwicklung, die wie ein drohender Schatten über die Diskussion fällt: Deutschland verliert an technologischer Dynamik. Der jüngste MINT-Herbstreport zeigt, dass wir im internationalen Vergleich der F&E-Ausgaben zurückfallen, überholt von Ländern, die entschlossener, schneller, mutiger investieren. Der Fachkräftemangel lähmt jene Industrien, die Europa einst definierten. Und während in Asien neue Halbleiterfabriken entstehen, debattiert Europa darüber, ob die Genehmigungsverfahren digitalisiert werden sollten.

      Die Frage, die sich stellt, ist keine akademische: Kann ein Kontinent souverän bleiben, der seine Innovationskraft verliert? Kann er im digitalen Ausnahmezustand entscheiden, wenn ihm zuvor die Fähigkeit genommen wurde, technologisch zu gestalten?

      Wohin mit Europas Souveränität?

      Vielleicht liegt die Antwort jenseits des staatlichen Selbstverständnisses. Souveränität im digitalen Zeitalter entsteht dort, wo Architekturen geschaffen werden, nicht Illusionen. Dort, wo Staaten den Mut finden, Kooperationen einzugehen, die größer sind als ihre Ressorts. Dort, wo Unternehmen in die Lage versetzt werden, die kritischen Teile eines globalen Systems zu bauen – und nicht nur die Illusion seiner Kontrolle.

      Europa wird im Digitalen nur souverän sein, wenn es seine eigene Rolle richtig versteht: nicht als Festung, nicht als Kopie amerikanischer Tech-Konzerne, sondern als Gestalter industriellen Deep Techs, als Produzent von Präzision, Energieeffizienz und strategischen Technologien, die niemand ersetzen kann. Souveränität wäre dann nicht das Pathos des Ausnahmezustands, sondern die Nüchternheit der Gestaltungskraft.

      Die große Aufgabe besteht darin, den Begriff von allem Phrasenhaften zu befreien – und ihn wieder an jene Stelle zu rücken, an der er seit jeher seinen Ursprung hat: in die Fähigkeit, handlungsfähig zu bleiben, wenn andere ins Stocken geraten. Europas Stärke ist nicht die Drohung. Europas Stärke ist die Vernunft. Und vielleicht beginnt digitale Souveränität genau dort.

      2025 #NobelPrize Award Ceremony

      At the ceremony, the Nobel Prize in Physics, Chemistry, Physiology or Medicine, Literature and the prize in economic sciences are awarded to the Nobel Prize laureates.

      Wachstum in der Sackgasse oder am Wendepunkt? Was wir aus den Nobelpreisen und der #NEO25 Session mit Heinz D. Kurz lernen können @NobelPrize

      Aus Stockholm in den Livestream – Nobelpreise als Stresstest für die Wirtschaftsordnung

      Im Livestream der Next Economy Open setzt sich ein vertrautes Bild durch. Auf der einen Seite eine Welt, die scheinbar im Stau steht, Stagnation in Deutschland, Produktivitätsflaute in vielen Industrieländern, politisch ausgelaugte Reformdebatten. Auf der anderen Seite ein Professor, der mit der Gelassenheit eines langen Forscherlebens erklärt, warum drei Nobelpreisträger für Wirtschaftswissenschaft gerade jetzt unbequem aktuell sind. Heinz D. Kurz spricht über Joel Mokyr, Philippe Aghion und Peter Howitt, führt sie zu Joseph Schumpeter zurück und macht daraus keine akademische Feierstunde, sondern eine nüchterne Lageanalyse des Kapitalismus.

      Die eingangs gestellte Frage, ob Nobelpreise überhaupt noch in die Zeit passen, beantwortet sich im Verlauf der Session von selbst. Sie passen, wenn man sie nicht als Weihrauch für eine Zunft liest, sondern als verdichtete Theorieangebote für eine aus dem Tritt geratene Wirtschaftspolitik. Der rote Faden der drei geehrten Forscher ist die Auseinandersetzung mit einer einfachen, aber folgenreichen Frage. Wie konnte es überhaupt dazu kommen, dass sich ein Teil der Welt auf einen Pfad dauerhaften Wachstums begibt, während der Rest über Jahrhunderte stationär bleibt. Und weshalb scheint dieser Pfad heute an Dynamik zu verlieren.

      Wissen als Institution – Die Gelehrtenrepublik als frühe Next Economy

      Joel Mokyr beantwortet die erste Frage, indem er den Fortschritt selbst zum Gegenstand macht. Statt Wachstum als Ergebnis von Kapitalakkumulation und Arbeitskräftezuwachs zu behandeln, rekonstruiert er die Entstehung einer Kultur, die neuartige, als nützlich verstandene Wissensproduktion ermöglicht. Kurz greift diese Linie im NEO Gespräch auf, wenn er von der europäischen Kleinstaaterei und der Gelehrtenrepublik spricht. Politische Fragmentierung zwingt die Herrscher, um Talente zu werben. Akademien, Gesellschaften, später Fachzeitschriften und Enzyklopädien senken die Zugriffskosten auf Wissen. Naturphilosophie wird durch Figuren wie Francis Bacon stärker auf praktische Problemlösung ausgerichtet. Propositional Knowledge, das Wissen warum etwas funktioniert, verbindet sich mit Procedural Knowledge, dem Wissen wie man es anwendet. Aus dieser Verbindung entsteht die eigentliche Infrastruktur der Moderne, lange bevor der erste Dampfkolben sich bewegt.

      Damit ist ein Kernpunkt berührt, der für Führungskräfte und Wirtschaftspolitiker entscheidend ist. Wissen ist kein beliebig ersetzbarer Input, sondern eine Institution. Wer Organisationen führt, führt immer auch Wissenssysteme. Die Frage ist dann weniger, wie hoch der nächste Investitionszuschuss ausfällt, sondern ob die eigene Organisation Strukturen hat, die neues Wissen erzeugen, verteilen und testen können. In dieser Perspektive sind Forschung, Bildung, Datenqualität, interne Lernarchitektur und externe Netzwerke kein Kostenblock, der zu verschlanken ist, sondern das eigentliche Betriebssystem der Wertschöpfung.

      Für Staaten folgt daraus eine vergleichbare Verschiebung. Bibliotheken, Hochschulen, unabhängige Forschungseinrichtungen und offene digitale Wissensplattformen gehören nicht in die Restgröße der Kulturpolitik, sondern in den Kern der Wirtschaftsstrategie. Eine Gesellschaft, die hier spart, darf sich über Innovationsschwäche nicht wundern.

      Macht und Märkte: Was Aghion und Howitt über kreative Zerstörung lehren

      Die Arbeiten von Philippe Aghion und Peter Howitt ergänzen diesen kulturhistorischen Zugriff um eine präzise Theorie der endogenen Dynamik. Sie beschreiben Innovation nicht als anonymen Restposten, der von außen in eine Volkswirtschaft fällt, sondern als Ergebnis bewusst handelnder Unternehmer, die in Forschung investieren, um temporäre Marktmacht zu erzielen und dabei andere verdrängen. Das ist nichts anderes als eine formalisierte Fassung dessen, was Schumpeter kreative Zerstörung genannt hat.

      Kurz arbeitet in der NEO Session zwei Konsequenzen heraus, die für heutige Debatten zentral sind. Innovation erzeugt Gewinner und Verlierer. Jede neue Technologie erodiert Renten und Positionen derjenigen, die auf der alten Technik sitzen. Und etablierte Unternehmen haben starke Anreize, radikale Neuerungen zu blockieren, aufzukaufen oder zu verzögern. Je stärker Märkte monopolisiert sind, desto geringer ist die Bereitschaft, das eigene Geschäftsmodell selbst zu unterminieren. Das gilt für die historischen Grundbesitzer, die neue landwirtschaftliche Verfahren bekämpften, ebenso wie für heutige Plattformkonzerne, die Startups integrieren, um deren Erfindungen vom Markt verschwinden zu lassen.

      Für die wirtschaftspolitische Praxis folgt daraus eine unbequeme Einsicht. Wettbewerbs und Industriepolitik sind nicht zwei getrennte Disziplinen, sondern zwei Seiten derselben Aufgabe. Wer Wachstumschancen eröffnen will, muss beides zugleich können, Märkte so strukturieren, dass Eintritt und Experimentieren möglich sind, und zugleich jene Formen von Marktmacht begrenzen, die Innovation ersticken. Kurz verweist auf Forschungsergebnisse, die einen umgekehrten Zusammenhang zwischen Wettbewerbsintensität und Innovationsrate zeigen. Bei zu wenig Konkurrenz ruht sich der Monopolist aus, bei zu viel Konkurrenz fehlt die Luft zum Investieren. Produktive Dynamik entsteht im mittleren Bereich, in dem der Anreiz groß genug ist, sich von den anderen abzuheben, ohne ständig ums Überleben kämpfen zu müssen.

      Führung im Zeitalter der kreativen Zerstörung – Auftrag an Unternehmen und Führungskräfte

      Aus der Perspektive eines Managementdenkers liegt hier der operative Auftrag. Unternehmen können sich nicht darauf verlassen, dass der Staat das Innovationsumfeld in ihrem Sinne optimiert. Sie müssen sich die Frage stellen, ob sie in ihrer eigenen Branche als Treiber oder als Blockierer auftreten. Wer jede potenziell disruptive Einheit reflexartig einkauft, nur um sie einzuhegen, betreibt kurzsichtige Risikoabwehr und sägt langfristig am eigenen Fundament. Wer dagegen bewusst Strukturen schafft, in denen interne und externe Neuerer Raum erhalten, kann sich selbst zum Moderator der kreativen Zerstörung machen, statt ihr ohnmächtig ausgeliefert zu sein.

      Das betrifft nicht nur Forschungsbudgets und Beteiligungen, sondern die gesamte Organisation. Leistungsbewertung, Karrierewege, Fehlerkultur, Kooperation mit Startups und Hochschulen, die Gestaltung von Datenarchitekturen, all das entscheidet darüber, ob ein Unternehmen tatsächlich zum Teil eines lebendigen Wissenssystems wird oder nur vorhandene Routinen verwaltet. In der Logik der Nobelpreisträger ist Stillstand kein neutraler Zustand, sondern eine aktive Entscheidung gegen zukünftige Optionen.

      Der Blick auf Deutschland – Stagnation als Ergebnis von Prioritäten

      Der zweite Auftrag richtet sich an die Wirtschaftspolitik im engeren Sinn. Gegen Ende der Session wird Kurz nach einer Ableitung für die Bundesrepublik gefragt. Seine Antwort ist bemerkenswert nüchtern. Eine Volkswirtschaft, die ihr begrenztes Überschussprodukt vornehmlich konsumtiv verwendet, kann nicht dauerhaft innovationstreibend wirken. Wenn öffentliche Haushalte Investitionen in Bildung, Infrastruktur, Forschung und Unternehmensgründungen zugunsten laufender Ausgaben zurückfahren, verschwindet die materielle Basis für das, was Mokyr und Aghion beschreiben. Stagnation ist dann kein Überraschungseffekt, sondern das Ergebnis einer schlichten Prioritätensetzung.

      Damit ist die Ausgangsfrage der Session neu zu stellen. Es geht nicht um Wachstum oder kein Wachstum in einem abstrakten Sinn, sondern um die Struktur, aus der Wachstum entsteht. Ein System, das vor allem aus Verteilungskämpfen um bestehende Renten besteht, mag kurzfristig stabil erscheinen, verliert aber jene Fähigkeit zur Anpassung, die moderne Kapitalismen stark gemacht hat. Ein System, das bewusst in Wissensinfrastruktur, Gründungsökosysteme, Wettbewerb und Qualifizierung investiert, wächst vielleicht moderater in alten Kennzahlen, gewinnt aber an Resilienz und Innovationskraft.

      Nobelpreise als Kompass – Warum die Auszeichnung noch in die Zeit passt

      Der Ertrag der NEO25-Session mit Heinz D. Kurz liegt nicht darin, dass sie abschließende Antworten gibt. Ihr Wert liegt in einer Verschiebung des Blickwinkels. Nobelpreise sind in dieser Lesart keine Ehrentitel für vergangene Leistungen, sondern Signale. Sie markieren Forschungsrichtungen, in denen Antworten auf aktuelle Probleme gesucht werden können. Mokyr erinnert daran, dass Kulturen des Wissens überhaupt erst geschaffen werden müssen. Aghion und Howitt zeigen, wie fragil die Dynamik der kreativen Zerstörung ist, wenn Interessen der Etablierten ungebremst bleiben. Kurz macht daraus eine konkrete Frage an deutsche Politik und Unternehmen. Haben wir die Institutionen, um neues Wissen tatsächlich produktiv werden zu lassen. Und sind wir bereit, die Konflikte auszuhalten, die mit jedem echten Innovationsschub verbunden sind.

      In diesem Sinne passen Nobelpreise sehr genau in die Zeit. Sie liefern keine Rezepte, aber sie verschieben Koordinaten. Was daraus entsteht, entscheidet sich nicht in Stockholm, sondern in den Unternehmen, Verwaltungen und Bildungsinstitutionen, die aus solchen Einsichten Konsequenzen ziehen oder eben nicht.

      Exkurs: Die Nobelpreis-Vorlesung als Programm für die Next Economy

      In den Prize Lectures in Stockholm bringen Mokyr, Aghion und Howitt das auf den Punkt, was Heinz D. Kurz in der NEO-Session analytisch zuspitzt. Gleich zu Beginn formuliert das Nobelkomitee den gemeinsamen Nenner: Langfristiges Wachstum beruht auf technologischem Fortschritt, der sich als schöpferische Zerstörung entfaltet. Kreativ, weil neue Ideen entstehen, destruktiv, weil sie alte Strukturen obsolet machen.

      Joel Mokyr wendet sich gegen die These vom ausgeschöpften „low hanging fruit“. Ja, Handel, bessere Institutionen und Kapitalakkumulation unterliegen abnehmenden Grenzerträgen. Aber für Wissen gilt das nur, wenn die Gesellschaft es so organisiert. Seine Botschaft ist provokant einfach: Wenn die positive Rückkopplung zwischen Wissenschaft und Technik weiter verstärkt wird, haben wir den Höhepunkt des Fortschritts noch nicht gesehen. Die eigentliche Knappheit liegt in passenden Institutionen, nicht in Ideen.

      Genau hier setzt der zweite Teil der Vorlesung an. Mokyr benennt vier Bedingungen für anhaltende Innovation: starke Anreize für die „obere Spitze“ der Talente, ein offener Markt für Ideen, Freizügigkeit für kreative Köpfe und ein Staat, der weder erstickt noch sich zurückzieht, sondern rahmt und balanciert. Die Warnung ist klar: Technologischer Wandel beschleunigt sich, Institutionen passen sich langsamer an. Wenn politische Fragmentierung, Populismus und Anti-Immigrationspolitik diesen Anpassungsprozess blockieren, wird aus der Chance der künstlichen Intelligenz eine Wachstumsbremse. Genau diese Spannung zwischen technologischem Potenzial und institutioneller Trägheit steht im Zentrum der Debatte auf der Next Economy Open.