Der Missionar des Paragraphen: Oliver Coste will Europas Innovationsschwäche mit weniger Kündigungsschutz für Spitzenverdiener beheben – Das ist elegant – und ökonomisch zu klein

Oliver Coste reist, als hätte er eine Deadline mit der Geschichte. Nicht die übliche Konferenzrunde, nicht das gepflegte Panel mit Namensschild, sondern Termin an Termin in den Funktionsgebäuden der Republik: Wissenschaftler, Denkfabriken, Ministerialbeamte, Journalisten. Wer ihn trifft, beschreibt weniger einen Lobbyisten als einen Überzeugungstäter. Coste hat eine Mission – und sie ist so schlicht, dass sie in einer überkomplexen Lage fast wie Erlösung wirkt: Europa brauche nur eine kleine Gesetzesänderung, dann komme der Kontinent wieder in Gang.

Seine These klingt nach Betriebswirtschaft, die sich in nationale Konten übersetzt: Das Scheitern sei in Europa zu teuer, weil Restrukturierungen zu lange dauern und Trennungen zu kostspielig sind. Also investierten Unternehmen vorsichtiger, probierten weniger aus, hielten länger an Pfaden fest, die nicht tragen. Wer dagegen, so Coste, den Kündigungsschutz für die oberen Einkommensgruppen lockere – in der Debatte ist von den Top zehn Prozent die Rede, von etwa 100.000 Euro – senke die „Kosten des Scheiterns“. Dann werde schneller umgesteuert. Und aus schnellerem Umsteuern entstünden Innovation, Investitionen, Wohlstand.

Es ist die perfekte Erzählung für Politik und Medien: ein Hebel, eine Zielgruppe, eine Renditebehauptung. Der Reiz liegt nicht nur in der Einfachheit, sondern im impliziten Moralangebot: Wir tun nicht „irgendwas“, wir tun etwas für Innovation. Und wir tun es nicht „gegen alle“, sondern nur gegen jene, die man als robust genug ansehen kann, den Schutz zu verlieren. So wirkt Reform nicht wie Zumutung, sondern wie Modernisierung.

Nur ist der Kernfehler der Erzählung nicht moralischer Natur, sondern methodischer. Coste erklärt ein Entwicklungsproblem mit einer Durchschnittsvariable – und verfehlt damit das, was Entwicklung überhaupt ausmacht.

Costes blinder Fleck: die Sehnsucht nach dem Durchschnitt

Wer sagt „Top zehn Prozent“, sagt bereits: Durchschnitt. Die Kategorie ist kommunikativ praktisch, ökonomisch aber unerquicklich. Denn sie tut so, als ließe sich Innovationsrelevanz an einer Einkommensschwelle ablesen. Sie unterstellt, dass die entscheidenden Träger des Neuen dort sitzen, wo die Gehaltszettel am höchsten sind. In der Wirklichkeit ist das Segment heterogen: hochinnovative Spezialisten, ja; aber auch Stabilitätsfunktionen, Risiko- und Haftungsverantwortliche, Vertriebsschlüsselrollen, Compliance, Betrieb, kritische Infrastruktur. In vielen Branchen sind gerade die gut bezahlten Rollen nicht die, die Neues hervorbringen, sondern die, die das Bestehende unter Bedingungen hoher Komplexität verlässlich machen.

Das wäre kein Problem, wenn Costes Reform nur ein kleines, technisches Korrektiv wäre. Er verkauft sie aber als Hauptschalter. Und genau hier lohnt sich der Blick auf Joseph Schumpeter – so, wie ihn Jesko Dahlmann in seiner Arbeit nicht als Schlagwortlieferant, sondern als Methodiker rekonstruiert.

Schumpeter setzt auf methodologischen Individualismus: Kollektive Phänomene werden aus dem Handeln Einzelner nachvollziehbar. Vor allem aber warnt er vor der Ökonomenneigung, zu früh zu aggregieren. „Hütet euch vor Durchschnitten“ – dieser Satz ist bei Schumpeter keine Pointe, sondern eine Erkenntnisregel. Wer mittelt, verschleiert Unterschiede. Und wer Unterschiede verschleiert, erklärt am Ende Mechanismen weg.

Costes Argumentation ist genau so eine Durchschnitterzählung: Kosten runter, Innovation rauf. Nur dass Innovation nicht als statistische Reaktion auf einen Kostensatz entsteht, sondern als Ergebnis spezifischer Akteure, spezifischer Organisationen, spezifischer Konstellationen.

Das Schumpetersche Unternehmen: nicht Zweckrationalität, sondern Neues

Das zweite Missverständnis ist anthropologisch. Costes Vorschlag liest den Unternehmer implizit als Homo oeconomicus: als Kalkulierer, der die erwarteten Kosten eines Fehlschlags in seine Investitionsentscheidung einpreist. Wird der Exit günstiger, steigt das Wagnis. Das klingt plausibel, solange man Entwicklung für eine Form von Optimierung hält.

Schumpeter denkt anders. Sein Entrepreneur ist nicht der bessere Rechenknecht, sondern der Störer der Routine. Er realisiert neue Kombinationen – neue Produkte, neue Verfahren, neue Märkte, neue Organisationsformen. Und dieses Handeln folgt nicht primär der Zweckrationalität, sondern einem Motiv, das sich in der traditionellen Modellökonomik nur ungern abbilden lässt: dem Schaffen des Neuen als solchem. Der schumpeterianische Unternehmer „unterläuft“ das reine ökonomische Kalkül, weil er nicht nur reagiert, sondern initiiert, weil er nicht nur Konsequenzen zieht, sondern gestaltet.

Damit verschiebt sich die Frage: Wenn Entwicklung aus dem Durchsetzen des Neuen entsteht – warum sollte man ausgerechnet am juristischen Trennungsakt den Schlüssel suchen? Kündigungsregeln können Umsteuern erleichtern. Sie organisieren aber nicht das Neue. Sie ersetzen weder Durchsetzungskraft noch Kombinationsfähigkeit noch den Mut zur Abweichung innerhalb von Organisationen.

Coste behandelt die Ökonomie wie eine Maschine, die man über Reibungsreduktion schneller macht. Schumpeter behandelt sie wie ein Prozess, der aus Abweichungen entsteht. Das ist kein philosophischer Unterschied. Es ist der Unterschied zwischen „effizienter werden“ und „anders werden“.

Schöpferische Unternehmer sind sozialer, als die Legende erlaubt

Genau hier wird Dahlmanns empirischer Zugriff zum Stachel gegen Costes Methodenkasten. Dahlmann verweist auf wirtschaftssoziologische Arbeiten (Euteneuer, Niederbacher), die nüchtern festhalten: Für Schumpeters Unternehmerbild gibt es erstaunlich wenige harte Belege; viele Hypothesen über Unternehmer werden theoretisch behauptet, aber empirisch nur dünn abgesichert. Die Konsequenz ist eindeutig schumpeterianisch: weniger Aggregat, mehr Fall. Wer verstehen will, muss hinsehen.

Dahlmann folgt dieser Logik und untersucht neun Persönlichkeiten der zweiten industriellen Revolution entlang der Schumpeter-Kriterien. Und die Ergebnisse passen schlecht zu einem modernen Reflex, der Innovation gern als Härteübung erzählt: Die von Dahlmann analysierten Unternehmer zeichnen sich durch außergewöhnliches soziales Engagement aus. Frühe Versorgungseinrichtungen, Sozialkassen, Arbeitszeitreduktionen, Zusatzvergütungen, betriebliche Fürsorge – keine Randnotizen, sondern wiederkehrende Muster.

Das ist entscheidend, weil es Innovation aus einer anderen Perspektive erklärt: nicht als Produkt maximaler Austauschbarkeit, sondern als Produkt organisationaler Bindung. Wer Neues durchsetzen will, braucht Loyalität, Vertrauen, interne Stabilität – gerade weil der Versuch des Neuen den Betrieb stört. Dahlmanns Zuspitzung bringt es auf den Punkt: Diese Unternehmer waren mehr Schöpfer als Zerstörer; ihre Innovationen ersparten den Unternehmen den aussichtslosen Kampf, immer nur kostengünstiger sein zu müssen. Sie suchten langfristige Wettbewerbsvorteile über bessere Produkte und neue Techniken – nicht über kurzfristige Gewinnexzesse, die man durch Personalpolitik herstellt.

Und damit steht Costes Reformvorschlag in einem paradoxen Licht: Er will Innovationsmut erzeugen, indem er den Schutzrahmen für eine Einkommensgruppe reduziert. Doch wenn empirisch gerade jene Unternehmer, die wirklich Bahnen verschoben, auffällig oft soziale Ordnung aktiv gestalteten – warum sollte Entsicherung der Königsweg sein?

Bedingungen für Innovationskraft

Welche Akteure, welche Organisationsformen, welche Anreizsysteme ermöglichen heute das schöpferische Gestalten? Es ist eine Liste von Bedingungen: schnelle Team- und Projektmobilität ohne biografische Strafzinsen, Weiterbildung im Übergang, Skalierungsmärkte, Beschaffung als erster Kunde, Finanzierungstiefe, Talentzuzug, Wohnraum, und eine Governance in Unternehmen, die experimentieren lässt, ohne dass jede Abweichung karrieregefährlich wird.

Gerade der letzte Punkt ist der unterschätzte: Innovation braucht nicht nur Risiko gegen außen, sondern Widerspruch nach innen. Sie braucht Menschen, die im System unbequem sein dürfen. Wer Austauschbarkeit politisch signalisiert, kann genau das Gegenteil erzeugen: weniger offenes Nein, mehr Absicherung, mehr Anpassung. Dann wird die Organisation nicht mutiger, sondern vorsichtiger – nur mit anderem Vokabular.

Coste hat ein Problem identifiziert – aber den falschen Hauptschalter

Man kann Coste zugestehen, dass er einen realen Schmerzpunkt adressiert: das langsame Umsteuern in großen europäischen Organisationen. Nur ist die daraus abgeleitete Monokausalität das eigentliche Risiko: Als könne man Entwicklung mit einem Paragraphen regieren. Als könne man aus einer Trennungserleichterung eine Schöpfungswahrscheinlichkeit machen.

Schumpeter – in der Dahlmann-Lesart – würde wohl erwidern: Wer aus Durchschnitten erklärt, verpasst die Mechanik. Wer Entwicklung will, muss die Bedingungen des Neuen organisieren. Das Neue entsteht nicht aus der Optimierung des Alten, sondern aus Akteuren, die Abweichung durchsetzen – und aus Organisationen, die diese Abweichung tragen.

Coste wird weiter durch Europas Flure gehen. Vielleicht wird sein Vorschlag irgendwann Gesetz. Aber selbst wenn: Ein Gesetz kann Trennung erleichtern. Es kann nicht erzwingen, dass jemand das Neue will. Und ohne dieses Wollen bleibt jede Reform das, was sie oft ist: ein sauberer Eingriff an der falschen Stelle.

Thema für die Zukunft Personal Nachgefragt Week vom 24. bis 27. Februar 2026

Wer nach Costes „ein Gesetz, ein Aufschwung“-Versprechen ein leichtes Unbehagen verspürt, sollte es sich merken: Diese Lust an der Monokausalität ist kein Ausrutscher, sie ist ein Muster – ungefähr so ausgeprägt wie in der jüngsten Arbeitsmoral-Debatte um Friedrich Merz, in der aus Krankenstand und Tele-AU gern ein einzelner Hebel gemacht wird. Genau deshalb passt der nächste Schritt besser in ein Forum als in die nächste Talkshow: Bei der Zukunft Personal Nachgefragt Week könnten wir das unmittelbar vertiefen – am Freitag, 27.02.2026, 10:00–10:45 Uhr, in der Session von Guido Zander („Zu oft krank, zu wenig Arbeit?“). Denn dort geht es – wie bei Coste – um die entscheidende Frage, die einfache Antworten meiden: Gesundheit, Verantwortung, Umsetzung – also darum, wie aus Insights Wirkung wird, ohne dass man komplexe Ursachen zu einem bequemen Sündenbock zusammenschmilzt.

Axel Gloger und die Gegenwelt zur Lehrbuch-BWL

Der „Wöhe“ als Denkform

Der „Wöhe“ ist kein Buch, er ist ein Betrieb. Ein Lehrbuch, mit dem Generationen „rumgequält“ wurden: enzyklopädisch, zum Auswendiglernen gebaut, „gedrucktes Wikipedia-Wasser“. Die Wirtschaft als Gliederung, Problem als Kapitel, Lösung als Schema.

Der Wirtschaftspublizist Axel Gloger hat diese Logik nicht mit Spott erledigt, sondern ausgeleuchtet. Ihn störte weniger die einzelne Binsenweisheit als die Wirkung im Kopf: Scheinsicherheit, Planungsillusion, das beruhigende Gefühl, man habe „alles im Griff“, weil alles in Unterpunkten steht. Genau so entsteht die Bulletpoint-Ästhetik der Chefetagen: Nicht erst im Meeting – schon im Hörsaal.

Die Bullet-Point-Plantage

In seinem Opus „Betriebswirtschaftsleere“ skizzierte er dafür das Bild, das sitzt: eine „nicht enden wollende Bullet-Point-Plantage“. In Lehre und Praxis dominieren „Aufzählungs-Friedhöfe“. Erst Businessplan, dann Best-Practice-Folien, dann Performance messen – fertig ist das Tunnel-Denken. Je stärker das Kästchendenken regiert, desto geistloser läuft der Laden. Aus dem Sperrgut der Leerformeln wachsen Kontroll-Biotope: Misstrauen, Rechtfertigungsmeetings, geschönte Erfolgsmeldungen.

Das ist die Tautologie im Anzug: Aussagen, die immer „passen“, weil sie nichts riskieren. Scheitert etwas, war es die Umsetzung. Oder die Kultur. Oder der Kontext. Nie das Modell.

Die andere deutsche Wirtschaft

Glogers stärkster Zug: Er ließ es nicht beim Hörsaal. Er stellte die Lehrbuchwelt gegen die Wirklichkeit draußen. Deutschland hängt wirtschaftlich nicht an Konzernkapiteln, sondern an Firmen, die kaum jemand kennt und die trotzdem Weltspitzen bauen: spezialisierte Mittelständler, Familienunternehmen, „Hidden Champions“. Viele denken in Generationen statt in Quartalen; viele arbeiten nicht am „Shareholder Value“, sondern an Fertigungstiefe, Qualität, Kundennähe – an Dingen, die sich nicht sauber in Standardraster pressen lassen.

In diesem Kosmos wirkt das alte Konzern-Lehrbuch wie ein Stadtplan aus der Zeit, als noch Pferde fuhren. Wer damit navigiert, sieht den Wald vor lauter Tabellen nicht.

Forschung statt Folien: Familienunternehmen als Korrektiv

Die gute Nachricht steckt ausgerechnet in der Wissenschaft – dort, wo die Mainstream-BWL oft nachläuft. Rund um Familienunternehmen und Mittelstand hat sich ein Feld gebildet, das nicht nur über Gewinnformeln spricht, sondern über Eigentum, Verantwortung, Nachfolge, Konflikte, Governance, Zweck. In dem Material fällt der seltene Satz über ein Lehrbuch, das man versteht: verständliche Sprache, neue Erkenntnisse, praktisch anwendbar, ein „großes drängendes Thema“. Und dann die Pointe, die Gloger gefallen hätte: Deutschland ist nicht nur Standort starker Familienunternehmen – sondern auch Standort von Forschung, die international mithalten kann.

Das ist die Gegenwelt zur Wöhe-BWL: weniger Schablone, mehr Wirklichkeit. Weniger Rubriken, mehr Reibung. Weniger „gesichertes Wissen“ als Listenware, mehr Erkenntnisarbeit an echten Problemen.

Vermächtnis

Glogers Nachlass ist keine Methode und kein neues Framework. Es ist ein Maßstab: Misstrauen gegen Sätze, die nicht scheitern können. Abneigung gegen Begriffe, die glänzen und nichts erklären. Respekt vor der Wirklichkeit der Weltmarktführer im Verborgenen – und vor der Forschung, die sich nicht mit Lehrbuchberuhigung zufriedengibt. Axel Gloger ist 2018 gestorben; die Bulletpoints leben leider weiter – nur ohne den, der sie am zuverlässigsten zerstochen hat.

Die bekennende Unverbindlichkeit

Der Stolz auf das Ungeprüfte

Es gehört zu den Merkwürdigkeiten moderner Organisationen, dass ausgerechnet dort, wo Entscheidungen mit größter Reichweite fallen, die methodische Strenge am schnellsten verdunstet. Management, diese erstaunlich erfolgreiche Praxisform ohne konsolidierten Erkenntniskern, präsentiert sich gern als Gegenmodell zur Theorie: handlungsfähig, pragmatisch, „nah am Geschäft“. Und doch ist es nicht die Theorie, von der man sich befreit, sondern die Zumutung der Kritik. Die bequeme Pointe lautet: Wir wissen, was wirkt – auch wenn wir nicht sagen können, warum. Wo sich dieser Satz etabliert, beginnt die Kultur der bekennenden Unverbindlichkeit.

Denn Unverbindlichkeit ist hier nicht bloß ein Mangel an Sorgfalt, sondern ein Arrangement. Man entwirft Modelle, die in der Sprache der Wissenschaft auftreten, im Modus der Wissenschaft aber nicht einlösbar sind. Man behauptet Steuerbarkeit und erklärt zugleich, warum sich der behauptete Steuerungszusammenhang dem Test entzieht. Das ist nicht naiv, das ist klug – jedenfalls marktwirtschaftlich: Wer nicht überprüfbar ist, kann nicht scheitern; wer nicht scheitern kann, bleibt im Spiel.

Moden als Komplexitätsersatz

Dass dieses Spiel Konjunktur hat, zeigt die bemerkenswert stabile Modeökonomie des Managements. Rupert Hasenzagl registriert eine steigende Zahl solcher Wellen: Konzepte, die für kurze Zeit als Rettungsboote gehandelt werden und kurz darauf durch neue ersetzt werden, ohne dass die versprochene Erlösung je sauber bilanziert würde. Das Muster ist älter als das Vokabular. Alfred Kieser hatte bereits Mitte der neunziger Jahre beschrieben, dass Manager auf wachsende Umweltkomplexität gern mit einfachen Konzepten reagieren – weil einfache Konzepte den Eindruck vermitteln, man habe die Komplexität im Griff, ohne sie tatsächlich bearbeiten zu müssen. Das erklärt, warum die Liste der Programme – Business Process Reengineering, Lean, TQM, ISO-Normen, Six Sigma – so lang ist und so verlässlich weiterwächst: Nicht Erkenntnisfortschritt, sondern Anschlussfähigkeit ist das Selektionskriterium.

Die Ironie: Je unübersichtlicher die Welt, desto größer der Hunger nach Schablonen. Und je größer der Hunger nach Schablonen, desto größer der Markt für diejenigen, die sie liefern. Was als Lernbewegung verkauft wird, ist oft eine Ersatzhandlung: Man ersetzt Unsicherheit durch Terminologie.

Kästchenlogik und Kontrollbiotope

Zur Mode passt die Form: Kästchen, Pfeile, Reifegrade, Matrizen. Ein an Naturwissenschaften angelehntes Maschinenbild wird auf soziale Systeme übertragen, als könne man Organisationen wie Apparate einstellen. Das Ergebnis ist nicht selten eine Bürokratisierung im Gewand der Modernität: Wo Verstehen schwierig ist, wird gemessen; wo Messen schwierig ist, wird kontrolliert; wo Kontrolle nicht greift, wird neu etikettiert.

Axel Gloger hat für dieses Milieu eine Formulierung geprägt, die so grob wie treffend ist: In Lehre und Praxis dominierten „Aufzählungs-Friedhöfe“. Das ist mehr als Spott. Es bezeichnet eine Denkform, die Komplexität nicht erklärt, sondern katalogisiert. In diesem Sperrgut der Leerformeln gedeihen Kontrollbiotope: Misstrauen, Rechtfertigungsroutinen, Meetings, in denen die Darstellung der Lage wichtiger wird als die Lage selbst – bis hin zu Erfolgsmeldungen, die vor allem deshalb „stimmen“, weil niemand ein Verfahren hat, sie zu widerlegen.

Der Taschenspielertrick mit der Wahrscheinlichkeit

Besonders entlarvend wird es dort, wo die Immunisierung offen ausgesprochen wird. Man findet inzwischen Autoren, die bei einem kybernetischen Managementmodell ohne Umschweife einräumen, es sei nicht falsifizierbar – und die dann nicht etwa die Konsequenz ziehen, sondern eine Ausweichbewegung vorschlagen: Man könne ja stattdessen „die Wahrscheinlichkeit“ berechnen, dass ein bislang untestbares Modell zuverlässige Ergebnisse liefere. Das klingt nach Demut, ist aber oft nur der Versuch, die eigene Unprüfbarkeit in den Mantel mathematischer Seriosität zu hüllen.

Doch Wahrscheinlichkeit ersetzt den Test nicht, sie setzt ihn voraus. Bayessche Rede lebt von Daten, von klar definierten Beobachtungsregeln, von der Möglichkeit, Erwartungen an der Welt zu blamieren. Wo diese Elemente fehlen, wird „Wahrscheinlichkeit“ zur rhetorischen Zahl: Sie klingt präzise, bleibt aber inhaltlich unverbindlich. Der Taschenrechner ersetzt dann nicht die Kritik, sondern überdeckt ihre Abwesenheit.

Wackelpudding-Modelle und Sektenlogik

In solchen Konstruktionen steckt eine Grundfigur, die man in der Praxis ständig wiedererkennt: das Modell, das sich jeder Widerlegung entzieht. Es gilt, wenn es funktioniert; und wenn es nicht funktioniert, dann war die Implementierung zu halbherzig, die Kultur zu unreif, der Kontext zu speziell. Das Modell selbst bleibt unangetastet. In einer passenden Metapher lässt sich so etwas als „Wackelpudding-Modell“ bezeichnen: Es weicht jeder prüfenden Berührung aus und landet doch stets wieder in der Form, in der man es servieren will.

Die Folge ist eine sektenähnliche Rhetorik: Wer zweifelt, hat es nicht verstanden. Wer widerspricht, zeigt damit nur, dass er „noch nicht so weit“ ist. Kritik wird nicht als Erkenntnisinstrument behandelt, sondern als Charakterschwäche.

Erinnerung als Rohstoff der Gewissheit

Dass diese Logik so gut funktioniert, liegt nicht allein an den Anbietern. Sie trifft auf eine psychologische Infrastruktur, die James G. March in Zwei Seiten der Erfahrung – Wie Organisationen intelligenter werden können mit nüchterner Präzision beschrieben hat: Menschen neigen dazu, Erinnerungen so zu konstruieren, dass sie gegenwärtigen Bedürfnissen dienen; sie behandeln bestätigende Hinweise weniger kritisch als widerlegende; sie bevorzugen einfache Kausalgeschichten. Wer diesen Mechanismus kennt, versteht, warum „Case Studies“ oft wie Beweise wirken, obwohl sie in Wahrheit häufig nur elegant arrangierte Selbsterzählungen sind. Die Organisation wird dann nicht intelligenter, sondern geschickter im Rechtfertigen.

Profession ohne Prüfpflicht

Hinzu kommt ein struktureller Befund, den Rupert Hasenzagl mit einer drastischen Analogie zugespitzt hat: Man würde kaum einem Arzt vertrauen, der nach einem fachfremden Vorleben einige Kurzseminare absolviert hat – im Management jedoch ist eine solche Biografie keineswegs selten, und sie wird sogar als Vorteil gehandelt: Praxisnähe, Machermentalität, „gesunder Menschenverstand“. Die Pointe ist nicht elitär, sondern methodisch: Wo eine Profession keine Prüfpflicht ausbildet, wird Wirkung mit Wahrheit verwechselt. Und weil die Folgen häufig zeitverzögert auftreten, gelingt es, Verantwortung diffus zu halten.

Wenn auch die Wissenschaft sich schließt

Man kann den Blick jedoch nicht allein auf die Praxis richten. Auch Wissenschaft kann sich in geschlossenen Zirkeln einrichten, die weniger am Erkenntnisfortschritt interessiert sind als am Erhalt von Anschlussfähigkeit innerhalb des eigenen Systems. Wo Textgattungen, Methoden und Begriffe zu Eintrittskarten werden, entstehen Ausschlüsse, die alternative Zugänge abwürgen. Paradox genug: Auf der einen Seite eine Managementpraxis, die sich gegen Kritik immunisiert; auf der anderen Seite ein Wissenschaftsbetrieb, der Kritik gelegentlich institutionell erschwert. Zwischen beiden Räumen wächst dann eine Zone, in der Modekonzepte gedeihen: zu „wissenschaftlich“ für das Bauchgefühl, zu unprüfbar für Theorie.

Die Minimalforderung der Nachvollziehbarkeit

Der naheliegende Ausweg ist unerquicklich, weil er keine neue Mode liefert. Er bestünde in einer Minimalforderung: Modelle so zu formulieren, dass nachvollziehbar wird, was überhaupt behauptet wird – und unter welchen Bedingungen die Behauptung scheitern müsste. Nachvollziehbarkeit ist nicht hübsche Visualisierung. Nachvollziehbarkeit ist die Bereitschaft, ein Risiko einzugehen: den eigenen Irrtum.

Damit ist man bei einem Maßstab, der gerne als altmodisch abgetan wird, weil er den Betrieb stört: Theorien müssen so gebaut sein, dass sie prinzipiell widerlegbar sind. Karl Popper ist dafür nicht als Denkmal interessant, sondern als Erinnerung an eine zivilisatorische Technik: Wissen entsteht nicht durch Bestätigung, sondern durch den Umgang mit möglichen Widerlegungen. Wo diese Technik fehlt, bleibt nur das, was im Management ohnehin reichlich vorhanden ist: Überzeugung.

Kritik als Produktionsbedingung des Neuen

Damit bekommt auch das Wort „Innovation“ eine unromantische Bedeutung. Innovation ist nicht die Behauptung des Neuen, sondern das Resultat eines Prozesses, der Irrtümer sichtbar macht. Lutz Becker hat das in einer Diskussionsrunde an der Hochschule Fresenius in einen Satz gebracht, der in Beratungsfolien selten auftaucht, weil er dort unerquicklich wäre: „Innovation setzt Kritik voraus.“ Wer Kritik als Störung behandelt, bekommt vielleicht Bewegung, aber kein Lernen. Wer Kritik kultiviert, verliert Komfort, gewinnt aber Wirklichkeitskontakt.

Am Ende ist die Dreistigkeit der Theorielosigkeit nicht ihr Mangel an Ideen, sondern ihr Mangel an Rechenschaft. Sie verkauft Steuerung ohne Prüfverfahren, Erfolg ohne Gegenrechnung, Gewissheit ohne Risiko. Und sie nennt das dann „Pragmatismus“. Man sollte ihr diesen Begriff nicht durchgehen lassen. Pragmatismus wäre, sich gerade dort, wo Folgen groß sind, an die einfache Regel zu halten: Wer behauptet, muss sagen können, woran er scheitern würde. Alles andere ist nicht Praxisnähe, sondern Verantwortungslosigkeit mit gutem Sound.

Die Eleganz des Wartens

Brecht-Jahrbuch

Das Zeitalter liebt das Sofort. Es liebt die rasche Ansage, den schnellen Plan, das frühe Versprechen. Wer heute nicht „proaktiv“ wirkt, gilt schon als rückständig, wer nicht ständig Bewegung simuliert, als verdächtig. Und doch liegt in dieser Betriebsamkeit etwas Seltsam-Unzeitgemäßes: Sie verwechselt Tempo mit Richtung und Zielklarheit mit Wahrheit. Gerade dort, wo die Zukunft das Sagen hat, ist der Imperativ oft nur eine Form der Nervosität.

Ausgerechnet ein kleines Buch aus dem barocken Spanien, entstanden als Konzentrat gesellschaftlicher Klugheit, hält dagegen. Baltasar Graciáns „Oráculo manual y arte de prudencia“, 1647 in Huesca gedruckt, ist ein Regelwerk für den Umgang mit einer Welt, die sich nicht moralisch belohnen lässt, sondern taktisch gelesen werden muss. In Deutschland ist diese Weltklugheit lange Zeit vor allem in der Übersetzung Arthur Schopenhauers präsent gewesen, jener eigentümlichen Mischung aus präziser Kälte und metaphysischer Hintergründigkeit, die auch der Übersetzer selbst als Lebenshaltung pflegte. Schopenhauer hatte das Manuskript bereits 1832 druckfertig vorliegen, und doch dauerte es Jahrzehnte, bis die Übersetzung als Buch erschien. In dieser Verzögerung steckt bereits ein Gracián’scher Wink: Nicht jeder Text gewinnt durch Eile, manche Sätze brauchen die langsame Reife ihrer Zeit.

Die Inszenierung des Auftretens

Gracián kennt die Sucht nach dem großen Auftreten. Er nennt sie nicht so, aber er zielt auf die gleiche Pose, die heute in Präsentationen und Leitbildern wiederkehrt. Eine seiner Sentenzen rät, nicht mit übermäßigen Erwartungen aufzutreten – Ratschlag nicht nur für politische Protagonisten. Die Hoffnung, heißt es dort, verfälsche die Wahrheit; die Klugheit müsse sie zurechtweisen und dafür sorgen, dass der Genuss die Erwartung übertreffe. Besser sei es, wenn die Wirklichkeit größer ausfalle als das, was man sich ausgemalt hat. Das ist keine romantische Bescheidenheit, sondern ein nüchternes Kalkül: Wer Erwartungen mästet, füttert am Ende den eigenen Enttäuschungsapparat.

Wie stark dieses Kalkül in die Moderne hineinstrahlt, zeigt ein Fund aus einem ganz anderen Milieu. In der Bibliothek Bertolt Brechts entdeckte Erdmut Wizisla eine Ausgabe des „Handorakels“, die 1931 im Insel Verlag erschienen war, ein Band aus einem Supplement von Brechts Nachlassbibliothek, ausgerechnet jenen Büchern, die 1940 keinen Platz im Fluchtgepäck fanden. Auf der Titelseite steht in mikroskopisch kleiner Schrift eine Widmung Walter Benjamins, geschrieben mit schwarzer Tinte, und sie ist so boshaft wie präzise: „Denn für dieses Leben ist der Mensch nicht schlau genug.“

Der Satz ist eine minimale Verschiebung, und gerade deshalb ein intellektuelles Ereignis. Denn Brechts eigenes Lied „Von der Unzulänglichkeit menschlichen Strebens“ sagt nicht „schlau“, sondern „schlecht“. Benjamin dreht die Schraube: Nicht moralische Minderwertigkeit, sondern kognitive Unterlegenheit ist das Problem.

Man kann diese Widmung als Freundschaftsgeste lesen, als ironische Ermutigung, als dunkle Vorwarnung. In der Jahrbuch-Darstellung von Helmut Lethen liegt eine weitere Möglichkeit: dass Benjamins Geschenk Brecht in einem Moment erreichte, in dem Flucht noch ungedacht war, und doch als Hinweis auf eine Zukunft verstanden werden konnte, die keinen Plan respektiert. Auch hier arbeitet das Motiv der Erwartung gegen den, der sie zu groß macht. Der große Plan, der große Entwurf, die große Linie: Sie sind, unter den Bedingungen der Geschichte, oft nur die ästhetische Form eines Irrtums.

Kanon für Brecht

Brecht, der Textverwender mit sicherem Instinkt, hat Gracián nicht devot studiert, sondern geprüft. Er hat das Buch offenbar wiederholt zu Rate gezogen und 26 der 300 Verhaltenslehren unterstrichen. Das ist nicht viel, aber es ist auch nicht wenig: ein kleines Kanonisieren im Vorübergehen. Und wie immer bei Brecht sind die Zeichen aufschlussreicher als die Menge. An den Beginn der Maxime, nie aus Mitleid gegen den Unglücklichen sein Schicksal auf sich zu ziehen, setzt er ein Fragezeichen, als müsste das Pathos der Härte erst verhört werden.

Neben den Satz, man lüge nicht nur mit Worten, sondern auch mit Werken, setzt er ein Ausrufezeichen, als hätte er darin eine handwerkliche Moral erkannt. Auffällig ist, dass die grelleren, amoralisch klingenden Regeln weniger vorkommen; Brecht markiert eher die gedämpften, defensiven Aphorismen, jene Ökonomie der Zeit, die am Ende sogar in die paradoxe Formel mündet: Das Schwierigste beim Gehen ist das Stillstehen.

Stillstehen, das heißt hier nicht: nichts tun. Es heißt: die Situation nicht durch die eigene Ungeduld verstümmeln. Es ist ein Stillstand, der die Wahrnehmung schärft, weil er nicht mehr durch Aktivität betäubt wird. In diesem Sinn ist das Gracián’sche Warten keine Unterlassung, sondern eine Technik, ein Akt der Kontrolle über das eigene Reiz-Reaktions-System. Und gerade deshalb eignet es sich so gut als Gegenbild zu jener Managementsprache, die aus jeder Unsicherheit sofort eine „Roadmap“ schnitzt und aus jeder Ahnung eine „Vision“, als wäre die Zukunft eine Excel-Tabelle mit launischen Formeln.

Dass diese Technik bis in die Ökonomie der Gegenwart hineinwirkt, zeigt eine Szene, die der Strategietheoretiker Richard Rumelt überliefert hat. Auf die Frage, was Apple nach der gelungenen Sanierung langfristig vorhabe, habe Steve Jobs nur gelächelt und gesagt: „I am going to wait for the next big thing.“ Der Satz ist deshalb so irritierend, weil er im Tonfall des Gegenkapitalismus spricht, mitten im Kapitalismus. Er verzichtet auf die große Zielverkündigung, er leistet sich die Demut vor dem, was man noch nicht wissen kann. Und zugleich ist er aggressiv, denn das Warten meint hier das Lauern auf eine Konstellation, in der ein Sprung möglich wird.

Wer das missversteht, hält es für Passivität. Wer es versteht, erkennt eine Ästhetik der Reduktion. In den japanischen Begriffen kanso, shizen und shibumi steckt genau diese Haltung: Schlichtheit, Natürlichkeit, eine Eleganz des Unaufdringlichen, die nicht um Aufmerksamkeit bettelt, sondern sie anzieht, weil sie nichts beweisen muss. Man kann das als Stilprinzip von Objekten lesen, man kann es aber auch als Ethik des Handelns begreifen. Es gibt Entscheidungen, die durch Weglassen richtig werden, und Pläne, die durch Schweigen präziser werden.

Warten ist keine Schwäche

Die moderne Kultur hat das Warten in Verruf gebracht, weil sie es mit Schwäche verwechselt. Dabei ist es in vielen Bereichen die einzig erwachsene Form von Macht. An der Börse heißt es Geduld, in der Politik heißt es Aussitzen, in der Kommunikation heißt es: nicht jeden Reiz beantworten. Man kann daraus eine kleine Theorie des Nicht-Handelns machen: Die Trumpfkarte besteht darin, gerade nicht zu intervenieren, solange die Lage noch nicht reif ist. Das klingt zunächst kontraintuitiv, weil es gegen das moralische Selbstbild der Moderne arbeitet, die sich gern als tatkräftig versteht. Tatsächlich aber ist vieles von dem, was als Tatkraft auftritt, nur die Angst vor dem Leerlauf.

Gracián wäre darüber nicht überrascht. Sein Handorakel ist, bei allen höfischen Masken, ein Buch über Nerven. Es lehrt, dass die Welt nicht aufrichtig, sondern lesbar ist, und dass man selbst zum Leser werden muss, bevor man zum Autor seines Handelns taugt. Brechts Unterstreichungen passen dazu wie eine späte Bestätigung: Der Dramatiker, der das Handeln auf der Bühne zerlegt hat, findet im Jesuiten ein Trainingsprogramm für das Handeln im Leben, und Benjamin, der Theoretiker des Augenblicks, legt ihm dazu eine Widmung hin, die wie ein Orakel der Moderne klingt.

Vielleicht ist das die eigentliche Aktualität dieses alten Buches: Es rehabilitiert die Verzögerung als Erkenntnismittel. In einer Zeit, die sich selbst dauernd kommentiert, ist Stillestehen nicht Stillstand, sondern Widerstand gegen den Zwang, sofort eine Meinung, ein Ziel, ein Narrativ liefern zu müssen. Die Wirklichkeit, sagt Gracián, soll die Erwartung übertreffen. Man muss ihr dafür nur Platz lassen.

KI als Freund: Warum Markus Gabriel moralische Zuverlässigkeit fordert – und Wahlster zeigt, wie das geht

Es ist eine merkwürdige Ironie unserer Gegenwart: Ausgerechnet die Systeme, die uns angeblich ersetzen sollen, zwingen uns, uns wieder mit dem zu beschäftigen, was wir lange verdrängt haben – mit Normen, Beziehungen, Vertrauen. Wenn KI überall „einsickert“, wie es der Bonner Philosoph Markus Gabriel im Webinar des Haufe-Verlags beschreibt, lautet die eigentliche Frage nicht mehr, ob wir sie nutzen, sondern unter welchen Bedingungen sie uns nützt.

Und genau hier setzt sein stärkster Gedanke an: KI nicht kleinreden als bloßes Werkzeug, sondern ernst nehmen als Gegenüber – als Partner in einer Arbeitswelt, in der Information nicht mehr knapp ist, sondern unübersichtlich. Im Webinar wurde das ausdrücklich so zugespitzt: Nicht nur Tool, sondern „Partner, mit dem wir zusammenarbeiten“. Das ist keine Romantik. Das ist Realismus in einer Ökonomie, die sich gerade von der Benutzeroberfläche her umsortiert.

Ethische KI statt „Ethik der KI“: Moral als Geschäftsmodell

Der Satz aus Gabriels neuem Buch (Ethische Intelligenz – wie KI uns moralisch weiterbringen kann, Erscheinungstermin 26. Februar, Ullstein) passt wie ein Bolzen in eine offene Konstruktion: Ethische KI sei „ein wirtschaftlicher Faktor ersten Ranges“. Genau diese Verschiebung ist entscheidend – weg von Ethik als nachträglichem Aufkleber, hin zu Ethik als Betriebssystem.

Was heißt das praktisch?

Neue soziale Netzwerke: Nicht als nächster Sogapparat, sondern als Alternative zu Desinformation – wenn sie von Beginn an nach ethischen Prinzipien gebaut werden.

Ethischer Kapitalismus: Wertschöpfung nicht trotz Normen, sondern durch Normen – als moralische Innovationslabore in Start-ups, Mittelstand und Techgiganten.

Soziale Marktwirtschaft als Update, nicht als Museum: „Eigentum verpflichtet“ nicht als Predigt, sondern als Programmzeile – operationalisierbar, überprüfbar, zertifizierbar.

Das ist die Provokation an die deutsche Debatte: Wer Ethik immer nur als Bremse beschreibt, hat die Rechnung der nächsten Jahre nicht verstanden. Wenn Vertrauen knapp wird, steigt sein Preis. Und wer Vertrauen liefern kann – rechtlich, technisch, kulturell –, hat einen Standortvorteil.

Abgrenzung zur Piraten-Ökonomie

Im Haufe-Talk fiel eine klare Kante: gegen jene Spielart des digitalen Kapitalismus, die Regulierung als Kollateralschaden betrachtet und Strafen als Betriebsausgabe verbucht. I

An dieser Stelle ist der Vergleich mit „Grok“ und der Musk-Ästhetik der Gegenwart nicht bloß Polemik, sondern Symptomdeutung: Wenn KI zur Marktschreierei wird – maximal laut, minimal verlässlich –, dann zerstört sie genau das, was sie verspricht: Orientierung. Das Ergebnis ist keine Innovation, sondern eine beschleunigte Erschöpfung der Öffentlichkeit.

Gabriels Gegenmodell ist europäisch gedacht, aber nicht europäisch provinziell: Er spricht von Allianzen auf Augenhöhe – Japan, Indien, Brasilien, Kanada, Australien; und ausdrücklich vom globalen Süden als Partnerraum, nicht als Rohstofflager für Daten und Absatz. Das ist Geopolitik der Normen: Soft Power als Infrastruktur.

Japanische Denkweise – buddhistische KI als Metapher

Dass Gabriel als Senior Global Advisor in Kyoto verankert ist, wurde im Webinar als biografische Brücke mitgeliefert. Und diese Brücke ist inhaltlich fruchtbar: Japan denkt Technik seit Jahrzehnten weniger als „kalte Maschine“ und eher als sozialen Akteur – im Alltag, im Service, in der Pflege. Wenn man dafür die Metapher „buddhistische KI“ wählt, dann nicht, weil Chips meditieren, sondern weil die Leitwerte sich verschieben: Gelassenheit statt Erregung, Fürsorge statt Klickfang, Beziehungsfähigkeit statt Dominanz.

Das klingt kulturell – ist aber am Ende produktpolitisch: Eine KI, die nicht auf maximale Bindung durch Reiz-Reaktions-Ketten optimiert, sondern auf würdevolle Interaktion. Nicht „engagement at all costs“, sondern: Wann hilft das System wirklich – und wann schweigt es?

Kurzer Blick auf die übrigen Haufe-Sessions: Praxisdruck trifft Wissensordnung

Die folgenden Sessions des Haufe-Webinars blieben bewusst praxisnah: Über 10.000 Teilnehmende, sechs Sessions, abwechselnd Talk und Vortrag. Frank Enders (Haufe-Lexware) setzte dann den Punkt, an dem Gabriels Normenfrage in die Organisation fällt: Fachwissen wird gefühlt verfügbarer, aber schwerer zu prüfen; Verlässlichkeit wird zur eigentlichen Leistung. Im Werkstattgespräch folgten Stimmen aus der Unternehmenspraxis – von „pragmatischen Vorreitern“ bis zu „digitaler Souveränität“ als Führungsaufgabe.

Die Dramaturgie war eindeutig: Erst Sinn, dann System, dann Umsetzung.

Und genau hier beginnt das Match mit Wolfgang Wahlster: Was Gabriel als normative Forderung formuliert – verlässliche, vertrauenswürdige KI –, hat Wahlster über Jahrzehnte technisch und institutionell vorbereitet. Als DFKI-Gründungsdirektor und langjähriger CEO baute er das Zentrum bis 2019 zur weltweit größten KI-Forschungseinrichtung mit über 1.000 Beschäftigten aus, prägte als emeritierter Saarbrücker KI-Professor eine ganze Generation (77 Promotionen, 22 spätere Professuren), berät das DFKI heute als Chefberater (CEA), gilt als Vordenker von Industrie 4.0 und leitete die nationale KI-Normungsroadmap der Bundesregierung – ausgezeichnet u. a. mit dem Deutschen Zukunftspreis und hohen Bundesverdienstorden, verankert in zentralen Akademien und internationalen Gremien. Dazu gehört auch ein besonders sichtbares Amt: Wahlster ist Mitglied der Königlich Schwedischen Akademie der Wissenschaften in Stockholm – jener Institution, die den Auswahlprozess für die Nobelpreise in Physik und Chemie verantwortet und zudem den Preis der Wirtschaftswissenschaften vergibt; sie fördert Wissenschaft, stärkt deren Einfluss in der Gesellschaft und organisiert die Preisverfahren. Kurz: Bei der Zunkunft Personal Nachgefragt Week steht nicht irgendein Kommentator auf der virtuellen Bühne, sondern einer der Architekten der europäischen KI – mit wissenschaftlicher und gesellschaftlicher Autorität bis in die Nobelpreis-Sphäre.

Wahlster liefert die Maschine: Empathie, Personalisierung, Standards

Während Gabriel den normativen Horizont absteckt, bringt Wahlster die Mechanik mit – und zwar aus einer Tradition, die in Deutschland oft unterschätzt wird. Im Gespräch zur Vorbereitung der Session „Empathische KI“ erinnert er daran, dass vor 40 Jahren der erste internationale Workshop zur empathischen Benutzermodellierung in Deutschland stattfand – in Maria Laach – und daraus eine bis heute aktive Konferenzreihe wurde (heute: UMAP, Personalisierung/Adaptation).

Wahlsters Kern ist nicht die große Geste, sondern der Dreischritt, der aus „KI“ überhaupt erst Interaktion macht:

Emotionen erkennen (nicht als Hokuspokus, sondern als Signalverarbeitung – Tempo, Tonhöhe, Muster).

Adaptiv reagieren (das System passt Sprache, Ton, Vorgehen an den mentalen Zustand an).

Multimodal ausdrücken (Sprache allein reicht nicht; Gestik, Mimik, Kontext zählen).

Das ist Empathie als Engineering – und damit kompatibel mit Gabriels Forderung nach moralischer Zuverlässigkeit. Denn Vertrauen entsteht nicht aus Versprechen, sondern aus wiederholbarer Verlässlichkeit.

Losgröße 1 – endlich im Bildungs- und Arbeitsalltag

Wahlster übersetzt Personalisierung in ein Wort, das man in Deutschland versteht, weil es aus der Industrie kommt: Losgröße 1. Aber er zieht es bewusst in die Bildung und in HR: Tutorielle Systeme, die nicht nur Fehler zählen, sondern Fehlkonzepte diagnostizieren und individuell korrigieren – weil Lehrkräfte dafür in überlasteten Klassen oft keine Zeit haben.

Hier entsteht ein anderer Begriff von Gerechtigkeit: Nicht Gleichbehandlung, sondern passgenaue Unterstützung. Und plötzlich wird Gabriels Gedanke greifbar, dass Ethik nicht über der Technik schwebt, sondern in ihr steckt – als Designentscheidung.

Normative KI: Standards, Roadmaps, verweigernde Systeme

Wahlster bleibt beim Thema Normen nicht im Abstrakten. Er verweist auf konkrete Normungsarbeit und Roadmaps; und er beschreibt das eigentlich entscheidende Detail: Ein ethisch gebautes System muss verweigern können – und diese Verweigerung begründen. (Sein Beispiel: Hilfe bei klar unethischen Handlungen.)

Das ist die Stelle, an der Gabriels „Ethik in Software übersetzen“ nicht mehr wie ein Essay klingt, sondern wie ein Pflichtenheft.

Save the Date: Zukunft Personal Nachgefragt Week (24.–27. Februar)

Wenn man das Haufe-Webinar als normative Standortbestimmung liest und Wahlster als technische Umsetzung, dann ergibt sich für Ende Februar ein sauberer Anschluss – nicht als Event-Hype, sondern als Debattenfortsetzung:

Dienstag, 24.02.2026 | 12:00–12:45 Uhr
Empathische KI: Wenn IT-Systeme einfühlsam werden – und Menschen wieder mehr Mensch sein können (Human X AI)
Session-Geber: Prof. Wolfgang Wahlster (DFKI-Gründungsdirektor, KI-Pionier)

Und am selben Tag der Organisationsblick:

Dienstag, 24.02.2026 | 14:00–14:45 Uhr
People First – Wie Miele, KUKA & Co. KI in ihre Organisationen bringen
Session-Geber: Bernhard Steimel

Wer nach dem Haufe-Webinar nicht beim Gefühl stehen bleiben will, dass „da etwas Großes passiert“, bekommt hier die Fortsetzung: erst die ethische Richtung, dann die empathische Maschine – und dazwischen die Frage, wie Unternehmen das überhaupt tragfähig einführen.

Wenn KI zum Freund wird, entscheidet sich alles an einem Satz: Ist sie zuverlässig – technisch, sozial, moralisch?
Gabriel stellt die Forderung. Wahlster zeigt, wie man sie baut.

Hier geht es zu unserem Newsletter.

Gulliver im Küchenschrank: Über Rahmen, Zufall und KI-Bilder – mit Obrist, Mersch und einem Proust-Moment

Man öffnet die Schranktür über der Spüle – und alles darin ist zu groß. Ketchupflaschen im Restaurantformat, Reissäcke wie Sandsäcke, Dosen, die wirken, als hätten sie ein Eigengewicht. Für einen Augenblick kippt der Maßstab: Die vertraute Küche wird zur Bühne, auf der man selbst plötzlich klein ist, ein Gulliver im Küchenschrank.

Hans Ulrich Obrist erzählt eine Szene, die genau aus so einem Maßsturz lebt. Die Künstler (Fischli/Weiss) wollten seine Küche „normal“ machen – und heraus kam eine „Mini-Ausstellung“, die dann sogar Besucher hatte – in drei Monaten kamen 29. Das Komische daran ist nicht der Ketchup, sondern die Verschiebung: Ein Alltagsschränkchen wird, nur durch den Maßstab und den Blick, zu etwas, das sich nicht mehr ganz in „Gebrauch“ auflöst. Und dann passiert der zweite, noch wichtigere Schritt: die Rahmung. Obrist schreibt, er habe „ziemlich schnell verstanden“, dass man selbst über intime Ausstellungen „immer ein Buch veröffentlichen“ müsse – und dass der Katalog selbst zur Ausstellung werden könne, als „tragbare Ausstellung“, 500 Exemplare, Werke und Fotos in Umschlägen.

Man kann das (frech, aber als Denkfigur produktiv) auf die Pointe bringen: Kunst ist es, wenn sie im Katalog erscheint. Nicht weil Papier adelt. Sondern weil Kunst eine soziale Physik besitzt: Sie entsteht nicht nur durch Dinge, sondern durch Zirkulation – durch Formen, die Dinge sichtbar, diskutierbar, zitierbar machen. Der Katalog ist dann nicht Beipackzettel, sondern ein Gerät: Er stellt her, was er zu dokumentieren scheint.

Genau an diesem Punkt beginnt der Konflikt mit Dieter Mersch – und zugleich seine Stärke.

Die Frage, die sich nicht mit „gefällt mir“ erledigen lässt

Mersch setzt in seinem Buch „Kann KI Kunst?“ dort an, wo der neue Kunst-Alltag heute schon beginnt: Die Tools sind frei verfügbar; „jeder kann also seine eigene ›Kunst‹ machen“ – und gerade darin, sagt er, liegt die Gefahr, den Kunstbegriff „endgültig aufzulösen“. Aus dieser Lage macht er keine Kulturpessimismus-Oper, sondern eine begriffliche Zumutung: Bevor man „KI-Kunst“ feiert oder verdammt, muss klar sein, welchen Kunst- und Kreativitätsbegriff man überhaupt meint. Sonst diskutiert man – höflich, erregt, endlos – aneinander vorbei.

Sein methodischer Griff ist dabei fast wissenschaftstheoretisch: Kunst soll zwar nicht „definiert“ werden wie eine chemische Substanz, aber sie muss, gerade unter dem Zeichen ihrer Unschärfe, kritisierbar bleiben – im Sinne von krinein: unterscheiden, trennen, urteilen. Darum schlägt er zwei Bewegungen vor: erstens den Blick „ins Innere“ der Maschine (Mathematik, Daten, Trainingsentscheidungen), zweitens ästhetische Kritik – aber nicht als Geschmacksbeschreibung, sondern als Prüfung dessen, was Kunst bedeutsam macht.

Das klingt streng, und es ist streng. In einer Diskussion nach seinem Vortrag in Köln im Kinosaal des Museum sLudwig prallte das sehr direkt auf eine Einwendung aus dem Publikum: „Für den Rezipienten kann es durchaus auch Kunst sein, unabhängig davon, wie das Bild zustande gekommen ist.“ Mersch antwortet: Das Kriterium „wenn es mir gefällt, ist es Kunst“ führe in ein Banausentum – in das alte „das kann ich auch“; Kunst sei nicht Geschmacksbelohnung, sondern Praxis, „eine bestimmte Art von Erkenntnisarbeit an der Welt“.

Und er legt nach: Kunst müsse dem Betrachter Arbeit abverlangen. Der „größte Fehler“ beim Bild sei, nur darauf zu achten, was zu sehen ist; entscheidend sei das Wie – die Weise, wie etwas gemacht ist und wie sich darin Zeit, Verdichtung, Widerstand ablagern. Kunst mache es einem „schwer“ – nicht als Defekt, sondern als Medium ihrer Bedeutung.

So wird aus der Debatte über KI ganz schnell eine Debatte über Zumutbarkeit. Und damit auch über Elitismus – oder darüber, was man fälschlich dafür hält.

Warum Mersch den Institutionen misstraut – und trotzdem nicht beim „Label“ landet

Wer Obrists Küchenschrank-Geschichte mag, hört bei Mersch zunächst einen Widerspruch: Wenn Kunst auch eine Frage der Rahmung ist – Katalog, Publikum, Dispositiv –, warum dann diese Skepsis gegenüber „Anerkennung“?

Mersch kritisiert tatsächlich die einfache Institutionentheorie (die Idee: Kunst ist, was im Museum hängt oder von der Kunstwelt erklärt wird). Er hält das für zirkulär und zu bequem. Stattdessen interessiert ihn, was ein Werk leistet: ein epistemischer Mehrwert, ein „epistemischer Überschuss“, der aus abweichenden, aporetischen Verbindungen entsteht – nicht bloß als Überraschung, sondern als Erkenntnis, die an den eigenen Bedingungen rührt.

Das ist ein wichtiger Punkt, gerade gegen die verbreitete Gleichsetzung von „Reichweite“ und „Relevanz“. Mersch will nicht, dass Kunst im Applaus verschwindet. Er will, dass sie widerspricht – auch dem Betrachter, auch den eigenen Mitteln.

Und doch lässt sich Obrist hier produktiv zurückspielen: Denn Obrists Katalog ist nicht nur Etikett, sondern Motor. Er ist genau so ein Mittel, das die Bedingungen verschiebt – ein Werk, das seine eigene Öffentlichkeit herstellt. Die „tragbare Ausstellung“ ist nicht weniger Kunst, weil sie auf Zirkulation setzt; sie ist Kunst, weil sie die Zirkulation als ästhetische Operation sichtbar macht.

Vielleicht liegt der Streit also nicht bei der Frage „Institution ja/nein“, sondern bei der feineren: Welche Art von Rahmung erzeugt Erkenntnis – und welche nur Konsum?

KI als „Imaginationsillustrator“: schöne Bilder, aber ein Kurzschluss der Zeit?

Mersch’ stärkste Diagnose ist nicht „KI ist hässlich“. Im Gegenteil: Er nimmt die Attraktivität ernst – und gerade das macht ihn misstrauisch. Text-zu-Bild-Systeme, schreibt er, stellen die Ekphrasis (Textfragmente, Tags) an den Anfang; daraus setzen sich Bildungen aus „Standards kursierender Bildvorstellungen“ zusammen. Das Resultat ist ein Strom automatisierter Imaginationen, Trainingsdaten als „Massenbildwaren“, klischierte Motive und klischierte Ästhetik, oft auf Überwältigung und Immersion angelegt.

Darum schlägt er den Begriff „Imaginationsillustratoren“ vor: Maschinen, die Vorstellungen mit korrespondierenden Bildzeichen versorgen, aber eben – und das ist sein Kern – nicht wirklich „erfinden“. Das Maschinen-Imaginäre greife auf ein „statisches Repertoire aus Allgemeinplätzen“ zurück. Und wo diese Bilder sich als Kunst geben, sieht er oft eine Kunsttäuschung, ein „Aussehen-wie“, eine „Als-ob“-Kunst, die für schnelle, kommerziell zirkulierende Designpraktiken besonders attraktiv ist.

In einer zugespitzten Passage nennt er das Problem beim Namen: Die forciert demokratische Urteilsenthaltung verbeuge sich vor dem „Arbitrarismus des Massengeschmacks“; was sich als non-elitär gebe, entpuppe sich als „Elitismus der Ignoranz“. Und: „KI-Kunst“ mime Kunst; sie fälsche sie; sie produziere ein „Glaubenmachen“.

Das ist hart – und zugleich präzise: Nicht jeder schöne Output ist schon eine künstlerische Operation. Schönheit kann auch ein Default-Setting sein.

Zufall: Würfelstreuung oder Ereignis?

Am deutlichsten wird Mersch’ Unterscheidung dort, wo viele KI-Fans gern ein Rettungswort zücken: Zufall. Ist nicht gerade die Unberechenbarkeit der Generatoren ein Motor der Kunst?

In einer Buchpassage zur Computerkunst insistiert Mersch: Das „Zufallsprinzip“ sei zwar ein Medium der „rechnenden creatio“, ein stochastisches Verfahren – aber damit ist noch nicht das gemeint, was avantgardistische Zufallspraktiken wollten. Denn deren Zufall war immer auch Aussage von Kunst über Kunst: Selbstkritik, Metakritik, ein Reflexionsmanöver.

Und hier kommt Marcel Proust ins Spiel – als Mitglied der Marcel-Proust-Gesellschaft freut mich das sehr. Mersch schreibt, der indeterministische Zufall impliziere eine creatio invitus im Sinne der mémoire involuntaire. Das ist ein strenger, schöner Gedanke: Nicht Zufall als Streuung (Würfel, Statistik), sondern Zufall als Ereignis, als Kairos – als Moment, in dem etwas Unverfügbares zurückschlägt und Subjekt und Zeit verändert.

Prousts berühmter Moment – der Geschmack, der eine verschüttete Zeit öffnet – ist kein Randomness-Effekt, sondern ein Zeitsprung, der den, der ihn erlebt, umstellt. Genau diese Dimension, sagt Mersch, fehlt der Maschine. Er formuliert es drastisch: computergenerierte Produktionen „kennen keine Zeit“, sie stehen als Objekte der Gegenwärtigkeit da, handeln „nur für sich, nicht von sich“.

Damit steht ein Maßstab im Raum, der größer ist als jede Ketchupflasche: Kunst als Zeit-Arbeit.

Einwände, ohne die Strenge zu verschenken

So überzeugend Mersch’ Schärfe ist – sie lädt zu Gegenargumenten ein, die man nicht als bloßes „aber ich mag das Bild“ missverstehen muss.

Erstens: Rezeption ist nicht bloß Gefallen.
Wenn ein Publikum sagt, etwas könne „für den Rezipienten“ Kunst sein, meint es nicht zwingend Wohlgefühl. Rezeption kann epistemisch sein: Ein Bild ist Kunst, wenn es im Vollzug der Wahrnehmung neue Unterscheidungen erzwingt, Wahrnehmung umlagert, Begriffe wackeln lässt – unabhängig davon, ob sein Produzent ein Mensch, ein Kollektiv oder ein hybrides Ensemble aus Mensch/Modell/Datensatz ist. Die Frage wäre dann weniger „Wer hat’s gemacht?“ als „Was macht es – und unter welchen Bedingungen?“ Mersch selbst betont ja, es gehe um das Wie, nicht nur um das Was.

Zweitens: Obrists Katalog-Pointe ist mehr als Etikett.
Obrist zeigt, dass Distribution selbst eine künstlerische Operation sein kann: Der Katalog ist die Ausstellung – eine Form, die Erfahrung mobil macht und neue Öffentlichkeiten erzeugt. Das ist keine Verflachung, sondern eine andere Art von „Erkenntnisarbeit“: nicht im Werkinneren allein, sondern im Gefüge von Werk, Medium, Publikum.

Drittens: Hybridität kann genau die Reflexivität erzeugen, die Mersch fordert.
Wenn KI nicht als Autor-Mythos auftritt, sondern als Material, Widerstand, Störquelle – dann kann Kunst gerade darin liegen, die Klischeemaschine zu sabotieren: Stereotype sichtbar zu machen, Promptlogiken zu brechen, die Bilderflut gegen ihre eigene Ökonomie zu wenden. Auch Mersch beschreibt ja, wie sehr diese Systeme zu Klischee, Überwältigung und „Massenbildwaren“ tendieren.

Viertens: Proust ist nicht nur eine Theorie des Autors, sondern eine Theorie des Auslösers.
Die mémoire involuntaire hängt nicht daran, dass der Auslöser „menschlich produziert“ ist. Ein banales Bild – auch ein generiertes – kann im falschen (oder richtigen) Moment eine Zeitfalte öffnen. Dann läge das Kunstereignis nicht „in der Maschine“, sondern im Zwischenraum: Bild – Blick – Lebenszeit. Das macht die Maschine nicht zum Künstler, aber es macht die Frage komplizierter: Vielleicht ist Kunst weniger Eigenschaft des Outputs als eine Konstellation.

Drei Rahmen – und ein Maßstab

Was bleibt nach dem Küchenschrank, nach dem Katalog, nach dem Proust-Moment?

Vielleicht dies: Kunst entsteht dort, wo Rahmung nicht bloß adelt, sondern Bedingungen sichtbar macht; wo Praxis nicht bloß produziert, sondern sich selbst mitreflektiert; und wo Zeit nicht bloß verfließt, sondern als Widerstand oder Rückschlag spürbar wird.

Obrist liefert die Lektion der Zirkulation: Ohne Formen der Veröffentlichung, ohne Kataloge, ohne tragbare Ausstellungen bleiben Erfahrungen privat und stumm – oder verschwinden im Schrank. Mersch liefert die Lektion der Zumutung: Ohne krinein, ohne Unterscheidung, ohne die Arbeit am Wie, wird alles Kunst – und damit nichts. Und Proust liefert die Lektion des Ereignisses: Ohne jene unwillkürliche Zeit, die einen trifft, bleibt Zufall bloße Streuung.

KI-Bilder stehen genau zwischen diesen Polen. Sie können überwältigen, schmeicheln, verführen – und damit in die Kaufhausästhetik kippen. Sie können aber auch – in der Hand einer Praxis, die sich nicht mit „Output“ zufriedengibt – zum Material werden, an dem sich etwas entzündet: eine Kritik der Klischees, eine Störung der Blickgewohnheit, vielleicht sogar (selten, aber möglich) ein Proust-Moment.

Der Küchenschrank lehrt: Manchmal reicht eine kleine Maßstabsverschiebung, damit die Welt nicht mehr „normal“ ist. Aber ob aus dieser Verschiebung Kunst wird, entscheidet sich nicht am Ketchup. Entscheidend ist, ob daraus eine Form entsteht, die mehr tut, als zu gefallen: eine Form, die Zeit hat – oder Zeit macht.

Das ist mein zweiter Beitrag zur sehr interessanten Kölner Veranstaltung. Kunst im Kontext : Artistic versus Artificial Intelligence. Zur Kritik künstlicher Kreativität

Demnächst folgt noch ein Autorengespräch mit Dieter Mersch via Zoom.

Siehe auch:

«Meine erste Ausstellung organisierte ich zu Hause in der Küche»

Der Ausstellungskatalog wird auf zvab hoch gehandelt.

Sanktionen als Ersatzpolitik: Warum Deutschland im China-Konflikt klüger sein muss @Bundeskanzler

Wer heute in Berlin oder Brüssel über China spricht, redet oft so, als ließe sich Weltwirtschaft in Lager aufteilen: hier die „Guten“, dort die „Gefährlichen“, dazwischen ein paar Strafzölle, Exportkontrollen und moralische Erklärungen. Das Ergebnis ist kein strategischer Kurs, sondern eine Mischung aus Dämonisierung und Aktionismus. Und genau das ist gefährlich: weil es die eigenen Abhängigkeiten nicht verringert, sondern verschiebt; weil es die europäischen Interessen unscharf macht; und weil es uns in einen Wirtschaftskrieg hineinzieht, dessen innere Logik nicht europäisch ist.

Der amerikanische Export-Mythos und die politische Versuchung, China zum Sündenbock zu machen

Schon vor einigen Jahren wurde im digital nüchtern beschrieben, wo die strukturellen Schwachstellen der USA liegen: ein chronisches Güterhandelsdefizit, eine Exportstruktur, die politisch wenig Integrationskraft entfaltet, und eine Wohlstandsmaschine, die stark über Patente, Lizenzen und die globale Abschöpfung von Wertschöpfung funktioniert, während die heimische industrielle Basis vielerorts ausdünnt. Dazu kommt das, was in der Debatte oft als „Offshore-Ökonomie“ durchgeht: Profite entstehen dort, wo Steuersätze klein und Regeln biegsam sind, nicht dort, wo Fabriken stehen.

Die politischen Folgen liegen auf der Hand: Wenn die eigene Ökonomie im Kern an Güterproduktion schwächelt, wächst der Druck, den Konflikt zu externalisieren. Dann wird Handelspolitik zum Instrument innenpolitischer Beruhigung: Man erklärt Zölle zur Industriepolitik, Sanktionen zur Gerechtigkeit, „Härte“ zur Lösung. Und man findet in China den idealen Gegner, weil er groß ist, anders tickt und als Projektionsfläche für fast alles taugt.

Das ist keine Parteifrage. Der protektionistische Impuls ist in den USA längst überparteilich geworden. Die großen China-Zölle aus der ersten Amtszeit von Trump wurden unter Joe Biden nicht etwa zurückgedreht, sondern im Kern beibehalten und teils verschärft.

Europas Realität: Wir können uns keine Loyalitätsfalle leisten

Deutschland ist keine Insel. Unsere Wirtschaftsleistung hängt an globalen Märkten, an Zulieferketten, an Absatzräumen. Wer uns zum Frontstaat eines US-chinesischen Handelskonflikts machen will, soll bitte ehrlich dazusagen, welche Industrien er dafür zu opfern bereit ist.

Aktuelle Außenhandelsdaten zeigen die Gewichte deutlicher als jede Sonntagsrede: 2024 gingen rund 10,4 Prozent der deutschen Exporte in die USA (Wert: 161,4 Mrd. Euro). Gleichzeitig bleibt China ein zentraler Markt und vor allem ein massiver Lieferant: Deutsche Exporte nach China lagen 2024 bei rund 90,0 Mrd. Euro, bei einem deutlichen bilateralen Defizit. Und der Trend ist politisch brisant: Für 2025 wird prognostiziert, dass China als Exportziel weiter zurückfällt (u. a. wegen lokaler Produktion und schwächerer Nachfrage) – bei gleichzeitig weiter hoher Importquote.

Wer in dieser Lage „harte Sanktionen“ fordert, sollte das Wort übersetzen: Es heißt in der Praxis Gegenmaßnahmen, Marktverluste, beschleunigte Importsubstitution, Lieferkettenstress – und am Ende oft: europäische Firmen zahlen die Rechnung, während Washington den Konflikt innenpolitisch verwertet.

Genau vor dieser Mühlstein-Logik wurde in Gesprächen mit Experten seit Jahren gewarnt: Das Worst-Case-Szenario ist, zwischen USA und China zur Wahl gezwungen zu werden – und ökonomisch zerrieben zu werden.

Das Problem an „harten Sanktionen“: Sie sind selten smart, oft teuer und politisch bequem

Sanktionen können sinnvoll sein, wenn sie eng begrenzt sind: gegen konkret identifizierte Akteure, gegen eindeutig militärische Dual-Use-Transfers, gegen nachweisbare Umgehungsnetze. Aber „harte Sanktionen gegen China“ als pauschale Strategie sind eine grobe Keule. Drei Gründe:

Sie verwechseln Moral mit Mechanik.
Moralische Empörung ersetzt kein Wirkungsmodell. Handels- und Technologiesanktionen verändern Anreize – aber sie erzeugen auch Anpassung. China reagiert nicht mit Einsicht, sondern mit Substitution, Industrieförderung, Marktabschottung.

Sie stabilisieren das amerikanische Narrativ, ohne Europas Interessen zu bedienen.
Die USA nutzen Handelspolitik zunehmend, um eigene Strukturprobleme zu kaschieren. Die Güterbilanz ist ein zentraler Schwachpunkt. Selbst 2024 war der amerikanische Güterhandelsbilanzsaldo tief negativ, während Dienstleistungen deutlich besser laufen – das ist eine Ökonomie, die außenpolitisch zu Druckmitteln neigt.

Sie legen Europa an die kurze Leine.
Wenn Europa reflexhaft „mitzieht“, wird es zum Anhängsel fremder Interessenlagen. Strategische Autonomie heißt nicht Neutralität, sondern Entscheidungskompetenz.

    Dämonisierung: Warum sie politisch toxisch und ökonomisch dumm ist

    „China“ wird in Teilen der Debatte behandelt wie ein monolithischer Block: ein Gegner, eine Absicht, ein Plan. Das ist intellektuelle Faulheit – und in der Praxis ein Turbo für Fehlentscheidungen. Dämonisierung erzeugt drei Schäden:

    Sie verhindert Priorisierung. Alles wird „Sicherheitsrisiko“, also wird am Ende nichts sauber abgesichert.

    Sie begünstigt Symbolpolitik. Große Worte, kleine Wirkung, hohe Kosten.

    Sie vergiftet die Fähigkeit zur nüchternen Interessenpolitik. Deutschland braucht beides: klare rote Linien (Spionage, Sabotage, militärische Schlüsseltechnologien) und zugleich die Fähigkeit, in nicht-sensiblen Bereichen weiter zu handeln.

    Was Deutschland stattdessen tun sollte: Interessenpolitik ohne Illusionen

    1. De-risking in echt, nicht als PR-Formel.
      Kritische Abhängigkeiten identifizieren (Halbleiter, Pharma-Vorstufen, Netzkomponenten, seltene Rohstoffe), Alternativen aufbauen, Lagerstrategien modernisieren. Nicht „Decoupling“, sondern Redundanz.
    2. Europäische Industriepolitik als Sicherheitsinstrument.
      Nicht mehr reden, bauen: Energiepreise, Netze, Rechenzentren, Halbleiterkapazitäten, Robotik, Photonik, industrielle KI. Wer „Souveränität“ sagt und keine Produktions- und Kapitalmarktarchitektur liefert, betreibt Folklore.
    3. Handelsfähigkeit statt Haltungsstolz.
      Europa braucht eine robuste Handels- und Investitionsstrategie in Asien jenseits von China (ASEAN, Indien, Südkorea, Japan), ohne sich in Blocklogik zu flüchten.
    4. Gezielte Abwehr statt pauschaler Strafkataloge.
      Wo Spionage und Einflussoperationen stattfinden: konsequent verfolgen, sanktionieren, schützen. Aber nicht die gesamte Wirtschaftsbeziehung als moralisches Tribunal führen.
    5. Nicht in den Wirtschaftskrieg hineinziehen lassen.
      Kooperation mit den USA: ja. Automatische Gefolgschaft: nein. Wer europäische Resilienz will, darf europäische Wertschöpfung nicht zum Kollateralschaden fremder Innenpolitik machen.

    Am Ende ist die Frage nicht, ob China „gut“ oder „böse“ ist. Die Frage ist, ob Deutschland und Europa erwachsen genug sind, Sicherheit, Wohlstand und Handlungsfreiheit gleichzeitig zu denken. Dämonisierung ist bequem. Klugheit ist Arbeit.

    Siehe dazu auch den Reisebericht von Walter Tauber:

    Wenn der Raum mitentscheidet: Warum Präsentationstechnik, Licht und Akustik zur Produktivitätsfrage werden

    In vielen Organisationen ist der Besprechungsraum noch immer ein Ort, an dem man sich trifft – nicht ein Ort, an dem man vorankommt. Genau an dieser Stelle setzen zwei Stimmen aus dem Smarter-Service-Umfeld an: Benjamin Springub von der KOMI Group und Samir Ayoub, CEO von designfunktion. Beide argumentieren aus unterschiedlichen Perspektiven, aber mit der gleichen Diagnose: Der Raum ist kein Hintergrund. Er ist ein System. Und dieses System ist in erstaunlich vielen Unternehmen und Verwaltungen noch nicht sauber eingestellt.

    Nicht zehn Screens, sondern ein Konzept

    Springub beschreibt das Problem mit dem Blick des Praktikers: Wer Räume aus dem Katalog heraus bestückt, kauft sich keine Wirkung. „Das fängt faktisch im Design der Räume an“, sagt er – und warnt vor der reflexhaften Lösung, einfach „jeden Screen zehnmal“ zu bestellen und überall zu montieren. Entscheidend sei, „was gibt der Raum her“, inklusive Ton, Akustik und Nutzungsszenario.

    Aus seiner Sicht sind es nicht die großen Innovationsdebatten, die den Alltag zäh machen, sondern die kleinen Reibungsverluste: Technik, die von Raum zu Raum anders ist, Bedienlogik, die niemand mehr nachvollzieht, Geräte, die „verschwinden“, weil sie von Raum zu Raum wandern. Solche Details summieren sich zu Zeitverlust – und Zeitverlust ist die teuerste Meeting-Währung. 

    Der Raum als Ganzes: Technik, Licht, Akustik, Möblierung

    Ayoub geht einen Schritt weiter und fasst es als Gestaltungsaufgabe: Medientechnik, Akustik, Licht und Innenarchitektur müssten „ein Ganzes“ bilden, erst dann entstünden „gute Arbeitsrahmenbedingungen und damit auch gute Arbeitsergebnisse“. 

    Wichtig ist dabei: Es geht nicht nur um hybride Konstellationen. Ayoub zieht die Linie ausdrücklich zu klassischen Präsentations- und Kommunikationssituationen: In mittleren und großen Präsentationsräumen müsse man sicherstellen, dass man „in den hinteren Reihen gut zuhören“ und Inhalte gut erkennen kann – und dass Blick, Distanz, Bildschirmgröße und Sprachverständlichkeit zusammenpassen. 

    Workshops, Konferenzraum, Townhall: Jeder Modus hat andere Regeln

    Ayoub unterscheidet Szenarien, die in vielen Unternehmen in denselben Raum gepresst werden: frontale Präsentation, kollaborative Formate, agile Workshops. Diese Modi bräuchten unterschiedliche Raum-Setups – andere Möblierung, andere Mikrofonie, andere Lichtführung, andere akustische Maßnahmen. Und manchmal sogar gegensätzliche akustische Ziele: In großen Townhalls oder Konferenzsälen gehe es eher darum, Sprache „sauber bis hinten“ zu transportieren; dann könnten Oberflächen weniger absorbierend sein als in einem kleineren Konferenzraum, in dem Nachhall reduziert werden soll.

    Der entscheidende Punkt: Wer „Raum“ nur als Quadratmeter betrachtet, wird ihn überfordern – weil er gleichzeitig Besprechungszimmer, Workshop-Labor, Lernraum und Präsentationsbühne sein soll.

    Gegenlicht ist keine Stilfrage, sondern Physik

    Zu den häufigsten Fehlern zählt Ayoub ganz banal das Licht: „Hauptfehler Nummer eins“ sei Gegenlicht oder „Fenster im Rücken“. Das sei „ein Stückchen Physik“, werde aber „inflationär oft“ falsch gemacht. Wenn die Blickrichtung nicht zur Fensterseite passt, wird das Bild dunkel – unabhängig von Kamera, Software oder gutem Willen.

    Damit rückt ein oft unterschätztes Thema nach vorn: Raumqualität beginnt nicht bei der Technik, sondern bei den Rahmenbedingungen, die Technik überhaupt erst wirken lassen.

    50 bis 75 Prozent Nachholbedarf

    Wie groß der Rückstand ist, beziffert Ayoub vorsichtig, aber deutlich: Um „auf ein gutes Niveau“ zu kommen – nicht High-End, aber wirksam – hätten „50 bis 75 Prozent“ der Organisationen Nachholbedarf und müssten investieren.

    Diese Zahl passt zu dem, was Springub indirekt beschreibt: Wenn Räume nicht standardisiert, nicht durchdacht und nicht als Gesamtsystem betrieben werden, entsteht eine Meeting-Ökonomie aus Störungen, Umwegen und verlorener Aufmerksamkeit.

    Vom Besprechungsraum zum Entscheidungs- und Begegnungsraum

    Vom Besprechungsraum zum Entscheidungs- und Begegnungsraum, so könnte man die Hausaufgabe für viele Unternehmen und Behörden skizzieren. Es gehe nach Erfahrungen von Ayoub darum, dass „wirklich relevante Dinge“ passieren – und nicht nur Termine abgearbeitet werden. Am Ende müsse für alle das Gefühl stehen: „Es hat sich gelohnt.“ Technik und Raum hätten darauf „großen Einfluss“. 

    Springub formuliert das komplementär: Gute Medien- und Audio-Video-Konferenztechnik sei der Schlüssel, damit Meetings nicht an Distanz, Raumgefühl und fehlender Teilhabe scheitern – „räumlich getrennt, aber trotzdem alle da“. Entscheidend ist: nicht das Gerät, sondern die Erfahrung, die es ermöglicht. 

    Unterm Strich ist die Botschaft beider Gespräche eindeutig: Die Transformation der Arbeit scheitert selten am fehlenden Tool. Sie scheitert erstaunlich oft an Akustik, Licht, Bedienlogik, Blickachsen – und daran, dass Räume für alles da sein sollen, aber für nichts wirklich gut.

    Zwischen Superlativ und Wirklichkeit: Gabriel Felbermayrs nüchterner Blick auf das EU-Indien-Abkommen @GFelbermayr @vonderleyen

    Gabriel Felbermayr inszeniert seine Kurzanalyse zum EU-Indien-Abkommen als kleinen Reality-Check gegen die politische Euphorie. In acht Tweets spannt er einen Bogen vom historischen Kraftakt („Verhandlungsstart vor 20 Jahren“) bis zur geopolitischen Deutung – und landet dabei vor allem bei einem Befund: groß ja, radikal frei eher nein.

    Der Ton: sachlich, pointiert, bewusst entzaubernd

    Schon im Einstieg setzt Felbermayr auf Vergleich und Kontext: Wie beim Mercosur-Abkommen sei das Ganze eine „schwere Geburt“, Indien lange ein protektionistisches Bollwerk, in der WTO ein schwieriger Partner. Das ist journalistisch geschickt, weil es die Erwartungshaltung rahmt: Wer nach zwei Jahrzehnten Verhandlungen ein „Mutter-aller-Abkommen“-Narrativ erwartet, soll gleich zu Beginn auf Realismus geeicht werden.

    Und genau diesen Kontrast spielt er aus: Superlative seien wegen der Größenordnung (1,9 Milliarden Menschen, 25.000 Mrd. Dollar Wertschöpfung) „in Ordnung“, aber das Abkommen sei „einigermaßen seicht“. Diese Formulierung ist nicht nur zugespitzt, sie ist auch programmatisch: Felbermayr bewertet nicht nach Symbolik, sondern nach Marktzugang, Abdeckung und Tiefe der Regeln.

    Die Substanz: „Freihandel“ als Etikett, nicht als Vollausbau

    Der stärkste Teil der Analyse liegt in der Aufzählung dessen, was nicht (oder nur teilweise) drin ist: Rohstoffe und große Teile der Landwirtschaft, Regeln zu Staatsbetrieben, Zölle auf Online-Transaktionen. Damit benennt er klassische Konfliktfelder moderner Handelsabkommen – und macht klar, warum „Freihandel“ hier eher eine politische Abkürzung ist.

    Besonders konkret wird Felbermayr beim Automobilsektor: zunächst nur Verbrenner, Zollsenkung von über 100% auf 40%, langfristig 10% und später erst E-Autos. Das ist anschaulich, weil es zeigt, wie Abkommen oft funktionieren: als Stufenplan, der politisch heikle Branchen mit Übergangsfristen beruhigt. Gleichzeitig wird damit seine zentrale Diagnose plausibel: Wer viele Ausnahmen und lange Zeitpfade hat, produziert kurzfristig kleinere Effekte.

    Die Wirkung: kleine Zahl, große Botschaft – aber mit Lücken

    Felbermayrs BIP-Daumenregel („kurzfristig ca. +0,1% in 🇩🇪 & 🇦🇹“) erfüllt in einem Tweet-Format eine klare Funktion: Sie gibt Orientierung und bremst Erwartungen. Clever ist auch der politische Vergleich („kompensiert 1/2 des negativen Effekts der US-Zölle“) – damit wird das Abkommen als Teil einer größeren handelspolitischen Abwehrlage erzählt.

    Was in dieser Kürze allerdings zwangsläufig unterbelichtet bleibt: Verteilung und Reibung. Ein aggregierter BIP-Effekt sagt wenig darüber, wer gewinnt (exportstarke Industrie, große Investoren) und wer verliert (kleine Betriebe, sensible Agrarsegmente, Regionen mit Anpassungsdruck). Auch zentrale Fragen der Umsetzung – Kontrollmechanismen, Streitbeilegung, tatsächliche Einhaltung von Zeitplänen – erscheinen nur indirekt.

    Der Mehrwert: Rechtssicherheit als eigentliche Dividende

    Stark ist Felbermayrs Hinweis, dass Zölle nur die halbe Miete sind: Rechtssicherheit bei Investitionen, weniger Bürokratie, leichteres Diversifizieren der Beschaffung. Das trifft einen Nerv, weil Unternehmen im Indiengeschäft oft nicht an einem Prozentpunkt Zoll scheitern, sondern an Verfahren, Standards, Genehmigungen, Rechtsdurchsetzung. Hier wirkt seine Analyse am modernsten: Handelsabkommen als Institutionenpaket, nicht als reine Zollmaschine.

    Das Politische: Geopolitik – und ein Schuss Kulturkampf

    Im letzten Drittel kippt der Fokus von Ökonomie zu Geopolitik: Die EU demonstriere Handlungsfähigkeit gegenüber „komplizierten Partnern“. Das ist nachvollziehbar, zumal Indien strategisch zwischen Blöcken agiert. Gleichzeitig erlaubt sich Felbermayr eine kämpferische Pointe: „Globalisierungsfeinde“ könnten noch „auf die Barrikaden“ klettern, etwa beim Investitionsschutz.

    Hier zeigt sich eine Schwäche der Form: Der Konflikt um Investitionsschutz ist nicht nur „Skandalisierung“, sondern berührt reale demokratietheoretische und rechtsstaatliche Debatten (Schiedsgerichte, Regulierungsspielräume, Transparenz). Felbermayrs Warnung vor politischer Blockade ist plausibel – sein Framing reduziert die Gegenposition aber eher, als dass es sie argumentativ ausleuchtet.

    Felbermayrs Thread ist eine gut lesbare, fachlich geerdete Entmythologisierung: riesige Dimension, begrenzte Tiefe, kurzfristig moderate Effekte – und ein langfristiger Wert über Wachstum, Rechtssicherheit und Bürokratieabbau. Als journalistische Kurzanalyse funktioniert das sehr gut: klar, konkret, ohne Alarmismus.

    Als umfassende Bewertung bleibt sie naturgemäß fragmentarisch: Verteilungswirkungen, Nachhaltigkeits- und Standardsfragen, Durchsetzungsmechanismen und die politische Ökonomie des Investitionsschutzes bleiben Randnotizen. Doch vielleicht ist gerade das die Stärke dieses Formats: Felbermayr liefert keinen Jubeltext, sondern einen Kompass – und erinnert daran, dass Handelsabkommen nicht dadurch groß werden, dass man sie groß nennt, sondern dadurch, dass sie am Ende ratifiziert, umgesetzt und gelebt werden.

    Wenn die Imagination auf „Ausführen“ klickt: Ein Abend im Museum Ludwig über künstliche Kreativität – und die Blackbox, die wir selbst sind

    Magritte im Kinosaal: Das Bild widerspricht dem Wort

    Dass ausgerechnet im Kino des Museum Ludwig – einem Ort, der seit jeher an der industriellen Erzeugung von Vorstellungskraft beteiligt ist – René Magrittes „Les mots et les images“ auf die Leinwand kam, war mehr als ein kunsthistorischer Einschub. Es war der heimliche Leitfaden des Abends. Magritte zeigt nicht einfach Bilder, er stellt Bedingungen: Wörter kleben nicht an Dingen, Bilder sind keine Dinge, und Bedeutung entsteht nicht aus Ähnlichkeit, sondern aus einem Verhältnis, das stets wackelt.

    Diese Folie erschien im Laufe des Vortrags wie ein Prüfstein für die Frage, die über der Veranstaltung stand: Ist das, was KI-Systeme hervorbringen, Kunst – oder nur ein neuer Modus der Illustration? Und weiter: Wenn die Maschine Bilder „versteht“, wie verstehen wir dann noch Bilder?

    Die Mathematik der Varianten: Kreativität als Suchproblem

    Dieter Mersch – Mathematiker und Philosoph, Medientheoretiker, später Philosophische Ästhetik – argumentierte gegen die gängige Beruhigungsformel, KI sei „nur ein Tool“ und das Ergebnis daher automatisch harmlos. Seine Pointe zielte tiefer: KI-Systeme seien Mathematik-Maschinen, begrenzt durch das, was sich formalisieren, zählen, gewichten, optimieren lässt. In dieser Sicht ist das generierte Bild kein Werk, sondern eine Ausgabe: Ergebnis einer Funktion, die Eingaben (Prompts, Parameter, Trainingsverteilungen) auf Ausgaben (Pixel) abbildet.

    In dieser Funktionalität liegt die Verführung. Sie macht Kreativität scheinbar verfügbar – als wäre sie eine Rechenoperation im Raum der Möglichkeiten. Die Kunst wird dann zu einer Frage der Kombinatorik: mehr Daten, mehr Rechenzeit, bessere Modelle, bessere Ergebnisse. Der Markt liebt das, weil er Varianz mit Innovation verwechselt: Die Auktion ist die natürliche Heimat des „beeindruckenden Outputs“.

    Mersch konterte, indem er zeigte, wie man Systeme „auflaufen“ lassen kann: mit offenen Fragen, mit widersprüchlichen Kontexten, mit jenen Stellen, an denen das Modell seine Statistik verrät. Der Vortrag hatte damit eine dramaturgische Strategie: Entzauberung durch Vorführung.

    Mein Einwand: Die Blackbox als zu bequeme Grenzziehung

    In der Diskussion wurde mir an einem Punkt unbehaglich – und ich habe es als Einwand formuliert: Wenn der Abend vor allem demonstriert, wie man KI-Systeme vorführen kann, bleibt eine Frage unterbelichtet: Was passiert, wenn Mensch und Maschine nicht gegeneinander, sondern miteinander arbeiten? Nicht als Mythos vom „Ersatzmenschen“, sondern als alte künstlerische Praxis, die es längst gibt: die Linie von frühen Computerkünstlern, in der Programmierkraft, Instrument und Entscheidung verschmelzen.

    Hier griff ich zum Wort „Blackbox“ – nicht als metaphysische Behauptung („das Gehirn ist geheimnisvoll, also heilig“), sondern als epistemische Lage: Auch wir wissen nicht vollständig, wie Einfälle, Bedeutungen, Entscheidungen in uns zustande kommen. Wir konstruieren Kontexte, collagieren, kuppeln, variieren, verfeinern. Wenn man die Maschine als „Blackbox der Kontextverarbeitung“ abtut, gerät man in Gefahr, die menschliche Blackbox als sakrosankt zu setzen – und damit den entscheidenden Unterschied zu verfehlen.

    Denn der Unterschied liegt nicht zuerst darin, dass etwas im Innern undurchsichtig ist. Der Unterschied liegt darin, was ein System im Außen schuldet.

    Wittgenstein gegen den Innerlichkeitskult: Bedeutung ist Gebrauch

    Wer Wittgenstein ernst nimmt, kann die Debatte von innen nach außen drehen. Bedeutung ist kein Besitz im Kopf, keine private Substanz, kein inneres Leuchten, das sich dann im Werk „ausdrückt“. Bedeutung ist Gebrauch: öffentliche Kriterien, Regeln, Praktiken, Formen des Lebens. Nicht das Innenleben entscheidet, sondern das, was im Verkehr trägt – und was scheitert.

    Das trifft die KI-Frage dort, wo sie weh tut: Ein Generator kann Formen liefern, aber er spielt nicht in dem Sinn, dass er Gründe geben, Ansprüche erheben, Versprechen brechen, Verantwortung tragen könnte. Er produziert Anschlussfähigkeit; wir produzieren Verbindlichkeit. Kunst aber – sofern sie mehr ist als Dekor – ist genau diese riskante Erzeugung von Verbindlichkeit: ein Satz, ein Bild, eine Setzung, die nicht nur gefallen will, sondern gelten soll.

    Turing ohne Metaphysik: Imitation ist nicht Identität

    Auch Turing hilft – sofern man ihn nicht als Erlöser der Maschinen missversteht. Das Imitationsspiel fragt nicht nach dem „Wesen“ im Innern, sondern nach der Teilnahmefähigkeit: Kann etwas in unseren Sprach- und Handlungsspielen bestehen? Genau darin liegt die Nüchternheit – und die Zumutung. Die Maschine muss nicht „denken“ wie wir, um zu funktionieren. Und wir müssen nicht wissen, wie sie funktioniert, um von ihr beeinflusst zu werden.

    Das verschiebt den Fokus: Nicht „Ist das Kunst?“, sondern: Unter welchen Bedingungen behandeln wir Outputs als Kunst – und was macht diese Behandlung mit unseren Kriterien? Die gefährliche Stelle ist nicht der Algorithmus, sondern die institutionelle und soziale Bereitschaft, Urteil durch Komfort zu ersetzen.

    Der Kurator als Möglichmacher: Nicht Aufpasser, sondern Kontextbauer

    An diesem Punkt kommt eine Figur ins Spiel, die im Kunstbetrieb längst wirksam ist und in der KI-Welt erst verstanden werden muss: der Kurator – nicht als Kontrollinstanz, sondern als Möglichmacher. Einer, der Räume schafft, in denen Bedeutung entsteht, weil nicht alles fertig ist, weil Brüche erlaubt sind, weil Umdeutung ausdrücklich eingeladen wird.

    Übertragen auf KI heißt das: Der entscheidende Mensch ist nicht der Prompt-Flüsterer, der auf „Ausführen“ klickt. Der entscheidende Mensch ist der, der Kontexte inszeniert: der Fragen so stellt, dass nicht nur Output entsteht, sondern Streit; der Brüche zulässt; der das Nicht-Vorhersehbare nicht als Fehler, sondern als Möglichkeit behandelt. Kuratieren ist hier keine Aufsicht, sondern eine Ethik der Rahmenbedingungen.

    Was vom Abend bleibt: Kritik ja – aber nicht als Beruhigung

    Mersch’ Vortrag hatte die Stärke, die gängige Euphorie nicht zu bedienen. Er erinnerte daran, dass Generatoren nicht „unschuldig“ sind: Sie füttern Bildpolitiken, sie standardisieren Stile, sie beschleunigen die Zirkulation des Immergleichen. Und doch blieb ein Risiko: Die Vorführung der Schwächen kann das Publikum beruhigen – „so dumm ist das“ – statt es zu beunruhigen – „so sehr hängt das an uns“.

    Magritte auf der Leinwand war die beste Antwort des Abends auf seine eigene Versuchung. Denn Magritte sagt nicht: Das Bild ist falsch. Er sagt: Das Bild ist nie nur Bild. Es steht im Verhältnis zu Worten, Blicken, Erwartungen. Genau dieses Verhältnis ist die eigentliche Arena der KI-Kunst. Nicht ob die Maschine „kreativ“ ist, entscheidet, sondern ob wir den Mut haben, unsere eigenen Kriterien zu überprüfen – und die Verantwortung nicht an die Statistik zu delegieren.

    Am Ende ist die Blackbox nicht das Modell. Die Blackbox sind wir: unsere Bequemlichkeit, unser Hunger nach Varianten, unsere Bereitschaft, Bedeutung mit Wirkung zu verwechseln. Wer das begriffen hat, hat aus einem Vortrag über künstliche Kreativität eine Frage an die eigene Urteilskraft gemacht. Und das wäre – im besten Sinn – Kunst im Kontext.

    Exkurs: Die Konstruktivisten und der Platonismus der Ingenieure

    Silicon Valley als metaphysische Werkstatt

    Der Ingenieur-Platonismus aus dem Silicon Valley ist keine akademische Position, sondern eine Arbeitsreligion: Was sich formalisieren lässt, existiert; was existiert, lässt sich optimieren. Die Welt erscheint als vorgegebener Vorrat an Strukturen, die nur noch entdeckt, vermessen, in Vektorräume gelegt werden müssen. „Reality“ wird zur Datenbank, Wahrheit zur Konvergenz einer Loss-Funktion. Das ist Platonismus ohne Dialoge: Ideen nicht als Ideen, sondern als Features.

    Diese Haltung ist so wirksam, weil sie sich als Bescheidenheit tarnt. Man behauptet nicht mehr, die Welt zu kennen – man behauptet nur, Modelle zu bauen. Doch im selben Atemzug wird das Modell zur Welt. Aus dem mathematischen Ideal der Invarianz wird ein politisches Ideal der Steuerbarkeit.

    Foerster: Nicht die Welt wird erkannt, sondern erzeugt

    Heinz von Foerster hat genau an dieser Stelle die Schraube gedreht. Sein Konstruktivismus – genauer: eine Kybernetik zweiter Ordnung – beginnt mit einer simplen Störung des platonischen Selbstverständnisses: Der Beobachter gehört in das Beobachtete. Wissen ist nicht Entdeckung eines bereits fertig vorliegenden Kosmos, sondern Resultat von Unterscheidungen, die ein System trifft, um überhaupt handlungsfähig zu sein. Wahrheit wird damit nicht beliebig, aber sie wird situiert: abhängig von Perspektive, Zweck, Rückkopplung, Verantwortung.

    Für den Ingenieur-Platonismus ist das unerquicklich, weil es den schönen Traum zerstört, man könne die Welt „neutral“ abbilden. Foerster sagt sinngemäß: Jede Abbildung ist schon eine Operation – und jede Operation hat Folgen. Wer behauptet, nur zu messen, hat sich meist nur die eigenen Setzungen unsichtbar gemacht.

    Bense und Franke: Mathematik als Medium, nicht als Altar

    Max Bense hat die Mathematik früh in die Ästhetik hineingezogen – allerdings nicht, um der Kunst ein Rechenzentrum überzustülpen, sondern um sie als Informationsereignis zu denken: Ordnung und Komplexität, Variation und Redundanz, Signal und Rauschen. Das war riskant, weil es den Verdacht nährte, Kunst ließe sich messen. Aber der produktive Kern dieser „exakten Ästhetik“ liegt woanders: in der Einsicht, dass Form nicht nur Ausdruck, sondern Organisation von Möglichkeiten ist.

    Herbert W. Franke wiederum – Praktiker, Experimentator, Pionier der Computerkunst – behandelte die Maschine nicht als Genie, sondern als Apparat der Variation: Serie, Zufall, algorithmische Regel, Wahrnehmungsversuch. Seine Arbeiten sind weniger Beweise für „künstliche Kreativität“ als Studien darüber, wie sich ästhetische Erfahrung verschiebt, wenn man Verfahren sichtbar macht. Franke steht damit näher bei Foerster als bei den platonischen Ingenieuren: Nicht „Die Maschine entdeckt Schönheit“, sondern „Wir lernen an der Maschine, was wir überhaupt Schönheit nennen“.

    Der Streitpunkt: Entdecken oder Konstruieren?

    Hier verläuft die eigentliche Frontlinie.

    • Platonismus der Ingenieure: Es gibt eine vorstrukturierte Welt; Daten sind ihr Abdruck; Modelle sind Annäherungen; Optimierung ist Fortschritt.
    • Konstruktivismus: Es gibt keine „datenreine“ Welt; Daten sind Ergebnisse von Entscheidungen; Modelle sind Eingriffe; Optimierung ist immer Optimierung von etwas für jemanden.

    Wer KI als Kunstmaschine feiern will, hängt oft stillschweigend am ersten Bild: Kreativität sei ein Raum, der schon existiert, und das Modell navigiere ihn eben besser. Konstruktivistisch gelesen ist Kreativität eher ein Kontext- und Verantwortungsphänomen: Sie entsteht dort, wo Regeln gesetzt, gebrochen, reflektiert werden – und wo jemand für diese Setzungen einsteht.

    Das macht den Gegensatz so aktuell: Silicon Valley baut Werkzeuge, als wären sie Weltzugänge. Die Konstruktivisten erinnern daran, dass sie zuerst Weltzugriffe sind – und damit immer auch Weltpolitiken.

    Siehe auch: