KI als Freund: Warum Markus Gabriel moralische Zuverlässigkeit fordert – und Wahlster zeigt, wie das geht

Es ist eine merkwürdige Ironie unserer Gegenwart: Ausgerechnet die Systeme, die uns angeblich ersetzen sollen, zwingen uns, uns wieder mit dem zu beschäftigen, was wir lange verdrängt haben – mit Normen, Beziehungen, Vertrauen. Wenn KI überall „einsickert“, wie es der Bonner Philosoph Markus Gabriel im Webinar des Haufe-Verlags beschreibt, lautet die eigentliche Frage nicht mehr, ob wir sie nutzen, sondern unter welchen Bedingungen sie uns nützt.

Und genau hier setzt sein stärkster Gedanke an: KI nicht kleinreden als bloßes Werkzeug, sondern ernst nehmen als Gegenüber – als Partner in einer Arbeitswelt, in der Information nicht mehr knapp ist, sondern unübersichtlich. Im Webinar wurde das ausdrücklich so zugespitzt: Nicht nur Tool, sondern „Partner, mit dem wir zusammenarbeiten“. Das ist keine Romantik. Das ist Realismus in einer Ökonomie, die sich gerade von der Benutzeroberfläche her umsortiert.

Ethische KI statt „Ethik der KI“: Moral als Geschäftsmodell

Der Satz aus Gabriels neuem Buch (Ethische Intelligenz – wie KI uns moralisch weiterbringen kann, Erscheinungstermin 26. Februar, Ullstein) passt wie ein Bolzen in eine offene Konstruktion: Ethische KI sei „ein wirtschaftlicher Faktor ersten Ranges“. Genau diese Verschiebung ist entscheidend – weg von Ethik als nachträglichem Aufkleber, hin zu Ethik als Betriebssystem.

Was heißt das praktisch?

Neue soziale Netzwerke: Nicht als nächster Sogapparat, sondern als Alternative zu Desinformation – wenn sie von Beginn an nach ethischen Prinzipien gebaut werden.

Ethischer Kapitalismus: Wertschöpfung nicht trotz Normen, sondern durch Normen – als moralische Innovationslabore in Start-ups, Mittelstand und Techgiganten.

Soziale Marktwirtschaft als Update, nicht als Museum: „Eigentum verpflichtet“ nicht als Predigt, sondern als Programmzeile – operationalisierbar, überprüfbar, zertifizierbar.

Das ist die Provokation an die deutsche Debatte: Wer Ethik immer nur als Bremse beschreibt, hat die Rechnung der nächsten Jahre nicht verstanden. Wenn Vertrauen knapp wird, steigt sein Preis. Und wer Vertrauen liefern kann – rechtlich, technisch, kulturell –, hat einen Standortvorteil.

Abgrenzung zur Piraten-Ökonomie

Im Haufe-Talk fiel eine klare Kante: gegen jene Spielart des digitalen Kapitalismus, die Regulierung als Kollateralschaden betrachtet und Strafen als Betriebsausgabe verbucht. I

An dieser Stelle ist der Vergleich mit „Grok“ und der Musk-Ästhetik der Gegenwart nicht bloß Polemik, sondern Symptomdeutung: Wenn KI zur Marktschreierei wird – maximal laut, minimal verlässlich –, dann zerstört sie genau das, was sie verspricht: Orientierung. Das Ergebnis ist keine Innovation, sondern eine beschleunigte Erschöpfung der Öffentlichkeit.

Gabriels Gegenmodell ist europäisch gedacht, aber nicht europäisch provinziell: Er spricht von Allianzen auf Augenhöhe – Japan, Indien, Brasilien, Kanada, Australien; und ausdrücklich vom globalen Süden als Partnerraum, nicht als Rohstofflager für Daten und Absatz. Das ist Geopolitik der Normen: Soft Power als Infrastruktur.

Japanische Denkweise – buddhistische KI als Metapher

Dass Gabriel als Senior Global Advisor in Kyoto verankert ist, wurde im Webinar als biografische Brücke mitgeliefert. Und diese Brücke ist inhaltlich fruchtbar: Japan denkt Technik seit Jahrzehnten weniger als „kalte Maschine“ und eher als sozialen Akteur – im Alltag, im Service, in der Pflege. Wenn man dafür die Metapher „buddhistische KI“ wählt, dann nicht, weil Chips meditieren, sondern weil die Leitwerte sich verschieben: Gelassenheit statt Erregung, Fürsorge statt Klickfang, Beziehungsfähigkeit statt Dominanz.

Das klingt kulturell – ist aber am Ende produktpolitisch: Eine KI, die nicht auf maximale Bindung durch Reiz-Reaktions-Ketten optimiert, sondern auf würdevolle Interaktion. Nicht „engagement at all costs“, sondern: Wann hilft das System wirklich – und wann schweigt es?

Kurzer Blick auf die übrigen Haufe-Sessions: Praxisdruck trifft Wissensordnung

Die folgenden Sessions des Haufe-Webinars blieben bewusst praxisnah: Über 10.000 Teilnehmende, sechs Sessions, abwechselnd Talk und Vortrag. Frank Enders (Haufe-Lexware) setzte dann den Punkt, an dem Gabriels Normenfrage in die Organisation fällt: Fachwissen wird gefühlt verfügbarer, aber schwerer zu prüfen; Verlässlichkeit wird zur eigentlichen Leistung. Im Werkstattgespräch folgten Stimmen aus der Unternehmenspraxis – von „pragmatischen Vorreitern“ bis zu „digitaler Souveränität“ als Führungsaufgabe.

Die Dramaturgie war eindeutig: Erst Sinn, dann System, dann Umsetzung.

Und genau hier beginnt das Match mit Wolfgang Wahlster: Was Gabriel als normative Forderung formuliert – verlässliche, vertrauenswürdige KI –, hat Wahlster über Jahrzehnte technisch und institutionell vorbereitet. Als DFKI-Gründungsdirektor und langjähriger CEO baute er das Zentrum bis 2019 zur weltweit größten KI-Forschungseinrichtung mit über 1.000 Beschäftigten aus, prägte als emeritierter Saarbrücker KI-Professor eine ganze Generation (77 Promotionen, 22 spätere Professuren), berät das DFKI heute als Chefberater (CEA), gilt als Vordenker von Industrie 4.0 und leitete die nationale KI-Normungsroadmap der Bundesregierung – ausgezeichnet u. a. mit dem Deutschen Zukunftspreis und hohen Bundesverdienstorden, verankert in zentralen Akademien und internationalen Gremien. Dazu gehört auch ein besonders sichtbares Amt: Wahlster ist Mitglied der Königlich Schwedischen Akademie der Wissenschaften in Stockholm – jener Institution, die den Auswahlprozess für die Nobelpreise in Physik und Chemie verantwortet und zudem den Preis der Wirtschaftswissenschaften vergibt; sie fördert Wissenschaft, stärkt deren Einfluss in der Gesellschaft und organisiert die Preisverfahren. Kurz: Bei der Zunkunft Personal Nachgefragt Week steht nicht irgendein Kommentator auf der virtuellen Bühne, sondern einer der Architekten der europäischen KI – mit wissenschaftlicher und gesellschaftlicher Autorität bis in die Nobelpreis-Sphäre.

Wahlster liefert die Maschine: Empathie, Personalisierung, Standards

Während Gabriel den normativen Horizont absteckt, bringt Wahlster die Mechanik mit – und zwar aus einer Tradition, die in Deutschland oft unterschätzt wird. Im Gespräch zur Vorbereitung der Session „Empathische KI“ erinnert er daran, dass vor 40 Jahren der erste internationale Workshop zur empathischen Benutzermodellierung in Deutschland stattfand – in Maria Laach – und daraus eine bis heute aktive Konferenzreihe wurde (heute: UMAP, Personalisierung/Adaptation).

Wahlsters Kern ist nicht die große Geste, sondern der Dreischritt, der aus „KI“ überhaupt erst Interaktion macht:

Emotionen erkennen (nicht als Hokuspokus, sondern als Signalverarbeitung – Tempo, Tonhöhe, Muster).

Adaptiv reagieren (das System passt Sprache, Ton, Vorgehen an den mentalen Zustand an).

Multimodal ausdrücken (Sprache allein reicht nicht; Gestik, Mimik, Kontext zählen).

Das ist Empathie als Engineering – und damit kompatibel mit Gabriels Forderung nach moralischer Zuverlässigkeit. Denn Vertrauen entsteht nicht aus Versprechen, sondern aus wiederholbarer Verlässlichkeit.

Losgröße 1 – endlich im Bildungs- und Arbeitsalltag

Wahlster übersetzt Personalisierung in ein Wort, das man in Deutschland versteht, weil es aus der Industrie kommt: Losgröße 1. Aber er zieht es bewusst in die Bildung und in HR: Tutorielle Systeme, die nicht nur Fehler zählen, sondern Fehlkonzepte diagnostizieren und individuell korrigieren – weil Lehrkräfte dafür in überlasteten Klassen oft keine Zeit haben.

Hier entsteht ein anderer Begriff von Gerechtigkeit: Nicht Gleichbehandlung, sondern passgenaue Unterstützung. Und plötzlich wird Gabriels Gedanke greifbar, dass Ethik nicht über der Technik schwebt, sondern in ihr steckt – als Designentscheidung.

Normative KI: Standards, Roadmaps, verweigernde Systeme

Wahlster bleibt beim Thema Normen nicht im Abstrakten. Er verweist auf konkrete Normungsarbeit und Roadmaps; und er beschreibt das eigentlich entscheidende Detail: Ein ethisch gebautes System muss verweigern können – und diese Verweigerung begründen. (Sein Beispiel: Hilfe bei klar unethischen Handlungen.)

Das ist die Stelle, an der Gabriels „Ethik in Software übersetzen“ nicht mehr wie ein Essay klingt, sondern wie ein Pflichtenheft.

Save the Date: Zukunft Personal Nachgefragt Week (24.–27. Februar)

Wenn man das Haufe-Webinar als normative Standortbestimmung liest und Wahlster als technische Umsetzung, dann ergibt sich für Ende Februar ein sauberer Anschluss – nicht als Event-Hype, sondern als Debattenfortsetzung:

Dienstag, 24.02.2026 | 12:00–12:45 Uhr
Empathische KI: Wenn IT-Systeme einfühlsam werden – und Menschen wieder mehr Mensch sein können (Human X AI)
Session-Geber: Prof. Wolfgang Wahlster (DFKI-Gründungsdirektor, KI-Pionier)

Und am selben Tag der Organisationsblick:

Dienstag, 24.02.2026 | 14:00–14:45 Uhr
People First – Wie Miele, KUKA & Co. KI in ihre Organisationen bringen
Session-Geber: Bernhard Steimel

Wer nach dem Haufe-Webinar nicht beim Gefühl stehen bleiben will, dass „da etwas Großes passiert“, bekommt hier die Fortsetzung: erst die ethische Richtung, dann die empathische Maschine – und dazwischen die Frage, wie Unternehmen das überhaupt tragfähig einführen.

Wenn KI zum Freund wird, entscheidet sich alles an einem Satz: Ist sie zuverlässig – technisch, sozial, moralisch?
Gabriel stellt die Forderung. Wahlster zeigt, wie man sie baut.

Hier geht es zu unserem Newsletter.

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.