
Die KI ist in die Unternehmen eingezogen wie ein neuer Motor in ein altes Getriebe: beeindruckende Beschleunigung, ein neuer Klang – und zugleich das leise Knirschen an Stellen, die man zuvor kaum beachtet hat. Wer heute über Lernen spricht, spricht selten noch über Seminarkataloge. Es geht um Wettbewerbsfähigkeit, um Anpassungsfähigkeit, um die Frage, ob Organisationen in einem rauer werdenden Klima noch beweglich bleiben. Genau dort setzt die Session „KI im Lernen – Fortschritt mit Nebenwirkungen?!“ an – als nüchterne Bestandsaufnahme einer Technologie, die Lernprozesse zugleich verstärken und entkernen kann.
Von der Polykrise zum Polypotenzial – und zurück in die Bilanz
Prof. Anja Schmitz eröffnet mit einem Bild, das man derzeit in vielen Vorstandsetagen findet: Veränderungsgeschwindigkeit, wirtschaftliche Eintrübung, steigender Anpassungs- und Effizienzdruck – und darübergelegt der spürbare KI-Adoptionsdruck. KI wird, so ihre Rahmung, zum Unterscheidungsmerkmal zwischen „Leaders“ und „Laggards“: Wer nicht integriert, fällt zurück – nicht moralisch, sondern ökonomisch. Lernbedarfe steigen entsprechend, individuell wie organisational.
Die interessante Verschiebung liegt im Narrativ: Schmitz stellt nicht nur die Diagnose einer Polykrise, sondern fordert eine Perspektivarbeit – von der „Polyrise“ zum „Polypotenzial“. Das klingt nach Rhetorik, ist aber eine Managementfrage: Wird KI als Krisenreaktion genutzt – oder als Anlass, Lern- und Arbeitsarchitekturen zu modernisieren?
Die Verheißung: Output, Feedback, Personalisierung – die neue Leichtigkeit
Zunächst die positiven Effekte, die Schmitz aus Studien bündelt. Auf Arbeitsebene zeigen sich Produktivitäts- und Effizienzgewinne; bei höherwertigen kognitiven Tätigkeiten teils auch Qualitätssteigerungen. Im Lernkontext wird es psychologisch und damit für Organisationen besonders relevant: Negatives Feedback wird von KI leichter angenommen als von Menschen – weil die Maschine keine Miene verzieht und kein Statusspiel mitliefert. Bemerkenswert: Dieser Effekt zeigt sich laut Schmitz sogar im universitären Kontext; Studierende akzeptieren Kritik der KI eher als die des Professors.
Hinzu kommen die klassischen KI-Versprechen im Lernen, diesmal präziser formuliert: Hyperpersonalisierung („Moment of Need“), Adaptivität (Anpassung an den Lernprozess), potenziell steigendes Engagement und Motivation. Schmitz nutzt dafür eine Metapher aus der Debatte um Social Media: Was Plattformen problematisch macht – Algorithmen, die Menschen in der Interaktion halten – kann im Lernkontext zur didaktischen Chance werden, weil längere Beschäftigung mit Inhalten die Verarbeitungstiefe erhöht. Dazu kommen erste Befunde, dass bei bestimmten Aufgaben sogar Leistungserhalt möglich ist, wenn KI-Unterstützung später wegfällt. Das ist der Idealfall: KI als Trainingspartner, nicht als Prothese.
Die Nebenwirkungen: „AI Slop“ und die Ökonomie der ungeprüften Antwort
Doch genau dort, wo es bequem wird, lauert die betriebliche Versuchung. Schmitz zitiert eine globale Befragung, nach der 25 % der Befragten in Deutschland KI-Arbeitsergebnisse nicht prüfen oder überarbeiten, sondern weiterreichen. Die Zahl ist weniger Skandal als Symptom: Sobald Output billig ist, wird Kontrolle teuer – und viele sparen ausgerechnet am teuersten Punkt, der Qualitätssicherung.
Der Begriff „AI Slop“ bringt das Problem auf eine ernährungsökonomische Metapher: leere Kalorien. Viel Masse, wenig Nährwert. Verführerisch im ersten Blick, aber nicht tragfähig – weder für Entscheidungen noch für Kompetenzen. Und weil Menschen die Eignung von KI für bestimmte Aufgaben oft falsch einschätzen, steigt die Fehlerwahrscheinlichkeit ausgerechnet dann, wenn es heikel wird. Aus einem Tool wird ein Risiko-Multiplikator: nicht, weil KI „böse“ ist, sondern weil Organisationen die falsche Arbeitsteilung etablieren.
Am schärfsten ist der Punkt „Performance ohne Kompetenz“: KI ermöglicht sichtbare Ergebnisse, ohne dass die zugrundeliegenden Fähigkeiten aufgebaut werden. Das ist, betriebswirtschaftlich gesprochen, ein kurzfristiger Scheinumsatz im Kompetenzkonto – der langfristig als Abschreibung zurückkommt.
Cognitive Offloading: Wenn Entlastung zur Entkernung wird
Auf Lernseite verdichtet Schmitz die Risiken: Cognitive Offloading senkt die geistige Anstrengung – und damit die Verarbeitung. Wer nicht mehr liest, sondern nur noch zusammenfassen lässt, spart Minuten, aber verliert Lernrendite. Dazu kommen Skill Decay (Kompetenzverfall), Illusion of Mastery (das trügerische Gefühl, etwas zu können, weil das Ergebnis gut aussieht) und Ghost Learning (Lernen wird ausgelagert, wie Ghostwriting). Zusammengenommen entsteht ein paradoxes Szenario: KI kann Lernen beschleunigen – und gleichzeitig Lernerfolg reduzieren.
Schmitz’ Pointe ist dabei unbequem: Technologische Transformation und Unsicherheit können Lernen förderlich machen (weil sie Bewegung erzeugen) – sie können es aber auch hinderlich machen, wenn Druck, Kontrollverlust und Überforderung dominieren. Genau dieses „Mind the Gap“ ist die Managementaufgabe: Potenziale heben, Nebenwirkungen begrenzen.
Praxis: Das Ende der „Zwei-Tage-Schulung“ und die Geburt der Lerninfrastruktur
Hier wird Jan Fösing (New Learning Lab) konkret – und entzaubert den verbreitetsten Reflex: KI-Upskilling als einmaliges Training. Die KI sei kein Hammer, den man nach zehn Nägeln verstanden hat, sondern ein Schweizer Taschenmesser mit ständig neuen Funktionen. Wer glaubt, eine Rundmail („Hier ist Copilot“) ersetze Lernarchitektur, produziert Schattennutzung, Frust – oder beides. KI-Upskilling müsse als konstanter Prozess gedacht werden.
Seine Argumentation läuft auf eine infrastrukturelle Logik hinaus: Es braucht einen „Single Point of Truth“ für Regeln und Grenzen, Explorationsräume für Lernen voneinander, „Trusted Guides“ bzw. AI-Coaches als Lernbegleiter – und Integration in den Arbeitsfluss, damit aus Impuls Routine wird. Die zentrale Warnung: KI wird häufig nur als Beschleuniger bestehender Prozesse genutzt. Wenn diese Prozesse „nur mittelprächtig“ sind, beschleunigt KI eben Mittelmaß – nur schneller. Deshalb müsse der Weg von Adoption zu echter Transformation führen.
Und dann kommt der Satz, der jede KI-Strategie auf ihren harten Kern reduziert: Ohne Daten kein Mehrwert. Wer Agenten einführt, aber in einer „Datenhölle“ lebt, bekommt Quatsch zurück – nur automatisiert.
Industrieperspektive: Festo und das Management der Lernenergie
Nadine Vöhringer (Festo) zeigt, wie eine große Organisation versucht, genau diese Infrastruktur aufzubauen: Digital Mindset als Ausgangspunkt, Digital Skills als Paket, Personas von „Digital Starter“ bis „Creator“, dazu Leadership-Skills als Hebel, weil „bottom-up“ alleine nicht reicht. Besonders aufschlussreich ist der Fokus auf Messbarkeit und Takt: regelmäßige kurze Lernimpulse („15 minutes Learning Beat“), interne Champions, Community-Mechaniken – und als Zielbild ein Learning Agent in Microsoft Teams, also Lernen dort, wo Arbeit stattfindet.
In dieser Praxis steckt die eigentliche Antwort auf die Nebenwirkungen: Nicht mehr Lernangebote stapeln, sondern Lernfähigkeit steuern – über Orientierung, Routinen, Netzwerke, Daten. In der Sprache der Ökonomie: Man braucht Governance für Kompetenzaufbau, sonst wird KI zur Renditemaschine auf Kosten des Humankapitals.
Die Kennzahl der Stunde: Kompetenzsaldo statt Zeitersparnis
Die Session endet implizit mit einem Perspektivwechsel, den man sich als Formel merken kann: Entscheidend ist nicht, wie viel Zeit KI spart, sondern ob der Kompetenzsaldo positiv bleibt. Wer Output gewinnt und Kompetenz verliert, wird im nächsten Technologiesprung zwar schneller tippen – aber schlechter entscheiden. KI im Lernen ist damit kein didaktisches Randthema, sondern eine Standortfrage: für Unternehmen, die sich in einer „Leader/Laggard“-Logik behaupten müssen, und für eine Arbeitswelt, in der „Team Human × AI“ nur dann funktioniert, wenn der Mensch nicht zur Bedienungskraft seiner eigenen Automatisierung wird.
Pingback: Der Lernmotor KI: Eine Bestandsaufnahme | Fortbildung in Bibliotheken