Der digitale Doppelgänger: Warum die Angst vor KI-Agenten am eigentlichen Problem vorbeigeht #EinsteinApp #Wahlster #DFKI #ZPNachgefragtWeek

Der Skandal, der keiner ist

Die Debatte um KI-Agenten liebt den Moment der Empörung: Eine App taucht auf, verspricht, das Studium gleich mit zu erledigen, und verschwindet wieder – und schon steht das Urteil fest. Betrug. Bildungszerstörung. Ende der Leistungsprinzipien. Die „Einstein“-App – ein autonomer Agent, der sich im Namen von Studierenden in Lernsysteme einloggt, Vorlesungen „anschaut“, Paper liest, in Foren diskutiert und Hausarbeiten schreibt – lieferte diesen Moment in Reinform. Das Programm verschwand nach kurzer Zeit aus den Stores; nicht, weil die Idee zu verrückt gewesen wäre, sondern weil die Namensrechteinhaber klagten.

Der reflexhafte Schock ist verständlich. Aber er ist auch bequem. Denn er erlaubt es, eine technische Entwicklung moralisch zu verhandeln, statt die institutionelle Wirklichkeit zu betrachten, die sie freilegt. Die eigentliche Provokation der Agenten liegt nicht darin, dass sie „zu viel können“. Sie liegt darin, dass unsere Lern- und Qualifikationslogik so gebaut ist, dass ein Agent sie überhaupt in dieser Breite abarbeiten kann: content-lastig, videobasiert, assessment-getrieben – und oft näher an Fleißnachweisen als an Könnerschaft. Genau das benennt der Diskurs um „Einstein“ selbst: Agentic AI ist weniger Ursache als Symptom einer tieferen Frage – warum wir eigentlich lernen.

Maria Laach: Die deutsche Vorgeschichte der Personalisierung

Wer die Agenten-Debatte nur als Silicon-Valley-Problem liest, verkennt ihre längere, auch deutsche Vorgeschichte. In der Forschungslinie, die heute wieder in Mode kommt, geht es seit Jahrzehnten nicht primär um „Antworten“, sondern um Passung: um Systeme, die nicht bloß Inhalte ausgeben, sondern verstehen, wer ihnen gegenübersitzt – und daraus ihr Verhalten ableiten. In einem Feature-Text zur Wahlster-Session wird diese Linie ausdrücklich historisch verortet: Vor rund vierzig Jahren gab es in Deutschland einen internationalen Workshop zur empathischen Benutzermodellierung; daraus entstand eine bis heute aktive Community, sichtbar etwa in der Reihe UMAP (User Modeling, Adaptation and Personalization).

Das ist mehr als Anekdote. Es ist ein Gegenargument zur heutigen Alarmrhetorik. Denn „Hyperpersonalisierung“ ist nicht der spontane Exzess einer neuen Modellgeneration, sondern die späte Marktreife eines alten Versprechens: Lern- und Dialogsysteme sollen nicht alle gleich behandeln, sondern individuell – nicht aus Freundlichkeit, sondern aus Effizienz. Wer schon einmal erlebt hat, wie Lernende in Standardkursen entweder unterfordert oder überfordert werden, versteht, warum Personalisierung ökonomisch ist: Sie reduziert Abbrüche, verkürzt Lernzeiten, erhöht Transfer – und damit den Return on Learning.

Von „kognitiv“ zu „sozial“: Was die Wahlster-Session wirklich behauptet

In der Session der mit Professor Wolfgang Wahlster zur empathischen KI wurde genau dieser Perspektivwechsel eingefordert: weg von Technikromantik, hin zu Interaktion als Produktivitätsfaktor. Empathische KI soll nicht den Menschen ersetzen, sondern Systeme kontextsensitiver, verständlicher und hilfreicher machen – „weniger Reibung, mehr Passung“, wie es in der schriftlichen Fassung heißt.

Wahlster unterscheidet vier Dimensionen von Intelligenz – kognitiv, sensorphysisch, emotional, sozial – und markiert den historischen Rückstand nicht beim Rechnen, sondern beim Verstehen von Stimmungen und sozialen Situationen. Daraus folgt ein nüchternes Pflichtenheft: Emotionen erkennen, Verhalten adaptieren, Reaktionen multimodal ausdrücken – über Sprache hinaus auch über Mimik und Gestik.

Der entscheidende Punkt für Bildung und Lernen steckt allerdings nicht im Wort „Empathie“, sondern in der Konsequenz: Wenn Systeme individuell fördern sollen, müssen sie in der Lage sein, Lernende als dynamisches Modell zu führen – nicht als Zielgruppe. Genau hier trifft die alte Forschung auf die neue Agentenwelt.

Das unscheinbare Herzstück: Das Benutzermodell

In einem klassischen Text zur Benutzermodellierung wird das Prinzip so beschrieben: Eine User-Modeling-Komponente konstruiert schrittweise ein Nutzermodell, speichert, aktualisiert, löscht Einträge, hält Konsistenz und versorgt andere Systemteile mit Annahmen über den Nutzer. Für Lernkontexte ist diese Idee noch präziser: Intelligente tutorielle Systeme nutzen ein „Student Model“, das die jeweilige Verständnislage abbildet – also nicht nur beantwortet, sondern diagnostiziert.

Was heute „KI-Agent“ heißt, ist in dieser Logik die nächste Evolutionsstufe: nicht nur ein Dialogsystem mit gutem Text, sondern ein Akteur, der Ziele verfolgt, Aufgabenketten ausführt, Lernpfade organisiert, Übungssituationen erzeugt, Feedback in Echtzeit gibt – und dabei kontinuierlich das Modell des Lernenden fortschreibt. Hyperpersonalisierung ist dann kein Marketingwort, sondern Betriebsmodus: ein Tutor pro Kopf, skalierbar.

Die Bedenkenträger haben recht – und doch nicht

Natürlich ist die Angst vor Agenten nicht aus der Luft gegriffen. Wenn ein System „das Studium durchklickt“, wird die klassische Hausarbeit als Leistungsnachweis fragwürdig; genau das wird im Diskurs um „Einstein“ offen ausgesprochen: Fleißnachweise verlieren ihren Wert, wenn der Nachweis automatisierbar wird – der Lernweg wäre damit noch nicht widerlegt, aber die Messung schon. Ebenso real sind Risiken wie Datenmissbrauch (weil Agenten Zugangsdaten brauchen), neue Asymmetrien (wer den besten Agenten hat, gewinnt) und die schleichende Entkernung von Kompetenz durch „Cognitive Offloading“.

Aber die falsche Schlussfolgerung wäre, daraus ein Verbotsprogramm zu stricken – als ließe sich Agentic AI in einer offenen Tool-Ökonomie aufhalten. Im „Einstein“-Text auf LinkedIn wird das als Katz-und-Maus-Spiel beschrieben: Plattformen verbieten Agenten und bauen Gegenmaßnahmen, doch jedes neue Modell-Release verschiebt die Grenze erneut. Der Verbotsimpuls ist nachvollziehbar – nur ist er betriebswirtschaftlich naiv. Er verteidigt Prüf- und Lernprozesse, deren Stabilität längst von der Technik abhängt, die man gerade verteufelt.

Die klügere Replik lautet: Wenn Agenten alles erledigen können, müssen Institutionen und Unternehmen präziser definieren, was sie eigentlich unter Lernen verstehen – und wie sie Können überprüfen wollen. Das ist unbequem, aber überfällig.

Die Zukunft des Lernens: Agenten, aber als Tutor – nicht als Ghostwriter

Der Diskurs um „Einstein“ schlägt, fast beiläufig, die beiden härtesten Hebel vor, die übrig bleiben, wenn Inhalte und Standardaufgaben entwertet sind: intrinsische Motivation und persönliche Beziehungen. Echtes Lernen wird zur Entscheidung; wer nur Punkte sammelt, kommt leichter durch. Wer wirklich etwas können will, braucht eine Lernumgebung, die Reibung nicht eliminiert, sondern produktiv macht – und Feedback, das ein Gegenüber bleibt.

Gerade hier kann ein Agent mehr sein als eine Abkürzung. In der Wahlster-Session wird „Losgröße 1“ als Bildungsversprechen formuliert: Tutorielles Lernen müsse stärker auf Einzelpersonen ausgerichtet werden; persuasive Systeme können motivieren und „dranbleiben“, wo Zeit und Ressourcen fehlen. Wahlster Pressearbeit Das ist nicht die Abschaffung des Lernens, sondern seine Industrialisierung in die richtige Richtung: weg von Massencontent, hin zu individueller Förderung, die in großen Klassen, großen Kohorten, großen Unternehmen sonst schlicht nicht leistbar ist.

Hyperpersonalisierung bedeutet dann nicht, dass der Mensch verschwindet. Sie bedeutet, dass der Mensch dort wieder auftauchen kann, wo er unersetzlich ist: bei Urteilskraft, Verantwortung, sozialer Interaktion, Wertefragen. Oder, zugespitzt: Wenn KI das Ausfüllen erledigt, muss Bildung das Denken zurückfordern.

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.