
Wer verstehen will, wohin sich Künstliche Intelligenz entwickelt, sollte zwei Forschungstraditionen zusammenlesen, die lange getrennt wirkten. Die eine stammt aus der frühen dialogorientierten KI: Wolfgang Wahlster und Alfred Kobsa untersuchten, wie technische Systeme Modelle ihrer Nutzer bilden, um sinnvoll antworten, beraten, erklären oder warnen zu können. Die andere Linie führt zum Transformer, jener Architektur, die seit 2017 große Teile der modernen KI geprägt hat. In „Attention Is All You Need“ beschreiben Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit und ihre Mitautoren eine Architektur, die auf Selbstaufmerksamkeit beruht und ohne rekurrente Netze oder Faltungen auskommt.
Beide Linien treffen heute in einer neuen Frage zusammen. Künstliche Intelligenz verarbeitet längst nicht mehr nur Sprache. Sie ordnet Moleküle, Zellen, Bilder, Datenbanken, Sensordaten, Texte, Theorien und Experimente. Sie wirkt in der Medizin, in der Robotik, in Lernsystemen, in der Verwaltung, in der Suche, in Empfehlungssystemen und in der Grundlagenforschung. Ihre Leistungsfähigkeit hängt nicht allein von größeren Modellen ab. Entscheidend wird, wie gut sie Situationen, Absichten, Unsicherheit, Rollen, Risiken und wissenschaftliche Ziele modelliert.
Der Mensch vor dem System
Wahlster und Kobsa formulierten schon in den achtziger Jahren eine Einsicht, die heute wieder an Gewicht gewinnt. Ein Dialogsystem soll nicht mechanisch auf Eingaben reagieren. Es muss Annahmen darüber bilden, was der Nutzer weiß, was er will, welche Pläne er verfolgt und welche falschen Vorstellungen ihn möglicherweise leiten. Gerade in aufgabenorientierten Dialogen wird ein explizites Modell der Überzeugungen, Ziele und Pläne des Nutzers zum zentralen Problem.
Das bekannteste Beispiel wirkt harmlos. Fragt jemand nach der nächsten Tankstelle, reicht die geographisch nächste Adresse nicht aus. Hilfreich ist die nächste Tankstelle, die geöffnet ist. Die Antwort muss also den wahrscheinlichen Zweck der Frage erkennen. Das System reagiert auf eine Lage, nicht bloß auf eine Zeichenfolge.
In dieser kleinen Szene liegt ein Grundproblem heutiger KI. Ein medizinisches System muss unterscheiden, ob ein Patient, eine Ärztin oder ein Angehöriger fragt. Ein Lernsystem muss erfassen, welche Begriffe verstanden wurden. Ein Behördenassistent muss erkennen, ob jemand eine Regel sucht, missversteht oder an ihr scheitert. Ein Roboter muss die Fähigkeiten und Risiken der Menschen im Arbeitsraum berücksichtigen. Ohne Nutzer- oder Situationsmodell bleibt KI reaktiv. Mit einem guten Modell kann sie kooperativ handeln.
Der Transformer als Beziehungsarchitektur
Der Transformer löste zunächst ein technisches Problem der Sequenzverarbeitung. Ältere Sprachmodelle arbeiteten häufig Schritt für Schritt. Die rekurrente Verarbeitung erschwerte paralleles Training und lange Abhängigkeiten. Der Transformer ersetzt diese Logik durch Selbstaufmerksamkeit. Elemente einer Sequenz können direkt auf andere Elemente Bezug nehmen. Das Modell erfasst Beziehungen über weite Distanzen hinweg und lässt sich effizient parallelisieren.
Im Autorennachweis des Transformer-Papers findet sich ein wissenschaftshistorisch wichtiger Satz: Jakob Uszkoreit schlug vor, rekurrente Netze durch Self-Attention zu ersetzen, und gab den Anstoß, diese Idee systematisch zu prüfen. Dieser Hinweis ist mehr als eine Fußnote der KI-Geschichte. Er markiert den Übergang von einer KI, die Sequenzen abarbeitet, zu einer KI, die Relationen großräumig gewichtet.
Sprache wurde dadurch zu einem Beziehungsraum. Später weitete sich diese Logik auf Bilder, Code, Proteine, Moleküle, Sensorik und wissenschaftliche Daten aus. Der Transformer steht damit für eine neue Form maschineller Modellierung: Zusammenhänge werden nicht vollständig vorab in Regeln gegossen. Sie werden aus Daten, Kontexten und Rückkopplungen erschlossen.
Jakob Uszkoreit und die Rückkehr der Ingenieurintuition
Bei der Paneldebatte „The Future of Science in the Age of AI“ am Eröffnungstag des Google AI Center Berlin am 5. März 2026 wurde diese Verschiebung zur Leitfrage. Auf dem Podium saßen Yossi Matias, Jakob Uszkoreit, Fabian Theis, Alena Buyx und Klaus-Robert Müller. Die Diskussion kreiste um die Frage, ob KI Wissenschaft nur beschleunigt oder ihre innere Ordnung verändert.
Uszkoreit setzte dabei den entscheidenden Akzent. Der Transformer entstand nicht aus einer abgeschlossenen mathematischen Theorie des Verstehens. Er entstand aus einer technischen Idee, die funktionierte. Für Uszkoreit ist das kein Betriebsunfall der Wissenschaft, eher eine Rückkehr zu einer älteren Dynamik. In vielen Epochen kam die Ingenieurkunst vor der Theorie. Menschen bauten, variierten, prüften, verbesserten. Die systematische Erklärung folgte später.
Damit verschiebt sich auch das Bild der Forschung. Wissenschaft beginnt nicht immer mit einer fertigen Theorie, aus der Experimente abgeleitet werden. Oft beginnt sie mit einem wirksamen Eingriff, einem überraschenden Befund, einem Artefakt, das mehr kann als erwartet. KI verstärkt diese Bewegung. Sie erzeugt Hypothesen, findet Muster, entwirft Moleküle, schlägt Experimente vor. Verstehen bleibt wichtig, aber es entsteht häufiger nach dem Gelingen.
Wenn Hypothesen billig werden, wird Prüfung kostbar
Yossi Matias beschrieb in Berlin KI als Beschleuniger wissenschaftlicher Entdeckung. KI-Agenten können Literatur auswerten, Hypothesen erzeugen, Entwürfe kritisieren, Lücken in Argumentationen markieren und Forschungswege vorsortieren. Daraus entsteht die Vorstellung eines virtuellen Labors, das auch jungen Wissenschaftlerinnen und Wissenschaftlern zur Verfügung steht.
Diese Entwicklung verändert die akademische Arbeitsteilung. Wissenschaftliche Reife war lange mit Langsamkeit verbunden: lesen, vergleichen, rechnen, scheitern, verwerfen, erneut beginnen. Wenn Systeme Teile dieser Arbeit übernehmen, verschwindet die Forscherin nicht. Ihre Aufgabe verlagert sich. Sie muss stärker urteilen, auswählen, priorisieren und validieren.
Gerade darin liegt die neue Knappheit. Ideen können massenhaft generiert werden. Hypothesen lassen sich in Tausenden Varianten bilden. Der Engpass liegt bei der Prüfung. Reproduzierbarkeit, Fehlerabschätzung, experimentelle Bestätigung und institutionelle Qualitätskontrolle werden wichtiger als die bloße Erzeugung neuer Vorschläge. KI macht die Wissenschaft schneller. Sie zwingt sie zugleich, ihre Prüfverfahren zu härten.
Biologie als Testfall
Fabian Theis machte deutlich, warum die Lebenswissenschaften zu einem zentralen Testfeld dieser Entwicklung werden. In der Biologie fehlen oft jene kompakten Gesetze, die der Physik über lange Zeit Orientierung gaben. Zellen, Gewebe, Krankheiten und Therapien bilden ein Geflecht von Wechselwirkungen, das menschliche Intuition überfordert.
KI kann hier Muster über Millionen von Zellen und molekularen Zuständen hinweg erkennen. Sie kann Krankheitsverläufe modellieren, Zellzustände vergleichen und Kombinationen von Interventionen entwerfen. Der Mensch bleibt nicht außen vor. Doch seine Rolle verändert sich. Er wird zum Interpreten, Prüfer und Gestalter maschinell erzeugter Wissensräume.
Damit zeigt sich eine Parallele zum User Modeling. In beiden Fällen geht es um Annahmen unter Unsicherheit. Was weiß das System? Was vermutet es? Welche Daten fehlen? Welche Konsequenzen hat ein Eingriff? Die Frage betrifft nicht nur den einzelnen Nutzer. Sie betrifft biologische Systeme, medizinische Entscheidungen, wissenschaftliche Hypothesen und gesellschaftliche Anwendungen.
Die Mathematik bleibt unentbehrlich
Klaus-Robert Müller brachte in die Debatte eine notwendige Nüchternheit ein. KI ist mathematisch fundiert, doch die Wissenschaften unterscheiden sich darin, wie viel Daten sie besitzen und wie teuer Irrtümer sind. In der Bildklassifikation kann ein Fehler harmlos sein. In der Medizin kann er lebensentscheidend werden. In der Quantenchemie oder Molekülsimulation sind Daten oft aufwendig zu berechnen. Dort muss KI physikalisches und mathematisches Vorwissen nutzen, um mit weniger Beispielen tragfähige Aussagen zu gewinnen.
Daraus folgt: Es gibt keine einheitliche Wissenschafts-KI. Jedes Feld bringt eigene Datenlagen, Risiken, Standards und Erklärungspflichten mit. Die Modelle müssen nicht nur leistungsfähig sein. Sie müssen zum jeweiligen Erkenntnis- und Verantwortungsraum passen.
Die Ethik der Forschungsbeschleunigung
Alena Buyx verschob die Frage von der Transparenz auf die Organisation der Wissenschaft. In der Medizin wurde häufig gehandelt, bevor alle Wirkmechanismen vollständig verstanden waren. Aspirin ist ein klassisches Beispiel. Vollständige Erklärung ist nicht immer Voraussetzung verantwortlichen Handelns. Entscheidend ist der Umgang mit Unsicherheit, Risiko und Verantwortung.
Buyx’ Kernfrage betrifft Ausbildung und Infrastruktur. Wenn KI-Werkzeuge allgegenwärtig werden, wer kontrolliert dann Datenzugänge, Modelle und Rechenkapazitäten? Wie bleibt Forschung unabhängig, wenn zentrale Ressourcen bei wenigen Akteuren liegen? Wie bildet man Nachwuchs aus, wenn junge Forschende mit KI plötzlich Aufgaben bewältigen können, für die früher ein ganzes Labor nötig war?
Ihr Beispiel aus der Chirurgie trifft den Punkt. Minimalinvasive Verfahren veränderten das Operieren grundlegend. Chirurgen mussten neue Techniken lernen, zugleich mussten sie wissen, wann der alte Eingriff nötig bleibt. Für die KI-Wissenschaft gilt etwas Ähnliches. Forschende sollen neue Werkzeuge nutzen. Sie müssen aber erkennen können, wann das Werkzeug versagt.
Personalisierung als Machtform
Damit führt die Berliner Debatte zurück zu Wahlster und Kobsa. Personalisierung ist keine bloße Bequemlichkeit. Sie entscheidet, welche Information jemand erhält, welche Komplexität reduziert wird, welche Wege empfohlen werden und welche Optionen verschwinden. Das gilt für Lernplattformen, medizinische Systeme, Suchmaschinen, Forschungsassistenten, Verwaltungssysteme und Robotik.
Ein System, das Menschen modelliert, erzeugt keine neutrale Beschreibung. Es arbeitet mit Annahmen. Diese Annahmen können hilfreich, falsch, riskant oder diskriminierend sein. Deshalb ist die Unterscheidung zwischen Wissen, Vermutung, Rollenannahme und statistischer Zuschreibung zentral.
Wahlster und Kobsa sahen dieses Problem früh. Ein User Model ist bei ihnen nicht einfach eine Sammlung von Informationen über eine Person. Es ist eine eigene Wissensquelle mit expliziten Annahmen, die vom übrigen Systemwissen unterscheidbar sein müssen. Die Modellierungskomponente soll solche Annahmen aufbauen, aktualisieren, löschen, konsistent halten und anderen Systemteilen verfügbar machen.
Diese begriffliche Präzision fehlt vielen heutigen KI-Systemen. Sie passen sich an, ohne ihre Annahmen offenzulegen. Sie prognostizieren, ohne klar zwischen Evidenz und Zuschreibung zu trennen. Sie wirken intelligent, während ihr Bild vom Menschen verborgen bleibt.
Wissenschaftliche Literatur als Trainingsmaterial
Uszkoreit brachte in Berlin einen Gedanken ein, der weit über technische Fragen hinausreicht: Wissenschaftliche Literatur lässt sich als von Menschen erzeugte synthetische Daten lesen. Fachartikel speichern nicht nur Erkenntnisse. Sie tragen auch die Anreizstrukturen der Wissenschaft in sich: Publikationsdruck, Zitierlogiken, modische Themen, methodische Vorlieben, institutionelle Hierarchien.
Wenn KI diese Literatur massenhaft auswertet, übernimmt sie nicht nur Wissen. Sie lernt auch Formen wissenschaftlicher Selbstdarstellung. Damit entsteht ein neues Risiko. KI könnte Forschung objektiver machen, weil sie größere Zusammenhänge erkennt. Sie könnte aber auch bestehende Verzerrungen beschleunigen, weil sie aus Texten lernt, die bereits von Karrieren, Gutachten und Förderlogiken geprägt sind.
Die Antwort darauf liegt nicht allein in besseren Modellen. Sie liegt in neuen Prüfverfahren, offenen Daten, Replikationskulturen, transparenter Autorenschaft und Anreizsystemen, die robuste Erkenntnis stärker belohnen als schnelle Produktion.
Aufmerksamkeit reicht nicht
„Attention Is All You Need“ war ein glänzender Titel für einen technischen Durchbruch. Für die gesellschaftliche Wirklichkeit der KI reicht Aufmerksamkeit nicht aus. Ein System braucht Gedächtnis, Zweckbindung, Revidierbarkeit, Risikobewusstsein und eine klare Trennung zwischen Annahme und Erkenntnis.
Die neue KI spricht von Tokens, Parametern, Kontextfenstern und Attention Heads. Die ältere User-Modeling-Forschung sprach von Überzeugungen, Zielen, Plänen, Fehlannahmen, Konsistenz und Revision. Die nächste Generation vertrauenswürdiger KI muss diese Sprachen zusammenführen.
Die nächste Wissenschaft kennt ihre Unsicherheit
Die zentrale Aufgabe liegt nicht darin, KI menschlicher wirken zu lassen. Wichtiger ist, ihre Annahmen über Menschen, Daten, Systeme und Hypothesen prüfbar zu machen. Gute KI wird nicht maximal personalisieren oder maximal generieren. Sie wird situationsgerecht modellieren, Unsicherheit ausweisen und Grenzen respektieren.
Nach der Ära der großen Modelle beginnt die Ära verantwortlicher Modellierung. Sie betrifft nicht nur Sprache. Sie betrifft Wissenschaft, Medizin, Bildung, Verwaltung, Industrie und öffentliche Infrastruktur.
KI verändert Forschung nicht allein durch Geschwindigkeit. Sie verschiebt den Ort, an dem Erkenntnis entsteht: zwischen Theorie und Experiment, Mensch und Modell, Hypothese und Intervention, Verstehen und Wirkung. Genau dort entscheidet sich, ob Wissenschaft im Zeitalter der KI nur produktiver wird. Oder auch klüger.
Zur KI-Forschungsgeschichte, die vor 40 Jahren in Maria Laach bei Bonn begründet wurde, siehe auch das Interview mit Wolfgang Wahlster: