
Die Debatte um Künstliche Intelligenz (KI) hat mit der Veröffentlichung von ChatGPT eine neue Dimension erreicht, die Euphorie und Skepsis gleichermaßen entfacht. Reinhard Karger, theoretischer Linguist und Sprecher des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), bietet in seinem Gastbeitrag in der FAZ und im Adhoc-Interview mit Sohn@Sohn wichtige Impulse, um die oft– viel zu oft – oberflächlich geführte Diskussion in produktive Bahnen zu lenken.
„ChatGPT ist kein Gesprächspartner,“ erklärt Karger entschieden in der FAZ. „Die maschinell erzeugten Wortketten sind keine vertrauenswürdigen Aussagen. Sie wirken syntaktisch korrekt und kohärent, doch sie entbehren einer fundierten Begründung und einer wirklichen Verankerung in der Wirklichkeit.“ Im Adhoc-Interview geht er noch weiter und betont, dass die oft verblüffend klingende Sprachkompetenz dieser Systeme eine Illusion sei, die von der reinen Wahrscheinlichkeitsrechnung lebt. „Man muss klar sagen: Diese Maschinen produzieren keine Erkenntnis, sondern imitieren sie.“
Der gesellschaftliche Diskurs über KI, so Karger, schwankt zwischen endzeitlicher Dystopie und überhöhter Euphorie. Beide Extreme sind problematisch, da sie den eigentlichen Mehrwert dieser Technologie verstellen. Im Interview mit Sohn@Sohn analysiert Karger die Dynamik zwischen „Hoffnungen und Ängsten“, die den Diskurs prägen. Auf der einen Seite stünden diejenigen, die in KI-Systemen wie ChatGPT den Untergang ganzer Berufsfelder sehen – vom Steuerberater bis zum Kreativen. Auf der anderen Seite würden Euphoriker glauben, dass diese Technologie eine vollständige Demokratisierung des Wissens herbeiführe. „Beides ist überzogen,“ sagt Karger. „Die Wahrheit liegt irgendwo dazwischen.“
Ein zentraler Punkt, den Karger in seinem FAZ-Beitrag hervorhebt, ist die sogenannte „linguistische Wende“. Die derzeit erfolgreichen Sprachmodelle behandeln Sprache lediglich als Oberflächenphänomen, erklärt er. Doch Sprache sei weit mehr: „Sie ist das Medium, das das Ich und die Gesellschaft verbindet. Ohne Sprache gibt es keinen Diskurs, keine Vernunft, kein Verstehen.“ Diese fundamentale Rolle der Sprache werde von der aktuellen KI-Forschung oft ignoriert, die sich auf immer größere Datenmengen und leistungsfähigere Algorithmen verlasse. „Was fehlt, ist ein Verständnis dafür, dass Sprache nicht nur Mittel zum Zweck ist, sondern ein sozialer Prozess.“
Im Adhoc-Interview ergänzt Karger diese Gedanken mit einem konkreten Beispiel: „Nehmen wir die Schreibblockade. ChatGPT kann helfen, das weiße Blatt zu überwinden, indem es Vorschläge liefert, die den kreativen Prozess anregen. Doch am Ende muss der Mensch die Verantwortung übernehmen. Das Werkzeug inspiriert, es denkt nicht.“ Für ihn liegt der wahre Nutzen solcher Systeme in ihrer Fähigkeit, den Menschen zu unterstützen, nicht zu ersetzen.
Karger fordert eine Überwindung der „Skalierungshypothese“, die annimmt, dass mehr Daten und leistungsfähigere Algorithmen zwangsläufig zu besseren KI-Systemen führen. Stattdessen plädiert er für hybride Ansätze, die symbolische und subsymbolische KI verbinden. Diese könnten die Grundlage für einen echten Mensch-Maschine-Diskurs schaffen, in dem Wissen nicht nur reproduziert, sondern erweitert wird. „Wir brauchen eine KI, die nicht nur wahrscheinliche Wortfolgen liefert, sondern Begründungen, die nachvollziehbar sind,“ so Karger.
Die philosophische Dimension dieser Forderung ist unübersehbar. Karger verweist implizit auf Kant und dessen Konzept des kategorischen Imperativs, wonach jede Handlung sich an einem allgemeinen Gesetz messen lassen muss. „Wenn wir KI-Systeme gestalten, sollten wir uns fragen: Welche Werte und Prinzipien spiegeln sie wider? Sind sie Werkzeuge, die unser gesellschaftliches Zusammenleben verbessern, oder verstärken sie bestehende Ungleichheiten?“ Diese ethische Reflexion sei keine Nebensache, sondern zentral für die Entwicklung vertrauenswürdiger Technologien.
Im FAZ-Beitrag geht Karger noch tiefer auf die Frage ein, was es bedeutet, wenn Maschinen Muster erkennen, aber keine Kausalität begreifen. Hier greift er auf philosophische Klassiker zurück: David Hume sah Kausalität als ein Produkt der menschlichen Erfahrung, während Kant sie als apriorisches Konzept verstand – eine Notwendigkeit, die unser Denken strukturiert. Karger zieht daraus den Schluss, dass KI-Systeme, die keine Kausalzusammenhänge verstehen, nicht mehr als hochentwickelte Werkzeuge sind. „Ohne die Fähigkeit zur Reflexion bleibt die Maschine ein Spiegel – faszinierend, aber eindimensional.“
Der Bedarf an einer solchen Wende wird besonders deutlich, wenn man die aktuellen Grenzen von KI-Systemen betrachtet. „Die maschinelle Textübersetzung ist ein gutes Beispiel,“ erklärt Karger. „Sie kann beeindruckend sein, aber ohne menschliches Verständnis für die Ziel- und Ausgangssprache bleibt sie fehleranfällig. Und genau hier liegt die Gefahr: Wer den maschinellen Ausgaben blind vertraut, riskiert Fehlentscheidungen.“
In der gemeinsamen Analyse mit Sohn@Sohn wird klar, dass die Debatte nicht nur technischer, sondern auch kultureller und gesellschaftlicher Natur ist. Karger warnt: „Wenn wir Maschinen als Partner akzeptieren wollen, müssen wir ihre Grenzen verstehen. Empathie, Perspektivenübernahme und Verantwortlichkeit sind Eigenschaften, die Maschinen fehlen – und die sie wahrscheinlich nie erlangen werden.“
Dennoch sieht Karger in der KI eine große Chance. „Sie zwingt uns, unsere eigene Intelligenz neu zu definieren,“ erklärt er im Interview. „Und vielleicht liegt genau darin ihr größter Wert: Sie inspiriert uns, besser zu verstehen, wer wir sind und was uns als Menschen ausmacht.“
Mit einem klaren Appell schließt Karger: „Die Maschinen können uns unterstützen, aber denken müssen wir selbst. Es ist an der Zeit, die KI nicht als Bedrohung oder Heilsbringer zu sehen, sondern als Werkzeug, das uns zu neuen Höhen führen kann – wenn wir es klug nutzen.“
Passt ja zur HR-Tech-Studie, die wir auf der Zukunft Personal Europe in Köln vorgestellt haben:

