
Die Debatte um Künstliche Intelligenz (KI) hat mit der Veröffentlichung von ChatGPT eine neue Dimension erreicht, die Euphorie und Skepsis gleichermaßen entfacht. Reinhard Karger, theoretischer Linguist und Sprecher des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), bietet in seinem Gastbeitrag in der FAZ und im Adhoc-Interview mit Sohn@Sohn wichtige Impulse, um die oft– viel zu oft – oberflächlich geführte Diskussion in produktive Bahnen zu lenken.
„ChatGPT ist kein Gesprächspartner,“ erklärt Karger entschieden in der FAZ. „Die maschinell erzeugten Wortketten sind keine vertrauenswürdigen Aussagen. Sie wirken syntaktisch korrekt und kohärent, doch sie entbehren einer fundierten Begründung und einer wirklichen Verankerung in der Wirklichkeit.“ Im Adhoc-Interview geht er noch weiter und betont, dass die oft verblüffend klingende Sprachkompetenz dieser Systeme eine Illusion sei, die von der reinen Wahrscheinlichkeitsrechnung lebt. „Man muss klar sagen: Diese Maschinen produzieren keine Erkenntnis, sondern imitieren sie.“
Der gesellschaftliche Diskurs über KI, so Karger, schwankt zwischen endzeitlicher Dystopie und überhöhter Euphorie. Beide Extreme sind problematisch, da sie den eigentlichen Mehrwert dieser Technologie verstellen. Im Interview mit Sohn@Sohn analysiert Karger die Dynamik zwischen „Hoffnungen und Ängsten“, die den Diskurs prägen. Auf der einen Seite stünden diejenigen, die in KI-Systemen wie ChatGPT den Untergang ganzer Berufsfelder sehen – vom Steuerberater bis zum Kreativen. Auf der anderen Seite würden Euphoriker glauben, dass diese Technologie eine vollständige Demokratisierung des Wissens herbeiführe. „Beides ist überzogen,“ sagt Karger. „Die Wahrheit liegt irgendwo dazwischen.“
Ein zentraler Punkt, den Karger in seinem FAZ-Beitrag hervorhebt, ist die sogenannte „linguistische Wende“. Die derzeit erfolgreichen Sprachmodelle behandeln Sprache lediglich als Oberflächenphänomen, erklärt er. Doch Sprache sei weit mehr: „Sie ist das Medium, das das Ich und die Gesellschaft verbindet. Ohne Sprache gibt es keinen Diskurs, keine Vernunft, kein Verstehen.“ Diese fundamentale Rolle der Sprache werde von der aktuellen KI-Forschung oft ignoriert, die sich auf immer größere Datenmengen und leistungsfähigere Algorithmen verlasse. „Was fehlt, ist ein Verständnis dafür, dass Sprache nicht nur Mittel zum Zweck ist, sondern ein sozialer Prozess.“
Im Adhoc-Interview ergänzt Karger diese Gedanken mit einem konkreten Beispiel: „Nehmen wir die Schreibblockade. ChatGPT kann helfen, das weiße Blatt zu überwinden, indem es Vorschläge liefert, die den kreativen Prozess anregen. Doch am Ende muss der Mensch die Verantwortung übernehmen. Das Werkzeug inspiriert, es denkt nicht.“ Für ihn liegt der wahre Nutzen solcher Systeme in ihrer Fähigkeit, den Menschen zu unterstützen, nicht zu ersetzen.
Karger fordert eine Überwindung der „Skalierungshypothese“, die annimmt, dass mehr Daten und leistungsfähigere Algorithmen zwangsläufig zu besseren KI-Systemen führen. Stattdessen plädiert er für hybride Ansätze, die symbolische und subsymbolische KI verbinden. Diese könnten die Grundlage für einen echten Mensch-Maschine-Diskurs schaffen, in dem Wissen nicht nur reproduziert, sondern erweitert wird. „Wir brauchen eine KI, die nicht nur wahrscheinliche Wortfolgen liefert, sondern Begründungen, die nachvollziehbar sind,“ so Karger.
Die philosophische Dimension dieser Forderung ist unübersehbar. Karger verweist implizit auf Kant und dessen Konzept des kategorischen Imperativs, wonach jede Handlung sich an einem allgemeinen Gesetz messen lassen muss. „Wenn wir KI-Systeme gestalten, sollten wir uns fragen: Welche Werte und Prinzipien spiegeln sie wider? Sind sie Werkzeuge, die unser gesellschaftliches Zusammenleben verbessern, oder verstärken sie bestehende Ungleichheiten?“ Diese ethische Reflexion sei keine Nebensache, sondern zentral für die Entwicklung vertrauenswürdiger Technologien.
Im FAZ-Beitrag geht Karger noch tiefer auf die Frage ein, was es bedeutet, wenn Maschinen Muster erkennen, aber keine Kausalität begreifen. Hier greift er auf philosophische Klassiker zurück: David Hume sah Kausalität als ein Produkt der menschlichen Erfahrung, während Kant sie als apriorisches Konzept verstand – eine Notwendigkeit, die unser Denken strukturiert. Karger zieht daraus den Schluss, dass KI-Systeme, die keine Kausalzusammenhänge verstehen, nicht mehr als hochentwickelte Werkzeuge sind. „Ohne die Fähigkeit zur Reflexion bleibt die Maschine ein Spiegel – faszinierend, aber eindimensional.“
Der Bedarf an einer solchen Wende wird besonders deutlich, wenn man die aktuellen Grenzen von KI-Systemen betrachtet. „Die maschinelle Textübersetzung ist ein gutes Beispiel,“ erklärt Karger. „Sie kann beeindruckend sein, aber ohne menschliches Verständnis für die Ziel- und Ausgangssprache bleibt sie fehleranfällig. Und genau hier liegt die Gefahr: Wer den maschinellen Ausgaben blind vertraut, riskiert Fehlentscheidungen.“
In der gemeinsamen Analyse mit Sohn@Sohn wird klar, dass die Debatte nicht nur technischer, sondern auch kultureller und gesellschaftlicher Natur ist. Karger warnt: „Wenn wir Maschinen als Partner akzeptieren wollen, müssen wir ihre Grenzen verstehen. Empathie, Perspektivenübernahme und Verantwortlichkeit sind Eigenschaften, die Maschinen fehlen – und die sie wahrscheinlich nie erlangen werden.“
Dennoch sieht Karger in der KI eine große Chance. „Sie zwingt uns, unsere eigene Intelligenz neu zu definieren,“ erklärt er im Interview. „Und vielleicht liegt genau darin ihr größter Wert: Sie inspiriert uns, besser zu verstehen, wer wir sind und was uns als Menschen ausmacht.“
Mit einem klaren Appell schließt Karger: „Die Maschinen können uns unterstützen, aber denken müssen wir selbst. Es ist an der Zeit, die KI nicht als Bedrohung oder Heilsbringer zu sehen, sondern als Werkzeug, das uns zu neuen Höhen führen kann – wenn wir es klug nutzen.“
Passt ja zur HR-Tech-Studie, die wir auf der Zukunft Personal Europe in Köln vorgestellt haben:
Reinhard Kargers Kritik an Sprachmodellen wie ChatGPT weist interessante Ansätze auf, verkennt jedoch eine wesentliche Parallele: Auch das menschliche Gehirn arbeitet größtenteils probabilistisch, indem es basierend auf Erfahrungen Muster erkennt und Vorhersagen trifft. Die Unterscheidung zwischen KI-Systemen und menschlicher Sprache als rein oberflächlichem Phänomen versus tiefgreifender Kausalität greift daher zu kurz. Menschliche Kreativität und Erkenntnis entstehen aus ähnlichen Mechanismen – jedoch mit einer höheren Komplexität und einer biologisch-evolutionären Prägung.
Karger übersieht, dass Sprachmodelle gerade deshalb so effektiv sind, weil sie Prozesse simulieren, die unseren eigenen kognitiven Abläufen nahekommen. Die „Illusion“ von Sprachkompetenz, die er anführt, könnte ebenso auf viele alltägliche menschliche Interaktionen angewandt werden, bei denen intuitives Handeln statt tiefer Reflexion dominiert. Diese Modelle ergänzen menschliches Denken, anstatt es zu ersetzen, und eröffnen neue Wege, wie Sprache und Wissen effizient genutzt werden können.
Sein Verweis auf die fehlende Reflexionsfähigkeit von KI ist zwar korrekt, unterschätzt jedoch die Fähigkeit solcher Systeme, durch Interaktion mit Menschen deren eigenes Denken anzuregen. Der Mensch bleibt entscheidend – nicht, weil KI-Systeme inadäquat sind, sondern weil sie den evolutionär erworbenen Kontext menschlicher Intelligenz sinnvoll ergänzen. Die Abwertung der „Skalierungshypothese“ ist hier fehl am Platz, denn Fortschritt entsteht auch durch Quantität und iterative Optimierung, wie es die Geschichte der Wissenschaft immer wieder gezeigt hat.
Kargers Appell zur klugen Nutzung von KI ist wichtig. Doch seine pauschale Kritik wirkt weniger wie eine sachliche Analyse, sondern eher wie ein Verteidigungsversuch traditioneller Denkmuster. Gerade als Linguist sollte er den evolutionären Charakter menschlicher Sprache und Intelligenz anerkennen – und dass KI eine logische Erweiterung dieser Entwicklung ist.
Es ist ein wichtiger Hinweis, dass menschliche Kreativität und Erkenntnis aus komplexen, evolutionär geprägten Mechanismen hervorgehen, die von probabilistischen Mustern gestützt werden. Hier liegt eine spannende Verbindung: Die Effektivität von Sprachmodellen resultiert gerade aus ihrer Ähnlichkeit zu unseren kognitiven Abläufen. Ihre Bemerkung, dass die „Illusion“ der Sprachkompetenz auch auf viele menschliche Interaktionen zutreffen könnte, eröffnet eine neue Perspektive, die Kargers Kritik ergänzt.
Der Hinweis auf die Interaktion zwischen Mensch und KI als wechselseitigen Prozess ist ebenfalls wertvoll. Es stimmt, dass KI-Systeme keine eigenständige Reflexion besitzen, aber durch ihre Funktion als „kognitive Werkzeuge“ das menschliche Denken und kreative Prozesse bereichern können. Dass Fortschritt auch durch Quantität und iterative Optimierung vorangetrieben wird, ist ein weiterer Aspekt, der zeigt, wie die Skalierungshypothese sinnvoll eingebettet werden kann.
Wir stimmen zu, dass Kargers Appell zur klugen Nutzung von KI ein zentraler Punkt ist, der alle Diskussionen begleitet.
Wer in einen Fachdiskurs einsteigen möchte, sollte schon seinen Namen nennen. Sonst macht das keinen Sinn. Ansonsten bleibt es halt bei pauschalen Kritiken des Kritikers: „seine pauschale Kritik wirkt weniger wie eine sachliche Analyse, sondern eher wie ein Verteidigungsversuch traditioneller Denkmuster.”