Manchmal reicht ein Wort, um eine ganze Branche zu verwirren.„Prompt Engineering“ ist so ein Wort.

Es klingt nach Ingenieurskunst, nach Norm, nach Lehrbuch – und verschleiert doch, was wir da eigentlich tun: Wir reden mit einer Maschine, die Wahrscheinlichkeiten sortiert. Mehr nicht. Und genau darin liegt der Knackpunkt. Alois Kastner-Maresch hat das trefflich auf LinkedIn beschrieben.

Die Maschine, die nichts „meint“

Man stelle sich den Manager vor, der ernsthaft nach dem „besten Prompt-Template“ für Quartalsberichte fragt. Er behandelt das Sprachmodell wie eine Datenbank: Ein Schlüssel, ein Eintrag, reproduzierbar, stabil.

Aber das Ding, mit dem er spricht, ist keine Bibliothek, sondern eine Wahrscheinlichkeitsmaschine.
Jedes Wort, jedes Satzzeichen verschiebt eine Verteilung im Hintergrund. Eine minimale Änderung im Input – eine andere Fortsetzung im Output.

Die Frage nach dem „richtigen Prompt“ ähnelt der Frage nach „dem richtigen Satz, mit dem man für alle Zeiten erfolgreich um Verzeihung bittet“. Es gibt keinen. Der Kontext frisst die Formel.

Und doch ist der Wunsch verständlich: Wer Formeln sucht, hofft auf Entlastung von Verantwortung. Es ist die bescheuerte Suche nach der eierlegenden Wollmilchsau. Automaten ersetzen die nie vorhandene Exzellenz – bei Texten, beim Podcasten oder beim Video-Talk.

Sprache als Illusion von Beherrschbarkeit

„Prompt Engineering“ suggeriert, Sprache sei ein technischer Anschluss, eine Schnittstelle wie USB: Stecker rein, Signal raus. Aber unsere Interaktion mit Sprachmodellen ist kein Stecker, sondern ein Gespräch.

Ein Gespräch hat keine Normform. Es lebt von Rollen, Tonlagen, Erwartungshorizonten.
Wenn ein CFO spricht, klingt das anders als ein Logistikleiter, und wieder anders als jemand, der nur „irgendwas mit KI“ machen will.

Die Illusion entsteht, sobald wir meinen, ein Prompt könne unabhängig vom sprechenden Subjekt existieren.
Aber:

  • Die Maschine reagiert nicht nur auf Zeichenketten,
  • sie reagiert auf Muster aus Milliarden Texten – auf soziale Spuren.

Sie ist weniger „künstliche Person“ als verdichtete Gesellschaft.
Eine sozialisierte Maschine.

Templates und das vergessene Schmecken

Ein Prompt-Template zu kopieren und einzusetzen, ist wie ein Rezept nachzukochen, ohne zu probieren.

Man bekommt eine Speise.
Aber man weiß nicht, warum sie so schmeckt.
Und vor allem: Man weiß nicht, wie man sie verändert.

Das Entscheidende passiert zwischen Iteration 1 und Iteration 7, zwischen „Schreib einen Post über KI-Strategie“ und „Schreib aus der Perspektive einer skeptischen Finanzchefin, die erklären soll, warum Projekte scheitern – aber so, dass Nicht-Techniker strategisch mitreden können“.

In diesem Zwischenraum lernt nicht die Maschine.
Da lernt der Mensch.

Er lernt:

  • zu unterscheiden zwischen plausibel und tragfähig,
  • zu spüren, wie kleine Formulierungen Ton und Perspektive kippen,
  • genauer zu sagen, was er wirklich will.

Das ist kein „Feintuning eines Prompts“.
Das ist eine Schulung der eigenen Wahrnehmung.

Iteration als stilles Experiment

Man kann das auch nüchtern formulieren:
Iteration ist ein Experiment über einer Wahrscheinlichkeitsverteilung.

Jeder neue Prompt ist eine Messung:
„Was passiert, wenn ich den Kontext enger mache?“
„Was passiert, wenn ich eine Rolle setze?“
„Was passiert, wenn ich ein Beispiel aus Logistik, Medizin oder Homeoffice-Organisation verlange?“

Man entdeckt, dass bestimmte Rollen („verhalte dich wie eine Führungskraft“, „wie eine Mitarbeiterin im Homeoffice“) die Struktur einer Antwort verändern, ohne dass der Algorithmus selbst je „Führungskraft“ war.

Hier wird sichtbar: Die Maschine hat kein Innenleben.
Sie simuliert Rollen, weil wir diese Rollen in Sprache gegossen haben.

Das Sprachmodell ist die Projektion einer Gesellschaft, nicht die Verdichtung einer einzelnen Biografie.

Second Brain oder Spiegelkabinett?

Die Metapher vom „zweiten Gehirn“ ist verführerisch.
Sie suggeriert Entlastung: Ein Zusatzspeicher, ein kognitiver Co-Prozessor.

Aber eigentlich passiert etwas anderes:
Wir lagern nicht Denken aus, wir externalisieren die Breite unseres Denkens.

  • Die Maschine hilft beim divergenten Denken: Ideen sammeln, Alternativen sehen, Problemräume aufspannen.
  • Sie kann auch beim konvergenten Denken helfen: ordnen, verdichten, Varianten vergleichen.

Doch sie übernimmt nicht den Schritt, der am wenigsten delegierbar ist:
die Entscheidung, welche dieser Möglichkeiten wir für wirklichkeitsrelevant halten.

Die Gefahr liegt nicht darin, dass die Maschine uns „übernimmt“.
Die Gefahr liegt darin, dass wir uns daran gewöhnen, ihr Urteile zu unterschieben, die in Wahrheit unsere eigenen sind – nur schlechter reflektiert.

Die Grenze im Kopf: Arbeitsgedächtnis

Menschliche Kognition hat eine banale physische Grenze: das Arbeitsgedächtnis.

Wir können nur eine begrenzte Menge an Informationen gleichzeitig halten:

  • komplexe Probleme im Homeoffice,
  • Produktivität, soziale Dynamiken, Technikstörungen, familiäre Belastung,
  • und dazu noch Organisationsziele und Kennzahlen.

Vor dem Zeitalter der Sprachmodelle war diese Grenze gnadenlos.
Man brauchte Teams, Meetings, lange Dokumente, um solche Problemräume zu strukturieren. Wochen, Monate.

Wenn nun in wenigen Minuten ein Modell einen brauchbaren Issue Tree erzeugt, der mit Teilen der Fachliteratur überlappt, entsteht kein Wunder – sondern eine Verschiebung:

  • Die mühselige Breitenarbeit – „Was könnte alles eine Rolle spielen?“ – lässt sich stützen.
  • Die tiefere Bewertung – „Was davon stimmt hier, in diesem Kontext, in dieser Organisation?“ – bleibt uns überlassen.

Wer das verwechselt, verliert Urteilskraft, nicht Arbeitslast.

„Use it or lose it“

Man kann an den Taschenrechner denken. Wer früh gelernt hat, alle trigonometrischen Aufgaben in eine Maschine zu tippen, merkt später, dass etwas fehlt: Nicht das Ergebnis – das bekommt man weiterhin.
Es fehlt das Gefühl für Größenordnungen, für Plausibilität, für den Weg von der Aufgabe zur Lösung.

Ähnlich bei Sprachmodellen:

Wer ganze Hausarbeiten „in die Maschine kippt“ und den Output nur noch kosmetisch anpasst, merkt irgendwann: Die KI war nicht in der Vorlesung. Sie kennt die impliziten Bezüge nicht, die unausgesprochenen Erwartungen, den spezifischen Diskurs eines Seminars oder Teams. Sie produziert Allgemeinplätze.

Die Versuchung ist groß:
Man spart sich Momentanaufwand und bezahlt mit langfristigem Kompetenzverlust.

Wer dagegen Modelle nutzt, um Problemräume zu öffnen, Begriffe zu schärfen, Gegenargumente zu finden, der trainiert sein Denken – nicht ab, sondern um. Das Werkzeug wird dann nicht zur Krücke, sondern zum Trainingspartner.

Gegen das Geschäftsmodell der Abkürzung

Die Plattformen sind voll von Angeboten:
„Die 100 besten Prompts für deinen Erfolg“,
„Mit diesem Template wirst du reich mit KI“.

Man kennt diese Muster:

  • Früher waren es „Die 10 Regeln für perfekte PowerPoint-Folien“.
  • Jetzt sind es „Die 10 Prompts für perfekte KI-Ergebnisse“.

Der Trick ist immer derselbe:
Man verkauft Entlastung von eigener Arbeit als „Skill“.

Dabei wäre der eigentliche Skill ein anderer:

  • Probleme präzise zu benennen,
  • Kontexte sichtbar zu machen,
  • historische und gesellschaftliche Dimensionen mitzudenken,
  • empirisch zu prüfen, was von den eigenen Annahmen trägt.

Dafür braucht es Grundlagen in Logik, in empirischen Wissenschaften, in kritischer Sozialtheorie – nicht nur neue Schlagworte aus Neurobiologie und Philosophie, die man wie Dekoration auf Posts streut.

Sprachmodelle bilden gesellschaftliche Diskurse ab.
Wer diese Diskurse nicht kennt, nimmt die Maschine für tiefgründig, wo sie nur gut formuliert.

Von der Kunst der Frage

Vielleicht ist das die eigentliche Verschiebung:

Früher wurde Technik oft so gedacht:
Je präziser die Anweisung, desto eindeutiger das Ergebnis.

Heute sehen wir:
Je klüger die Frage, desto vielfältiger der Möglichkeitsraum.

Ein guter Dialog mit einer Maschine ähnelt einem guten wissenschaftlichen Gespräch:

  • Man arbeitet an der Problemformulierung,
  • man justiert Begriffe,
  • man prüft Zwischenergebnisse,
  • man bleibt bereit, das eigene Schema zu ändern.

„Prompt Engineering ist tot“ – in einem Sinn stimmt das.
Tot ist die Vorstellung, es gebe ein geheimes Set an universellen Satzschablonen, mit denen sich die Maschine zuverlässig zähmen ließe.

Was an seine Stelle treten könnte, ist anspruchsvoller:

  • eine Praxis des dialogischen Denkens,
  • eine neue Grammatik des Gesprächs mit probabilistischen Maschinen,
  • ein Bewusstsein dafür, dass jedes Token, das sie auswerfen, eine Spur unserer eigenen Welt interpretiert.

Wer das ernst nimmt, merkt:
Nicht die Maschine ist das Problem.
Die Frage ist, welche Art von Menschen wir werden, während wir lernen, mit ihr zu sprechen.

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.