5 Prompt-Taktiken gegen Halluzinationen in LLMs
Halluzinationen in LLMs sind kein Bug – sie sind eingebaut. Dieser Artikel zeigt fünf Prompt-Strategien, mit denen du kritisches Denken simulierst, Fakten überprüfst und KI-Ausgaben deutlich verlässlicher machst.

Große Sprachmodelle (LLMs) formulieren brillant – und liegen trotzdem oft daneben.
Diese „Halluzinationen“, also falsche oder erfundene Aussagen, sind kein Ausnahmefall, sondern Teil der Systemarchitektur. Das Problem: Sie klingen oft plausibel. Und wenn wir nicht genau hinschauen, übernehmen wir sie ungeprüft.
Ich nutze täglich KI-Agenten, die mich beim Schreiben, Denken und Priorisieren unterstützen. Doch ich habe gelernt: Schneller Output heißt nicht automatisch verlässlicher Output. Deshalb habe ich mir angewöhnt, der KI bessere Fragen zu stellen – genauer gesagt: strategische Prompts, die kritisches Denken simulieren und auf Fakten bestehen.
Hier sind fünf Taktiken, die sich für mich bewährt haben.
1. Rolle zuweisen: „Sei mein gnadenloser Kritiker“
Prompt-Beispiel:
„Spiele die Rolle eines harten Kritikers. Analysiere diesen Text und decke alle Schwächen auf – z. B. inhaltliche Fehler, logische Brüche, Wiederholungen, Argumentationslücken oder unausgewogene Perspektiven.“
Warum das hilft:
LLMs sind oft „zu nett“. Indem man sie explizit bittet, Fehler zu finden, verlässt man den Modus der Zustimmung – und öffnet die Tür zu tieferer Analyse.
2. Perspektivwechsel: „Widersprich mir!“
Prompt-Beispiel:
„Übernimm die Rolle eines Devil’s Advocate. Finde Gegenargumente zu dieser These – auch wenn du ihr zustimmst.“
Effekt:
Das Modell beginnt, Annahmen zu hinterfragen – und legt Schwächen offen, die in einem einseitigen Text leicht übersehen werden.
✅ 3. Annahmen prüfen lassen
Prompt-Beispiel:
„Welche Annahmen liegen diesem Text zugrunde? Was wäre, wenn sie falsch sind? Und wie könnte man ihre Richtigkeit testen?“
Warum das wichtig ist:
Viele Halluzinationen entstehen aus unbewussten Vereinfachungen. Dieser Prompt zwingt die KI, das Fundament des Outputs offenzulegen – und kritischer zu hinterfragen.
✅ 4. Zielgruppenreaktion simulieren
Prompt-Beispiel:
„Versetze dich in eine Zielgruppe von [Alter, Branche, Interessen]. Was könnte an diesem Text irritieren, missverständlich oder problematisch sein?“
Nutzen:
Hilft, kulturelle oder fachliche Missverständnisse frühzeitig zu erkennen. Gerade bei sensiblen Themen oder breiter Kommunikation ein wertvoller Check.
✅ 5. Faktencheck mit Tool-Verknüpfung
Kombiniert mit Perplexity.ai oder einem Co-Pilot:
„Bitte überprüfe diesen Text auf Fakten. Füge Links zu verlässlichen Quellen hinzu oder markiere Aussagen, die nicht belegt sind.“
Oder:
„Überarbeite diesen Artikel mit folgenden Quellenangaben. Entferne Daten, die darin nicht belegt sind.“
Tipp:
Faktenchecks über Tools wie Perplexity, Bing oder Research-RAGs lassen sich gut in Workflows einbauen – vor allem, wenn man LLMs auffordert, nur belegbare Aussagen zu übernehmen.
Vertrauen braucht Struktur
Prompt Engineering ist kein Zaubertrick – aber ein mächtiger Hebel, um KI-Ausgaben verlässlicher zu machen. Wer LLMs in professionelle Workflows integrieren will, sollte sie nicht nur nach Texten fragen – sondern nach Haltung, Widerspruch, Belegen und Perspektiven.
Denn am Ende gilt:
Je besser unsere Fragen, desto vertrauenswürdiger die Antworten.
Comments ()