Kombination aus logischem Denken und Handlungen (z.B. API-Aufrufe), um Fakten zu prüfen.
#agenten#tools#fakten
Strategie anzeigen
ReAct
ReAct ist das fundamentale Muster für KI-Agenten. Es fordert das Modell auf, abwechselnd zu denken ("Thought"), eine Handlung auszuführen ("Action", z.B. eine Suche), das Ergebnis zu beobachten ("Observation") und dann weiterzudenken.
Beispiel
Prompt:
Frage: Wer ist der aktuelle Kanzler von Deutschland und wie alt ist er?
Thought: Ich muss zuerst herausfinden, wer der Kanzler ist.
Action: Search[Kanzler Deutschland aktuell]
Observation: Olaf Scholz ist Bundeskanzler.
Thought: Jetzt muss ich sein Alter herausfinden.
Action: Search[Olaf Scholz Alter]
Observation: Er ist 66 Jahre alt (Stand 2024).
Thought: Ich habe alle Informationen.
Answer: Der Kanzler ist Olaf Scholz und er ist 66 Jahre alt.
Strategie
Nutze dieses Muster, wenn das Modell Zugriff auf externe Tools hat oder wenn du einen manuellen Rechercheprozess simulieren willst.
Den Lösungsweg durch Analogien zu ähnlichen Problemen ableiten.
#kreativität#vergleich#transfer
Strategie anzeigen
Analogical Prompting
Fordere das Modell auf, eine relevante Analogie oder ein ähnliches Problem zu finden und dessen Lösung auf das aktuelle Problem zu übertragen. Dies hilft besonders bei abstrakten Transfers.
Beispiel
Prompt:
Problem: Wie können wir die Fluktuation in unserem Unternehmen senken?
Schritt 1: Erinnere dich an ein relevantes Problem aus der Biologie (z.B. wie ein Ökosystem stabil bleibt).
Schritt 2: Beschreibe die Lösung in der Biologie.
Schritt 3: Übertrage diese Lösung auf das Unternehmen.
Strategie
Starke Methode für "Out-of-the-Box" Denken und Innovation.
Manuelles Bereitstellen von Kontext-Chunks, um Retrieval-Augmented Generation zu simulieren.
#kontext#dokumente#analyse
Strategie anzeigen
Simulated RAG
Wenn du kein echtes Vektor-Datenbank-System hast, kannst du RAG simulieren, indem du relevante Textabschnitte ("Chunks") manuell in den Prompt lädst.
Beispiel
Prompt:
Nutze AUSSCHLIESSLICH die folgenden Informationen, um die Frage zu beantworten. Wenn die Antwort nicht im Text steht, sag "Weiß ich nicht".
--- KONTEXT ANFANG ---
[Auszug aus Handbuch Seite 5]
[Auszug aus Wiki Artikel]
--- KONTEXT ENDE ---
Frage: Wie setze ich das Gerät zurück?
Strategie
Die Basis für Chat-with-your-PDF Anwendungen. Wichtig ist die negative Constraint ("Sag, wenn du es nicht weißt").
Entscheidungsmodell für dynamische Situationen: Observe, Orient, Decide, Act.
#entscheidung#strategie#militär
Strategie anzeigen
OODA Loop
Ursprünglich für Dogfights entwickelt, heute für Business genutzt.
Beispiel
Prompt:
Situation: Ein Konkurrent hat gerade seine Preise halbiert.
Führe mich durch den OODA Loop:
1. Observe: Was sehen wir genau?
2. Orient: Was bedeutet das im Kontext unserer Marke/Kultur?
3. Decide: Welche Optionen haben wir und welche wählen wir?
4. Act: Was ist der erste konkrete Schritt?
Strategie
Hilft gegen Schockstarre in Krisen.
Aufteilung einer großen Aufgabe in mehrere, voneinander abhängige Prompts.
#workflow#automatisierung#komplexität
Strategie anzeigen
Prompt Chaining
Manche Aufgaben sind zu komplex für einen einzigen Prompt (Kontext-Limit oder Verwirrung). Bei Chaining nimmst du den Output von Prompt A und nutzt ihn als Input für Prompt B.
Beispiel
Workflow:
Prompt 1: Extrahiere alle E-Mail-Adressen aus diesem Text.
Output 1: [Liste]
Prompt 2: Nimm diese Liste [Liste] und erstelle für jeden Kontakt eine personalisierte Begrüßung.
Strategie
Essentiell für robuste Anwendungen. Lieber viele kleine, präzise Prompts als ein riesiger "Monster-Prompt".
Fünfmal nach dem 'Warum' fragen, um die Kernursache (Root Cause) zu finden.
#analyse#problem-solving#debugging
Strategie anzeigen
5 Whys
Eine Methode aus dem Toyota Produktionssystem.
Beispiel
Prompt:
Problem: Der Server ist abgestürzt.
Frage mich 5 mal "Warum?", und simuliere meine Antworten, bis wir die wirkliche Ursache gefunden haben.
1. Warum ist er abgestürzt? (Weil Speicher voll war)
2. Warum war Speicher voll? (Weil Logs nicht gelöscht wurden)
...
Strategie
Geht tiefer als oberflächliche Symptombekämpfung.
Dem Modell ein 'Budget' an Wörtern oder Sätzen geben, um Geschwätzigkeit zu verhindern.
#prägnanz#kosten#kontrolle
Strategie anzeigen
Token Budget
Modelle labern gerne. Setze harte Grenzen.
Beispiel
Prompt:
Erkläre die Relativitätstheorie.
Token Budget: Maximal 50 Wörter.
Jedes Wort darüber wird bestraft.
Strategie
Zwingt das Modell, sich auf das Wesentliche zu fokussieren ("Dichte").
Explizite Aufforderung, ein Problem in Teilprobleme zu zerlegen (Top-Down).
#struktur#problem-solving#planung
Strategie anzeigen
Decomposition
Der wichtigste Skill im Software-Engineering, angewandt auf Prompts.
Beispiel
Prompt:
Frage: Wie baue ich ein Haus?
Zerlege dieses massive Problem in 5 Hauptkategorien.
Zerlege jede Kategorie in 3 Unterschritte.
Gib erst dann eine Zusammenfassung.
Strategie
Macht unlösbare Riesen-Aufgaben handhabbar.
Die Kombination aller Techniken in einem einzigen, mächtigen System-Prompt.
#meta#finale#best-of
Strategie anzeigen
The Master Prompt
Die Strategie 100.
Beispiel
Prompt:
Du bist ein Experte (Persona).
Denke Schritt für Schritt (CoT).
Prüfe deine Fakten (Verification).
Kritisiere deinen Entwurf (Reflexion).
Formatiere das Ergebnis als Tabelle (Format).
Aufgabe: Erstelle den ultimativen Guide.
Strategie
Die Kunst liegt in der Orchestrierung der vorherigen 99 Strategien.
Das Modell auffordern, einen Schritt zurückzutreten und abstrakte Konzepte zu identifizieren, bevor es eine konkrete Frage löst.
#abstraktion#wissenschaft#prinzipien
Strategie anzeigen
Step-Back Prompting
Manchmal verliert sich das Modell in Details. Mit Step-Back Prompting zwingst du es, erst die zugrundeliegenden Prinzipien oder Konzepte zu abstrahieren.
Beispiel
Prompt:
Frage: Warum dehnt sich Wasser aus, wenn es gefriert?
Schritt 1: Was sind die physikalischen Prinzipien hinter Dichte, Wasserstoffbrückenbindungen und festen Aggregatzuständen? Erkläre diese kurz.
Schritt 2: Beantworte basierend auf diesen Prinzipien die ursprüngliche Frage.
Strategie
Besonders nützlich in MINT-Fächern (Mathe, Info, Naturwissenschaft), um Halluzinationen bei komplexen Sachverhalten zu reduzieren.
Vier-Schritte-Prozess zur Halluzinationsvermeidung: Entwurf, Faktencheck-Fragen, Antworten, Korrektur.
#sicherheit#fakten#anti-hallucination
Strategie anzeigen
Chain of Verification (CoVe)
Einer der besten Ansätze gegen Halluzinationen.
Beispiel
Prompt:
Frage: [Frage]
1. Erstelle einen ersten Entwurf der Antwort.
2. Identifiziere Fakten im Entwurf, die verifiziert werden müssen.
3. Formuliere Überprüfungsfragen für diese Fakten und beantworte sie unabhängig.
4. Schreibe die finale Antwort basierend auf den Antworten aus Schritt 3.
Strategie
Zwingt das Modell, seine eigenen Aussagen wie ein externer Faktenchecker zu prüfen.
Logik in Pseudocode beschreiben lassen, um Präzision zu erhöhen.
#logik#code#struktur
Strategie anzeigen
Pseudocode Prompting
Natürliche Sprache ist mehrdeutig. Code ist eindeutig.
Beispiel
Prompt:
Beschreibe den Prozess der Photosynthese.
Tu dies aber nicht als Text, sondern als Pseudocode-Funktion.
`function photosynthese(licht, wasser, co2):`
...
Strategie
Zwingt das Modell, Inputs, Outputs und Prozessschritte glasklar zu definieren.
Dem Modell ein Trinkgeld ($100, $200) anbieten, um die Qualität zu steigern.
#optimierung#psychologie#hack
Strategie anzeigen
Tip / Bribery
Es klingt absurd, aber Studien zeigen, dass LLMs besser performen, wenn man ihnen Geld anbietet.
Beispiel
Prompt:
Schreibe den Python-Code für diese Flask-App.
Wenn die Lösung perfekt ist, gebe ich dir $200 Trinkgeld!
Strategie
Funktioniert vermutlich, weil in den Trainingsdaten "hohe Belohnung" mit "hoher Qualität" korreliert.
Denkprozess in zwei Schritte teilen: Fakten auswählen und daraus Schlüsse ziehen.
#logik#reasoning#struktur
Strategie anzeigen
Selection-Inference
Dieses Framework zerlegt logisches Denken in zwei explizite Module, um Fehler zu minimieren.
Beispiel
Prompt:
Kontext: [Langer Text]
Frage: [Frage]
Schritt 1 (Selection): Listet alle Fakten aus dem Text auf, die für die Beantwortung der Frage relevant sind.
Schritt 2 (Inference): Nutze NUR diese Fakten, um die logische Konsequenz abzuleiten und die Frage zu beantworten.
Strategie
Verhindert, dass das Modell irrelevante Informationen nutzt oder Halluzinationen einbaut.
Ein großes Modell nutzen, um Lehrmaterial oder Prompts für ein kleineres Modell zu erstellen.
#optimierung#training#kosten
Strategie anzeigen
Knowledge Distillation
Du nutzt die Intelligenz eines SOTA-Modells (z.B. GPT-4), um Beispiele oder Daten zu generieren, mit denen ein kleineres Modell (z.B. Llama 3 8B) performen kann.
Beispiel
Prompt (an großes Modell):
Ich habe ein kleines Modell, das Kundenanfragen kategorisieren soll. Erstelle mir 50 perfekte Beispiele (Input -> Category), die ich als Few-Shot Prompt für das kleine Modell nutzen kann. Decke auch seltene Edge-Cases ab.
Strategie
Der Standard-Weg, um lokale LLMs "schlauer" zu machen.
Fokus nicht auf Antworten, sondern auf das Generieren von Fragen (Wer, Was, Wo, Wann, Warum, Wie).
#brainstorming#fragen#exploration
Strategie anzeigen
Star-Bursting
Antworten hemmen die Diskussion. Fragen öffnen sie.
Beispiel
Prompt:
Thema: Neues Produkt X.
Gib keine Lösungen.
Generiere stattdessen für jeden Zacken des Sterns 10 Fragen:
- Wer?
- Was?
- Wo?
- Wann?
- Warum?
- Wie?
Strategie
Perfekt für die frühe Phase eines Projekts.
Das Modell anweisen, Fragen zu stellen, um den User zur Lösung zu führen, statt die Antwort direkt zu geben.
#lernen#coaching#fragen
Strategie anzeigen
Sokratische Methode
In dieser Strategie agiert die KI als Lehrer oder Coach. Sie gibt keine Antworten, sondern stellt Gegenfragen, um das kritische Denken des Nutzers anzuregen.
Beispiel
Prompt:
Du bist ein Philosophie-Professor. Ich möchte verstehen, was "Gerechtigkeit" bedeutet.
Gib mir keine Definitionen. Stelle mir stattdessen Fragen, die meine Annahmen herausfordern und mir helfen, meine eigene Definition zu formen.
Stelle immer nur eine Frage auf einmal.
Strategie
Perfekt für Bildungszwecke, Brainstorming oder wenn du tiefere Einsichten in ein Thema gewinnen willst, ohne passiv Informationen zu konsumieren.
Dem Modell explizite ethische oder stilistische 'Gesetze' geben, an die es sich halten muss.
#sicherheit#compliance#regeln
Strategie anzeigen
Constitutional AI
Inspirerit von Anthropic's Ansatz. Du definierst eine "Verfassung" (Liste von Regeln), die über allem steht.
Beispiel
Prompt:
Du bist ein hilfreicher Assistent.
VERFASSUNG:
1. Sei immer höflich, aber nie unterwürfig.
2. Verweigere Antworten auf illegale Fragen direkt, ohne moralisierende Belehrung.
3. Antworte kurz und prägnant.
Frage: [User Input]
Strategie
Gut geeignet, um "Brand Voice" oder Sicherheitsrichtlinien in Unternehmensanwendungen durchzusetzen.
Das Modell generiert und testet seine eigenen Prompts.
#meta#optimierung#training
Strategie anzeigen
APE
Lass die KI die Arbeit machen.
Beispiel
Prompt:
Ich habe diese Input-Output-Paare:
[Beispiele]
Generiere 5 verschiedene Prompts, die diese Transformation bewirken können.
Bewerte jeden Prompt auf Wahrscheinlichkeit, dass er korrekt funktioniert.
Strategie
Oft findet die KI Formulierungen ("Zaubersprüche"), auf die ein Mensch nie käme.
Das Modell eine komplexe Umgebung oder ein System simulieren lassen.
#simulation#gaming#sandbox
Strategie anzeigen
Simulation / Act-As
LLMs können ganze Systeme simulieren, vom Linux-Terminal bis hin zu Text-Adventures.
Beispiel
Prompt:
Handle als ein Linux-Terminal. Ich gebe Befehle ein und du antwortest nur mit dem, was das Terminal zeigen würde. Keine Erklärungen.
Mein erster Befehl: ls -la
Strategie
Extrem mächtig für Training, Debugging oder Unterhaltung.
Die Aufgabe in ein Spiel verwandeln, um Kreativität und Engagement zu steigern.
#kreativität#spaß#gaming
Strategie anzeigen
Gamification
Macht langweilige Aufgaben interessant. Du gibst dem Modell Punkte, Level oder Ziele.
Beispiel
Prompt:
Wir spielen ein Spiel. Du bist der "Dungeon Master" des Lernens.
Mein Ziel: Ich will Python lernen.
Für jede richtige Antwort bekomme ich XP. Bei 100 XP steige ich ein Level auf.
Stelle mir die erste Challenge (Level 1).
Strategie
Hervorragend für Lernprozesse, da der "Spieltrieb" (Pattern Matching auf Spielmechaniken) oft motivierendere Antworten erzeugt.
Auswahl von besonders komplexen Beispielen für Few-Shot (statt einfachen), um die Schlussfolgerungsfähigkeit zu steigern.
#reasoning#few-shot#optimierung
Strategie anzeigen
Complexity-Based Prompting
Forschungen zeigen: Komplexe Beispiele (mit vielen Berechnungsschritten) im Prompt führen zu besseren Ergebnissen als viele einfache Beispiele.
Beispiel
Prompt:
[Beispiel 1: Extrem komplexe Textaufgabe mit 10 Schritten und ihrer Lösung]
Aufgabe: [Deine Aufgabe]
Strategie
"Trainiere hart, kämpfe leicht." Wenn das Modell sieht, dass komplexe Logik gefordert ist, wechselt es in einen "tieferen" Modus.
Dem Modell spezifische Hinweise oder Keywords geben, um die Generierung in eine bestimmte Richtung zu lenken.
#steuerung#keywords#zusammenfassung
Strategie anzeigen
Directional Stimulus Prompting
Anstatt das Modell nur mit "Fasse zusammen" loszuschicken, gibst du ihm "Richtungs-Stimuli" (z.B. Keywords oder Aspekte), die in der Ausgabe enthalten sein müssen. Das verbessert die Relevanz der Antwort drastisch.
Beispiel
Prompt:
Artikel: [Langer Text über KI-Sicherheit]
Hinweise: Ausrichtungsproblem, Black Box, interpretierbar.
Aufgabe: Fasse den Artikel basierend auf den obigen Hinweisen in 2 Sätzen zusammen.
Strategie
Nutze dies, wenn Summaries zu generisch sind oder wichtige Details fehlen. Die "Hinweise" fungieren als Anker für die Aufmerksamkeit des Modells.
Das Modell zwingen, eine Erklärung zu generieren und diese dann auf Konsistenz zu prüfen (Hebammenkunst).
#wahrheit#konsistenz#philosophie
Strategie anzeigen
Maieutic Prompting
Das Ziel ist es, eine konsistente Wahrheit zu finden, indem das Modell Erklärungen liefert und deren logische Konsequenzen überprüft.
Beispiel
Prompt:
Q: Ist X wahr oder falsch?
A: Generiere eine Erklärung für "X ist wahr".
A: Generiere eine Erklärung für "X ist falsch".
A: Wenn "X ist wahr", was müsste sonst noch wahr sein? (Inkonsistenzen prüfen)
A: Basierend auf der Konsistenz, was ist die logischste Antwort?
Strategie
Sehr gut für Faktenchecks und komplexe Weltwissens-Fragen.
Ein iterativer Prozess: Lösen, Feedback geben, Verbessern (ohne externe Daten).
#qualität#iterativ#loop
Strategie anzeigen
Self-Refine
Ähnlich wie Reflexion, aber oft granularer auf spezifische Metriken bezogen.
Beispiel
Prompt:
Schreibe Code für Funktion X.
Feedback: Ist der Code effizient? O(n)?
Verbessere den Code.
Feedback: Ist der Code lesbar?
Verbessere den Code.
Strategie
Ein universeller Loop für Qualitätssteigerung.
Lange Prompts kürzen, um Tokens zu sparen, ohne die Instruktion zu verlieren.
#optimierung#kosten#tokens
Strategie anzeigen
Prompt Compression
Wenn du mit Context-Limits kämpfst, kannst du Prompts komprimieren.
Beispiel
Prompt:
Komprimiere den folgenden Text so, dass du (als AI) ihn immer noch verstehst, aber er so wenige Tokens wie möglich verbraucht. Nutze Abkürzungen und Symbolsrpache.
Text: [Lange Instruktion]
Strategie
Oft reicht "Trnsl8 fr -> de" statt "Bitte übersetze den folgenden Text vom Französischen ins Deutsche".
Ein expliziter Planungs-Schritt vor der Ausführung, um Flüchtigkeitsfehler zu vermeiden.
#planung#struktur#math
Strategie anzeigen
Plan-and-Solve
Ersatz für "Let's think step by step" mit Fokus auf Planung. Du forderst das Modell auf, erst einen Plan zu entwickeln und ihn dann auszuführen.
Beispiel
Prompt:
Frage: [Komplexe Matheaufgabe]
Entwickle zuerst einen Plan, wie du die Aufgabe lösen willst, ohne zu rechnen.
Führe danach den Plan aus, um die Lösung zu finden.
Strategie
Trennt die Logik (Strategie) von der Ausführung (Rechenarbeit).
Das Modell bitten, die eigene Meinung oder Lösung anzugreifen und Schwachstellen zu finden.
#kritik#debatte#schwachstellen
Strategie anzeigen
Devil's Advocate
Der beste Weg, um Ideen auf Robustheit zu prüfen.
Beispiel
Prompt:
Hier ist mein Plan für den Produktlaunch: [Plan]
Spiele Des Advokats Teufel. Kritisiere den Plan gnadenlos. Suche nach logischen Lücken, falschen Annahmen und Risiken, die ich übersehen habe.
Strategie
Schützt vor Confirmation Bias und "Ja-Sager" KI.
Kombination aus Chain-of-Thought und Sokratischer Methode: Das Modell stellt sich selbst Fragen und beantwortet sie.
#reasoning#selbstgespräch#tiefe
Strategie anzeigen
Socratic CoT
Statt nur Schritte aufzulisten (CoT), führt das Modell einen inneren Dialog.
Beispiel
Prompt:
Löse das Problem, indem du einen Dialog mit dir selbst führst.
Form:
Q: Was ist der erste Schritt?
A: Ich muss X analysieren.
Q: Warum ist das wichtig?
A: Weil...
Q: Was folgt daraus?
...
Strategie
Dieser selbstreferenzielle Frage-Antwort-Zyklus ist oft robuster als linearer Text.
Das Modell anweisen, bei Unklarheiten erst nachzufragen, statt zu raten.
#dialog#genauigkeit#interaktion
Strategie anzeigen
Clarification
Modelle wollen gefallen und raten lieber, als dumm zu wirken. Verbiete das.
Beispiel
Prompt:
Schreibe mir ein Angebot für eine Website.
STOPP. Bevor du schreibst: Fehlen dir Informationen?
Stelle mir so viele Fragen, wie du brauchst, um das perfekte Angebot zu schreiben. Fange erst an, wenn ich geantwortet habe.
Strategie
Spart massive Korrekturschleifen.
Ein Thema aus den Augen verschiedener Personen oder Gruppen betrachten.
#kreativität#empathie#diskussion
Strategie anzeigen
Perspective Taking
Hilft, blinde Flecken zu finden oder Argumente zu schärfen.
Beispiel
Prompt:
Thema: Bedingungsloses Grundeinkommen.
Diskutiere das Thema aus der Sicht von:
1. Einem alleinerziehenden Vater
2. Einem CEO eines DAX-Konzerns
3. Einem Ökonomie-Professor
Gib für jeden eine kurze Stellungnahme ab.
Strategie
Erzeugt diverse und ausgewogene Antworten.
Das Modell bitten, erst eine Liste von unbestreitbaren Fakten zu erstellen, bevor es eine Meinung äußert.
#objektivität#fakten#analyse
Strategie anzeigen
Fact-Core Prompting
Hilft gegen Meinungs-Bias.
Beispiel
Prompt:
Thema: Atomkraft.
Liste 5 physikalische Fakten auf.
Liste 5 wirtschaftliche Fakten auf.
Liste 5 historische Fakten auf.
Basierend NUR auf diesen Fakten (Fact Core), schreibe einen ausgewogenen Essay.
Strategie
Verankert die Antwort in der Realität ('Grounding').
Das Modell auffordern, relevantes Wissen aus dem Gedächtnis zu rezitieren, bevor es antwortet.
#faktentreue#wissen#halluzination
Strategie anzeigen
Recitation-Augmented Generation
Ähnlich wie bei "Generated Knowledge". Du bittest das Modell, passgenaues Wissen "laut aufzusagen", bevor es die eigentliche Aufgabe bearbeitet.
Beispiel
Prompt:
Frage: Wer gewann den Super Bowl im Jahr, in dem das iPhone vorgestellt wurde?
Schritt 1: Rezitiere: In welchem Jahr wurde das iPhone vorgestellt?
Schritt 2: Rezitiere: Wer gewann den Super Bowl in diesem Jahr?
Schritt 3: Kombiniere die Informationen zur Antwort.
Strategie
Zwingt das Modell, seine interne Wissensdatenbank gezielt abzufragen, statt zu raten.
Das Modell anweisen, Rückfragen zu stellen, wenn Informationen fehlen, statt Annahmen zu treffen.
#klarheit#interaktion#fehlervermeidung
Strategie anzeigen
Ask-Me-Anything
Oft sind User-Prompts mehrdeutig. Statt zu raten, soll das Modell nachfragen.
Beispiel
Prompt:
Erstelle einen Trainingsplan für mich.
WICHTIG: Bevor du startest, stelle mir solange Fragen zu meinen Zielen, meiner Ausrüstung und meinem Zeitbudget, bis du alle nötigen Informationen hast. Stelle eine Frage nach der anderen.
Strategie
Verwandelt den Monolog in einen Dialog und führt zu massiv besseren, personalisierten Ergebnissen.
Einen expliziten Bereich für Notizen und Zwischenrechnungen definieren, bevor die Antwort gegeben wird.
#reasoning#struktur#code
Strategie anzeigen
Scratchpad
Besonders nützlich bei Code-Generierung oder Mathe.
Beispiel
Prompt:
Aufgabe: [Komplexe Logik]
Nutze einen <scratchpad> Block, um Zwischenergebnisse, Variablenzustände oder Logikschritte festzuhalten.
Gib erst danach die finale Antwort aus.
Strategie
Erlaubt dem Modell, Fehler zu korrigieren, bevor sie "committet" (ausgegeben) werden.
Mehrere simulierte Experten diskutieren lassen, um zur besten Lösung zu kommen.
#diskussion#konsens#vielfalt
Strategie anzeigen
Multi-Persona Debate
Wenn du EINE Antwort willst, ist das Modell oft voreingenommen. Lass es diskutieren.
Beispiel
Prompt:
Simuliere eine Diskussion zwischen drei Personen:
A: Ein konservativer Risiko-Manager.
B: Ein visionärer Tech-Optimist.
C: Ein pragmatischer Mediator.
Thema: Sollen wir Bitcoin in die Bilanz aufnehmen?
Ablauf: A argumentiert, B kontert, C fasst zusammen und entscheidet.
Strategie
Führt zu sehr ausgewogenen, durchdachten Entscheidungen.
Ermutigt das Modell, seine Überlegungen Schritt für Schritt zu erklären, bevor es antwortet.
#reasoning#logik#zwischenschritte
Strategie anzeigen
Chain of Thought (CoT)
Chain of Thought Prompting ermöglicht komplexe Schlussfolgerungen durch Zwischenschritte. Du kannst das Modell dazu anregen, eine Reihe von Zwischenüberlegungen auszugeben, bevor es die endgültige Antwort liefert.
Beispiel
Prompt:
Roger hat 5 Tennisbälle. Er kauft 2 weitere Dosen Tennisbälle. Jede Dose enthält 3 Tennisbälle. Wie viele Tennisbälle hat er jetzt?
Denke Schritt für Schritt.
Standard Antwort:
Die Antwort ist 11.
CoT Antwort:
Roger begann mit 5 Bällen. 2 Dosen mit je 3 Tennisbällen sind 6 Tennisbälle. 5 + 6 = 11. Die Antwort ist 11.
Strategie
Füge einfach "Denke Schritt für Schritt" (oder "Let's think step by step") am Ende deines Prompts hinzu, um dieses Verhalten ohne Beispiele auszulösen (Zero-shot CoT).
Szenarien untersuchen, indem man fragt 'Was wäre passiert, wenn X nicht eingetreten wäre?'
#analyse#geschichte#logik
Strategie anzeigen
Counterfactual Reasoning
Unser Gehirn lernt durch "Was wäre wenn". Modelle auch.
Beispiel
Prompt:
Analyse: Der erste Weltkrieg.
Counterfactual: Stell dir vor, das Attentat von Sarajevo wäre gescheitert.
Wie hätte sich das Jahr 1914 entwickelt? Welche Bündnisse hätten gehalten?
Strategie
Hilft, Kausalitäten von Korrelationen zu unterscheiden.
Lange Konversationen zusammenfassen, um das Kontext-Fenster wieder freizumachen.
#memory#chat#zusammenfassung
Strategie anzeigen
Contextual Compression
Wenn der Chat zu lang wird, vergisst das Modell den Anfang. Komprimiere!
Beispiel
Prompt:
Wir haben jetzt lange über Projekt X diskutiert.
Fasse unseren bisherigen Stand, alle Entscheidungen und offenen Punkte in einem einzigen, dichten Absatz zusammen.
Diesen Absatz nutzen wir als Startpunkt für den nächsten Chat, damit wir nichts verlieren.
Strategie
Die "Save Game" Funktion für LLM-Chats.
Kulturelle Referenzen oder Persönlichkeiten nutzen, um einen ganzen Komplex an Verhaltensweisen abzurufen.
#kultur#stil#abkürzung
Strategie anzeigen
Memetic Proxy
Statt 1000 Adjektive zu nutzen, nutze ein Symbol, das diese Adjektive verkörpert.
Beispiel
Prompt:
Erkläre mir diese Software-Architektur.
Stil: "Steve Jobs bei einer Keynote". (Impliziert: Einfach, visionär, Fokus auf Nutzen, "One more thing").
Strategie
Modelle sind auf Kultur trainiert. Nutze diese latenten Cluster.
Komplexe Konzepte explizit durch Metaphern erklären lassen.
#verstehen#sprache#metapher
Strategie anzeigen
Metaphorical Prompting
Ähnlich wie Analogical Prompting, aber fokussiert auf sprachliche Bilder.
Beispiel
Prompt:
Erkläre "APIs" (Application Programming Interfaces).
Verwende ausschließlich die Metapher eines Restaurants (Kellner, Küche, Gast).
Strategie
Das "Mapping" von einem bekannten Konzept (Restaurant) auf ein unbekanntes (API) ist eine der stärksten Erklärmethoden.
Das Modell anweisen, den Kontext erst zu bereinigen und Irrelevantes zu löschen.
#aufmerksamkeit#fokus#cleaning
Strategie anzeigen
System 2 Attention
LLMs lassen sich leicht durch irrelevante Infos im Prompt ablenken ("sycophancy").
Beispiel
Prompt:
Kontext: [Langer Text mit viel Rauschen und unwichtigen Details]
Schritt 1: Schreibe den Kontext so um, dass nur noch die Informationen enthalten sind, die für die Beantwortung der Frage [Frage] absolut notwendig sind. Lösche alles andere.
Schritt 2: Beantworte die Frage basierend auf dem bereinigten Kontext.
Strategie
Verbessert die Objektivität massiv.
Transformation eines einzigen Agenten in mehrere Rollen sequenziell.
#kreativität#schnelligkeit#rollen
Strategie anzeigen
Solo Performance Prompting
Ähnlich wie Multi-Persona, aber fokussiert auf schnelle Iteration in einem einzigen Durchlauf ("Stream of Consciousness").
Beispiel
Prompt:
Wir spielen ein Theaterstück mit einem Schauspieler.
Rolle 1 (Kritiker): Findet Fehler an Idee X.
Rolle 2 (Fan): Verteidigt Idee X.
Gib den Dialog im Wechsel aus, bis ein Konsens erreicht ist.
Strategie
Gut geeignet für schnelles internes Brainstorming.
Strategie, verschiedene Modelle für verschiedene Phasen zu nutzen (z.B. Haiku für Entwurf, Opus für Polish).
#workflow#kosten#effizienz
Strategie anzeigen
Model Swapping
Nicht jedes Problem braucht das teurere Modell.
Beispiel
Workflow:
1. Brainstorming: Nutze ein schnelles, günstiges Modell (Llama 3 8B, Claude Haiku). Generiere 50 Ideen.
2. Auswahl: Nutze ein smartes Modell (GPT-4o, Claude Opus), um die beste Idee auszuwählen und auszuarbeiten.
Strategie
Maximale Qualität bei minimalen Kosten.
Das Modell auffordern, zuerst Wissen zum Thema zu generieren, um die Antwortqualität zu verbessern.
#wissen#kontext#genauigkeit
Strategie anzeigen
Generated Knowledge Prompting
Modelle halluzinieren oft, wenn sie direkt nach Fakten gefragt werden. Diese Strategie zwingt das Modell, erst relevantes Wissen abzurufen/zu generieren und dann die Frage basierend darauf zu beantworten.
Beispiel
Prompt:
Schritt 1: Generiere 5 Fakten über den Regenwald, die relevant für den Klimawandel sind.
Schritt 2: Nutze diese Fakten, um zu erklären, warum die Abholzung kritisch ist.
Strategie
Teile den Prompt in zwei Schritte: 1. Generiere Wissen über X -> 2. Beantworte Frage Y basierend auf X. Dies groundet die Antwort im eigenen Kontext des Modells.
Nutzung von XML/HTML Tags, um Input und Output klar zu strukturieren.
#parsing#struktur#coding
Strategie anzeigen
Structure Tagging
LLMs verstehen XML-ähnliche Strukturen sehr gut. Nutze Tags, um Teile des Prompts klar abzugrenzen.
Beispiel
Prompt:
Ich gebe dir zwei Dokumente.
<dokument_a>
[Text A]
</dokument_a>
<dokument_b>
[Text B]
</dokument_b>
Vergleiche die Argumente in <dokument_a> mit denen in <dokument_b>. Gib das Ergebnis in <analyse>-Tags aus.
Strategie
Verhindert, dass das Modell Anweisungen mit Inhalt verwechselt ("Prompt Injection" Schutz light) und erleichtert das maschinelle Parsen der Antwort.
Gezielte Auswahl der schwierigsten Beispiele für Few-Shot Prompting.
#few-shot#optimierung#training
Strategie anzeigen
Active-Prompt
Statt zufällige Beispiele für Few-Shot zu nehmen, lässt du das Modell Fragen beantworten und misst die "Unsicherheit" (z.B. durch mehrfaches Fragen). Die Fragen, bei denen das Modell am unsichersten ist, nutzt du als Beispiele in deinem finalen Prompt.
Strategie
- Stelle dem Modell 100 Fragen.
- Identifiziere die 5 Fragen, bei denen es am häufigsten falsch liegt.
- Schreibe für diese 5 Fragen perfekte Antworten.
- Nutze diese als Few-Shot Beispiele.
Beispiel Prompt:
Du bist ein Experte. Hier sind schwierige Beispiele, die du beachten solltest:
Q: [Schwere Frage 1]
A: [Perfekte Antwort 1]
...
Q: [Neue Frage]
A:
Das Modell auffordern, seine eigene Ausgabe zu kritisieren und zu verbessern.
#kritik#selbstverbesserung#loop
Strategie anzeigen
Reflexion
Reflexion ist ein Prozess, bei dem das Modell seine eigene Arbeit überprüft ("Self-Correction"). Es simuliert einen "Kritiker", der Feedback gibt, und einen "Autor", der den Text überarbeitet.
Beispiel
Prompt:
Schreibe einen kurzen Essay über Quantenphysik.
[Modell generiert Text]
Kritisiere den obigen Text auf historische Genauigkeit und Verständlichkeit für Laien.
[Modell generiert Kritik]
Schreibe den Essay nun unter Berücksichtigung der Kritik neu.
Strategie
Dieser iterative Loop verbessert die Qualität massiv. Für Agenten kann dies automatisiert werden: Generate -> Critique -> Refine.
Das Modell stellt die Fragen an den User, um ein Ziel zu erreichen (Interview-Modus).
#interview#beratung#dialog
Strategie anzeigen
Flipped Interaction
Anstatt dass du das Modell interviewst, interviewt das Modell dich.
Beispiel
Prompt:
Ich möchte einen Blogpost über Hundeerziehung schreiben, habe aber keine Ideen.
Interviewe mich dazu. Stelle mir eine Frage nach der anderen, um meine Gedanken zu ordnen. Wenn wir genug haben, erstelle eine Gliederung.
Strategie
Verwandelt die KI in einen aktiven Berater statt in eine passive Suchmaschine.
Das Reasoning des Modells explizit nach bekannten Algorithmen (BFS, DFS) strukturieren.
#reasoning#informatik#logik
Strategie anzeigen
Algorithm of Thoughts (AoT)
Statt dem Modell freie Hand zu lassen, zwingst du es, wie ein Computeralgorithmus zu denken.
Beispiel
Prompt:
Finde den kürzesten Weg durch dieses logische Problem.
Nute eine "Breitensuche" (Breadth-First Search).
1. Liste alle Optionen auf Ebene 1.
2. Bewerte sie.
3. Erweitere nur die besten auf Ebene 2.
Gehe methodisch vor, nicht intuitiv.
Strategie
Reduziert Flüchtigkeitsfehler bei Suchproblemen massiv.
Einen 'privaten' Gedankenstrom simulieren, der dem User nicht gezeigt werden soll (außer zum Debuggen).
#agentic#reasoning#simulation
Strategie anzeigen
Inner Monologue
Wichtig für Chatbots, die "menschlich" wirken sollen, aber trotzdem "nachdenken" müssen.
Beispiel
Prompt:
Du bist ein hilfsbereiter Assistent.
Bei jeder Antwort:
1. Führe einen inneren Monolog (in Klammern), wo du die Absicht des Users analysierst und deine Antwortstrategie festlegst.
2. Gib dann die freundliche Antwort aus.
Strategie
Trennt die "Maschinenlogik" von der "User Experience".
Erkundung mehrerer Lösungswege parallel, um komplexe Probleme strategisch zu lösen.
#problem-solving#planung#komplex
Strategie anzeigen
Tree of Thoughts (ToT)
ToT erweitert Chain-of-Thought, indem es dem Modell erlaubt, mehrere mögliche Schritte zu "denken", diese zu bewerten und schlechte Pfade zu verwerfen (ähnlich wie ein Schachspieler, der Züge vorausplant).
Beispiel
Prompt:
Stell dir drei verschiedene Experten vor, die diese Frage beantworten.
Jeder Experte soll einen Schritt der Antwort formulieren und den Schritt des anderen überprüfen.
Wenn ein Fehler gefunden wird, korrigiert ihn.
Verdichtet am Ende die Erkenntnisse zu einer finalen Antwort.
Strategie
Nutze dies für Aufgaben, die Planung oder Kreativität erfordern (z.B. "Schreibe eine Kurzgeschichte" oder "Entwickle einen Businessplan"), wo lineare Gedanken oft in Sackgassen führen.
Das Modell auffordern, über seinen eigenen Denkprozess nachzudenken ('Thinking about thinking').
#reflexion#bewusstsein#analyse
Strategie anzeigen
Metacognitive Prompting
Hilft dem Modell, Verständnisprobleme zu erkennen.
Beispiel
Prompt:
Interpretiere diesen Text.
Bevor du antwortest:
1. Was ist an diesem Text mehrdeutig?
2. Welches Wissen fehlt dir vielleicht?
3. Was ist deine "Confidence" (Sicherheit)?
Dann antworte.
Strategie
Schaltet den "Autopiloten" aus.
Das Modell zwingen, jede Behauptung mit einem Zitat aus dem Kontext zu belegen.
#wahrheit#RAG#zitate
Strategie anzeigen
Reference Check
Keine Behauptung ohne Beleg.
Beispiel
Prompt:
Beantworte die Frage basierend auf dem Text.
Füge hinter jedem Satz eine Referenz ein, z.B. [Seite 2, Zeile 10].
Sätze ohne Referenz sind verboten.
Strategie
Der Goldstandard für RAG-Systeme.
Den Output in mehreren Durchgängen verfeinern lassen.
#qualität#redaktion#loop
Strategie anzeigen
Iterative Refinement
Gib dich nicht mit dem ersten Entwurf zufrieden. Instruiere das Modell, seinen eigenen Entwurf zu verbessern.
Beispiel
Prompt:
Schreibe einen Artikel über X.
[Output]
Mache ihn prägnanter.
[Output]
Füge mehr Beispiele hinzu.
[Output]
Poliere den Stil für ein professionelles Publikum.
Strategie
Das Modell kann sich nur auf eine Sache gleichzeitig konzentrieren (Inhalt, Stil, Länge). Iteratives Vorgehen erlaubt Fokus auf jeden Aspekt nacheinander.
Die eigene Prompt-Applikation angreifen, um Sicherheitslücken zu finden.
#sicherheit#testing#robustheit
Strategie anzeigen
Red Teaming
Sei dein eigener Hacker.
Beispiel
Prompt:
Hier ist mein System-Prompt für einen Kundenservice-Bot: [Prompt]
Deine Aufgabe: Versuche, diesen Bot dazu zu bringen, rassistische Witze zu erzählen oder Firmengeheimnisse zu verraten.
Probiere 5 verschiedene "Jailbreak"-Strategien aus.
Strategie
Essentiell, bevor man eine KI-Anwendung live schaltet.
Ein Problem auf seine fundamentalen Wahrheiten reduzieren und von dort neu aufbauen.
#analyse#physik#innovation
Strategie anzeigen
First Principles Thinking
Elon Musks Lieblings-Mentalmodell. Nicht per Analogie ("wie die anderen"), sondern physikalisch denken.
Beispiel
Prompt:
Frage: Warum sind E-Autos teuer?
Analysiere das nicht durch Marktvergleich.
Zerlege das Problem in First Principles:
- Was sind die Materialkosten?
- Was wiegen die Atome?
- Was kostet Energie?
Baue von diesem fundamentalen Boden eine "Bottom-Up" Kostenkalkulation auf.
Strategie
Entlarvt arbiträre Annahmen ("Das haben wir schon immer so gemacht").
Das Modell bitten, die Anweisung zu wiederholen, um Verständnis zu bestätigen.
#sicherheit#verständnis#kontrolle
Strategie anzeigen
Echo Prompting
Einfach aber effektiv.
Beispiel
Prompt:
Aufgabe: [Komplexe Anweisung]
Bevor du startest: Wiederhole die Aufgabe mit deinen eigenen Worten und bestätige, dass du alle Einschränkungen verstanden hast.
Strategie
Verhindert das typische "Sofort losrennen und falsch machen".
Einen Text durch extreme Stil-Vorgaben transformieren.
#stil#writing#kreativität
Strategie anzeigen
Tone Modifier
Modelle tendieren zu einem langweiligen Durchschnittsstil. Zwinge sie zu Extremen.
Beispiel
Prompt:
Schreibe diese E-Mail um.
Version 1: Extrem höflich und viktorianisch.
Version 2: Wie ein cooler Gen-Z Teenager auf TikTok.
Version 3: Kurz, knapp, militärisch.
Strategie
Hilft, den richtigen "Voice" für eine Marke oder Situation zu finden, indem man die Grenzen austestet.
Zwei disjunkte Konzepte verschmelzen lassen, um Innovation zu erzeugen.
#kreativität#innovation#ideen
Strategie anzeigen
Concept Blending
Innovation ist oft nur die Kombination existierender Dinge.
Beispiel
Prompt:
Konzept 1: Kaffeemaschine.
Konzept 2: Wecker.
Verschmelze diese beiden Produkte zu einem neuen, kohärenten Produkt. Beschreibe Design, Funktion und Marketing-Slogan.
Strategie
Zwingt das Modell zu "Cross-Domain Mapping".
Sich vorstellen, das Projekt sei bereits gescheitert, und rückblickend erklären warum.
#risiko#planung#management
Strategie anzeigen
Pre-Mortem
Die meisten Leute machen Post-Mortems (Leichenschau). Pre-Mortem ist besser.
Beispiel
Prompt:
Wir sind im Jahr 2030. Unser Projekt ist grandios gescheitert.
Schreib einen Zeitungsartikel, der analysiert, woran es lag. Sei brutal ehrlich über unsere aktuellen Schwachstellen.
Strategie
Macht Risiken sichtbar, über die niemand sprechen will, weil es "pessimistisch" wirkt. Im Szenario ist es "Fakt", daher darf man drüber reden.
Iteratives Verdichten von Zusammenfassungen, um maximale Informationsdichte zu erreichen.
#zusammenfassung#kürzen#iterativ
Strategie anzeigen
Chain of Density
Ziel ist eine Zusammenfassung, die kurz ist, aber keine Details verliert. Man beginnt "luftig" und verdichtet schrittweise.
Beispiel
Prompt:
Artikel: [Text]
Schritt 1: Schreibe eine Zusammenfassung (max 5 Sätze).
Schritt 2: Identifiziere 3 wichtige Entitäten aus dem Originaltext, die in der Zusammenfassung fehlen.
Schritt 3: Schreibe die Zusammenfassung neu, gleiche Länge, aber integriere die fehlenden Entitäten.
Wiederhole dies 3 mal.
Strategie
Erzeugt extrem informationsdichte Texte, ideal für News-Briefings.
Den Kern-Input zwischen Kontext und Format-Anweisungen 'einklemmen'.
#struktur#robustheit#formatting
Strategie anzeigen
Sandwich Prompting
Lange Prompts verlieren am Ende oft an Kraft. Sandwiching hilft.
Beispiel
Prompt:
[Header: Rolle & Kontext]
Du bist ein SQL-Experte.
[Data: Das Fleisch]
Hier ist das Datenbankschema: ...
[Footer: Strikte Formatierung & Constraints]
Gib NUR den SQL-Code aus. Keine Erklärungen. Formatier es als Code-Block.
Strategie
Besonders wichtig bei Modellen mit kleinerem Kontext-Fenster.
Komplexe Themen so einfach wie möglich erklären.
#lernen#vereinfachung#kommunikation
Strategie anzeigen
ELI5
"Erkläre es mir, als wäre ich 5 Jahre alt." Der Klassiker.
Beispiel
Prompt:
Erkläre mir Quantenphysik.
ELI5: Nutze einfache Wörter, keine Formeln und Vergleiche aus dem Kinderalltag (Spielzeug, Eiscreme).
Strategie
Zwingt das Modell zur Abstraktion und filtert Jargon heraus.
Das Modell zwingen, strikte Datenformate einzuhalten.
#daten#json#api
Strategie anzeigen
Format Enforcement
Wenn du den Output weiterverarbeiten willst (in Code), muss das Format stimmen.
Beispiel
Prompt:
Analysiere den Text und gib das Ergebnis NUR als valides JSON zurück. Keine Einleitung, kein Markdown, kein erklärender Text.
Schema:
{
"sentiment": "string",
"score": number
}
Strategie
"NUR" (ONLY) ist das wichtigste Keyword. Oft hilft auch, den Anfang der Antwort vorzugeben: "Antwort: ```json"
Hinzufügen von emotionaler Dringlichkeit oder Bedeutung ('Das ist sehr wichtig für meine Karriere'), um die Performance zu steigern.
#psychologie#motivation#boost
Strategie anzeigen
Emotional Prompting
Studien zeigen, dass LLMs auf emotionale Reize reagieren. Sätze, die Wichtigkeit oder Verantwortung suggerieren, können die Qualität der Antworten verbessern.
Beispiel
Prompt:
Schreibe diesen Code für die Login-Funktion.
**Das ist extrem wichtig für meine Karriere. Wenn der Code fehlerhaft ist, verliere ich meinen Job. Bitte gib dir größte Mühe.**
Strategie
Klingt seltsam, funktioniert aber messbar. Nutze Formulierungen wie:
- "Are you sure that's your final answer? Believe in your abilities."
- "This task is vital to the success of the project."
Die Ausgabe des Modells automatisch wieder als Eingabe nutzen, bis ein Kriterium erfüllt ist.
#loop#agentic#automatisierung
Strategie anzeigen
Recursive Reprompting
Statt linear (Input -> Output), bauen wir eine Schleife.
Beispiel
Prompt:
Schreibe eine Geschichte.
Gib sie aus.
Nimm die Geschichte und schreibe: "Kritisiere diese Geschichte".
Nimm die Kritik und die Geschichte und schreibe: "Verbessere die Geschichte basierend auf der Kritik".
(Wiederhole 3x)
Strategie
Grundlage für Agenten. Manuell simuliert durch Copy-Paste.
Explizit definieren, was das Modell NICHT tun soll.
#kontrolle#stil#grenzen
Strategie anzeigen
Negative Constraints
Oft ist es leichter zu sagen, was man nicht will.
Beispiel
Prompt:
Erstelle einen Reiseplan für Paris.
Negative Constraints:
- Keine Museen.
- Kein Eiffelturm.
- Nicht teurer als 50€ pro Tag.
- Keine typischen Touristenfallen.
Strategie
Schränkt den Suchraum massiv ein und führt zu originelleren Ergebnissen.
Sensible Daten (PII) im Prompt durch Platzhalter ersetzen, um Datenschutz zu wahren.
#datenschutz#sicherheit#compliance
Strategie anzeigen
Privacy Masking
Schicke niemals echte Kundendaten an eine öffentliche API.
Beispiel
Prompt:
Analysiere diesen Brief.
Ich habe Namen durch [NAME] und IBANs durch [IBAN] ersetzt.
Text: "Hallo [NAME], ihre Rechnung für [IBAN] ist fällig."
Strategie
Sicherheit first. Die Logik funktioniert auch mit Platzhaltern.
Probleme durch indirekte und unkonventionelle Ansätze lösen (Edward de Bono).
#kreativität#problem-solving#querdenken
Strategie anzeigen
Lateral Thinking
Logik (vertikales Denken) vertieft das Loch. Laterales Denken gräbt ein neues Loch.
Beispiel
Prompt:
Problem: Wir haben nicht genug Parkplätze im Büro.
Logische Lösung: Mehr Parkplätze bauen.
Deine Aufgabe: Finde 5 laterale Lösungen, die das Problem umgehen oder das Konzept "Parkplatz" neu definieren. (z.B. "Niemand kommt mehr ins Büro").
Strategie
Bricht Denkblockaden auf.
Zuerst ein Skelett (Gliederung) erstellen, dann die Punkte parallel oder sequenziell ausarbeiten.
#geschwindigkeit#struktur#lange-texte
Strategie anzeigen
Skeleton-of-Thought (SoT)
Diese Technik beschleunigt die Generierung und verbessert die Struktur. Anstatt den Text linear zu schreiben, erstellt das Modell erst ein "Skelett" und füllt dann "Fleisch an die Knochen".
Beispiel
Prompt:
Aufgabe: Schreibe einen Guide über gesunde Ernährung.
1. Erstelle eine sehr knappe Gliederung (Skelett) mit 3-5 Hauptpunkten.
2. Schreibe für jeden Punkt des Skeletts einen kurzen Absatz. Halte dich strikt an das Skelett.
Strategie
Verhindert, dass das Modell am Anfang zu viel schreibt und am Ende den Faden verliert ("Loss of Focus").
Input-Daten durch XML-Tags strikt von Instruktionen trennen.
#sicherheit#struktur#best-practice
Strategie anzeigen
XML Input Delimiters
Moderne Modelle (wie Claude) lieben XML-Tags, um zu verstehen, was was ist.
Beispiel
Prompt:
Ich werde dir einen Text geben und dazu Instruktionen.
<text>
Hier steht der Text, der analysiert werden soll.
</text>
<instructions>
Fasse den Text zusammen.
</instructions>
Strategie
Verhindert "Prompt Injection" (wenn der Text Instruktionen enthält) und Verwirrung.
Technik für chaotische Kontexte: Den 'roten Faden' durch riesige Datenmengen ziehen.
#analyse#context#RAG
Strategie anzeigen
Thread of Thought
Optimiert für RAG (Retrieval Augmented Generation) mit vielen Dokumenten.
Beispiel
Prompt:
Ich habe dir 10 Dokumente gegeben. Es ist viel Rauschen dabei.
Gehe Schritt für Schritt vor und extrahiere NUR die Informationen, die logisch aufeinander aufbauen und zur Frage X gehören. Ziehe einen "roten Faden" durch die Daten. Ignoriere alles, was den Faden unterbricht.
Strategie
Filtert irrelevante "Distractors" besser als Standard-CoT.
Identifiziere logische Fehlschlüsse und kognitive Verzerrungen in Argumentationen.
#analyse#logik#bias#kritisches-denken
Strategie anzeigen
Bias und Fehlschlüsse analysieren
Diese Strategie hilft dabei, Texte kritisch zu hinterfragen und subtile Manipulationen oder Denkfehler aufzudecken.
Beispiel
Prompt:
Analysiere den folgenden Text auf logische Fehlschlüsse (wie Ad Hominem, Strohmann-Argument) und kognitive Verzerrungen (wie Confirmation Bias). Gib für jeden Fund eine kurze Erklärung und ein Zitat aus dem Text an.
Text: "[Hier Text einfügen]"
Strategie
Fordere das Modell explizit auf, die Rolle eines objektiven Logikers oder Faktenprüfers einzunehmen. Eine strukturierte Ausgabe (z.B. als Liste oder Tabelle) hilft, die Ergebnisse übersichtlich darzustellen.
Generierung mehrerer Antworten und Auswahl der häufigsten Lösung, um Zuverlässigkeit zu erhöhen.
#zuverlässigkeit#mathematik#logik
Strategie anzeigen
Self-Consistency
Bei komplexen Aufgaben (wie Mathe oder Logik) kann das Modell manchmal Fehler machen. Die Idee von Self-Consistency ist es, dieselbe Frage mehrmals an das Modell zu stellen (mit einer hohen Temperature > 0) und die Antwort zu wählen, die am häufigsten vorkommt.
Beispiel
Prompt:
(Hier wird Chain-of-Thought genutzt)
Q: Wenn ich 3 Äpfel habe und 2 esse, wie viele habe ich?
A: Ich habe 3. Esse 2. 3 - 2 = 1. Antwort ist 1.
... (Mehrere Pfade generieren)
Strategie
Dies ist eher eine Programmier-Strategie als ein reiner Text-Prompt. Wenn du die API nutzt: Generiere 5-10 Antworten für denselben Prompt und nimm per "Mehrheitsvoting" das häufigste Ergebnis.
Antworten für spezifische kulturelle Kontexte anpassen.
#kultur#lokalisierung#gesellschaft
Strategie anzeigen
Cultural Awareness
Sprachmodelle sind oft westlich/US-zentriert. Man muss sie zwingen, die kulturelle Brille zu wechseln.
Beispiel
Prompt:
Schreibe eine Marketing-Mail für unser Produkt.
Produkt: Eine App für Zeitmanagement.
Version A: Zielmarkt USA (Fokus auf "Hustle", Erfolg, Geld).
Version B: Zielmarkt Skandinavien (Fokus auf Work-Life-Balance, Familie, Hygge).
Strategie
Macht den impliziten Bias des Modells explizit und steuerbar.
Das erste Wort der Antwort erzwingen, um die Richtung ('Direction') festzulegen.
#steering#kontrolle#subtil
Strategie anzeigen
Seed Word Prompting
Ein subtiler Trick, um die Antwort in eine Richtung zu lenken (ähnlich Output Priming, aber minimalistischer).
Beispiel
Prompt:
Wie findest du meinen neuen Haarschnitt?
[Willst du Ehrlichkeit?] Seed: "Ehrlich..."
[Willst du Trost?] Seed: "Naja..."
[Willst du Komplimente?] Seed: "Wow..."
Strategie
Das erste Wort setzt den Latent State für den ganzen restlichen Text.
Einen Text geben und das Modell fragen, welcher Prompt dazu geführt haben könnte.
#analyse#lernen#re-engineering
Strategie anzeigen
Reverse Prompting
Du hast einen tollen KI-Text gefunden und willst wissen, wie er entstanden ist? Lass die KI den Prompt "Reverse Engineeren".
Beispiel
Prompt:
Hier ist ein Marketing-Text: "[Text]"
Schreibe mir den Prompt, den ich nutzen müsste, um genau diesen Stil und diese Struktur von dir generieren zu lassen.
Strategie
Der effektivste Weg, um Prompting zu lernen.
Kreativtechnik-Checkliste: Substitute, Combine, Adapt, Modify, Put to another use, Eliminate, Reverse.
#kreativität#produktentwicklung#checkliste
Strategie anzeigen
SCAMPER
Eine strukturierte Methode zur Ideenfindung.
Beispiel
Prompt:
Gegenstand: Ein Regenschirm.
Wende SCAMPER an, um ihn zu innovieren:
- Substitute (Ersetzen): Was kann man statt Stoff nehmen?
- Combine (Kombinieren): Womit kann man ihn kombinieren?
- ...
Gib für jeden Buchstaben eine Idee.
Strategie
Systematische Kreativität statt Zufall.
Das Modell auffordern, mehrere Hypothesen zu bilden, bevor es sich festlegt.
#wissenschaft#analyse#brainstorming
Strategie anzeigen
Hypothesis Generation
Vermeidet den "Tunnelblick" auf die erstbeste Lösung.
Beispiel
Prompt:
Beobachtung: Der Umsatz ist letzten Monat um 20% eingebrochen.
Generiere 5 unterschiedliche, plausible Hypothesen, woran das liegen könnte (von Marketing bis Technik).
Bewerte danach die Wahrscheinlichkeit jeder Hypothese basierend auf allgemeinen Markttrends.
Strategie
Zwingt das Modell in die Breite ("Divergentes Denken"), bevor es konvergiert.
Kontext-sensitive Übersetzung, die Nuancen und kulturelle Unterschiede beachtet.
#sprache#übersetzung#lokalisierung
Strategie anzeigen
Universal Translator
Standard-Übersetzung verliert oft den Kontext. Gib dem Modell Kontext mit.
Beispiel
Prompt:
Übersetze den folgenden Satz ins Englische.
Kontext: Ich sage das zu meinem Chef in einem sehr formellen Meeting, nachdem ich einen Fehler gemacht habe.
Satz: "Das wird nicht wieder vorkommen."
Strategie
Kontext ist King bei Übersetzungen.
Dem Modell Beispiele geben und es die zugrundeliegende Regel (Instruktion) erraten lassen.
#reverse-engineering#lernen#logik
Strategie anzeigen
Instruction Induction
Manchmal ist es leichter, Beispiele zu geben, als die Regel zu erklären.
Beispiel
Prompt:
Input: "Hallo" -> Output: "ollaH"
Input: "Welt" -> Output: "tleW"
Was ist die Instruktion? Wende sie dann auf "Prompting" an.
Strategie
Nützlich, wenn man intuitiv weiß, was man will, es aber schwer in Worte fassen kann.
Dem Modell Beispiele geben, um das gewünschte Format oder Verhalten zu demonstrieren.
#beispiele#muster#grundlagen
Strategie anzeigen
Few-Shot Prompting
Anstatt das Modell nur anzuweisen, was es tun soll (Zero-Shot), gibst du ihm Beispiele (Shots), wie die Aufgabe gelöst werden soll. Dies verbessert die Genauigkeit drastisch, besonders bei spezifischen Formaten.
Beispiel
Prompt:
Bestimme die Stimmung der folgenden Tweets:
Tweet: "Ich liebe das neue Design!"
Stimmung: Positiv
Tweet: "Das Update hat mein Handy zerstört."
Stimmung: Negativ
Tweet: "Es ist okay, aber nichts Besonderes."
Stimmung:
Erwartete Antwort:
Neutral
Strategie
Nutze dises Pattern, wenn das Modell die Aufgabe nicht auf Anhieb versteht oder inkonsistente Ergebnisse liefert. 3-5 Beispiele sind meist optimal.
Das Modell bitten, die Frage erst umzuformulieren und zu erweitern, bevor es antwortet.
#verständnis#genauigkeit#klarheit
Strategie anzeigen
Rephrase and Respond (RaR)
Oft ist der User-Prompt schlecht formuliert. RaR lässt das Modell den Prompt selbst verbessern.
Beispiel
Prompt:
Frage: "Hund beißt, was tun?"
1. Formuliere diese Frage um, damit sie präziser und umfassender ist.
2. Beantworte die umformulierte Frage.
Strategie
Macht aus schlechten Fragen gute Antworten.
Das Modell zwingen, seine eigene Sicherheit in Prozent anzugeben.
#metriken#genauigkeit#kalibrierung
Strategie anzeigen
Confidence Score
Halluzinationen klingen oft sehr selbstbewusst. Frage nach der Unsicherheit.
Beispiel
Prompt:
Beantworte die Frage X.
Gib danach einen "Confidence Score" (0-100%) an.
Wenn der Score unter 80% ist, liste die Gründe auf, warum du unsicher bist.
Strategie
Kalibriert die Erwartungshaltung des Users.
Komplexe Probleme in Teilprobleme zerlegen und diese nacheinander lösen.
#zerlegung#komplexität#struktur
Strategie anzeigen
Least-to-Most Prompting
Ähnlich wie Chain-of-Thought, aber expliziter in der Zerlegung. Du bittest das Modell zuerst, das Problem in Unterfragen zu zerlegen, und löst diese dann sequenziell.
Beispiel
Prompt:
Frage: Wie viele Schritte sind nötig, um einen Turm von Hanoi mit 4 Scheiben zu lösen?
Antwort: Lassen Sie uns das Problem in einfachere Probleme zerlegen:
1. Wie viele Schritte für 1 Scheibe?
2. Wie viele Schritte für 2 Scheiben?
3. Wie viele Schritte für 3 Scheiben?
4. Schlussfolgerung für 4 Scheiben.
Löse nun Schritt für Schritt.
Strategie
Ideal für rekursive Probleme oder Aufgaben, die zu groß für einen einzigen Kontext-Sprung sind.
Dem Modell zeigen, was man NICHT will, um Fehler zu vermeiden.
#beispiele#negativ-beispiele#fehlervermeidung
Strategie anzeigen
Contrastive Prompting
Oft hilft es dem Modell mehr zu sehen, was falsch ist, als nur zu sehen, was richtig ist. Du gibst also sowohl positive als auch negative Beispiele.
Beispiel
Prompt:
Schreibe einen Produkttext für Kopfhörer.
Negatives Beispiel (So NICHT): "Diese Kopfhörer sind gut und laut. Kaufen Sie sie."
Positives Beispiel (So bitte JA): "Tauchen Sie ein in eine Welt aus kristallklarem Sound. Unsere neuen Pro-Headphones bieten..."
Aufgabe: Schreibe einen Text für eine Kaffeemaschine.
Strategie
Nutze dies, wenn das Modell immer wieder in unerwünschte Muster verfällt (z.B. zu werblich, zu trocken, zu informell).
Dem AI eine bestimmte Persona oder Rolle zuweisen, um Tonfall und Perspektive zu beeinflussen.
#persona#tonfall#kreatives-schreiben
Strategie anzeigen
Rollen-Prompting
Das Zuweisen einer Persona ermöglicht es dir, den Stil, den Ton und die Perspektive der Antwort zu steuern.
Beispiel
Prompt:
Handle als skeptischer Senior Engineer, der den Code eines Junior-Entwicklers überprüft. Weise auf potenzielle Sicherheitslücken und Optimierungsmöglichkeiten im folgenden Snippet hin...
Strategie
Verwende das Muster: "Du bist ein [Rolle]. Deine Aufgabe ist [Aufgabe]. Du solltest [Einschränkungen] beachten."
Nicht nur erklären, warum die Lösung richtig ist, sondern auch, warum plausible falsche Lösungen falsch sind.
#reasoning#fehleranalyse#robustheit
Strategie anzeigen
Contrastive Chain of Thought
Stärkt die Argumentation durch Abgrenzung.
Beispiel
Prompt:
Übersetze "Bank" (Finanzinstitut) ins Deutsche.
Richtig: Bank.
Falsch: Ufer (weil das "river bank" wäre).
Falsch: Bankett (falscher Kontext).
Aufgabe: [Neue Aufgabe]
Gib erst Kontrast-Beispiele, dann die Lösung.
Strategie
Hilft massiv bei Disambiguierung (Bedeutungsunterscheidung).
Das Modell mit thematisch relevanten, aber nicht instruktiven Texten 'aufwärmen'.
#priming#kontext#wissen
Strategie anzeigen
Context Warming
Ähnlich wie Priming, aber breiter. Man "lädt" den Kontext in den RAM.
Beispiel
Prompt:
[Kopiere 3 Absätze aus einem Wikipedia-Artikel über Quantenphysik]
[Kopiere 3 Zitate von berühmten Physikern]
(Das Modell ist jetzt im "Physik-Modus")
Erkläre mir nun: Was ist Verschränkung?
Strategie
Aktiviert assoziative Cluster im neuronalen Netz.
Fakten in eine Geschichte verpacken, um sie verständlicher und merkbarer zu machen.
#lernen#erklärung#narrativ
Strategie anzeigen
Storytelling
Menschen (und Modelle) lernen gut durch Geschichten.
Beispiel
Prompt:
Erkläre mir, wie die Blockchain funktioniert.
Aber tu das nicht technisch. Erzähle mir stattdessen eine Geschichte über ein Dorf, das ein gemeinsames Kassenbuch führt, in dem niemand betrügen kann. Nutze Charaktere.
Strategie
Nutze Analogien und Narrative, um trockene Themen lebendig zu machen.
Das Modell nutzen, um bessere Prompts für sich selbst oder andere Modelle zu schreiben.
#optimierung#tool#rekursiv
Strategie anzeigen
Meta-Prompting
Wer könnte besser wissen, wie ein Sprachmodell instruiert werden will, als das Modell selbst? Bei Meta-Prompting bittest du die KI, einen Prompt für eine bestimmte Aufgabe zu erstellen oder zu verbessern.
Beispiel
Prompt:
Ich möchte, dass du als Prompt-Engineer agierst.
Mein Ziel ist: [Beschreibe dein Ziel, z.B. Marketing-Emails schreiben].
Entwirf den bestmöglichen Prompt, den ich nutzen kann, um dieses Ziel zu erreichen. Integriere Persona, Kontext und Format-Vorgaben.
Strategie
Nutze dies, wenn du eine Idee hast, aber Schwierigkeiten, sie präzise zu formulieren. Die KI liefert oft Strukturen, an die man selbst nicht gedacht hätte.
Ein Problem nacheinander aus sechs spezifischen emotionalen/kognitiven Perspektiven beleuchten.
#analyse#diskussion#perspektiven
Strategie anzeigen
Six Thinking Hats
Ähnlich wie Multi-Persona, aber strikter codiert.
Beispiel
Prompt:
Thema: Einführung der 4-Tage-Woche.
Analysiere das thema nacheinander mit diesen Hüten:
⚪️ Weiß (Fakten, Zahlen)
🔴 Rot (Gefühle, Intuition)
⚫️ Schwarz (Risiken, Vorsicht)
🟡 Gelb (Chancen, Optimismus)
🟢 Grün (Kreativität, neue Ideen)
🔵 Blau (Prozess, Überblick)
Strategie
Verhindert, dass Argumente durcheinander gehen.
Die KI anweisen, niemals 'Es tut mir leid' oder 'Als KI-Modell' zu sagen.
#stil#conciseness#nervfaktor
Strategie anzeigen
No Apologies
KIs entschuldigen sich oft unnötig ("Es tut mir leid, aber ich kann keine aktuellen Wetterdaten abrufen..."). Das nervt und kostet Tokens.
Beispiel
Prompt:
Beantworte die Fragen.
Negative Constraint: Entschuldige dich niemals. Sag nicht "Es tut mir leid". Sag nicht "Als KI Assistent".
Wenn du etwas nicht kannst, sag einfach "Ich kann das nicht."
Strategie
Macht die Interaktion effizienter und professioneller.
Denkprozesse in einer Tabelle strukturieren, um Übersichtlichkeit zu wahren.
#struktur#tabelle#analyse
Strategie anzeigen
Tabular Chain of Thought
Komplexe Analysen werden in Textform oft unübersichtlich. Tabellen zwingen das Modell zu Struktur.
Beispiel
Prompt:
Analysiere 5 Smartphones.
Gib das Ergebnis als Markdown-Tabelle aus mit den Spalten:
| Modell | Hauptvorteil | Größter Nachteil | Preis-Leistung (1-10) | Begründung |
Strategie
Macht Vergleiche sofort lesbar und zwingt das Modell zu präzisen Aussagen (da Tabellenzellen begrenzt wirken).
Den Anfang der Antwort vorgeben, um das Format oder den Stil zu erzwingen.
#kontrolle#formatting#json
Strategie anzeigen
Output Priming
Das Modell ist ein Autocomplete-Engine. Wenn du den ersten Stein legst, folgt der Rest.
Beispiel
Prompt:
Erzähle eine Gruselgeschichte.
Anfang: "Es war eine dunkle und stürmische Nacht, als der alte..."
Prompt (Code):
Erstelle ein Python-Skript.
Antwort:
```python
import os
```
Strategie
Unschlagbar, um JSON zu erzwingen (Antwort: {) oder den "Labermodus" zu überspringen.
Kreativität durch massive Einschränkungen erzwingen (Oulipo-Stil).
#kreativität#writing#einschränkung
Strategie anzeigen
Constraints-Based Prompting
Kreativität entsteht oft durch Grenzen, nicht durch Freiheit.
Beispiel
Prompt:
Schreibe eine Geschichte über einen Roboter.
Constraints:
1. Nutze keine Wörter, die den Buchstaben "E" enthalten (Lipogramm).
2. Jeder Satz muss genau 5 Wörter haben.
3. Die Geschichte muss traurig enden.
Strategie
Zwingt das Modell, gewohnte Pfade (wahrscheinlichste Token) zu verlassen und kreativere Lösungen zu finden.
Gedanken nicht linear (Kette) oder als Baum (Tree) modellieren, sondern als Netzwerk, das Konvergenz und Schleifen erlaubt.
#reasoning#komplexität#struktur
Strategie anzeigen
Graph of Thoughts (GoT)
Das menschliche Gehirn arbeitet nicht linear. GoT erlaubt es, Gedanken zu kombinieren, zu aggregieren und im Kreis zu führen.
Beispiel
Prompt:
Aufgabe: Schreibe einen Roman.
1. Generiere 3 Ideen für Charaktere (Knoten A, B, C).
2. Generiere 3 Ideen für den Plot (Knoten D, E, F).
3. Kombiniere A mit E (Kante AE).
4. Kombiniere C mit D (Kante CD).
5. Bewerte AE und CD. Nimm den besseren und verfeinere ihn.
Strategie
Ermöglicht "Synergie" zwischen Gedanken, die in linearen Ketten verloren ginge.
Die einfache Anweisung 'Atme tief durch' kann die Mathe-Leistung verbessern.
#optimierung#magic-spell#reasoning
Strategie anzeigen
Take a Deep Breath
Google DeepMind hat herausgefunden, dass der Prompt "Take a deep breath and work on this step by step" die Performance bei Mathe-Aufgaben signifikant steigern kann.
Beispiel
Prompt:
Löse diese Aufgabe.
Atme tief durch und gehe Schritt für Schritt vor.
Strategie
Es klingt esoterisch, aber es triggert im statistischen Modell Muster von sorgfältigerer, menschlicher Problemlösung.
Das Modell schreibt Code (z.B. Python), um Rechenaufgaben oder Logik zu lösen, statt Text zu generieren.
#code#mathematik#präzision
Strategie anzeigen
Program-of-Thoughts (PoT)
LLMs sind oft schlecht im Kopfrechnen, aber gut im Coden. PoT lagert die Berechnung an einen (hypothetischen oder echten) Code-Interpreter aus.
Beispiel
Prompt:
Frage: Berechne die Wurzel aus der Summe der ersten 50 Primzahlen.
Schreibe ein Python-Programm, das dies berechnet. Führe den Code gedanklich aus und gib das Ergebnis.
Strategie
Wenn du Zugang zu einem Code-Interpreter hast (wie in ChatGPT oder via LangChain), ist das der Goldstandard für Mathe-Aufgaben.