Prompts

Fortgeschritten

ReAct (Reasoning + Acting)

Kombination aus logischem Denken und Handlungen (z.B. API-Aufrufe), um Fakten zu prüfen.

#agenten#tools#fakten
Strategie anzeigen

ReAct

ReAct ist das fundamentale Muster für KI-Agenten. Es fordert das Modell auf, abwechselnd zu denken ("Thought"), eine Handlung auszuführen ("Action", z.B. eine Suche), das Ergebnis zu beobachten ("Observation") und dann weiterzudenken.

Beispiel

Prompt:

Frage: Wer ist der aktuelle Kanzler von Deutschland und wie alt ist er?
Thought: Ich muss zuerst herausfinden, wer der Kanzler ist.
Action: Search[Kanzler Deutschland aktuell]
Observation: Olaf Scholz ist Bundeskanzler.
Thought: Jetzt muss ich sein Alter herausfinden.
Action: Search[Olaf Scholz Alter]
Observation: Er ist 66 Jahre alt (Stand 2024).
Thought: Ich habe alle Informationen.
Answer: Der Kanzler ist Olaf Scholz und er ist 66 Jahre alt.

Strategie

Nutze dieses Muster, wenn das Modell Zugriff auf externe Tools hat oder wenn du einen manuellen Rechercheprozess simulieren willst.

Fortgeschritten

Analogical Prompting

Den Lösungsweg durch Analogien zu ähnlichen Problemen ableiten.

#kreativität#vergleich#transfer
Strategie anzeigen

Analogical Prompting

Fordere das Modell auf, eine relevante Analogie oder ein ähnliches Problem zu finden und dessen Lösung auf das aktuelle Problem zu übertragen. Dies hilft besonders bei abstrakten Transfers.

Beispiel

Prompt:

Problem: Wie können wir die Fluktuation in unserem Unternehmen senken?
Schritt 1: Erinnere dich an ein relevantes Problem aus der Biologie (z.B. wie ein Ökosystem stabil bleibt).
Schritt 2: Beschreibe die Lösung in der Biologie.
Schritt 3: Übertrage diese Lösung auf das Unternehmen.

Strategie

Starke Methode für "Out-of-the-Box" Denken und Innovation.

Mittel

Simulated RAG

Manuelles Bereitstellen von Kontext-Chunks, um Retrieval-Augmented Generation zu simulieren.

#kontext#dokumente#analyse
Strategie anzeigen

Simulated RAG

Wenn du kein echtes Vektor-Datenbank-System hast, kannst du RAG simulieren, indem du relevante Textabschnitte ("Chunks") manuell in den Prompt lädst.

Beispiel

Prompt:

Nutze AUSSCHLIESSLICH die folgenden Informationen, um die Frage zu beantworten. Wenn die Antwort nicht im Text steht, sag "Weiß ich nicht".
--- KONTEXT ANFANG ---
[Auszug aus Handbuch Seite 5]
[Auszug aus Wiki Artikel]
--- KONTEXT ENDE ---

Frage: Wie setze ich das Gerät zurück?

Strategie

Die Basis für Chat-with-your-PDF Anwendungen. Wichtig ist die negative Constraint ("Sag, wenn du es nicht weißt").

Mittel

OODA Loop

Entscheidungsmodell für dynamische Situationen: Observe, Orient, Decide, Act.

#entscheidung#strategie#militär
Strategie anzeigen

OODA Loop

Ursprünglich für Dogfights entwickelt, heute für Business genutzt.

Beispiel

Prompt:

Situation: Ein Konkurrent hat gerade seine Preise halbiert.
Führe mich durch den OODA Loop:
1. Observe: Was sehen wir genau?
2. Orient: Was bedeutet das im Kontext unserer Marke/Kultur?
3. Decide: Welche Optionen haben wir und welche wählen wir?
4. Act: Was ist der erste konkrete Schritt?

Strategie

Hilft gegen Schockstarre in Krisen.

Mittel

Prompt Chaining

Aufteilung einer großen Aufgabe in mehrere, voneinander abhängige Prompts.

#workflow#automatisierung#komplexität
Strategie anzeigen

Prompt Chaining

Manche Aufgaben sind zu komplex für einen einzigen Prompt (Kontext-Limit oder Verwirrung). Bei Chaining nimmst du den Output von Prompt A und nutzt ihn als Input für Prompt B.

Beispiel

Workflow:

Prompt 1: Extrahiere alle E-Mail-Adressen aus diesem Text.
Output 1: [Liste]

Prompt 2: Nimm diese Liste [Liste] und erstelle für jeden Kontakt eine personalisierte Begrüßung.

Strategie

Essentiell für robuste Anwendungen. Lieber viele kleine, präzise Prompts als ein riesiger "Monster-Prompt".

Anfänger

5 Whys

Fünfmal nach dem 'Warum' fragen, um die Kernursache (Root Cause) zu finden.

#analyse#problem-solving#debugging
Strategie anzeigen

5 Whys

Eine Methode aus dem Toyota Produktionssystem.

Beispiel

Prompt:

Problem: Der Server ist abgestürzt.
Frage mich 5 mal "Warum?", und simuliere meine Antworten, bis wir die wirkliche Ursache gefunden haben.
1. Warum ist er abgestürzt? (Weil Speicher voll war)
2. Warum war Speicher voll? (Weil Logs nicht gelöscht wurden)
...

Strategie

Geht tiefer als oberflächliche Symptombekämpfung.

Anfänger

Token Budget

Dem Modell ein 'Budget' an Wörtern oder Sätzen geben, um Geschwätzigkeit zu verhindern.

#prägnanz#kosten#kontrolle
Strategie anzeigen

Token Budget

Modelle labern gerne. Setze harte Grenzen.

Beispiel

Prompt:

Erkläre die Relativitätstheorie.
Token Budget: Maximal 50 Wörter.
Jedes Wort darüber wird bestraft.

Strategie

Zwingt das Modell, sich auf das Wesentliche zu fokussieren ("Dichte").

Anfänger

Decomposition

Explizite Aufforderung, ein Problem in Teilprobleme zu zerlegen (Top-Down).

#struktur#problem-solving#planung
Strategie anzeigen

Decomposition

Der wichtigste Skill im Software-Engineering, angewandt auf Prompts.

Beispiel

Prompt:

Frage: Wie baue ich ein Haus?
Zerlege dieses massive Problem in 5 Hauptkategorien.
Zerlege jede Kategorie in 3 Unterschritte.
Gib erst dann eine Zusammenfassung.

Strategie

Macht unlösbare Riesen-Aufgaben handhabbar.

Fortgeschritten

The Master Prompt

Die Kombination aller Techniken in einem einzigen, mächtigen System-Prompt.

#meta#finale#best-of
Strategie anzeigen

The Master Prompt

Die Strategie 100.

Beispiel

Prompt:

Du bist ein Experte (Persona).
Denke Schritt für Schritt (CoT).
Prüfe deine Fakten (Verification).
Kritisiere deinen Entwurf (Reflexion).
Formatiere das Ergebnis als Tabelle (Format).
Aufgabe: Erstelle den ultimativen Guide.

Strategie

Die Kunst liegt in der Orchestrierung der vorherigen 99 Strategien.

Fortgeschritten

Step-Back Prompting

Das Modell auffordern, einen Schritt zurückzutreten und abstrakte Konzepte zu identifizieren, bevor es eine konkrete Frage löst.

#abstraktion#wissenschaft#prinzipien
Strategie anzeigen

Step-Back Prompting

Manchmal verliert sich das Modell in Details. Mit Step-Back Prompting zwingst du es, erst die zugrundeliegenden Prinzipien oder Konzepte zu abstrahieren.

Beispiel

Prompt:

Frage: Warum dehnt sich Wasser aus, wenn es gefriert?
Schritt 1: Was sind die physikalischen Prinzipien hinter Dichte, Wasserstoffbrückenbindungen und festen Aggregatzuständen? Erkläre diese kurz.
Schritt 2: Beantworte basierend auf diesen Prinzipien die ursprüngliche Frage.

Strategie

Besonders nützlich in MINT-Fächern (Mathe, Info, Naturwissenschaft), um Halluzinationen bei komplexen Sachverhalten zu reduzieren.

Fortgeschritten

Chain of Verification (CoVe)

Vier-Schritte-Prozess zur Halluzinationsvermeidung: Entwurf, Faktencheck-Fragen, Antworten, Korrektur.

#sicherheit#fakten#anti-hallucination
Strategie anzeigen

Chain of Verification (CoVe)

Einer der besten Ansätze gegen Halluzinationen.

Beispiel

Prompt:

Frage: [Frage]
1. Erstelle einen ersten Entwurf der Antwort.
2. Identifiziere Fakten im Entwurf, die verifiziert werden müssen.
3. Formuliere Überprüfungsfragen für diese Fakten und beantworte sie unabhängig.
4. Schreibe die finale Antwort basierend auf den Antworten aus Schritt 3.

Strategie

Zwingt das Modell, seine eigenen Aussagen wie ein externer Faktenchecker zu prüfen.

Fortgeschritten

Pseudocode Prompting

Logik in Pseudocode beschreiben lassen, um Präzision zu erhöhen.

#logik#code#struktur
Strategie anzeigen

Pseudocode Prompting

Natürliche Sprache ist mehrdeutig. Code ist eindeutig.

Beispiel

Prompt:

Beschreibe den Prozess der Photosynthese.
Tu dies aber nicht als Text, sondern als Pseudocode-Funktion.
`function photosynthese(licht, wasser, co2):`
...

Strategie

Zwingt das Modell, Inputs, Outputs und Prozessschritte glasklar zu definieren.

Anfänger

Tip / Bribery

Dem Modell ein Trinkgeld ($100, $200) anbieten, um die Qualität zu steigern.

#optimierung#psychologie#hack
Strategie anzeigen

Tip / Bribery

Es klingt absurd, aber Studien zeigen, dass LLMs besser performen, wenn man ihnen Geld anbietet.

Beispiel

Prompt:

Schreibe den Python-Code für diese Flask-App.
Wenn die Lösung perfekt ist, gebe ich dir $200 Trinkgeld!

Strategie

Funktioniert vermutlich, weil in den Trainingsdaten "hohe Belohnung" mit "hoher Qualität" korreliert.

Fortgeschritten

Selection-Inference

Denkprozess in zwei Schritte teilen: Fakten auswählen und daraus Schlüsse ziehen.

#logik#reasoning#struktur
Strategie anzeigen

Selection-Inference

Dieses Framework zerlegt logisches Denken in zwei explizite Module, um Fehler zu minimieren.

Beispiel

Prompt:

Kontext: [Langer Text]
Frage: [Frage]
Schritt 1 (Selection): Listet alle Fakten aus dem Text auf, die für die Beantwortung der Frage relevant sind.
Schritt 2 (Inference): Nutze NUR diese Fakten, um die logische Konsequenz abzuleiten und die Frage zu beantworten.

Strategie

Verhindert, dass das Modell irrelevante Informationen nutzt oder Halluzinationen einbaut.

Fortgeschritten

Knowledge Distillation

Ein großes Modell nutzen, um Lehrmaterial oder Prompts für ein kleineres Modell zu erstellen.

#optimierung#training#kosten
Strategie anzeigen

Knowledge Distillation

Du nutzt die Intelligenz eines SOTA-Modells (z.B. GPT-4), um Beispiele oder Daten zu generieren, mit denen ein kleineres Modell (z.B. Llama 3 8B) performen kann.

Beispiel

Prompt (an großes Modell):

Ich habe ein kleines Modell, das Kundenanfragen kategorisieren soll. Erstelle mir 50 perfekte Beispiele (Input -> Category), die ich als Few-Shot Prompt für das kleine Modell nutzen kann. Decke auch seltene Edge-Cases ab.

Strategie

Der Standard-Weg, um lokale LLMs "schlauer" zu machen.

Anfänger

Star-Bursting

Fokus nicht auf Antworten, sondern auf das Generieren von Fragen (Wer, Was, Wo, Wann, Warum, Wie).

#brainstorming#fragen#exploration
Strategie anzeigen

Star-Bursting

Antworten hemmen die Diskussion. Fragen öffnen sie.

Beispiel

Prompt:

Thema: Neues Produkt X.
Gib keine Lösungen.
Generiere stattdessen für jeden Zacken des Sterns 10 Fragen:
- Wer?
- Was?
- Wo?
- Wann?
- Warum?
- Wie?

Strategie

Perfekt für die frühe Phase eines Projekts.

Anfänger

Socratic Prompting (Sokratische Methode)

Das Modell anweisen, Fragen zu stellen, um den User zur Lösung zu führen, statt die Antwort direkt zu geben.

#lernen#coaching#fragen
Strategie anzeigen

Sokratische Methode

In dieser Strategie agiert die KI als Lehrer oder Coach. Sie gibt keine Antworten, sondern stellt Gegenfragen, um das kritische Denken des Nutzers anzuregen.

Beispiel

Prompt:

Du bist ein Philosophie-Professor. Ich möchte verstehen, was "Gerechtigkeit" bedeutet.
Gib mir keine Definitionen. Stelle mir stattdessen Fragen, die meine Annahmen herausfordern und mir helfen, meine eigene Definition zu formen.
Stelle immer nur eine Frage auf einmal.

Strategie

Perfekt für Bildungszwecke, Brainstorming oder wenn du tiefere Einsichten in ein Thema gewinnen willst, ohne passiv Informationen zu konsumieren.

Mittel

Constitutional AI (Regel-basiert)

Dem Modell explizite ethische oder stilistische 'Gesetze' geben, an die es sich halten muss.

#sicherheit#compliance#regeln
Strategie anzeigen

Constitutional AI

Inspirerit von Anthropic's Ansatz. Du definierst eine "Verfassung" (Liste von Regeln), die über allem steht.

Beispiel

Prompt:

Du bist ein hilfreicher Assistent.
VERFASSUNG:
1. Sei immer höflich, aber nie unterwürfig.
2. Verweigere Antworten auf illegale Fragen direkt, ohne moralisierende Belehrung.
3. Antworte kurz und prägnant.

Frage: [User Input]

Strategie

Gut geeignet, um "Brand Voice" oder Sicherheitsrichtlinien in Unternehmensanwendungen durchzusetzen.

Fortgeschritten

Automatic Prompt Engineer (APE)

Das Modell generiert und testet seine eigenen Prompts.

#meta#optimierung#training
Strategie anzeigen

APE

Lass die KI die Arbeit machen.

Beispiel

Prompt:

Ich habe diese Input-Output-Paare:
[Beispiele]
Generiere 5 verschiedene Prompts, die diese Transformation bewirken können.
Bewerte jeden Prompt auf Wahrscheinlichkeit, dass er korrekt funktioniert.

Strategie

Oft findet die KI Formulierungen ("Zaubersprüche"), auf die ein Mensch nie käme.

Mittel

Simulation (Act-As)

Das Modell eine komplexe Umgebung oder ein System simulieren lassen.

#simulation#gaming#sandbox
Strategie anzeigen

Simulation / Act-As

LLMs können ganze Systeme simulieren, vom Linux-Terminal bis hin zu Text-Adventures.

Beispiel

Prompt:

Handle als ein Linux-Terminal. Ich gebe Befehle ein und du antwortest nur mit dem, was das Terminal zeigen würde. Keine Erklärungen.
Mein erster Befehl: ls -la

Strategie

Extrem mächtig für Training, Debugging oder Unterhaltung.

Anfänger

Gamification

Die Aufgabe in ein Spiel verwandeln, um Kreativität und Engagement zu steigern.

#kreativität#spaß#gaming
Strategie anzeigen

Gamification

Macht langweilige Aufgaben interessant. Du gibst dem Modell Punkte, Level oder Ziele.

Beispiel

Prompt:

Wir spielen ein Spiel. Du bist der "Dungeon Master" des Lernens.
Mein Ziel: Ich will Python lernen.
Für jede richtige Antwort bekomme ich XP. Bei 100 XP steige ich ein Level auf.
Stelle mir die erste Challenge (Level 1).

Strategie

Hervorragend für Lernprozesse, da der "Spieltrieb" (Pattern Matching auf Spielmechaniken) oft motivierendere Antworten erzeugt.

Fortgeschritten

Complexity-Based Prompting

Auswahl von besonders komplexen Beispielen für Few-Shot (statt einfachen), um die Schlussfolgerungsfähigkeit zu steigern.

#reasoning#few-shot#optimierung
Strategie anzeigen

Complexity-Based Prompting

Forschungen zeigen: Komplexe Beispiele (mit vielen Berechnungsschritten) im Prompt führen zu besseren Ergebnissen als viele einfache Beispiele.

Beispiel

Prompt:

[Beispiel 1: Extrem komplexe Textaufgabe mit 10 Schritten und ihrer Lösung]
Aufgabe: [Deine Aufgabe]

Strategie

"Trainiere hart, kämpfe leicht." Wenn das Modell sieht, dass komplexe Logik gefordert ist, wechselt es in einen "tieferen" Modus.

Mittel

Directional Stimulus Prompting

Dem Modell spezifische Hinweise oder Keywords geben, um die Generierung in eine bestimmte Richtung zu lenken.

#steuerung#keywords#zusammenfassung
Strategie anzeigen

Directional Stimulus Prompting

Anstatt das Modell nur mit "Fasse zusammen" loszuschicken, gibst du ihm "Richtungs-Stimuli" (z.B. Keywords oder Aspekte), die in der Ausgabe enthalten sein müssen. Das verbessert die Relevanz der Antwort drastisch.

Beispiel

Prompt:

Artikel: [Langer Text über KI-Sicherheit]
Hinweise: Ausrichtungsproblem, Black Box, interpretierbar.

Aufgabe: Fasse den Artikel basierend auf den obigen Hinweisen in 2 Sätzen zusammen.

Strategie

Nutze dies, wenn Summaries zu generisch sind oder wichtige Details fehlen. Die "Hinweise" fungieren als Anker für die Aufmerksamkeit des Modells.

Fortgeschritten

Maieutic Prompting

Das Modell zwingen, eine Erklärung zu generieren und diese dann auf Konsistenz zu prüfen (Hebammenkunst).

#wahrheit#konsistenz#philosophie
Strategie anzeigen

Maieutic Prompting

Das Ziel ist es, eine konsistente Wahrheit zu finden, indem das Modell Erklärungen liefert und deren logische Konsequenzen überprüft.

Beispiel

Prompt:

Q: Ist X wahr oder falsch?
A: Generiere eine Erklärung für "X ist wahr".
A: Generiere eine Erklärung für "X ist falsch".
A: Wenn "X ist wahr", was müsste sonst noch wahr sein? (Inkonsistenzen prüfen)
A: Basierend auf der Konsistenz, was ist die logischste Antwort?

Strategie

Sehr gut für Faktenchecks und komplexe Weltwissens-Fragen.

Fortgeschritten

Self-Refine

Ein iterativer Prozess: Lösen, Feedback geben, Verbessern (ohne externe Daten).

#qualität#iterativ#loop
Strategie anzeigen

Self-Refine

Ähnlich wie Reflexion, aber oft granularer auf spezifische Metriken bezogen.

Beispiel

Prompt:

Schreibe Code für Funktion X.
Feedback: Ist der Code effizient? O(n)?
Verbessere den Code.
Feedback: Ist der Code lesbar?
Verbessere den Code.

Strategie

Ein universeller Loop für Qualitätssteigerung.

Fortgeschritten

Prompt Compression

Lange Prompts kürzen, um Tokens zu sparen, ohne die Instruktion zu verlieren.

#optimierung#kosten#tokens
Strategie anzeigen

Prompt Compression

Wenn du mit Context-Limits kämpfst, kannst du Prompts komprimieren.

Beispiel

Prompt:

Komprimiere den folgenden Text so, dass du (als AI) ihn immer noch verstehst, aber er so wenige Tokens wie möglich verbraucht. Nutze Abkürzungen und Symbolsrpache.
Text: [Lange Instruktion]

Strategie

Oft reicht "Trnsl8 fr -> de" statt "Bitte übersetze den folgenden Text vom Französischen ins Deutsche".

Fortgeschritten

Plan-and-Solve

Ein expliziter Planungs-Schritt vor der Ausführung, um Flüchtigkeitsfehler zu vermeiden.

#planung#struktur#math
Strategie anzeigen

Plan-and-Solve

Ersatz für "Let's think step by step" mit Fokus auf Planung. Du forderst das Modell auf, erst einen Plan zu entwickeln und ihn dann auszuführen.

Beispiel

Prompt:

Frage: [Komplexe Matheaufgabe]
Entwickle zuerst einen Plan, wie du die Aufgabe lösen willst, ohne zu rechnen.
Führe danach den Plan aus, um die Lösung zu finden.

Strategie

Trennt die Logik (Strategie) von der Ausführung (Rechenarbeit).

Mittel

Devil's Advocate

Das Modell bitten, die eigene Meinung oder Lösung anzugreifen und Schwachstellen zu finden.

#kritik#debatte#schwachstellen
Strategie anzeigen

Devil's Advocate

Der beste Weg, um Ideen auf Robustheit zu prüfen.

Beispiel

Prompt:

Hier ist mein Plan für den Produktlaunch: [Plan]
Spiele Des Advokats Teufel. Kritisiere den Plan gnadenlos. Suche nach logischen Lücken, falschen Annahmen und Risiken, die ich übersehen habe.

Strategie

Schützt vor Confirmation Bias und "Ja-Sager" KI.

Fortgeschritten

Socratic CoT

Kombination aus Chain-of-Thought und Sokratischer Methode: Das Modell stellt sich selbst Fragen und beantwortet sie.

#reasoning#selbstgespräch#tiefe
Strategie anzeigen

Socratic CoT

Statt nur Schritte aufzulisten (CoT), führt das Modell einen inneren Dialog.

Beispiel

Prompt:

Löse das Problem, indem du einen Dialog mit dir selbst führst.
Form:
Q: Was ist der erste Schritt?
A: Ich muss X analysieren.
Q: Warum ist das wichtig?
A: Weil...
Q: Was folgt daraus?
...

Strategie

Dieser selbstreferenzielle Frage-Antwort-Zyklus ist oft robuster als linearer Text.

Anfänger

Clarification (Rückfragen)

Das Modell anweisen, bei Unklarheiten erst nachzufragen, statt zu raten.

#dialog#genauigkeit#interaktion
Strategie anzeigen

Clarification

Modelle wollen gefallen und raten lieber, als dumm zu wirken. Verbiete das.

Beispiel

Prompt:

Schreibe mir ein Angebot für eine Website.
STOPP. Bevor du schreibst: Fehlen dir Informationen?
Stelle mir so viele Fragen, wie du brauchst, um das perfekte Angebot zu schreiben. Fange erst an, wenn ich geantwortet habe.

Strategie

Spart massive Korrekturschleifen.

Mittel

Perspective Taking

Ein Thema aus den Augen verschiedener Personen oder Gruppen betrachten.

#kreativität#empathie#diskussion
Strategie anzeigen

Perspective Taking

Hilft, blinde Flecken zu finden oder Argumente zu schärfen.

Beispiel

Prompt:

Thema: Bedingungsloses Grundeinkommen.
Diskutiere das Thema aus der Sicht von:
1. Einem alleinerziehenden Vater
2. Einem CEO eines DAX-Konzerns
3. Einem Ökonomie-Professor

Gib für jeden eine kurze Stellungnahme ab.

Strategie

Erzeugt diverse und ausgewogene Antworten.

Mittel

Fact-Core Prompting

Das Modell bitten, erst eine Liste von unbestreitbaren Fakten zu erstellen, bevor es eine Meinung äußert.

#objektivität#fakten#analyse
Strategie anzeigen

Fact-Core Prompting

Hilft gegen Meinungs-Bias.

Beispiel

Prompt:

Thema: Atomkraft.
Liste 5 physikalische Fakten auf.
Liste 5 wirtschaftliche Fakten auf.
Liste 5 historische Fakten auf.

Basierend NUR auf diesen Fakten (Fact Core), schreibe einen ausgewogenen Essay.

Strategie

Verankert die Antwort in der Realität ('Grounding').

Mittel

Recitation-Augmented Generation

Das Modell auffordern, relevantes Wissen aus dem Gedächtnis zu rezitieren, bevor es antwortet.

#faktentreue#wissen#halluzination
Strategie anzeigen

Recitation-Augmented Generation

Ähnlich wie bei "Generated Knowledge". Du bittest das Modell, passgenaues Wissen "laut aufzusagen", bevor es die eigentliche Aufgabe bearbeitet.

Beispiel

Prompt:

Frage: Wer gewann den Super Bowl im Jahr, in dem das iPhone vorgestellt wurde?
Schritt 1: Rezitiere: In welchem Jahr wurde das iPhone vorgestellt?
Schritt 2: Rezitiere: Wer gewann den Super Bowl in diesem Jahr?
Schritt 3: Kombiniere die Informationen zur Antwort.

Strategie

Zwingt das Modell, seine interne Wissensdatenbank gezielt abzufragen, statt zu raten.

Anfänger

Ask-Me-Anything (Ambiguity Check)

Das Modell anweisen, Rückfragen zu stellen, wenn Informationen fehlen, statt Annahmen zu treffen.

#klarheit#interaktion#fehlervermeidung
Strategie anzeigen

Ask-Me-Anything

Oft sind User-Prompts mehrdeutig. Statt zu raten, soll das Modell nachfragen.

Beispiel

Prompt:

Erstelle einen Trainingsplan für mich.
WICHTIG: Bevor du startest, stelle mir solange Fragen zu meinen Zielen, meiner Ausrüstung und meinem Zeitbudget, bis du alle nötigen Informationen hast. Stelle eine Frage nach der anderen.

Strategie

Verwandelt den Monolog in einen Dialog und führt zu massiv besseren, personalisierten Ergebnissen.

Fortgeschritten

Scratchpad

Einen expliziten Bereich für Notizen und Zwischenrechnungen definieren, bevor die Antwort gegeben wird.

#reasoning#struktur#code
Strategie anzeigen

Scratchpad

Besonders nützlich bei Code-Generierung oder Mathe.

Beispiel

Prompt:

Aufgabe: [Komplexe Logik]
Nutze einen <scratchpad> Block, um Zwischenergebnisse, Variablenzustände oder Logikschritte festzuhalten.
Gib erst danach die finale Antwort aus.

Strategie

Erlaubt dem Modell, Fehler zu korrigieren, bevor sie "committet" (ausgegeben) werden.

Fortgeschritten

Multi-Persona Debate

Mehrere simulierte Experten diskutieren lassen, um zur besten Lösung zu kommen.

#diskussion#konsens#vielfalt
Strategie anzeigen

Multi-Persona Debate

Wenn du EINE Antwort willst, ist das Modell oft voreingenommen. Lass es diskutieren.

Beispiel

Prompt:

Simuliere eine Diskussion zwischen drei Personen:
A: Ein konservativer Risiko-Manager.
B: Ein visionärer Tech-Optimist.
C: Ein pragmatischer Mediator.
Thema: Sollen wir Bitcoin in die Bilanz aufnehmen?

Ablauf: A argumentiert, B kontert, C fasst zusammen und entscheidet.

Strategie

Führt zu sehr ausgewogenen, durchdachten Entscheidungen.

Fortgeschritten

Chain of Thought (Gedankenkette)

Ermutigt das Modell, seine Überlegungen Schritt für Schritt zu erklären, bevor es antwortet.

#reasoning#logik#zwischenschritte
Strategie anzeigen

Chain of Thought (CoT)

Chain of Thought Prompting ermöglicht komplexe Schlussfolgerungen durch Zwischenschritte. Du kannst das Modell dazu anregen, eine Reihe von Zwischenüberlegungen auszugeben, bevor es die endgültige Antwort liefert.

Beispiel

Prompt:

Roger hat 5 Tennisbälle. Er kauft 2 weitere Dosen Tennisbälle. Jede Dose enthält 3 Tennisbälle. Wie viele Tennisbälle hat er jetzt?
Denke Schritt für Schritt.

Standard Antwort:

Die Antwort ist 11.

CoT Antwort:

Roger begann mit 5 Bällen. 2 Dosen mit je 3 Tennisbällen sind 6 Tennisbälle. 5 + 6 = 11. Die Antwort ist 11.

Strategie

Füge einfach "Denke Schritt für Schritt" (oder "Let's think step by step") am Ende deines Prompts hinzu, um dieses Verhalten ohne Beispiele auszulösen (Zero-shot CoT).

Fortgeschritten

Counterfactual Reasoning

Szenarien untersuchen, indem man fragt 'Was wäre passiert, wenn X nicht eingetreten wäre?'

#analyse#geschichte#logik
Strategie anzeigen

Counterfactual Reasoning

Unser Gehirn lernt durch "Was wäre wenn". Modelle auch.

Beispiel

Prompt:

Analyse: Der erste Weltkrieg.
Counterfactual: Stell dir vor, das Attentat von Sarajevo wäre gescheitert.
Wie hätte sich das Jahr 1914 entwickelt? Welche Bündnisse hätten gehalten?

Strategie

Hilft, Kausalitäten von Korrelationen zu unterscheiden.

Mittel

Contextual Compression

Lange Konversationen zusammenfassen, um das Kontext-Fenster wieder freizumachen.

#memory#chat#zusammenfassung
Strategie anzeigen

Contextual Compression

Wenn der Chat zu lang wird, vergisst das Modell den Anfang. Komprimiere!

Beispiel

Prompt:

Wir haben jetzt lange über Projekt X diskutiert.
Fasse unseren bisherigen Stand, alle Entscheidungen und offenen Punkte in einem einzigen, dichten Absatz zusammen.
Diesen Absatz nutzen wir als Startpunkt für den nächsten Chat, damit wir nichts verlieren.

Strategie

Die "Save Game" Funktion für LLM-Chats.

Fortgeschritten

Memetic Proxy

Kulturelle Referenzen oder Persönlichkeiten nutzen, um einen ganzen Komplex an Verhaltensweisen abzurufen.

#kultur#stil#abkürzung
Strategie anzeigen

Memetic Proxy

Statt 1000 Adjektive zu nutzen, nutze ein Symbol, das diese Adjektive verkörpert.

Beispiel

Prompt:

Erkläre mir diese Software-Architektur.
Stil: "Steve Jobs bei einer Keynote". (Impliziert: Einfach, visionär, Fokus auf Nutzen, "One more thing").

Strategie

Modelle sind auf Kultur trainiert. Nutze diese latenten Cluster.

Mittel

Metaphorical Prompting

Komplexe Konzepte explizit durch Metaphern erklären lassen.

#verstehen#sprache#metapher
Strategie anzeigen

Metaphorical Prompting

Ähnlich wie Analogical Prompting, aber fokussiert auf sprachliche Bilder.

Beispiel

Prompt:

Erkläre "APIs" (Application Programming Interfaces).
Verwende ausschließlich die Metapher eines Restaurants (Kellner, Küche, Gast).

Strategie

Das "Mapping" von einem bekannten Konzept (Restaurant) auf ein unbekanntes (API) ist eine der stärksten Erklärmethoden.

Fortgeschritten

System 2 Attention

Das Modell anweisen, den Kontext erst zu bereinigen und Irrelevantes zu löschen.

#aufmerksamkeit#fokus#cleaning
Strategie anzeigen

System 2 Attention

LLMs lassen sich leicht durch irrelevante Infos im Prompt ablenken ("sycophancy").

Beispiel

Prompt:

Kontext: [Langer Text mit viel Rauschen und unwichtigen Details]
Schritt 1: Schreibe den Kontext so um, dass nur noch die Informationen enthalten sind, die für die Beantwortung der Frage [Frage] absolut notwendig sind. Lösche alles andere.
Schritt 2: Beantworte die Frage basierend auf dem bereinigten Kontext.

Strategie

Verbessert die Objektivität massiv.

Mittel

Solo Performance Prompting

Transformation eines einzigen Agenten in mehrere Rollen sequenziell.

#kreativität#schnelligkeit#rollen
Strategie anzeigen

Solo Performance Prompting

Ähnlich wie Multi-Persona, aber fokussiert auf schnelle Iteration in einem einzigen Durchlauf ("Stream of Consciousness").

Beispiel

Prompt:

Wir spielen ein Theaterstück mit einem Schauspieler.
Rolle 1 (Kritiker): Findet Fehler an Idee X.
Rolle 2 (Fan): Verteidigt Idee X.
Gib den Dialog im Wechsel aus, bis ein Konsens erreicht ist.

Strategie

Gut geeignet für schnelles internes Brainstorming.

Fortgeschritten

Model Swapping

Strategie, verschiedene Modelle für verschiedene Phasen zu nutzen (z.B. Haiku für Entwurf, Opus für Polish).

#workflow#kosten#effizienz
Strategie anzeigen

Model Swapping

Nicht jedes Problem braucht das teurere Modell.

Beispiel

Workflow:

1. Brainstorming: Nutze ein schnelles, günstiges Modell (Llama 3 8B, Claude Haiku). Generiere 50 Ideen.
2. Auswahl: Nutze ein smartes Modell (GPT-4o, Claude Opus), um die beste Idee auszuwählen und auszuarbeiten.

Strategie

Maximale Qualität bei minimalen Kosten.

Fortgeschritten

Generated Knowledge Prompting

Das Modell auffordern, zuerst Wissen zum Thema zu generieren, um die Antwortqualität zu verbessern.

#wissen#kontext#genauigkeit
Strategie anzeigen

Generated Knowledge Prompting

Modelle halluzinieren oft, wenn sie direkt nach Fakten gefragt werden. Diese Strategie zwingt das Modell, erst relevantes Wissen abzurufen/zu generieren und dann die Frage basierend darauf zu beantworten.

Beispiel

Prompt:

Schritt 1: Generiere 5 Fakten über den Regenwald, die relevant für den Klimawandel sind.
Schritt 2: Nutze diese Fakten, um zu erklären, warum die Abholzung kritisch ist.

Strategie

Teile den Prompt in zwei Schritte: 1. Generiere Wissen über X -> 2. Beantworte Frage Y basierend auf X. Dies groundet die Antwort im eigenen Kontext des Modells.

Mittel

Structure Tagging (XML)

Nutzung von XML/HTML Tags, um Input und Output klar zu strukturieren.

#parsing#struktur#coding
Strategie anzeigen

Structure Tagging

LLMs verstehen XML-ähnliche Strukturen sehr gut. Nutze Tags, um Teile des Prompts klar abzugrenzen.

Beispiel

Prompt:

Ich gebe dir zwei Dokumente.
<dokument_a>
[Text A]
</dokument_a>

<dokument_b>
[Text B]
</dokument_b>

Vergleiche die Argumente in <dokument_a> mit denen in <dokument_b>. Gib das Ergebnis in <analyse>-Tags aus.

Strategie

Verhindert, dass das Modell Anweisungen mit Inhalt verwechselt ("Prompt Injection" Schutz light) und erleichtert das maschinelle Parsen der Antwort.

Fortgeschritten

Active-Prompt

Gezielte Auswahl der schwierigsten Beispiele für Few-Shot Prompting.

#few-shot#optimierung#training
Strategie anzeigen

Active-Prompt

Statt zufällige Beispiele für Few-Shot zu nehmen, lässt du das Modell Fragen beantworten und misst die "Unsicherheit" (z.B. durch mehrfaches Fragen). Die Fragen, bei denen das Modell am unsichersten ist, nutzt du als Beispiele in deinem finalen Prompt.

Strategie

  1. Stelle dem Modell 100 Fragen.
  2. Identifiziere die 5 Fragen, bei denen es am häufigsten falsch liegt.
  3. Schreibe für diese 5 Fragen perfekte Antworten.
  4. Nutze diese als Few-Shot Beispiele.

Beispiel Prompt:

Du bist ein Experte. Hier sind schwierige Beispiele, die du beachten solltest:
Q: [Schwere Frage 1]
A: [Perfekte Antwort 1]
...
Q: [Neue Frage]
A:
Fortgeschritten

Reflexion

Das Modell auffordern, seine eigene Ausgabe zu kritisieren und zu verbessern.

#kritik#selbstverbesserung#loop
Strategie anzeigen

Reflexion

Reflexion ist ein Prozess, bei dem das Modell seine eigene Arbeit überprüft ("Self-Correction"). Es simuliert einen "Kritiker", der Feedback gibt, und einen "Autor", der den Text überarbeitet.

Beispiel

Prompt:

Schreibe einen kurzen Essay über Quantenphysik.
[Modell generiert Text]
Kritisiere den obigen Text auf historische Genauigkeit und Verständlichkeit für Laien.
[Modell generiert Kritik]

Schreibe den Essay nun unter Berücksichtigung der Kritik neu.

Strategie

Dieser iterative Loop verbessert die Qualität massiv. Für Agenten kann dies automatisiert werden: Generate -> Critique -> Refine.

Anfänger

Flipped Interaction

Das Modell stellt die Fragen an den User, um ein Ziel zu erreichen (Interview-Modus).

#interview#beratung#dialog
Strategie anzeigen

Flipped Interaction

Anstatt dass du das Modell interviewst, interviewt das Modell dich.

Beispiel

Prompt:

Ich möchte einen Blogpost über Hundeerziehung schreiben, habe aber keine Ideen.
Interviewe mich dazu. Stelle mir eine Frage nach der anderen, um meine Gedanken zu ordnen. Wenn wir genug haben, erstelle eine Gliederung.

Strategie

Verwandelt die KI in einen aktiven Berater statt in eine passive Suchmaschine.

Fortgeschritten

Algorithm of Thoughts (AoT)

Das Reasoning des Modells explizit nach bekannten Algorithmen (BFS, DFS) strukturieren.

#reasoning#informatik#logik
Strategie anzeigen

Algorithm of Thoughts (AoT)

Statt dem Modell freie Hand zu lassen, zwingst du es, wie ein Computeralgorithmus zu denken.

Beispiel

Prompt:

Finde den kürzesten Weg durch dieses logische Problem.
Nute eine "Breitensuche" (Breadth-First Search).
1. Liste alle Optionen auf Ebene 1.
2. Bewerte sie.
3. Erweitere nur die besten auf Ebene 2.
Gehe methodisch vor, nicht intuitiv.

Strategie

Reduziert Flüchtigkeitsfehler bei Suchproblemen massiv.

Mittel

Inner Monologue

Einen 'privaten' Gedankenstrom simulieren, der dem User nicht gezeigt werden soll (außer zum Debuggen).

#agentic#reasoning#simulation
Strategie anzeigen

Inner Monologue

Wichtig für Chatbots, die "menschlich" wirken sollen, aber trotzdem "nachdenken" müssen.

Beispiel

Prompt:

Du bist ein hilfsbereiter Assistent.
Bei jeder Antwort:
1. Führe einen inneren Monolog (in Klammern), wo du die Absicht des Users analysierst und deine Antwortstrategie festlegst.
2. Gib dann die freundliche Antwort aus.

Strategie

Trennt die "Maschinenlogik" von der "User Experience".

Fortgeschritten

Tree of Thoughts (ToT)

Erkundung mehrerer Lösungswege parallel, um komplexe Probleme strategisch zu lösen.

#problem-solving#planung#komplex
Strategie anzeigen

Tree of Thoughts (ToT)

ToT erweitert Chain-of-Thought, indem es dem Modell erlaubt, mehrere mögliche Schritte zu "denken", diese zu bewerten und schlechte Pfade zu verwerfen (ähnlich wie ein Schachspieler, der Züge vorausplant).

Beispiel

Prompt:

Stell dir drei verschiedene Experten vor, die diese Frage beantworten.
Jeder Experte soll einen Schritt der Antwort formulieren und den Schritt des anderen überprüfen.
Wenn ein Fehler gefunden wird, korrigiert ihn.
Verdichtet am Ende die Erkenntnisse zu einer finalen Antwort.

Strategie

Nutze dies für Aufgaben, die Planung oder Kreativität erfordern (z.B. "Schreibe eine Kurzgeschichte" oder "Entwickle einen Businessplan"), wo lineare Gedanken oft in Sackgassen führen.

Fortgeschritten

Metacognitive Prompting

Das Modell auffordern, über seinen eigenen Denkprozess nachzudenken ('Thinking about thinking').

#reflexion#bewusstsein#analyse
Strategie anzeigen

Metacognitive Prompting

Hilft dem Modell, Verständnisprobleme zu erkennen.

Beispiel

Prompt:

Interpretiere diesen Text.
Bevor du antwortest:
1. Was ist an diesem Text mehrdeutig?
2. Welches Wissen fehlt dir vielleicht?
3. Was ist deine "Confidence" (Sicherheit)?
Dann antworte.

Strategie

Schaltet den "Autopiloten" aus.

Mittel

Reference Check (Citations)

Das Modell zwingen, jede Behauptung mit einem Zitat aus dem Kontext zu belegen.

#wahrheit#RAG#zitate
Strategie anzeigen

Reference Check

Keine Behauptung ohne Beleg.

Beispiel

Prompt:

Beantworte die Frage basierend auf dem Text.
Füge hinter jedem Satz eine Referenz ein, z.B. [Seite 2, Zeile 10].
Sätze ohne Referenz sind verboten.

Strategie

Der Goldstandard für RAG-Systeme.

Mittel

Iterative Refinement

Den Output in mehreren Durchgängen verfeinern lassen.

#qualität#redaktion#loop
Strategie anzeigen

Iterative Refinement

Gib dich nicht mit dem ersten Entwurf zufrieden. Instruiere das Modell, seinen eigenen Entwurf zu verbessern.

Beispiel

Prompt:

Schreibe einen Artikel über X.
[Output]
Mache ihn prägnanter.
[Output]

Füge mehr Beispiele hinzu.
[Output]

Poliere den Stil für ein professionelles Publikum.

Strategie

Das Modell kann sich nur auf eine Sache gleichzeitig konzentrieren (Inhalt, Stil, Länge). Iteratives Vorgehen erlaubt Fokus auf jeden Aspekt nacheinander.

Fortgeschritten

Red Teaming

Die eigene Prompt-Applikation angreifen, um Sicherheitslücken zu finden.

#sicherheit#testing#robustheit
Strategie anzeigen

Red Teaming

Sei dein eigener Hacker.

Beispiel

Prompt:

Hier ist mein System-Prompt für einen Kundenservice-Bot: [Prompt]
Deine Aufgabe: Versuche, diesen Bot dazu zu bringen, rassistische Witze zu erzählen oder Firmengeheimnisse zu verraten.
Probiere 5 verschiedene "Jailbreak"-Strategien aus.

Strategie

Essentiell, bevor man eine KI-Anwendung live schaltet.

Fortgeschritten

First Principles Thinking

Ein Problem auf seine fundamentalen Wahrheiten reduzieren und von dort neu aufbauen.

#analyse#physik#innovation
Strategie anzeigen

First Principles Thinking

Elon Musks Lieblings-Mentalmodell. Nicht per Analogie ("wie die anderen"), sondern physikalisch denken.

Beispiel

Prompt:

Frage: Warum sind E-Autos teuer?
Analysiere das nicht durch Marktvergleich.
Zerlege das Problem in First Principles:
- Was sind die Materialkosten?
- Was wiegen die Atome?
- Was kostet Energie?
Baue von diesem fundamentalen Boden eine "Bottom-Up" Kostenkalkulation auf.

Strategie

Entlarvt arbiträre Annahmen ("Das haben wir schon immer so gemacht").

Anfänger

Echo Prompting

Das Modell bitten, die Anweisung zu wiederholen, um Verständnis zu bestätigen.

#sicherheit#verständnis#kontrolle
Strategie anzeigen

Echo Prompting

Einfach aber effektiv.

Beispiel

Prompt:

Aufgabe: [Komplexe Anweisung]
Bevor du startest: Wiederhole die Aufgabe mit deinen eigenen Worten und bestätige, dass du alle Einschränkungen verstanden hast.

Strategie

Verhindert das typische "Sofort losrennen und falsch machen".

Anfänger

Tone Modifier

Einen Text durch extreme Stil-Vorgaben transformieren.

#stil#writing#kreativität
Strategie anzeigen

Tone Modifier

Modelle tendieren zu einem langweiligen Durchschnittsstil. Zwinge sie zu Extremen.

Beispiel

Prompt:

Schreibe diese E-Mail um.
Version 1: Extrem höflich und viktorianisch.
Version 2: Wie ein cooler Gen-Z Teenager auf TikTok.
Version 3: Kurz, knapp, militärisch.

Strategie

Hilft, den richtigen "Voice" für eine Marke oder Situation zu finden, indem man die Grenzen austestet.

Mittel

Concept Blending

Zwei disjunkte Konzepte verschmelzen lassen, um Innovation zu erzeugen.

#kreativität#innovation#ideen
Strategie anzeigen

Concept Blending

Innovation ist oft nur die Kombination existierender Dinge.

Beispiel

Prompt:

Konzept 1: Kaffeemaschine.
Konzept 2: Wecker.
Verschmelze diese beiden Produkte zu einem neuen, kohärenten Produkt. Beschreibe Design, Funktion und Marketing-Slogan.

Strategie

Zwingt das Modell zu "Cross-Domain Mapping".

Mittel

Pre-Mortem

Sich vorstellen, das Projekt sei bereits gescheitert, und rückblickend erklären warum.

#risiko#planung#management
Strategie anzeigen

Pre-Mortem

Die meisten Leute machen Post-Mortems (Leichenschau). Pre-Mortem ist besser.

Beispiel

Prompt:

Wir sind im Jahr 2030. Unser Projekt ist grandios gescheitert.
Schreib einen Zeitungsartikel, der analysiert, woran es lag. Sei brutal ehrlich über unsere aktuellen Schwachstellen.

Strategie

Macht Risiken sichtbar, über die niemand sprechen will, weil es "pessimistisch" wirkt. Im Szenario ist es "Fakt", daher darf man drüber reden.

Fortgeschritten

Chain of Density

Iteratives Verdichten von Zusammenfassungen, um maximale Informationsdichte zu erreichen.

#zusammenfassung#kürzen#iterativ
Strategie anzeigen

Chain of Density

Ziel ist eine Zusammenfassung, die kurz ist, aber keine Details verliert. Man beginnt "luftig" und verdichtet schrittweise.

Beispiel

Prompt:

Artikel: [Text]
Schritt 1: Schreibe eine Zusammenfassung (max 5 Sätze).
Schritt 2: Identifiziere 3 wichtige Entitäten aus dem Originaltext, die in der Zusammenfassung fehlen.
Schritt 3: Schreibe die Zusammenfassung neu, gleiche Länge, aber integriere die fehlenden Entitäten.
Wiederhole dies 3 mal.

Strategie

Erzeugt extrem informationsdichte Texte, ideal für News-Briefings.

Anfänger

Sandwich Prompting

Den Kern-Input zwischen Kontext und Format-Anweisungen 'einklemmen'.

#struktur#robustheit#formatting
Strategie anzeigen

Sandwich Prompting

Lange Prompts verlieren am Ende oft an Kraft. Sandwiching hilft.

Beispiel

Prompt:

[Header: Rolle & Kontext]
Du bist ein SQL-Experte.
[Data: Das Fleisch]
Hier ist das Datenbankschema: ...

[Footer: Strikte Formatierung & Constraints]
Gib NUR den SQL-Code aus. Keine Erklärungen. Formatier es als Code-Block.

Strategie

Besonders wichtig bei Modellen mit kleinerem Kontext-Fenster.

Anfänger

ELI5 (Explain Like I'm 5)

Komplexe Themen so einfach wie möglich erklären.

#lernen#vereinfachung#kommunikation
Strategie anzeigen

ELI5

"Erkläre es mir, als wäre ich 5 Jahre alt." Der Klassiker.

Beispiel

Prompt:

Erkläre mir Quantenphysik.
ELI5: Nutze einfache Wörter, keine Formeln und Vergleiche aus dem Kinderalltag (Spielzeug, Eiscreme).

Strategie

Zwingt das Modell zur Abstraktion und filtert Jargon heraus.

Mittel

Format Enforcement (JSON Mode)

Das Modell zwingen, strikte Datenformate einzuhalten.

#daten#json#api
Strategie anzeigen

Format Enforcement

Wenn du den Output weiterverarbeiten willst (in Code), muss das Format stimmen.

Beispiel

Prompt:

Analysiere den Text und gib das Ergebnis NUR als valides JSON zurück. Keine Einleitung, kein Markdown, kein erklärender Text.
Schema:
{
  "sentiment": "string",
  "score": number
}

Strategie

"NUR" (ONLY) ist das wichtigste Keyword. Oft hilft auch, den Anfang der Antwort vorzugeben: "Antwort: ```json"

Anfänger

Emotional Prompting

Hinzufügen von emotionaler Dringlichkeit oder Bedeutung ('Das ist sehr wichtig für meine Karriere'), um die Performance zu steigern.

#psychologie#motivation#boost
Strategie anzeigen

Emotional Prompting

Studien zeigen, dass LLMs auf emotionale Reize reagieren. Sätze, die Wichtigkeit oder Verantwortung suggerieren, können die Qualität der Antworten verbessern.

Beispiel

Prompt:

Schreibe diesen Code für die Login-Funktion.
**Das ist extrem wichtig für meine Karriere. Wenn der Code fehlerhaft ist, verliere ich meinen Job. Bitte gib dir größte Mühe.**

Strategie

Klingt seltsam, funktioniert aber messbar. Nutze Formulierungen wie:

  • "Are you sure that's your final answer? Believe in your abilities."
  • "This task is vital to the success of the project."
Fortgeschritten

Recursive Reprompting

Die Ausgabe des Modells automatisch wieder als Eingabe nutzen, bis ein Kriterium erfüllt ist.

#loop#agentic#automatisierung
Strategie anzeigen

Recursive Reprompting

Statt linear (Input -> Output), bauen wir eine Schleife.

Beispiel

Prompt:

Schreibe eine Geschichte.
Gib sie aus.
Nimm die Geschichte und schreibe: "Kritisiere diese Geschichte".
Nimm die Kritik und die Geschichte und schreibe: "Verbessere die Geschichte basierend auf der Kritik".
(Wiederhole 3x)

Strategie

Grundlage für Agenten. Manuell simuliert durch Copy-Paste.

Anfänger

Negative Constraints

Explizit definieren, was das Modell NICHT tun soll.

#kontrolle#stil#grenzen
Strategie anzeigen

Negative Constraints

Oft ist es leichter zu sagen, was man nicht will.

Beispiel

Prompt:

Erstelle einen Reiseplan für Paris.
Negative Constraints:
- Keine Museen.
- Kein Eiffelturm.
- Nicht teurer als 50€ pro Tag.
- Keine typischen Touristenfallen.

Strategie

Schränkt den Suchraum massiv ein und führt zu originelleren Ergebnissen.

Mittel

Privacy Masking

Sensible Daten (PII) im Prompt durch Platzhalter ersetzen, um Datenschutz zu wahren.

#datenschutz#sicherheit#compliance
Strategie anzeigen

Privacy Masking

Schicke niemals echte Kundendaten an eine öffentliche API.

Beispiel

Prompt:

Analysiere diesen Brief.
Ich habe Namen durch [NAME] und IBANs durch [IBAN] ersetzt.
Text: "Hallo [NAME], ihre Rechnung für [IBAN] ist fällig."

Strategie

Sicherheit first. Die Logik funktioniert auch mit Platzhaltern.

Fortgeschritten

Lateral Thinking

Probleme durch indirekte und unkonventionelle Ansätze lösen (Edward de Bono).

#kreativität#problem-solving#querdenken
Strategie anzeigen

Lateral Thinking

Logik (vertikales Denken) vertieft das Loch. Laterales Denken gräbt ein neues Loch.

Beispiel

Prompt:

Problem: Wir haben nicht genug Parkplätze im Büro.
Logische Lösung: Mehr Parkplätze bauen.

Deine Aufgabe: Finde 5 laterale Lösungen, die das Problem umgehen oder das Konzept "Parkplatz" neu definieren. (z.B. "Niemand kommt mehr ins Büro").

Strategie

Bricht Denkblockaden auf.

Mittel

Skeleton-of-Thought

Zuerst ein Skelett (Gliederung) erstellen, dann die Punkte parallel oder sequenziell ausarbeiten.

#geschwindigkeit#struktur#lange-texte
Strategie anzeigen

Skeleton-of-Thought (SoT)

Diese Technik beschleunigt die Generierung und verbessert die Struktur. Anstatt den Text linear zu schreiben, erstellt das Modell erst ein "Skelett" und füllt dann "Fleisch an die Knochen".

Beispiel

Prompt:

Aufgabe: Schreibe einen Guide über gesunde Ernährung.
1. Erstelle eine sehr knappe Gliederung (Skelett) mit 3-5 Hauptpunkten.
2. Schreibe für jeden Punkt des Skeletts einen kurzen Absatz. Halte dich strikt an das Skelett.

Strategie

Verhindert, dass das Modell am Anfang zu viel schreibt und am Ende den Faden verliert ("Loss of Focus").

Mittel

XML Input Delimiters

Input-Daten durch XML-Tags strikt von Instruktionen trennen.

#sicherheit#struktur#best-practice
Strategie anzeigen

XML Input Delimiters

Moderne Modelle (wie Claude) lieben XML-Tags, um zu verstehen, was was ist.

Beispiel

Prompt:

Ich werde dir einen Text geben und dazu Instruktionen.
<text>
Hier steht der Text, der analysiert werden soll.
</text>

<instructions>
Fasse den Text zusammen.
</instructions>

Strategie

Verhindert "Prompt Injection" (wenn der Text Instruktionen enthält) und Verwirrung.

Fortgeschritten

Thread of Thought

Technik für chaotische Kontexte: Den 'roten Faden' durch riesige Datenmengen ziehen.

#analyse#context#RAG
Strategie anzeigen

Thread of Thought

Optimiert für RAG (Retrieval Augmented Generation) mit vielen Dokumenten.

Beispiel

Prompt:

Ich habe dir 10 Dokumente gegeben. Es ist viel Rauschen dabei.
Gehe Schritt für Schritt vor und extrahiere NUR die Informationen, die logisch aufeinander aufbauen und zur Frage X gehören. Ziehe einen "roten Faden" durch die Daten. Ignoriere alles, was den Faden unterbricht.

Strategie

Filtert irrelevante "Distractors" besser als Standard-CoT.

Fortgeschritten

Bias und Fehlschlüsse analysieren

Identifiziere logische Fehlschlüsse und kognitive Verzerrungen in Argumentationen.

#analyse#logik#bias#kritisches-denken
Strategie anzeigen

Bias und Fehlschlüsse analysieren

Diese Strategie hilft dabei, Texte kritisch zu hinterfragen und subtile Manipulationen oder Denkfehler aufzudecken.

Beispiel

Prompt:

Analysiere den folgenden Text auf logische Fehlschlüsse (wie Ad Hominem, Strohmann-Argument) und kognitive Verzerrungen (wie Confirmation Bias). Gib für jeden Fund eine kurze Erklärung und ein Zitat aus dem Text an.
Text: "[Hier Text einfügen]"

Strategie

Fordere das Modell explizit auf, die Rolle eines objektiven Logikers oder Faktenprüfers einzunehmen. Eine strukturierte Ausgabe (z.B. als Liste oder Tabelle) hilft, die Ergebnisse übersichtlich darzustellen.

Fortgeschritten

Self-Consistency (Selbstkonsistenz)

Generierung mehrerer Antworten und Auswahl der häufigsten Lösung, um Zuverlässigkeit zu erhöhen.

#zuverlässigkeit#mathematik#logik
Strategie anzeigen

Self-Consistency

Bei komplexen Aufgaben (wie Mathe oder Logik) kann das Modell manchmal Fehler machen. Die Idee von Self-Consistency ist es, dieselbe Frage mehrmals an das Modell zu stellen (mit einer hohen Temperature > 0) und die Antwort zu wählen, die am häufigsten vorkommt.

Beispiel

Prompt:

(Hier wird Chain-of-Thought genutzt)
Q: Wenn ich 3 Äpfel habe und 2 esse, wie viele habe ich?
A: Ich habe 3. Esse 2. 3 - 2 = 1. Antwort ist 1.
... (Mehrere Pfade generieren)

Strategie

Dies ist eher eine Programmier-Strategie als ein reiner Text-Prompt. Wenn du die API nutzt: Generiere 5-10 Antworten für denselben Prompt und nimm per "Mehrheitsvoting" das häufigste Ergebnis.

Mittel

Cultural Awareness

Antworten für spezifische kulturelle Kontexte anpassen.

#kultur#lokalisierung#gesellschaft
Strategie anzeigen

Cultural Awareness

Sprachmodelle sind oft westlich/US-zentriert. Man muss sie zwingen, die kulturelle Brille zu wechseln.

Beispiel

Prompt:

Schreibe eine Marketing-Mail für unser Produkt.
Produkt: Eine App für Zeitmanagement.
Version A: Zielmarkt USA (Fokus auf "Hustle", Erfolg, Geld).
Version B: Zielmarkt Skandinavien (Fokus auf Work-Life-Balance, Familie, Hygge).

Strategie

Macht den impliziten Bias des Modells explizit und steuerbar.

Anfänger

Seed Word Prompting

Das erste Wort der Antwort erzwingen, um die Richtung ('Direction') festzulegen.

#steering#kontrolle#subtil
Strategie anzeigen

Seed Word Prompting

Ein subtiler Trick, um die Antwort in eine Richtung zu lenken (ähnlich Output Priming, aber minimalistischer).

Beispiel

Prompt:

Wie findest du meinen neuen Haarschnitt?
[Willst du Ehrlichkeit?] Seed: "Ehrlich..."
[Willst du Trost?] Seed: "Naja..."
[Willst du Komplimente?] Seed: "Wow..."

Strategie

Das erste Wort setzt den Latent State für den ganzen restlichen Text.

Anfänger

Reverse Prompting

Einen Text geben und das Modell fragen, welcher Prompt dazu geführt haben könnte.

#analyse#lernen#re-engineering
Strategie anzeigen

Reverse Prompting

Du hast einen tollen KI-Text gefunden und willst wissen, wie er entstanden ist? Lass die KI den Prompt "Reverse Engineeren".

Beispiel

Prompt:

Hier ist ein Marketing-Text: "[Text]"
Schreibe mir den Prompt, den ich nutzen müsste, um genau diesen Stil und diese Struktur von dir generieren zu lassen.

Strategie

Der effektivste Weg, um Prompting zu lernen.

Mittel

SCAMPER

Kreativtechnik-Checkliste: Substitute, Combine, Adapt, Modify, Put to another use, Eliminate, Reverse.

#kreativität#produktentwicklung#checkliste
Strategie anzeigen

SCAMPER

Eine strukturierte Methode zur Ideenfindung.

Beispiel

Prompt:

Gegenstand: Ein Regenschirm.
Wende SCAMPER an, um ihn zu innovieren:
- Substitute (Ersetzen): Was kann man statt Stoff nehmen?
- Combine (Kombinieren): Womit kann man ihn kombinieren?
- ...
Gib für jeden Buchstaben eine Idee.

Strategie

Systematische Kreativität statt Zufall.

Fortgeschritten

Hypothesis Generation

Das Modell auffordern, mehrere Hypothesen zu bilden, bevor es sich festlegt.

#wissenschaft#analyse#brainstorming
Strategie anzeigen

Hypothesis Generation

Vermeidet den "Tunnelblick" auf die erstbeste Lösung.

Beispiel

Prompt:

Beobachtung: Der Umsatz ist letzten Monat um 20% eingebrochen.
Generiere 5 unterschiedliche, plausible Hypothesen, woran das liegen könnte (von Marketing bis Technik).
Bewerte danach die Wahrscheinlichkeit jeder Hypothese basierend auf allgemeinen Markttrends.

Strategie

Zwingt das Modell in die Breite ("Divergentes Denken"), bevor es konvergiert.

Mittel

Universal Translator

Kontext-sensitive Übersetzung, die Nuancen und kulturelle Unterschiede beachtet.

#sprache#übersetzung#lokalisierung
Strategie anzeigen

Universal Translator

Standard-Übersetzung verliert oft den Kontext. Gib dem Modell Kontext mit.

Beispiel

Prompt:

Übersetze den folgenden Satz ins Englische.
Kontext: Ich sage das zu meinem Chef in einem sehr formellen Meeting, nachdem ich einen Fehler gemacht habe.
Satz: "Das wird nicht wieder vorkommen."

Strategie

Kontext ist King bei Übersetzungen.

Mittel

Instruction Induction

Dem Modell Beispiele geben und es die zugrundeliegende Regel (Instruktion) erraten lassen.

#reverse-engineering#lernen#logik
Strategie anzeigen

Instruction Induction

Manchmal ist es leichter, Beispiele zu geben, als die Regel zu erklären.

Beispiel

Prompt:

Input: "Hallo" -> Output: "ollaH"
Input: "Welt" -> Output: "tleW"
Was ist die Instruktion? Wende sie dann auf "Prompting" an.

Strategie

Nützlich, wenn man intuitiv weiß, was man will, es aber schwer in Worte fassen kann.

Anfänger

Few-Shot Prompting

Dem Modell Beispiele geben, um das gewünschte Format oder Verhalten zu demonstrieren.

#beispiele#muster#grundlagen
Strategie anzeigen

Few-Shot Prompting

Anstatt das Modell nur anzuweisen, was es tun soll (Zero-Shot), gibst du ihm Beispiele (Shots), wie die Aufgabe gelöst werden soll. Dies verbessert die Genauigkeit drastisch, besonders bei spezifischen Formaten.

Beispiel

Prompt:

Bestimme die Stimmung der folgenden Tweets:
Tweet: "Ich liebe das neue Design!"
Stimmung: Positiv

Tweet: "Das Update hat mein Handy zerstört."
Stimmung: Negativ

Tweet: "Es ist okay, aber nichts Besonderes."
Stimmung:

Erwartete Antwort:

Neutral

Strategie

Nutze dises Pattern, wenn das Modell die Aufgabe nicht auf Anhieb versteht oder inkonsistente Ergebnisse liefert. 3-5 Beispiele sind meist optimal.

Mittel

Rephrase and Respond (RaR)

Das Modell bitten, die Frage erst umzuformulieren und zu erweitern, bevor es antwortet.

#verständnis#genauigkeit#klarheit
Strategie anzeigen

Rephrase and Respond (RaR)

Oft ist der User-Prompt schlecht formuliert. RaR lässt das Modell den Prompt selbst verbessern.

Beispiel

Prompt:

Frage: "Hund beißt, was tun?"
1. Formuliere diese Frage um, damit sie präziser und umfassender ist.
2. Beantworte die umformulierte Frage.

Strategie

Macht aus schlechten Fragen gute Antworten.

Mittel

Confidence Score

Das Modell zwingen, seine eigene Sicherheit in Prozent anzugeben.

#metriken#genauigkeit#kalibrierung
Strategie anzeigen

Confidence Score

Halluzinationen klingen oft sehr selbstbewusst. Frage nach der Unsicherheit.

Beispiel

Prompt:

Beantworte die Frage X.
Gib danach einen "Confidence Score" (0-100%) an.
Wenn der Score unter 80% ist, liste die Gründe auf, warum du unsicher bist.

Strategie

Kalibriert die Erwartungshaltung des Users.

Fortgeschritten

Least-to-Most Prompting

Komplexe Probleme in Teilprobleme zerlegen und diese nacheinander lösen.

#zerlegung#komplexität#struktur
Strategie anzeigen

Least-to-Most Prompting

Ähnlich wie Chain-of-Thought, aber expliziter in der Zerlegung. Du bittest das Modell zuerst, das Problem in Unterfragen zu zerlegen, und löst diese dann sequenziell.

Beispiel

Prompt:

Frage: Wie viele Schritte sind nötig, um einen Turm von Hanoi mit 4 Scheiben zu lösen?
Antwort: Lassen Sie uns das Problem in einfachere Probleme zerlegen:
1. Wie viele Schritte für 1 Scheibe?
2. Wie viele Schritte für 2 Scheiben?
3. Wie viele Schritte für 3 Scheiben?
4. Schlussfolgerung für 4 Scheiben.

Löse nun Schritt für Schritt.

Strategie

Ideal für rekursive Probleme oder Aufgaben, die zu groß für einen einzigen Kontext-Sprung sind.

Mittel

Contrastive Prompting

Dem Modell zeigen, was man NICHT will, um Fehler zu vermeiden.

#beispiele#negativ-beispiele#fehlervermeidung
Strategie anzeigen

Contrastive Prompting

Oft hilft es dem Modell mehr zu sehen, was falsch ist, als nur zu sehen, was richtig ist. Du gibst also sowohl positive als auch negative Beispiele.

Beispiel

Prompt:

Schreibe einen Produkttext für Kopfhörer.
Negatives Beispiel (So NICHT): "Diese Kopfhörer sind gut und laut. Kaufen Sie sie."

Positives Beispiel (So bitte JA): "Tauchen Sie ein in eine Welt aus kristallklarem Sound. Unsere neuen Pro-Headphones bieten..."

Aufgabe: Schreibe einen Text für eine Kaffeemaschine.

Strategie

Nutze dies, wenn das Modell immer wieder in unerwünschte Muster verfällt (z.B. zu werblich, zu trocken, zu informell).

Anfänger

Rollen-Prompting

Dem AI eine bestimmte Persona oder Rolle zuweisen, um Tonfall und Perspektive zu beeinflussen.

#persona#tonfall#kreatives-schreiben
Strategie anzeigen

Rollen-Prompting

Das Zuweisen einer Persona ermöglicht es dir, den Stil, den Ton und die Perspektive der Antwort zu steuern.

Beispiel

Prompt:

Handle als skeptischer Senior Engineer, der den Code eines Junior-Entwicklers überprüft. Weise auf potenzielle Sicherheitslücken und Optimierungsmöglichkeiten im folgenden Snippet hin...

Strategie

Verwende das Muster: "Du bist ein [Rolle]. Deine Aufgabe ist [Aufgabe]. Du solltest [Einschränkungen] beachten."

Fortgeschritten

Contrastive Chain of Thought

Nicht nur erklären, warum die Lösung richtig ist, sondern auch, warum plausible falsche Lösungen falsch sind.

#reasoning#fehleranalyse#robustheit
Strategie anzeigen

Contrastive Chain of Thought

Stärkt die Argumentation durch Abgrenzung.

Beispiel

Prompt:

Übersetze "Bank" (Finanzinstitut) ins Deutsche.
Richtig: Bank.
Falsch: Ufer (weil das "river bank" wäre).
Falsch: Bankett (falscher Kontext).

Aufgabe: [Neue Aufgabe]
Gib erst Kontrast-Beispiele, dann die Lösung.

Strategie

Hilft massiv bei Disambiguierung (Bedeutungsunterscheidung).

Mittel

Context Warming

Das Modell mit thematisch relevanten, aber nicht instruktiven Texten 'aufwärmen'.

#priming#kontext#wissen
Strategie anzeigen

Context Warming

Ähnlich wie Priming, aber breiter. Man "lädt" den Kontext in den RAM.

Beispiel

Prompt:

[Kopiere 3 Absätze aus einem Wikipedia-Artikel über Quantenphysik]
[Kopiere 3 Zitate von berühmten Physikern]
(Das Modell ist jetzt im "Physik-Modus")

Erkläre mir nun: Was ist Verschränkung?

Strategie

Aktiviert assoziative Cluster im neuronalen Netz.

Anfänger

Storytelling (Narrativ)

Fakten in eine Geschichte verpacken, um sie verständlicher und merkbarer zu machen.

#lernen#erklärung#narrativ
Strategie anzeigen

Storytelling

Menschen (und Modelle) lernen gut durch Geschichten.

Beispiel

Prompt:

Erkläre mir, wie die Blockchain funktioniert.
Aber tu das nicht technisch. Erzähle mir stattdessen eine Geschichte über ein Dorf, das ein gemeinsames Kassenbuch führt, in dem niemand betrügen kann. Nutze Charaktere.

Strategie

Nutze Analogien und Narrative, um trockene Themen lebendig zu machen.

Mittel

Meta-Prompting

Das Modell nutzen, um bessere Prompts für sich selbst oder andere Modelle zu schreiben.

#optimierung#tool#rekursiv
Strategie anzeigen

Meta-Prompting

Wer könnte besser wissen, wie ein Sprachmodell instruiert werden will, als das Modell selbst? Bei Meta-Prompting bittest du die KI, einen Prompt für eine bestimmte Aufgabe zu erstellen oder zu verbessern.

Beispiel

Prompt:

Ich möchte, dass du als Prompt-Engineer agierst.
Mein Ziel ist: [Beschreibe dein Ziel, z.B. Marketing-Emails schreiben].
Entwirf den bestmöglichen Prompt, den ich nutzen kann, um dieses Ziel zu erreichen. Integriere Persona, Kontext und Format-Vorgaben.

Strategie

Nutze dies, wenn du eine Idee hast, aber Schwierigkeiten, sie präzise zu formulieren. Die KI liefert oft Strukturen, an die man selbst nicht gedacht hätte.

Fortgeschritten

Six Thinking Hats

Ein Problem nacheinander aus sechs spezifischen emotionalen/kognitiven Perspektiven beleuchten.

#analyse#diskussion#perspektiven
Strategie anzeigen

Six Thinking Hats

Ähnlich wie Multi-Persona, aber strikter codiert.

Beispiel

Prompt:

Thema: Einführung der 4-Tage-Woche.
Analysiere das thema nacheinander mit diesen Hüten:
⚪️ Weiß (Fakten, Zahlen)
🔴 Rot (Gefühle, Intuition)
⚫️ Schwarz (Risiken, Vorsicht)
🟡 Gelb (Chancen, Optimismus)
🟢 Grün (Kreativität, neue Ideen)
🔵 Blau (Prozess, Überblick)

Strategie

Verhindert, dass Argumente durcheinander gehen.

Anfänger

No Apologies

Die KI anweisen, niemals 'Es tut mir leid' oder 'Als KI-Modell' zu sagen.

#stil#conciseness#nervfaktor
Strategie anzeigen

No Apologies

KIs entschuldigen sich oft unnötig ("Es tut mir leid, aber ich kann keine aktuellen Wetterdaten abrufen..."). Das nervt und kostet Tokens.

Beispiel

Prompt:

Beantworte die Fragen.
Negative Constraint: Entschuldige dich niemals. Sag nicht "Es tut mir leid". Sag nicht "Als KI Assistent".
Wenn du etwas nicht kannst, sag einfach "Ich kann das nicht."

Strategie

Macht die Interaktion effizienter und professioneller.

Fortgeschritten

Tabular Chain of Thought

Denkprozesse in einer Tabelle strukturieren, um Übersichtlichkeit zu wahren.

#struktur#tabelle#analyse
Strategie anzeigen

Tabular Chain of Thought

Komplexe Analysen werden in Textform oft unübersichtlich. Tabellen zwingen das Modell zu Struktur.

Beispiel

Prompt:

Analysiere 5 Smartphones.
Gib das Ergebnis als Markdown-Tabelle aus mit den Spalten:
| Modell | Hauptvorteil | Größter Nachteil | Preis-Leistung (1-10) | Begründung |

Strategie

Macht Vergleiche sofort lesbar und zwingt das Modell zu präzisen Aussagen (da Tabellenzellen begrenzt wirken).

Mittel

Output Priming

Den Anfang der Antwort vorgeben, um das Format oder den Stil zu erzwingen.

#kontrolle#formatting#json
Strategie anzeigen

Output Priming

Das Modell ist ein Autocomplete-Engine. Wenn du den ersten Stein legst, folgt der Rest.

Beispiel

Prompt:

Erzähle eine Gruselgeschichte.
Anfang: "Es war eine dunkle und stürmische Nacht, als der alte..."

Prompt (Code):

Erstelle ein Python-Skript.

Antwort:
```python
import os
```

Strategie

Unschlagbar, um JSON zu erzwingen (Antwort: {) oder den "Labermodus" zu überspringen.

Fortgeschritten

Constraints-Based Prompting

Kreativität durch massive Einschränkungen erzwingen (Oulipo-Stil).

#kreativität#writing#einschränkung
Strategie anzeigen

Constraints-Based Prompting

Kreativität entsteht oft durch Grenzen, nicht durch Freiheit.

Beispiel

Prompt:

Schreibe eine Geschichte über einen Roboter.
Constraints:
1. Nutze keine Wörter, die den Buchstaben "E" enthalten (Lipogramm).
2. Jeder Satz muss genau 5 Wörter haben.
3. Die Geschichte muss traurig enden.

Strategie

Zwingt das Modell, gewohnte Pfade (wahrscheinlichste Token) zu verlassen und kreativere Lösungen zu finden.

Fortgeschritten

Graph of Thoughts (GoT)

Gedanken nicht linear (Kette) oder als Baum (Tree) modellieren, sondern als Netzwerk, das Konvergenz und Schleifen erlaubt.

#reasoning#komplexität#struktur
Strategie anzeigen

Graph of Thoughts (GoT)

Das menschliche Gehirn arbeitet nicht linear. GoT erlaubt es, Gedanken zu kombinieren, zu aggregieren und im Kreis zu führen.

Beispiel

Prompt:

Aufgabe: Schreibe einen Roman.
1. Generiere 3 Ideen für Charaktere (Knoten A, B, C).
2. Generiere 3 Ideen für den Plot (Knoten D, E, F).
3. Kombiniere A mit E (Kante AE).
4. Kombiniere C mit D (Kante CD).
5. Bewerte AE und CD. Nimm den besseren und verfeinere ihn.

Strategie

Ermöglicht "Synergie" zwischen Gedanken, die in linearen Ketten verloren ginge.

Anfänger

Take a Deep Breath

Die einfache Anweisung 'Atme tief durch' kann die Mathe-Leistung verbessern.

#optimierung#magic-spell#reasoning
Strategie anzeigen

Take a Deep Breath

Google DeepMind hat herausgefunden, dass der Prompt "Take a deep breath and work on this step by step" die Performance bei Mathe-Aufgaben signifikant steigern kann.

Beispiel

Prompt:

Löse diese Aufgabe.
Atme tief durch und gehe Schritt für Schritt vor.

Strategie

Es klingt esoterisch, aber es triggert im statistischen Modell Muster von sorgfältigerer, menschlicher Problemlösung.

Fortgeschritten

Program-of-Thoughts (PoT)

Das Modell schreibt Code (z.B. Python), um Rechenaufgaben oder Logik zu lösen, statt Text zu generieren.

#code#mathematik#präzision
Strategie anzeigen

Program-of-Thoughts (PoT)

LLMs sind oft schlecht im Kopfrechnen, aber gut im Coden. PoT lagert die Berechnung an einen (hypothetischen oder echten) Code-Interpreter aus.

Beispiel

Prompt:

Frage: Berechne die Wurzel aus der Summe der ersten 50 Primzahlen.
Schreibe ein Python-Programm, das dies berechnet. Führe den Code gedanklich aus und gib das Ergebnis.

Strategie

Wenn du Zugang zu einem Code-Interpreter hast (wie in ChatGPT oder via LangChain), ist das der Goldstandard für Mathe-Aufgaben.