Herzlich Willkommen zu den AI FIRST Insights!
Als ChatGPT 2022 die Welt erblickte, haben wir begonnen zu lernen, wie man dieser Maschine Anweisungen gibt, um gute Ergebnisse zu bekommen.
Die Disziplin des Prompt Engineerings erlebte ihren Durchbruch und mit ihr diverse Frameworks, die die besten Ergebnisse versprechen:
- CRAFT: Capability, Role, Action, Format, Tone
- RFT: Request, Task, Format
- ICE: Instruction, Context, Examples
- CREATE: Character, Request, Examples, Adjustment, Type of Output, Extras
- ...
Aber sind diese Best Practices noch aktuell?
In den letzten 2 Jahren haben sich Sprachmodelle und die Features, die auf ihnen aufbauen, stark weiterentwickelt:
- LLMs sind größer, flexibler und besser geworden
- Reasoning-Modelle sind auf dem Vormarsch
- Tools wie ChatGPT werden mit Features wie Deep Research immer autonomer
Mit dieser Entwicklung haben sich auch einige der Prinzipien verändert, wie wir mit Sprachmodellen arbeiten müssen, um gute Ergebnisse zu erhalten.
Heute möchte ich dir 3 Prompting-Techniken vorstellen, die du universell anwenden kannst und dich zu guten Ergebnissen beim Einsatz von ChatGPT & Co. bringen:
- Dialog-Prompting
- Briefing-Prompting
- Reasoning-Prompting
Los geht's!
Prompting 1x1
Kurz zu den Basics.
Was ist überhaupt ein Prompt?
Ein Prompt ist eine Anweisung die einem Sprachmodell gegeben wird, um eine bestimmte Ausgabe oder Reaktion zu erzeugen. Es handelt sich dabei um einen Text, der das gewünschte Ergebnis, den Kontext und spezifische Anforderungen beschreibt.
Ein gut formulierter Prompt fungiert als Rahmen und Leitfaden für die KI und bestimmt maßgeblich die Qualität und Relevanz der generierten Antwort.
Und was bedeutet Prompt Engineering?
Mit größerer Relevanz von Sprachmodellen entstand die Disziplin des Prompt Engineerings: Die Kunst und Wissenschaft, effektive Prompts für KI-Systeme zu entwickeln und zu optimieren.
Im Prompt Engineering wurden Begriffe geprägt wie:
- Few-Shot Prompting
- Chain-of-Thought
- Prompt-Chaining
- Reverse Prompting
Diese Techniken sind hilfreich für Entwickler, die Produkte basierend auf Sprachmodellen bauen. Für Endanwender führen sie oft zu mehr Verwirrung als zu besseren Ergebnissen.
Aus diesem Grunde habe ich 3 einfache Prompting-Ansätze für verschiedene Situationen definiert, die ich dir im Folgenden vorstelle.
Dialog-Prompting (Für GPT & Reasoning-LLMs)
Das Dialog-Prompting ist die einfachste und intuitivste Art und Weise, um mit Tools wie ChatGPT zu arbeiten.
Diese "Technik" nutze ich in 2 Situationen:
- Ich brauche einen kurzen Impuls
- Ich arbeiten an einer neuen Aufgabe
Beim Dialog-Prompting kommt es nicht auf die perfekte Eingabe an. Viel wichtiger ist hier die Iteration der Ergebnisse und das kritische Hinterfragen der KI-Antwort.
Nicht alle Ergebnisse, die du bekommst, werden gut sein. Daher musst du über den Dialog Feedback geben, um dich Schritt-für-Schritt im Sparring mit der KI zu deinem Ergebnis hinzuarbeiten.
Beispiel 1 (Impuls): Icebreaker-Fragen
Ich will einen schnellen Impuls für eine Aufgabe, Problemlösung oder Fragestellung. Mir geht es nicht um ein perfektes Ergebnis, sondern darum, vom weißen Blatt wegzukommen oder alternative Optionen zu bekommen:

Beispiel 2 (Aufgaben-Sparring): Excel Kalkulator bauen
Ich will eine Aufgabe bearbeiten mit der ich mich nicht gut auskenne. In Excel-Skripten bin ich eine ziemliche Niete. In dem Fall nutze ich ChatGPT um mich Schritt-für-Schritt durch den Prozess zu führen:
Prompt 1: Best Practices für Excel-Kalkulatoren verstehen, "Ich will einen einfach nutzbaren KI Business Case Kalkulator in Excel bauen. Was macht einen guten Excel Kalkulator aus?"

Anschließend geht der Dialog über dutzende Prompts weiter:
- Prompt 2: "Hilf mir Schritt für Schritt den Kalkulator in Excel zu bauen. Welchen Aufbau der Input-Maske schlägst du vor?"
- Antwort: Vorgeschlagene Struktur mit Eingabefeldern, Benamungen, ...
- Prompt 3: "Mir fehlen mehr messbare Parameter für die Machbarkeitsbewertung vom KI Use Case. Füge folgende Daten hinzu: ..."
- Antwort: Daten hinzugefügt, fo
- Prompt 4: "Nimm außerdem die Personalkosten in Punkt 2 mit auf. Wie würdest du den Tab mit den Berechnungen strukturieren?"
- Antwort: Vorschlag für den Tab "Berechnung"
- Prompt 5 - 20: Sukzessive weitere Iterationen über die Erstellung der Formeln und Skripte, dem Testing, Finden von Fehlern, Debugging...bis ich am Ende einen Kalkulator hatte.
Ich arbeite in dem Prozess auch oft mit Screenshots und gebe ChatGPT dadurch Input, was ich sehe und beschreibe, welches Ergebnis ich erwarte:

Nach ein paar Iterationen hatte ich dann auch das Skript:

Fazit:
Dialog-Prompting bietet sich perfekt an, wenn du dein Ziel kennst, aber die genauen Schritte dorthin noch nicht. Für die Qualität ist es jedoch wichtig, das KI-Ergebnis nach jedem Schritt kritisch zu prüfen und Feedback zu geben.
Briefing-Prompting (Für GPT LLMs)
Im Vergleich zum Dialog-Prompting, bietet sich das Briefing-Prompting immer dann an, wenn du ganz genau weißt, was du willst und wie du zu diesem Ziel kommst.
Typische Aufgaben für Briefing-Prompts sind:
- Beantwortung einer Support-Anfrage
- Erstellung einer Stellenanzeige
- Draft einer Pressemitteilung
- Schreiben eines Artikels
- Meeting Nachbereitung
Typische repetitive Aufgaben, die du bereits 100te Male erledigt hast, wo der Prozess klar ist, der erforderliche Input gegeben ist, die Regeln feststehen und das Output-Format immer das Selbe ist.
Du schreibst einen guten Briefing-Prompt, wenn du folgende Frage beantwortest:
"Stell dir vor, du würdest diese Aufgabe einem Praktikanten an seinem 1. Arbeitstag geben. Was würdest du in das Briefing schreiben, damit der Praktikant die Aufgabe erfolgreich lösen kann?"
Das Briefing beinhaltet:
- R: Beschreibung der Rolle (optional)
- A: Beschreibung der Aufgabe (Schritt für Schritt)
- Z: Beschreibung des Ziels (Was soll konkret das Ergebnis sein?
- K: Kontextinformationen (Richtlinien, Schreibstil, Produktinformationen, ...)
- O: Output-Format (Prosa-Text, Stichpunkte, Tabellen, Mix aus allem, ...)
- B: Beispiele (steigert Konsistenz massiv!)
Wenn du Frameworks magst, erfinde ich hiermit das RAZKOB-Framework ;D
Sehr hilfreich ist auch die Formattierung des Briefings. In einem Dokument würdest du ja auch Überschriften einfügen, um die Hierarchie der Informationen zu verdeutlichen.
Dafür kannst du Markdown in Prompts nutzen:
- # = Überschrift 1
- ## = Überschrift 2
- Und so weiter
Briefing-Prompt meines OKR-Assistenten:

Im Endeffekt bedeutet Prompting = Delegieren. Wer klar und verständlich die Aufgabe und das erwartete Ergebnis beschreiben kann, wird gute Ergebnisse erzielen.
Was bei schlechten Briefings passiert, siehst du hier:

In der Vergangenheit habe ich der KI oft eine Rolle zugewiesen ("Du bist ein erfahrener Risikomanager"). Aktuell sehe ich durch das Hinzufügen einer Rolle nur noch dann bessere Ergebnisse, wenn eine spezififische Zielgruppe angesprochen werden soll.
Fazit:
Briefing-Prompting bietet sich perfekt für Aufgaben an, wo du das Ziel, die Schritte zum Ziel und den spezifischen Output bereits kennst. Als würdest du einem Praktikanten ein Briefing schreiben, der die Aufgabe noch nie gemacht hat.
Reasoning-Prompting (Für Reasoning LLMs)
Reasoning-Modelle wie OpenAI o1, o3 oder DeepSeek R1 sind auf dem Vormarsch und mit ihnen verändert sich auch das Prompting.
Reasoning Modelle funktionieren anders als klassische Sprachmodelle.
OpenAI schreibt dazu:
"Wir haben unsere Modelle der o-Serie („die Planer“) darauf trainiert, länger und intensiver über komplexe Aufgaben nachzudenken, so dass sie in der Lage sind, Strategien zu entwickeln, Lösungen für komplexe Probleme zu planen und Entscheidungen auf der Grundlage großer Mengen mehrdeutiger Informationen zu treffen.
Unsere kostengünstigeren GPT-Modelle mit geringerer Latenz („die Arbeitspferde“) sind dagegen für eine einfache Ausführung konzipiert. Eine Anwendung könnte o-series-Modelle verwenden, um die Strategie zur Lösung eines Problems zu planen, und GPT-Modelle zur Ausführung spezifischer Aufgaben einsetzen"
Aufgrund der unterschiedlichen Funktionsweise, erfordern Reasoning-Modelle eine andere Art des Prompting:
R:Beschreibung der Rolle (optional)- eher nicht- A: Beschreibung der Aufgabe - ja, aber kurz und knapp
- Z: Beschreibung des Ziels - sehr wichtig!
- K: Kontextinformationen - sehr wichtig!
- O: Output-Format - spezifische Richtlinien!
- B:
Beispiele- eher nicht
Beispiel für einen Reasoning-Prompt:

Fazit:
Beim Reasoning-Prompting kommt es viel mehr auf die Was-Fragen an (Was soll genau erstellt werden?) und auf den dazugehörigen Kontext.
Das Wie (Wie löse ich diese Aufgabe Schritt für Schritt) erarbeitet das Modell selbst indem es die Aufgabe in Unterschritte runterbricht und bearbeitet.
Knackige Aufgabe + Ziel erklären + so viel Kontex wie möglich + Erwartetes Endergebnis
Überblick: Prompting Reasoning vs. GPT LLMs
All diese Informationen und Unterschiede habe ich dir in diesem 1-Pager zusammengefasst:

🏁 Fazit
Prompting ist viel eher die gute Delegation von Aufgaben als eine Wissenschaft.
Das Prinzip bleibt bestehen: Wer sich klar und deutlich ausdrücken kann, erzielt bessere Ergebnisse beim Einsatz von KI.
Key Takeaways
- Dialog-Prompting: Für schnellen Impuls oder Aufgaben-Sparring. Einfache Prompts und iteratives Feedback zu den KI-Antworten bringen dich im Dialog zum Ziel.
- Briefing-Prompting: Für spezifische Aufgaben, wo du das Ziel und den Weg dorthin kennst. Ein strukturiertes Briefing, wie du es einem Praktikanten geben würdest, der die Aufgabe zum ersten Mal macht, bringt dich zum Ziel.
- Reasoning-Prompting: Für den Einsatz von Reasoning-Modellen (o1, R1). Die Aufgabenbeschreibung bleibt knapp, auf eine detaillierte Zielbeschreibung und Kontext kommt es an.
Logge Dich ein oder registriere Dich,
um am Austausch teilzunehmen.