This is a success message.
This is an error message.

Warum Prompt Engineering wichtig bleibt

Totgesagte leben länger

7.9.2025
in
Lab
von
Felix Schlenther
Felix ist der CEO und Gründer der Unternehmensberatung AI FIRST. Jede Woche erkundet er die Grenzen der AI in praxisnahen Beiträgen und in seinem Podcast AI FIRST.
Warum Prompt Engineering wichtig bleibt

Herzlich Willkommen zu den AI FIRST Insights!


Wenn ich mit meinen Kunden daran arbeite, wie sie den Einfluss von sich und ihren Teams durch den Einsatz von GenAI hebeln können, zieht sich durch alle Ebenen: das korrekte anweisen von KI-Systemen wird gnadenlos unterschätzt.


Jeder will die autonomen Agenten, die automatisierten Workflows, den fancy Stuff.


Aber wenn ich dann in die Praxis schaue, sehe ich mittelmäßige Prompts und (maximal) mittelmäßigen Kontext, die mittelmäßige Ergebnisse liefern. Die Lücke zwischen dem gefühlten Können und der tatsächlichen Qualität ist oft erschreckend groß.


Dabei ist und bleibt ein gut geschriebener Prompt einer der größten Hebel, den es auf die Qualität der KI-Ergebnisse gibt.


Das gilt auch bei den neuesten Modellen.


In diesem Newsletter gehe ich auf die Evolution von Prompt Engineering ein und zeige dir, welche Regeln ausgedient haben und was wichtiger denn je ist.


Los geht's!



Werde im Oktober Teil von 60 KI-Pionieren im AI Collective

Im AI Collective geben wir KI-Pionieren aus dem Mittelstand das Wissen, die Werkzeuge und das Netzwerk an die Hand, um sich selbst und ihr Unternehmen fit für die KI-Ära zu machen.

Im Oktober öffnen wir das AI Collective für weitere Mitglieder, die die KI-Transformation in ihrem Unternehmen vorantreiben.



Wenn du bereit bist, die KI-Verantwortung in deinem Unternehmen zu übernehmen und deine Karriere auf die nächste Stufe zu heben, ist das deine Einladung.

👉 Mehr über das AI Collective erfahren



Prompt Engineering war nie ein technischer Skill

Bevor wir in unseren Programmen überhaupt anfangen, irgendwas mit KI zu machen, stelle ich den Teilnehmern immer diese einfache Frage:


"Stell dir vor, du bist in einem neuen Unternehmen, heute ist dein erster Arbeitstag. Du bekommst eine Aufgabe, die du noch nie gemacht hast. Was brauchst du, um diese Aufgabe in hoher Qualität ausführen zu können?"


Die Antworten kommen schnell:

  • "Klare Ziele"
  • "Kontext über das Unternehmen"
  • "Beispiele von früheren Arbeiten"
  • "Was die No-Gos sind"
  • "Zugang zu relevanten Daten"
  • "Vielleicht einen Ansprechpartner für Rückfragen"


Wir können oft sehr genau beschreiben, was ein MENSCH für die korrekte Ausführung einer Aufgabe benötigt, unterschätzen diesen Aspekt jedoch bei KI.


Prompting bleibt daher ein sehr kommunikativer Skills: Du musst alle Informationen bereitstellen, die zum Verständnis und zur Erledigung der Aufgabe notwendig sind – und die nicht implizit vorhanden sein können. Gute Führungskräfte oder Projektmanager, die ständig Aufgaben delegieren müssen, sind oft auch sehr gute Prompt Engineers.


Wie alle guten Kommunikatoren, fragen sich gute Prompt Engineers zuerst, was sie überhaupt erreichen wollen.


  • Wer wird adressiert?
  • Welches Ziel verfolge ich?
  • Wie sieht das perfekte Ergebnis aus?
  • Welche Struktur und Merkmale soll es haben?


Dann musst du den Lösungsraum definieren.

Willst du viele kreative Optionen erkunden?

Oder brauchst du eine spezifische, fokussierte Antwort?


  • "Hilf mir bei der Personalsuche" öffnet einen riesigen Raum.
  • "Schreibe eine Stellenausschreibung für einen Senior Entwickler (Java/Spring Boot), Fintech-Startup, remote-freundlich, 80-100k, 300 Wörter max, Tonalität: modern aber seriös" macht ihn klein und präzise.



Erst jetzt kannst du die dafür notwendigen Informationen bereitstellen:

Zielbeschreibung, Kontext, Output-Format, Rahmenbedingungen, No-Gos – alles, was die KI braucht, um dein Ziel in dem gewünschten Lösungsraum zu erreichen.

Das Vorbereiten eines guten Prompts ist also eine Übung in strukturiertem Denken: Ziel klären, Lösungsraum definieren, relevante Informationen bereitstellen. Du erstellst eine Blaupause für erfolgreiche Problemlösung.



Die Evolution des Prompt Engineerings

Prompting hat also viel mit strukturiertem Denken und klarer Kommunikation zu tun. Haken dran. Trotzdem wandern immer wieder "geheime Prompting Tricks und Hacks" durch die KI-Welt.


Vielleicht erinnerst du dich auch noch an die Zeit, wo "Ich gebe dir 200$ Trinkgeld, wenn du die Aufgabe erfüllst" zu besseren KI-Ergebnissen geführt hat.


Diese Zeiten sind vorbei. Die Art, wie wir mit KI kommunizieren müssen hat sich in 3 Phasen weiterentwickelt, was primär an den Fähigkeiten der Modelle liegt.


Prompting 1.0: Klassische LLMs (GPT-4)

Die frühen Modelle wie GPT-3.5 und 4 waren brilliant im Textverständnis, aber schwach in der mehrschrittigen Bearbeitung von Aufgaben. Sie konnten komplexe Aufgaben nur bewältigen, wenn wir sie in kleine, eindeutige Schritte zerlegten.


Beispiel

"Lies die folgenden 5 Kundenrezensionen. Extrahiere für jede Rezension die Hauptkritik in einem Satz. Formatiere das Ergebnis als nummerierte Liste. Verwende maximal 15 Wörter pro Punkt. Beginne jeden Punkt mit 'Kritik:'. Hier sind die Rezensionen: [...]"


Das funktionierte, war aber mühsam. Die Modelle brauchten diese mikroskopische Führung, sonst drifteten sie ab oder lieferten inkonsistente Ergebnisse.


Das war auch die Zeit der absurden Tricks und Hacks. "Gib der KI ein Trinkgeld von 200$, dann arbeitet sie besser." "Sag ihr, dass dein Leben davon abhängt." "Verwende genau diese magischen Phrasen." Die Social-Media-Timeline war voller solcher "Geheimtipps".


Prompting 2.0: Large Reasoning Models (o1, Gemini 2.5 Pro)

Mit der neuen Generation kamen deutlich stärkere Reasoning-Fähigkeiten. o1, Claude 3 Opus oder Gemini 2.5 Pro können mehrschrittige Denkprozesse selbstständig durchführen.


Die meisten Tricks wurden plötzlich irrelevant.


Diese Modelle verstehen das Ziel des Nutzers und können eigenständig planen, wie sie diese erreichen. Wir wurden zu Managern, die Rahmen setzen, anstatt jeden Schritt zu diktieren.


Beispiel

"Du bist ein Produktmanager. Analysiere das folgende Kundenfeedback. Dein Ziel ist es, die Top 3 Handlungsfelder zur Verbesserung unseres Produkts zu identifizieren. Liefere eine kurze Zusammenfassung und eine nach Priorität geordnete Liste der Probleme. Berücksichtige dabei sowohl die Häufigkeit als auch die Schwere der genannten Punkte."


Die KI plant jetzt selbst, wie sie vorgeht. Sie kann abstrakte Konzepte wie "Priorität" und "Schwere" eigenständig bewerten und anwenden.


Prompting 3.0: Hybrid-Models (GPT-5)

Die neueste Generation bringt eine völlig neue Fähigkeit mit: autonome Planung und Tool-Integration. Modelle wie GPT-5 können selbstständig Tools nutzen, Sub-Aufgaben definieren und diese abarbeiten.


Beispiel

"Analysiere unseren gesamten Kundensupport-Verlauf des letzten Quartals. Identifiziere die fundamentalen Ursachen für Kundenabwanderung und schlage drei konkrete, umsetzbare Initiativen vor, um die Kundenbindung um 10% zu erhöhen. Berücksichtige dabei unser Budget von 50.000€ und unser 5-köpfiges Produktteam."


Die KI orchestriert jetzt selbst: Sie plant die Analyse, identifiziert benötigte Datenquellen, führt verschiedene Bewertungen mit bereitgestellten Tools durch, macht eventuell noch eine Recherche zum Benchmarking und liefert am Ende Empfehlungen – alles in einem Durchgang.


Je leistungsfähiger die Modelle werden, desto weniger müssen wir ihnen das "Wie" erklären und desto mehr können wir uns auf das "Was" und "Warum" konzentrieren. Prompt Engineering ist nicht verschwunden – es hat sich nur von der Mikrosteuerung zu "Rahmen setzen" entwickelt.


Bessere Modelle abstrahieren einen großen Teil der früher benötigten Prompt Engineering Skills einfach weg. Sie weisen dem Modell automatisch eine Rolle zu, leiten die Schritte aus dem gegebenen Ziel ab, wählen selbst das benötigte Tool aus etc. Diese Entwicklung ist besonders hilfreich für die Nutzung von LLMs im Alltag, also für klassische Chatbot-Nutzer.


Wer jedoch KI-Assistenten, Workflows und Agenten baut, muss weiterhin auf einem atomaren Level seine Prozesse, Anweisungen, In- und Output-Formate, Tool Calls und Kontextwissen beschreiben.


Nur so können konsistente Ergebnisse sichergestellt werden.


Prompting Guide 3.0

Ich habe dir die wichtigsten Unterschiede und Empfehlungen in diesem Cheat Sheet zusammengestellt:


Paradigmenwechsel "Context Engineering"

Im Laufe dieses Jahres hat ein Bereich besonders viel Aufmerksamkeit erfahren: der Kontext.


Immer mehr Nutzern ist klar geworden, dass die Qualität und Spezifität der Antwort maßgeblich davon abhängt, welchen Kontext sie der KI geben. Guter Kontext grenzt den Lösungsraum ein – das ist entscheidend, wenn du ein spezifisches Ergebnis haben willst.


Aber Kontext ist nicht mehr nur das, was wir bisher in den Prompt geschrieben haben.


Früher haben wir Infos über unsere Firma, unsere Prozesse oder Hintergrundinformationen direkt in den Prompt gepackt. Heute umfasst Kontext viel mehr:

  • Historie: Woran hat die KI vorher schon gearbeitet?
  • Datenbank-Informationen: Welche relevanten Daten liegen in unseren Systemen?
  • Bestehendes Unternehmenswissen: Dokumentationen, Richtlinien, Best Practices aus verschiedenen Quellen


Dadurch wird die Disziplin des Prompt Engineerings um eine neue Disziplin erweitert: Context Engineering. Mir gefällt der technische Begriff nicht, doch ich finde den zunehmenden Fokus auf das Thema wichtig.


Im Grunde geht es darum zu definieren, aus welchen Quellen die KI zu welcher Zeit welchen Kontext ziehen und verarbeiten soll.


Das ist aktuell noch in den Kinderschuhen. Es ist eine große Herausforderung, aktuellen Kontext bereitzustellen (Datenaufbereitung, Schnittstellen) und einer KI beizubringen, wann sie welche Informationen auf welche Art nutzen soll. Und auch hier spielt Prompt Engineering weiterhin eine enorm große Rolle..


In Zukunft werden wir also deutlich mehr Zeit mit der Aufbereitung und Bereitstellung der Kontextinformationen verbringen, als mit der Konstruktion komplexer Prompts.


Das Eine kann jedoch nicht ohne das Andere.

"It takes two to tango", wie man so schön sagt :)


🏁 Fazit

Prompt Engineering ist nicht tot – es ist erwachsen geworden.


Die Zeit der Tricks und Hacks ist vorbei. "Gib der KI ein Trinkgeld" gehört ins Museum.


Wir sind von Mikromanagern zu Zielsetzern geworden.


Statt jeden Schritt zu diktieren, geben wir zunehmend Ziele und umfangreichen Kontext vor und die KI-Modelle werden besser in der Ableitung und Ausführung der erforderlichen Schritte.


"Den einen Weg" gibt es aber nicht. Auch ich schreibe heute für standardisierte Use Cases noch immer sehr lange, sehr ausführliche Systemprompts um der KI möglichst wenig Raum für Abweichungen zu gewähren.


Key Takeaways:

  • Strukturiertes Denken und klare Kommunikation sind die Skills der Stunde.Ein guter Prompt entsteht nicht durch Tricks, sondern durch Klarheit über Ziel, Kontext und gewünschten Lösungsraum.
  • Die Modellentwicklung treibt die Prompting-Evolution. Je intelligenter die KI wird, desto weniger müssen wir das "Wie" erklären und desto mehr können wir uns auf das "Was" konzentrieren.
  • Kontext wird zum entscheidenden Faktor. Egal ob über den Prompt, RAG-Systeme oder APIs – die richtige Information zur richtigen Zeit ist der größte Hebel für Output-Qualität.
  • Wir stehen am Anfang einer neuen Ära. Intelligente Kontext-Aufbereitung und -bereitstellung werden die nächsten großen Themen. Heute ist es noch oft Handarbeit, morgen wird es systemisch.


Die Lücke zwischen dem gefühlten Können und der tatsächlichen Qualität der Prompts ist immer noch groß. Aber jetzt weißt du, woran es liegt – und worauf es wirklich ankommt.


Bis nächsten Sonntag,

Felix

Logge Dich ein oder registriere Dich,
um am Austausch teilzunehmen.

Eröffne die Diskussion 💬 🌞
Jemand tippt
Nicht
angegeben
Moderator
4 years ago
Dein Kommentar wird sichtbar, sobald er von einem Moderator freigegeben wurde.
This is the actual comment. It's can be long or short. And must contain only text information.
(Bearbeitet)
Nicht
angegeben
Moderator
2 years ago
Dein Kommentar wird sichtbar, sobald er von einem Moderator freigegeben wurde.
This is the actual comment. It's can be long or short. And must contain only text information.
(Bearbeitet)
Weitere Antworten laden ↓
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Weitere Antworten laden ↓