Was ist Prompt Engineering und warum ist es interessant?

Künstliche Intelligenz ist derzeit in aller Munde. Jeder spricht über LLMs (Large Language Models) und die nahezu unbegrenzten Möglichkeiten, die sich damit eröffnen – von kreativen Texten, Zusammenfassungen langer Dokumente, künstlerischen Bildern bis hin zu vollständigen Reiseplänen. Das Potenzial scheint nur durch unsere Fantasie begrenzt.

Sobald es jedoch an die konkrete Nutzung von KI-Tools geht, fällt schnell ein Begriff: Prompt. Einfach gesagt sind Prompts die Anweisungen, die einem KI-System gegeben werden, um ein gewünschtes Ergebnis zu erzielen.

Wer sich intensiver mit der Materie beschäftigt, stellt fest: Prompt Engineering ist mehr als nur ein paar geschriebene Zeilen – es wird teils sogar als Tätigkeit von Datenanalysten und Software-Entwicklern betrachtet. Aber was steckt wirklich dahinter?

In Gesprächen mit Freunden und Kolleg:innen haben wir festgestellt, dass neben der Begeisterung über KI auch Frust über unklare oder enttäuschende Ergebnisse mitschwingt. Häufig liegt das am Prompt selbst – der lässt sich in vielen Fällen nämlich verbessern.

In diesem Beitrag möchten wir unsere Beobachtungen und Erfahrungen in einem Prompt Engineering Maturity Model (PEMM) zusammenfassen. Ziel ist es insbesondere, Perspektiven aufzuzeigen, wie du deine Prompts systematisch optimieren kannst, um auf deine Fragestellungen bessere Antworten zu erhalten.

Überblick: Das Prompt Engineering Maturity Model (PEMM)

Unser Reifegradmodell umfasst vier Stufen, die wir im Folgenden vorstellen. In den darauffolgenden Abschnitten beschreiben wir jede Stufe ausführlich und zeigen konkrete Prompt-Beispiele.

  1. Ad-hoc-Prompts: Einstieg ohne Systematik. Die Prompts sind spontan, kurz und unstrukturiert.
  2. Wiederholbare Prompts: Erste Systematik. Du beginnst zu verstehen, was effektive Prompts ausmacht. Deine Prompts werden allmählich etwas länger.
  3. Standardisierte Prompts: Du entwickelst eine persönliche Methodik und nutzt strukturierte Templates zum Schreiben von Prompts. Du erhältst verlässlich gute Ergebnisse bei komplexeren Fragestellungen.
  4. Datengetriebene Prompts: Du misst und optimierst systematisch die Wirksamkeit deiner Prompts mit Metriken. In dieser Ausprägung ist das Schreiben von Prompts mit Softwareentwicklung vergleichbar.

Es geht nicht darum, jeden Prompt auf der höchsten Reifegradstufe zu formulieren. Entscheidend ist allein, dass der Prompt ein zufriedenstellendes Ergebnis für deine konkrete Fragestellung liefert.

Icon: MauersteineStufe 1: Ad-hoc-Prompts – spontane Fragen, schnelle Antworten

Illustration im Comic-Style: Junge Frau arbeitet an einem Touchscree, Bots applaudierenDiese erste Stufe kennzeichnet den typischen Einstieg. Die Prompts sind oft nur ein oder zwei Sätze lang und entstehen spontan – etwa im Online-Meeting oder bei einer schnellen Recherche.

Beispiele:

  • Was ist ein ATS?
  • Wie oft wurde Donald Trump zum US-Präsidenten gewählt?
  • Wer ist reicher: Iron Man oder Batman?
  • Bitte nenne mir fünf Gründe, warum ich einen Blogartikel schreiben sollte.

Die Ergebnisse solcher Prompts sind nicht immer korrekt; kleine Tippfehler können große Auswirkungen haben: Vielleicht sollte im ersten Beispiel nach einem ATM gefragt werden? Im zweiten Beispiel kennen viele Modelle nur die erste Amtszeit von Donald Trump. Das liegt daran, dass die Trainingsdaten für ein LLM nur bis zu einem bestimmten Zeitpunkt reichen. Die Antworten auf Wissensfragen sollten daher immer sorgfältig geprüft werden.

Solche kurzen Prompts eignen sich für schnelle und generische Anfragen, Brainstorming oder auch Smalltalk-Fragen – nach der „Fictional 15“-Liste von Forbes ist Tony Stark übrigens etwas reicher als Bruce Wayne.

Eine weitere Beschränkung besteht darin, dass die Kontrolle über Länge und Form der Antwort begrenzt ist. Das LLM schöpft ohne Einschränkung aus seinem gesamten Wissen. Für kreative Zwecke mag dies gut funktionieren, für konkretere Fragestellungen ist dagegen mehr Kontrolle sinnvoll.

Übrigens: Unabhängig davon, ob du mit ChatGPT, Gemini, Claude oder einem anderen LLMs arbeitest, funktionieren die dargestellten Methoden bei allen Modellen.

Icon: MauersteineStufe 2: Wiederholbare Prompts – erste Struktur und Kontrolle

Illustration im Comic-Style: Man arbeitet an Virtuellem Monitor. Bots beobachten ihn.Wer öfter mit LLMs arbeitet, wünscht sich bald mehr Kontrolle über Inhalt, Form und Länge der Antwort – ein erster Schritt beim Schreiben strukturierter Prompts.

Beispiele:

  • Erstelle eine Liste mit fünf negativen Eigenschaften von Superman und illustriere sie jeweils mit einem Beispiel. Die Liste soll prägnant sein und keine weitere Erklärungen enthalten.
  • Bitte erzeuge eine Liste der zehn reichsten fiktiven Figuren, ihrem geschätzten Vermögen und dem Erfinder der Figur. Die Liste soll im JSON-Format erstellt werden.

Die Formulierung von expliziten Anforderungen an die Ausgabe ist der Einstieg in das strukturierte Schreiben von Prompts.  Auch einfache Kontextangaben verbessern die Ergebnisse deutlich:

  • Ich moderiere einen Kurs für Hobbymaler. Bitte generiere 10 Bildideen, basierend auf berühmten Kunstwerken.
  • Ich möchte einen Webserver unter Linux aufsetzen. Leider bin ich sehr unerfahren mit Linux. Erstelle mir bitte eine Schritt-für-Schritt Anleitung, wie ich einen Webserver mit Linux aufsetzen kann.

Das Beispiel zum Aufsetzen eines Webservers zeigt deutlich die Grenzen solcher Prompts bei komplexen Fragestellungen: Wir haben das Beispiel auf verschiedenen LLMs ausprobiert. Am Ende kam zwar immer irgendwie ein Webserver heraus, aber für echte Anfänger wären die Erklärungen nicht ausreichend gewesen; teilweise wurden zusätzlich Datenbanken oder Programmiersprachen installiert etc.

Als ein echter Booster für bessere Antworten hat sich „Role Play“ herausgestellt. Hier wird dem LLM eine Rolle zugewiesen. Probiere mal diese beiden Prompts aus:

  • Du bist ein erfahrener Lehrer für Programmierung mit Java. Bitte zeige und erkläre mir ein „Hello World“ Programm.
  • Du bist ein ironischer Freund und Technikfreak. Bitte zeige und erkläre mir ein „Hello World“ Programm.

Je komplexer und spezifischer eine Fragestellung ist, desto genauer muss der Prompt formuliert sein. Für präzise und konsistente Ergebnisse ist ein systematischer Ansatz notwendig – willkommen auf der nächsten Stufe.

Icon: MauersteineStufe 3: Standardisierte Prompts – Methode statt Zufall

Illustration im Comic-Style: Junger Mann arbeitet an Rechnern im industriellen Umfeld, Bots und Maschinen unterstützen ihn.Mit wachsender Erfahrung entwickelst du eine eigene Methodik für die Erstellung effektiver Prompts. Ziel ist immer die zuverlässige Generierung qualitativ hochwertiger Ergebnisse.

A. Struktur mit Prompt-Templates

Ein bewährter Ansatz ist die Verwendung von Templates. Es gibt sehr viele Prompt-Templates, die für unterschiedliche Fragestellungen entwickelt wurden. Um sich inspirieren zu lassen reicht schon eine einfache Suche nach Prompt Templates. Das Ausprobieren (und Lernen!) von neuen Templates macht Spaß und vertieft dein Verständnis von Prompts.

Ein vielseitig und allgemein nutzbares Template ist RTCF (Role – Task – Context – Format). Das Beispiel zeigt den Aufbau des Prompts.

Aufbau eines RTCF-Prompts:

Role:
– Du bist ein erfahrener Marketingspezialist.
– Du berätst deine Nutzer zu Unternehmenswebseiten.

Task:
– Hier steht eine Beschreibung der konkreten Aufgabe.
– Jede Teilaufgabe erhält einen eigenen Aufzählungspunkt.

Context:
– Deine Nutzer arbeiten in kleinen Unternehmen.
Format:
– Kurz, prägnant, vorzugsweise Listenform.
– Du präsentierst Ergebnisse ohne Erklärungen.

Ideen für eigene Versuche: Probiere RTCF-Prompts mit verschiedenen Themen aus. Variiere, wie knapp oder wie ausführlich die Angaben in den einzelnen Abschnitten formuliert sind.

B. Tools zur Prompt-Erstellung

Viele Standard-UIs von Chatbots bieten keine gute Unterstützung für längere Prompts. Es lohnt sich daher, einen Editor (oder ein ähnliches Tool) zum Schreiben von Prompts zu nutzen. Den fertigen Prompt kopierst du dann auf einen Schlag in den Chatbot.

Ein Editor macht es leichter, umfangreiche eigene Inhalte in den Prompt zu integrieren. Denke etwa an die stichwortartige Mitschrift eines Meetings, dass du mit Hilfe des LLM in ein strukturiertes Protokoll überführen willst.

Die meisten Chatbots zudem bieten die Möglichkeit, Vorgaben für Chats zu konfigurieren (z.B. Customize ChatGPT, Gemini: Saved info). Dies ist sehr nützlich, um sich nicht ständig zu wiederholen. Ich habe in meiner Konfiguration z. B. hinterlegt, dass ich Python als Programmiersprache bevorzuge, Listen und knappe Erklärungen bevorzuge und keine langen Erklärungen und Beispiele will.

C. Prompts testen und optimieren

Sobald Prompts regelmäßig verwendet werden, lohnt sich ein systematisches Testing. Du sparst damit Zeit, steigerst die Qualität und gewinnst Vertrauen in die Ergebnisse.

D. Typische Anwendungsbereiche

Die Anwendungsfälle für standardisierte Prompts sind vielfältig. Die folgende Liste zeigt ausgewählte Fragestellungen, die auf dieser Stufe adressiert werden können.

  • Erstellung von Blog- oder Social-Media-Inhalten
  • Gliederung komplexer Dokumente
  • Zusammenfassungen längerer Texte nach spezifischen Kriterien
  • Analyse von Webseiten, Dokumenten oder Bildern

Icon: MauersteineStufe 4: Datengetriebene Prompts – messen, analysieren, verbessern

Illustration im Comic-Style: Junger Mann arbeitet an Virtuellen Screens, Bots arbeiten ihm zu. Auf dieser Reifestufe nutzt du Metriken und Datenanalysen, um deine Prompts kontinuierlich zu verbessern. Statt Bauchgefühl und Trial-and-Error kommt ein Vorgehen ähnlich wie in der Softwareentwicklung zum Einsatz.

Die Leistung von Prompts wird systematisch mit Hilfe von Metriken und definierten Testfällen gemessen. Mittels Datenanalyse werden unterschiedliche Versionen des Prompts verglichen. In einem iterativen Prozess wird der effektivste Prompt entwickelt und optimiert. Eine Automatisierung dieses Verfahrens kann mit Hilfe fortgeschrittener Techniken wie der automatisierten Erstellung von Prompts erreicht werden.

Diese Stufe eignet sich besonders für KI-Anwendungen im Unternehmenskontext, bei denen Prompts für spezifische Aufgabenstellungen fest in eine Anwendung integriert werden. Die Nutzer müssen die Feinheiten des Prompts und seiner Erstellung nicht mehr verstehen und können sich ganz auf ihre fachlichen Tätigkeiten konzentrieren.

Fazit: Wie du mit dem PEMM-Modell deinen Umgang mit Prompts verbesserst

Die Fähigkeit, LLMs effektiv zu nutzen, wird für Wissensarbeiter:innen heute und in Zukunft eine zentrale Kompetenz sein. Mit dem Prompt Engineering Maturity Model geben wir dir ein praxisnahes Werkzeug an die Hand, um deine Kompetenz beim Schreiben von Prompts weiterzuentwickeln.

Die Beispiele in diesem Artikel konzentrieren sich auf Prompts für „normale“ Chatbots. Viele Chatbots bieten inzwischen komplexe Tools wie z. B. Canvas oder Deep Research an, die über einen einfachen Chat hinausgehen. Prompts für solche Tools können ebenfalls mit den vorgestellten Ideen und Methoden erstellt werden. Zusätzlich sind natürlich die spezifischen Eigenschaften des jeweiligen Tools zu berücksichtigen.

Wie in vielen Bereichen ist Learning by Doing und Erfahrung der Schlüssel zum Erfolg. Das Lesen von Artikeln oder Ansehen von Tutorial-Videos alleine reicht nicht aus. Beobachte, reflektiere und verfeinere deine eigene Praxis kontinuierlich.

Wenn wir dich mit diesem Artikel ein wenig unterstützen konnten, effektive Prompts zu schreiben, haben wir unser Ziel erreicht. Wenn du möchtest, gib uns gerne Feedback in den Kommentaren.


Die Bilder in diesem Artikel wurden mithilfe von Gemini generiert; Chat GPT half dabei, den Text hinsichtlich Lesefluss und SEO zu optimieren (und einige der aggressiveren Kürzungen und Zusammenfassungen wurden manuell wieder rückgängig gemacht)

Diese Artikel könnten dich auch interessieren:
To RAG or not to RAG (1/2)
Ein Bot mit echtem Security-Know-how
Was steckt hinter RAG und Semantischer Suche?

 

 

 

Alle Beiträge von Falk Schramm

Ausbildung als Diplom-Physiker. Geb. 1970. Meine beruflichen Interessen liegen vor allem im Bereich Informationssicherheit, IT-Sicherheit und technischem Datenschutz. Mit dem Erscheinen des Artikels "Attention is all you need" und den nachfolgenden Entwicklungen ist die Nutzung von KI-Technologien ein weiterer Interessensschwerpunkt geworden.

Schreibe einen Kommentar