Autor: Simon Sterneder Lesedauer: 13 Minuten
Große Sprachmodelle wie ChatGPT entfalten ihr volles Potenzial erst, wenn sie klar verstehen, was wir von ihnen erwarten. Ein sauber formuliertes Prompt entscheidet darüber, ob das Modell nur oberflächliche Stichpunkte liefert oder eine präzise, gut strukturierte Antwort. Dieser Beitrag zeigt, wie du Eingaben so gestaltest, dass sie den Kontext abbilden, Rollen klären und einen überprüfbaren Handlungsrahmen schaffen.
Falls dir die Funktionsweise von LLMs noch nicht ganz vertraut ist, empfehle ich vorab meinen Artikel „Was sind LLMs? Sprachmodelle wie ChatGPT einfach erklärt“. Dort findest du einen kompakten Überblick zur Technik, zu Einsatzszenarien – und zu den Grenzen der Modelle.
Im Anschluss steigen wir direkt in die Praxis ein: Von konkreten Formulierungsbeispielen bis zu fortgeschrittenen Konzepten wie Few-Shot-Prompting, Chain-of-Thought und System-Prompts. Ein eigener Abschnitt widmet sich typischen Fehlern – etwa widersprüchlichen Anforderungen oder fehlenden Kontextangaben – und zeigt Strategien, sie zu vermeiden. Abgerundet wird der Leitfaden durch praktische Anwendungsfälle, nützliche Extensions und eine kurze Werkzeugliste für strukturiertes Prompt Engineering.
Ob du Texte erstellst, Code überprüfst oder komplexe Recherchen beschleunigst – präzises Prompting ist der entscheidende Hebel, um KI nicht nur einzusetzen, sondern gewinnbringend zu integrieren. Dieses Tutorial liefert das notwendige Rüstzeug.
Inhalt
- Einstieg: Warum gutes Prompting wichtig ist
- Kurzer Abstecher: Was LLMs eigentlich sind
- Die Basics: So promptest du richtig
- Fortgeschrittene Prompting-Techniken
- Typische Prompt-Fails
- Prompting für verschiedene Ziele
- Tools, Tipps & Hacks
- Fazit: Prompten ist ein lernbarer Skill
1. Einstieg: Warum gutes Prompting wichtig ist
Große Sprachmodelle sind im Kern Wahrscheinlichkeitsmaschinen: Sie berechnen, welches Wort mit welcher Wahrscheinlichkeit als Nächstes folgen sollte. Damit diese Prinzip nützliche Ergebnisse liefert, brauchen sie einen klaren Rahmen – den Prompt. Er fungiert als Aufgabenbeschreibung, Kontext und Qualitätsmaßstab zugleich.
Kurzdefinition: Ein Prompt ist die textuelle Eingabe, die ein KI-Modell erhält, um daraus eine Antwort zu generieren. Je präziser, strukturierter und zielgerichteter dieser Input ist, desto höher die Chance auf ein relevantes Ergebnis.
1.1 Von „Okay“ zu „Wow“ – der Qualitätshebel
Ein und dieselbe Frage kann völlig unterschiedliche Resultate erzeugen, je nachdem, wie sie formuliert ist:
| Prompt | Typisches Ergebnis |
|---|---|
| „Erzähl mir was über Hunde.“ | Allgemeiner Überblick in ein bis zwei Absätzen |
| „Verfasse einen Instagram-Post (max. 120 Wörter) über faulenzende Dackel, im Reimstil, sympathisch-humorvoll, mit drei passenden Emojis.“ | Pointierter Reim-Post inklusive Emojis und passender Tonalität |
Der Unterschied liegt nicht in der Leistungsfähigkeit des Modells, sondern in der Detailtiefe des Prompts: Ziel, Umfang, Stil und Kontext sind klar definiert, sodass das Modell die Erwartung exakt treffen kann.
1.2 Analogie: Die KI als Barista
Stell dir ChatGPT als Barista vor. Sagst du lediglich „Kaffee, bitte“, bekommst du vermutlich einen mittelstarken Filterkaffee – nicht schlecht, aber vielleicht nicht das, was du dir vorgestellt hast. Beschreibst du stattdessen:
„Einen Flat White mit Hafermilch, auf 60 °C erhitzt und mit Latte Art.“
…steigt die Wahrscheinlichkeit, dass du genau das Getränk erhältst, das du möchtest. Die Maschine bleibt dieselbe, die Bestellung macht den Unterschied.
1.3 Drei Gründe für präzises Prompting
- Effizienz: Ein klarer Auftrag reduziert Rückfragen und Korrekturschleifen.
- Qualität: Konkrete Parameter wie Länge, Stil oder Zielgruppe erhöhen die Passgenauigkeit der Antwort.
- Nachvollziehbarkeit: Gut dokumentierte Prompts lassen sich reproduzieren und als Templates wiederverwenden – hilfreich für Teams und wiederkehrende Aufgaben.
2. Kurzer Abstecher: Was LLMs eigentlich sind
Falls dir die Funktionsweise von Large Language Models (LLMs) noch nicht ganz vertraut ist, findest du einen ausführlichen Überblick in meinem Beitrag „Was sind LLMs? Sprachmodelle wie ChatGPT einfach erklärt“. Dort erfährst du unter anderem
- wie sich LLMs in die KI-Landschaft einordnen,
- welche Technik (Tokens, Transformer, Training) dahintersteckt,
- welche Anwendungsfelder und Risiken bereits heute sichtbar sind,
- und wohin die weitere Entwicklung führen könnte.
Mit diesem Hintergrundwissen wird klarer, warum die Qualität des Prompts maßgeblich bestimmt und was das Modell mit welchen Daten tut. In den nächsten Kapiteln konzentrieren wir uns deshalb darauf, wie du diesen Hebel gezielt einsetzen kannst.
3. Die Basics: So promptest du richtig
Ein guter Prompt besteht aus drei Bausteinen: Klarheit, Kontext und Struktur. Beherrschst du diese Grundregeln, holst du aus nahezu jedem LLM bereits deutlich mehr heraus.
3.1 Klarheit – präzise Zielvorgabe
Je genauer du formulierst, was du möchtest, für wen und in welchem Format, desto verlässlicher trifft die KI deine Erwartungen.
| Vage Formulierung | Präzise Formulierung |
|---|---|
| „Schreib was über Hunde.“ | „Verfasse einen informativen Blogabsatz (max. 120 Wörter) über die fünf beliebtesten Hunderassen in Deutschland, Zielgruppe: Ersthund-Besitzer, Ton: sachlich-freundlich.“ |
Tipp: Nenne unbedingt Umfang (z. B. Zeichen- oder Wortzahl), Zielgruppe und gewünschte Tonalität.
3.2 Kontext und Rollen – die Perspektive festlegen
LLMs können ihren eigenen Standpunkt annehmen, wenn du ihn vorgibst. Formuliere deshalb eine Rolle und den Einsatzkontext:
Du bist ein*e erfahrene*r Reiseblogger*in, spezialisiert auf günstige Backpacking-Routen in Südostasien. Erstelle eine Packliste für einen dreiwöchigen Trip in Thailand im April, Budget < 1 000 €.
Die KI weiß nun:
- Rolle: Reiseblogger*in
- Fachgebiet: Backpacking in Südostasien
- Aufgabe: Packliste
- Randbedingung: maximal 1 000 € Budget
3.3 Struktur – gliedere deinen Prompt
Gliedere komplexe Anforderungen in übersichtliche Abschnitte:
- Aufgabe: „Erstelle eine Packliste …“
- Kontext: „… für einen dreiwöchigen Trip in Thailand …“
- Constraints: „… Budget < 1 000 €.“
- Formatvorgabe: „Liste in Tabellenform, Spalten: Gegenstand | Gewicht | Kosten.“
Solche klaren Blöcke helfen dem Modell, alle Parameter zu berücksichtigen – und dir, die Ausgabe leichter zu prüfen.
3.4 Vorher–Nachher: zwei Beispiele
Beispiel A
Vorher-Prompt:
Schreib eine Produktbeschreibung für einen Laptop.
Typisches Ergebnis:
Ein kurzer allgemeiner Absatz, oft ohne Zielgruppenbezug.
Nachher-Prompt:
Schreibe eine Produktbeschreibung (max. 90 Wörter) für einen 14-Zoll-Laptop,
Zielgruppe: Studierende, Fokus: lange Akkulaufzeit und geringes Gewicht,
Stil: überzeugend, aber neutral.
Ergebnis:
Kompakte Beschreibung mit klarem Nutzenversprechen, sprachlich auf Studierende zugeschnitten.
Beispiel B
Vorher-Prompt:
Erklär Blockchain.
Typisches Ergebnis:
Allgemeine, abstrakte Erklärung ohne Bezugspunkte.
Nachher-Prompt:
Du bist IT-Dozent*in. Erkläre einer berufsbegleitenden Klasse ohne Vorkenntnisse
in maximal 200 Wörtern, wie eine Blockchain funktioniert. Verwende eine Alltagsanalogie
und gib ein Beispiel aus der Logistik.
Ergebnis:
Verständliche Kurzdefinition mit anschaulicher Analogie („öffentlicher Notizblock“)
und konkretem Logistikbeispiel.
Mit Klarheit, Kontext und strukturierter Aufgabenbeschreibung legst du den Grundstein für qualitativ hochwertige Antworten. Im nächsten Kapitel gehen wir einen Schritt weiter und schauen uns an, wie Few-Shot- und Chain-of-Thought-Techniken die Resultate nochmals verfeinern können.
4. Fortgeschrittene Prompting-Techniken
Die Basiselemente Klarheit, Kontext und Struktur decken bereits viele Anwendungsfälle ab. Für spezielle Aufgaben oder besonders hohe Qualitätsansprüche gibt es jedoch erweiterte Strategien, mit denen sich Large Language Models gezielt steuern lassen.
4.1 Few-Shot Prompting – Lernen am Beispiel
Prinzip: Gib dem Modell ein bis drei beispielhafte Eingabe-Antwort-Paare mit, bevor du deine eigentliche Aufgabe stellst. So lernt es aus dem „Mini-Datensatz“ und passt Stil, Struktur oder Lösungsweg an.
Beispiel: Produktbewertungen zusammenfassen
Beispiel 1
Input: "Sehr schneller Versand, Laptop läuft ruhig und bleibt kühl."
Output: "Positives Highlight: leiser und kühler Betrieb, schneller Versand."
Beispiel 2
Input: "Akkulaufzeit leider nur sechs Stunden, sonst zufrieden."
Output: "Negativ: kurze Akkulaufzeit; Positiv: insgesamt zufriedenstellend."
Aufgabe
Input: "Display spiegelt im Sonnenlicht, aber Tastatur fühlt sich hochwertig an."
=> Erstelle eine Zusammenfassung wie in den Beispielen.
Vorteil: Konsistente Ausgabeformate ohne aufwendiges Fine-Tuning.
Grenze: Zu viele Beispiele vergrößern den Prompt, was Kontextbudget kostet.
4.2 Chain-of-Thought – „Denk laut“
Prinzip: Bitte das Modell, Zwischenschritte explizit aufzuschreiben. Das erhöht die Chance, dass komplexe Aufgaben richtig gelöst werden – etwa Logik- oder Rechenprobleme.
Aufgabe
Berechne in einem Schritt-für-Schritt-Ansatz, wie viele Minuten in 7 Tagen liegen.
Erwartete Antwort
1. Ein Tag hat 24 Stunden.
2. 24 Stunden × 60 Minuten = 1 440 Minuten pro Tag.
3. 1 440 Minuten × 7 Tage = 10 080 Minuten.
Ergebnis: 10 080 Minuten.
Vorteil: Höhere Transparenz und Fehlerkontrolle.
Grenze: Längere, manchmal redundant wirkende Outputs.
4.3 System-Prompts und Rollenverteilung
LLM-APIs (z. B. OpenAI, Anthropic) unterscheiden häufig zwischen system, user und assistant Nachrichten. Ein System-Prompt definiert dabei die übergeordnete Rolle oder Verhaltensgrenze des Modells.
System
"Du bist ein technischer Redakteur. Antworte stets präzise, verwende Deutsch und liefere bei Fakten eine Quellenangabe im APA-Stil."
User
"Fasse die Hauptunterschiede zwischen GPT-4 und LLaMA 3 in 120 Wörtern zusammen."
Assistant
(Output folgt den Vorgaben: präzise, Deutsch, inkl. APA-Quellenangabe)
Best Practice
- System-Prompt: Dauerhafte Regeln und Stilvorgaben.
- User-Prompt: Konkrete Aufgabe und Kontext.
- Assistant-Prompt (optional): Platz für Zwischenfragen oder Klarstellungen.
4.4 Techniken kombinieren
In der Praxis lassen sich diese Strategien mischen:
- System: Rolle und Stil festlegen
- Few-Shot: Beispiele beifügen
- User: Aufgabe mit Chain-of-Thought-Aufforderung
So entsteht ein mehrschichtiger Prompt, der Klarheit, Konsistenz und Transparenz vereint.
5. Typische Prompt-Fails – und wie du sie vermeidest
Selbst leistungsstarke Modelle scheitern, wenn die Eingabe unpräzise, widersprüchlich oder unvollständig ist. Drei Fehler treten besonders häufig auf – und lassen sich mit wenigen Anpassungen abstellen.
5.1 Zu vage oder widersprüchlich
Vorher-Prompt
Schreib einen kurzen Artikel über erneuerbare Energien. Mach ihn technisch, aber leicht verständlich.
Problem
„Kurz“, „technisch“ und „leicht verständlich“ sind konkurrierende Anforderungen. Das Modell muss raten, welcher Aspekt Priorität hat.
Nachher-Prompt
Verfasse einen Artikel von maximal 300 Wörtern zum Thema „Photovoltaik in Wohngebäuden“. Zielgruppe: private Hausbesitzer ohne technisches Vorwissen. Erkläre Funktionsprinzip, Kostenfaktoren und Fördermöglichkeiten jeweils in einem Absatz.
Effekt
Länge, Thema, Zielgruppe und Struktur sind klar definiert; die KI kann fokussiert antworten.
5.2 Fehlender Kontext
Vorher-Prompt
Mach das wie beim letzten Mal, aber kürzer.
Problem
Das Modell hat keine Erinnerung an eine vorherige Sitzung und kennt „das letzte Mal“ nicht.
Nachher-Prompt
Erstelle erneut eine dreistufige Checkliste zur Barrierefreiheit für Websites, diesmal mit maximal 120 Wörtern.
Effekt
Alle relevanten Informationen (Aufgabe, Thema, Format, Längenvorgabe) sind im Prompt enthalten.
5.3 Unklare Zielsetzung
Vorher-Prompt
Hilf mir bei meinem Lebenslauf.
Problem
Ohne Details weiß das Modell nicht, ob es um Layout, Inhalt oder Stil geht – und für welche Branche.
Nachher-Prompt
Optimiere den folgenden Lebenslauf für eine Bewerbung als Data-Analyst. Fokussiere auf messbare Erfolge, streiche irrelevante Stationen und halte die Gesamtlänge unter zwei Seiten. Quelltext folgt …
Effekt
Die KI hat eine klare Aufgabe (Optimieren), kennt Zielrolle, Schwerpunkte und Längenlimit.
Merksatz: Jeder Prompt sollte in sich geschlossen sein, sodass ein fremdes System – ohne weitere Rückfragen – exakt versteht, was, für wen und in welchem Format geliefert werden soll. In den nächsten Kapiteln schauen wir uns an, wie du Prompts gezielt für verschiedene Einsatzszenarien (Kreativität, Recherche, Code u. a.) anpasst.
6. Prompting für verschiedene Ziele
Die optimale Formulierung hängt stark davon ab, was du mit dem Modell erreichen möchtest. Im Folgenden findest du bewährte Prompt-Muster für vier typische Szenarien.
6.1 Kreativität: Texte, Ideen, Konzepte
Ziel
Inhalte mit eigenem Stil oder frischem Blickwinkel erzeugen – etwa Social-Media-Posts, Story-Entwürfe oder Slogans.
Prompt-Beispiel
Du bist Werbetexter*in. Verfasse drei Slogans (max. 12 Wörter) für eine Kampagne, die vegane Energy-Riegel bewirbt. Zielgruppe: Studierende, Tonfall: selbstbewusst, humorvoll, deutsch.
Tipps
- Rolle klar definieren („Werbetexter*in“)
- Zielgruppe, Tonfall und Länge festlegen.
- Variantenzahl nennen, um Auswahl zu bekommen.
6.2 Recherche & Zusammenfassungen
Ziel
Schnellen Überblick gewinnen oder längere Texte kondensieren, ohne den roten Faden zu verlieren
Prompt-Beispiel
Fasse die Kernaussagen des Artikels (URL folg) in maximal 150 Wörtern zusammmen. Formatiere die Ausgabe als nummerierte Liste mit Quellenangaben am Ende in Klammern.
Tipps
- Wortlimit und Format (Liste, Absatz, Bullet Points) angeben.
- Bei externen Quellen um Quellenangaben bitten, um Transparenz zu erhöhen.
- Falls nötig: „Erkläre Fachbegriffe in einem Glossar mit maximal 20 Wörtern pro Begriff.“
6.3 Code & Debugging
Ziel
Fehler finden, Code verbessern oder komplexe Funktionen erläutern.
Prompt-Beispiel
Analysiere den folgenden Python-Code (siehe unten).
1. Erkläre Schritt für Schritt, was er macht.
2. Zeige potenzielle Laufzeit- oder Sicherheitsprobleme auf.
3. Schlage Optimierungen vor und liefere den überarbeiteten Code.
Tipps
- Eingabe in nummerierte Teilaufgaben gliedern (Analyse -> Problme -> Lösung).
- Programmiersprache und Konventionen nennen (PEP 8, ES6 u. a.).
- Ergebnis als diff oder kommentierten Code verlangen, um Änderungen sichtbar zu machen.
6.4 Lernen & Alltagshilfe
Ziel
Wissen vertiefen, Übungen erhalten oder Aufgaben des täglichen Lebens strukturieren
Prompt-Beispiel
Du bist Sprachtrainer*in. Erstelle ein 10-Fragen-Quiz zum Thema „Französische Vergangenheitsformen“ auf A2-Niveau. Gib nach jeder Frage vier Antwortmöglichkeiten (A–D) und löse erst am Ende auf.
Tipps
- Lernniveau, Format und Umfang klar angeben.
- Für To-Do-Listen oder Planungen konkrete Prameter nennen (Zeitraum, Budget, Präferenzen).
- Bei sensiblen Themen (z.B. Gesundheit) Disclaimer oder Verweis auf Fachleute hinzufügen.
Mit diesen Mustern passt du Prompts gezielt an dein Ziel an – egal, ob du kreative Texte, sauberen Code oder eine kompakte Zusammenfassung brauchst. Im nächsten Abschnitt folgt eine Auswahl nützlicher Tools und Erweiterungen, die das Prompting zusätzlich erleichtern.
7. Tools, Tipps & Hacks
Selbst das beste Prompt-Handwerk profitiert von passenden Werkzeugen. Die folgenden Lösungen helfen dir, Prompts zu verwalten, Workflows zu automatisieren und KI noch nahtloser in den Alltag einzubinden.
7.1 Prompt-Bibliotheken und Vorlagen
| Tool | Kurzbeschreibung | Besonderheiten |
|---|---|---|
| PromptBase | Marktplatz für geprüfte Prompts (kostenpflichtig & kostenlos) | Suchfilter nach Use-Case, Modell und Sprache |
| FlowGPT | Community-Sammlung mit Bewertungssystem | Versionierung, Diskussionen, Freigabe unter CC-Lizenzen |
| Awesome ChatGPT Prompts (GitHub) | Kuratierte Liste mit Hunderten Rollen-Prompts | Open Source, Pull-Requests willkommen |
Tipp: Nutze Vorlagen als Ausgangsbasis, passe jedoch Kontext, Zielgruppe und gewünschtes Format immer an dein Szenario an.
7.3 Prompt Engineering leicht gemacht
| Tool / Framework | Zielgruppe | Key-Features |
|---|---|---|
| LangChain (Python/JS) | Dev-Teams | Verkettet LLM-Aufrufe mit Datenquellen & Tools; ideal für Agent-Workflows |
| LlamaIndex | Dev-Teams | Retrieval-Augmented Generation (RAG) ohne großen Boilerplate-Code |
| OpenAI GPTs | No-Code | Eigene ChatGPT-Instanzen mit Custom Instructions, Dateiupload und Actions |
| Zapier AI Actions | No-/Low-Code | LLM-Funktionen in Automationen integrieren (E-Mails, Sheets, Slack) |
| Notion AI Templates | Knowledge-Worker | Vorgefertigte Prompts für Meeting-Notizen, Roadmaps, Projektpläne |
| Canva Magic Write | Content-Creator | KI-Copywriting direkt in Design-Workflows; vordefinierte Tone-Presets |
Mit diesen Tools und Hacks behältst du den Überblick über deine Prompts, reduzierst manuelle Arbeitsschritte und verbesserst die Konsistenz deiner KI-Outputs. Im abschließenden Kapitel fassen wir noch einmal zusammen, wie du die hier vorgestellten Prinzipien zu einer nachhaltigen Prompt-Strategie kombinierst.
8. Fazit: Prompten ist ein lernbarer Skill
Präzises Prompting entscheidet darüber, ob generative KI ein nettes Gimmick bleibt oder zu einem produktiven Werkzeug wird. Die wichtigsten Erkenntnisse aus diesem Leitfaden lassen sich in drei Leitsätzen bündeln:
Klarheit schlägt Kreativität
Eine eindeutige Aufgabenbeschreibung (Ziel, Umfang, Stil, Format) ist die Voraussetzung für verlässliche Ergebnisse. Erst wenn das Fundament steht, lohnt sich spielerisches Experimentieren.Kontext schafft Relevanz
Rollenangaben, Zielgruppenbeschreibungen oder Hintergrundinformationen lenken das Modell, damit es nicht nur „irgendeine“ Antwort liefert, sondern deine Aufgabenstellung trifft.Struktur bringt Skalierbarkeit
Ob Few-Shot-Beispiele, Chain-of-Thought-Anweisungen oder System-Prompts: Wer seine Eingaben systematisch gliedert, reduziert Korrekturschleifen, kann Prompts versionieren und im Team teilen.
Praxis-Tipp: Verwalte deine erfolgreichsten Prompts wie Code: versioniert, dokumentiert und mit kurzen Kommentaren, warum sie funktionieren. So baust du dir Schritt für Schritt eine persönliche Prompt-Bibliothek auf.
Ausblick
Die Modelle werden größer, leistungsfähiger und multimodal – doch der Hebel bleibt derselbe: das Wort, mit dem wir sie steuern. Je eher du beginnst, an klaren Formulierungen zu feilen, desto schneller profitierst du von den Fortschritten in der KI-Entwicklung.
Kurz gesagt: Prompten ist kein Hexenwerk, sondern ein Skill, der sich genau wie Schreiben, Programmieren oder Präsentieren durch Übung verbessert. Setze die hier vorgestellten Grundlagen und Techniken regelmäßig ein, experimentiere mit Tools & Templates – und beobachte, wie deine Ergebnisse von „ganz okay“ zu „Wow“ wechseln.

