Was gehört in einen guten Prompt?

Ein Prompt ist mehr als eine Frage. Wer ein Large Language Model zuverlässig steuern will, gibt dem Modell vier Bausteine mit. In dieser Reihenfolge liefert das Modell die robustesten Ergebnisse:

  • Rolle & Tonalität: „Du bist erfahrener Steuerberater und antwortest sachlich auf Deutsch.“
  • Aufgabe: Was soll das Modell konkret tun? „Fasse den folgenden Bescheid in 5 Stichpunkten zusammen.“
  • Kontext & Daten: Hintergrundinfos, Dokumente oder Beispiele, auf die sich das Modell stützen darf.
  • Format der Antwort: Stichpunkte, JSON, Tabelle, max. Wortzahl – alles, was die Weiterverarbeitung erleichtert.

System-Prompt, User-Prompt und Assistent

Moderne LLM-APIs trennen einen Prompt technisch in drei Rollen. Wer das versteht, kann KI-Anwendungen deutlich stabiler bauen.

System Prompt

Vom Entwickler gesetzte Grundregel: Rolle, Tonalität, verbotene Themen, Antwortformat. Bleibt über die ganze Unterhaltung konstant.

User Prompt

Die konkrete Anfrage des Endnutzers – ändert sich mit jeder Interaktion und enthält den eigentlichen Auftrag.

Assistant Message

Die vorhergehenden Antworten des Modells. Sie wandern bei Folgefragen wieder in den Prompt und liefern Gesprächsgedächtnis.

Tool Calls

Bei KI-Agenten erweitern strukturierte Werkzeug-Aufrufe den Prompt – z. B. Datenbankabfragen oder Web-Suchen.

Gängige Prompt-Muster

In der Praxis haben sich einige Muster etabliert, die mit jedem Foundation Model funktionieren:

  • Zero-Shot: Aufgabe ohne Beispiel beschreiben. Funktioniert bei klar definierten Standardaufgaben („Übersetze ins Englische“).
  • Few-Shot: 2–5 Beispiele für Input und gewünschten Output mitgeben. Stabilisiert Format und Tonalität.
  • Chain-of-Thought: Modell explizit zum schrittweisen Denken auffordern („Denke Schritt für Schritt“). Hilfreich bei Rechen- und Entscheidungsaufgaben.
  • Role Prompting: Eine Expertenrolle vorgeben („Du bist DSGVO-Auditor“), um das Antwortverhalten in eine fachliche Richtung zu lenken.
  • RAG-Prompt: Der Prompt wird zur Laufzeit mit firmeninternen Dokumenten angereichert – Basis für vertrauenswürdige Antworten auf Unternehmensdaten.

Warum Prompts ein Unternehmensthema sind

Laut dem KI-Magazin (2026) ist der methodische Umgang mit Prompts zur Kernkompetenz der digitalen Arbeitswelt geworden – vergleichbar mit dem Beherrschen einer Excel-Formel vor 20 Jahren. Schlechte Prompts produzieren Halluzinationen, gute Prompts machen aus demselben Modell ein verlässliches Werkzeug. Für Unternehmen hat das drei Konsequenzen:

  • Prompt-Bibliotheken: Erprobte Prompts werden zum Asset – oft im selben Repository wie Code, mit Versionierung und Review.
  • Prompt-Schulungen: Mitarbeitende lernen, Aufgaben so zu formulieren, dass die KI sie zuverlässig löst – statt selbst zu raten.
  • Sicherheits-Guardrails: System-Prompts verhindern, dass Modelle DSGVO-Daten ausleiten oder von Nutzern manipuliert werden (Prompt Injection).

Häufige Fehler beim Prompten

  • Zu vage: „Schreib was zu KI“ liefert beliebige Texte. Präziser: Zielgruppe, Länge, Tonalität und Aufgabe mitgeben.
  • Kontext fehlt: Das Modell weiß nichts über Ihr Produkt. Relevante Hintergrundinfos gehören in den Prompt – oder per RAG automatisch dazu.
  • Kein Format definiert: Wer JSON braucht, muss es verlangen. Sonst kommt Fließtext, der sich nicht weiterverarbeiten lässt.
  • Ein Prompt für alles: Komplexe Aufgaben in Teilschritte zerlegen liefert deutlich bessere Ergebnisse als ein riesiger Mega-Prompt.

Verwandte Begriffe

Prompt-Bibliothek für Ihr Unternehmen aufbauen?

Gute Prompts sind kein Zufall, sondern systematische Arbeit. Wir entwickeln mit Ihrem Team wiederverwendbare Prompt-Vorlagen für Marketing, Buchhaltung oder Vertrieb – inklusive Sicherheits-Guardrails und Schulung.

Kostenlose Erstberatung vereinbaren