Ob ChatGPT, Claude, Gemini oder Copilot: Die Funktion heißt unterschiedlich, der Effekt ist derselbe: Du gibst dem Modell einen stabilen Rahmen, damit du ihn nicht in jedem Prompt neu erklären musst. In diesem Artikel geht es um benutzerdefinierte Anweisungen, sogenannte persistente Anweisungen: Vorgaben, die ein LLM dauerhaft berücksichtigen soll, etwa Ton, Format, Detailgrad, Zielgruppe oder typische Aufgaben. Das gilt unabhängig vom Anbieter; mal heißen sie „Custom Instructions“, mal „Personal Instructions“, mal „Preferences“.
Wofür werden benutzerdefinierte Anweisungen genutzt?
Du kannst die Anweisungen nutzen, um Chatbots von einem „Allzweck-Antwortgeber“ zu einem verlässlichen Arbeitswerkzeug zu machen: Du legst damit einmal fest, wie das Modell antworten soll, damit der Output jedes Mal direkt verwendbar ist. Am häufigsten geht es um Format- und Qualitätsregeln, Stil und Ton, Zielgruppen-Ansprache und Rollen-/Kontextfokus. Viele nutzen es auch als Sicherheitsgeländer: Rückfragen bei Unklarheit, kein Raten, sensible Daten meiden. Der gemeinsame Zweck ist immer derselbe: weniger Wiederholung, weniger Nachprompten, mehr Konsistenz, weil die Präferenzen nicht bei jeder Anfrage neu verhandelt werden müssen. In ChatGPT etwa werden solche „Custom Instructions“ zentral hinterlegt und dann auf Gespräche angewendet, statt sie jedes Mal in den Prompt zu schreiben.
Typische Use Cases
Um zu verdeutlichen, wie die benutzerdefinierten Anweisungen im alltäglichen Umgang mit LLMs helfen können, hier ein paar konkrete Use Cases:
Arbeitsmodus für verwertbare Antworten
Immer gleiches Output-Format: Kernaussage → 3 Optionen → Risiken → Next Steps. Weniger Nachfragen, weniger „Textwände“.
Ton und Schreibstil dauerhaft festlegen
z. B. „kurz, sachlich, ohne Buzzwords, deutsch“, oder „freundlich, empathisch, du-Form“. Spart 80 % Stilkorrekturen.
Zielgruppen-Übersetzer
„Erkläre alles für ambitionierte Laien / Entscheider, definiere Fachbegriffe beim ersten Auftauchen.“ Macht Inhalte sofort teilbar.
Rollen-/Fokus-Persona für wiederkehrende Aufgaben
Z. B. „Agiere als Projektmanager: strukturiere Aufgaben, Risiken, Verantwortliche.“ Oder „als Redakteur: Headline-Varianten, klare These, keine Füllsätze.“
Qualitätssicherung und „Safety-Rails“
„Wenn Infos fehlen: stelle 1 bis 2 Rückfragen. Wenn unsicher: sag es. Keine Spekulation.“ Reduziert Halluzinationen und falsche Sicherheit.
Sprach- und Formatstandards für den Alltag
z. B. „immer Markdown mit Überschriften“, „immer Bulletpoints“, „immer Tabelle für Vergleiche“, „immer kurze Zusammenfassung am Ende“.
Wie könnte ein Systemprompt aussehen?
Und jetzt mal die Karten auf den Tisch: Wie könnte eine persistierende Anweisung konkret aussehen? Klar ist: Jede Person, die LLMs anwendet, hat einen eigenen Stil. Aber um eine Idee zu bekommen, ist ein solch beispielhafter Systemprompt vielleicht ganz nützlich:
Antworte standardmäßig kurz, strukturiert und umsetzbar.
FORMAT
1) Kernaussage in 1 Satz
2) 3 Optionen (je 1–2 Sätze)
3) Risiken/Trade-offs (max. 3 Bulletpoints)
4) Next Steps (max. 5 Bulletpoints, konkret)
REGELN
- Keine Floskeln, keine Wiederholung meiner Frage.
- Wenn Informationen fehlen: stelle max. 2 Rückfragen statt zu raten.
- Wenn du unsicher bist: sag es klar.
Wo werden die benutzerdefinierten Anweisungen hinterlegt?
Benutzerdefinierte, persistente Anweisungen werden nicht im Chatfenster, sondern in den Einstellungen unter “Personalisierung” hinterlegt – entweder in der Benutzeroberfläche (UI) oder im Code über eine Programmierschnittstelle (API). Für Endanwender heißt das: Du trägst deine Vorgaben in der App/Website in den Personalisierungs-Einstellungen ein; sie sind an dein Konto gebunden und werden anschließend automatisch auf neue Gespräche angewendet, ohne dass du sie jedes Mal erneut schreiben musst.
In Entwickler-Setups passiert dasselbe Prinzip technisch: Dort wird die Anweisung als Systemnachricht/System Prompt in jede Anfrage eingebaut, meist serverseitig oder in einem Workflow-Tool, damit alle Nutzer und Sessions konsistent nach denselben Regeln laufen.
Wie viele Anweisungen kann ich nutzen – und wie wechsle ich sie?
In den meisten LLM-Apps hast du einen Bereich für persistente Anweisungen. Dort kannst du aber mehrere Regeln als Bulletpoints hinterlegen – eine Anweisung, viele Unterpunkte. Wenn du verschiedene Modi brauchst (z. B. Arbeitsmodus vs. Kreativmodus), kannst du den Text manuell umschalten, indem du die Anweisung in den Einstellungen austauschst. Praktisch ist ein einfacher Workflow: Lege dir 2 bis 3 fertige Anweisungsblöcke als Textbausteine (z. B. in Notion / OneNote / Word) ab und kopiere bei Bedarf den passenden Block in die Einstellungen.
UI vs. API
Wichtig ist der Unterschied zwischen UI (User Interface – Benutzeroberfläche) und API (Application Programming Interface – Programmierschnittstelle), weil er erklärt, wo du persistente Anweisungen überhaupt setzt. Wenn du ein LLM ganz normal über die Website oder App nutzt, arbeitest du in der UI: Du trägst deine Anweisungen einmal in den Einstellungen ein und sie gelten automatisch für neue Chats. Die API ist die Programmierschnittstelle – die nutzt du, wenn du selbst etwas baust oder automatisierst (z. B. ein internes Tool, einen Workflow, ein Skript).
Tipps zum Hinterlegen von Systemprompts
1. Formulierung
Schreibe Anweisungen so, dass das Modell genau weiß, was du willst. Das klappt am besten mit klaren, positiven Regeln („Antworte in 5 Bulletpoints“, „Stelle Rückfragen bei Lücken“) statt mit Verboten („nicht so lang“, „keine schlechten Antworten“). Halte die Anweisung kurz und priorisiere: lieber 5 starke Regeln als 20 mittelklare. Nach dem Speichern sofort mit 2–3 typischen Fragen testen, ob Format, Ton und Detailgrad wirklich greifen.
2. Datenschutz
Behandle persistente Anweisungen wie normale Arbeitsdaten. Keine Passwörter, keine Gesundheitsdaten, keine personenbezogenen Informationen von Kunden oder Mitarbeitenden. Wenn du in einem Team arbeitest, schreibe nichts hinein, das nicht auch in einem internen Handbuch stehen dürfte. Nutze Platzhalter („Kunde A“, „Projekt X“) und verlagere sensible Details in den konkreten Chat – oder besser in sichere, freigegebene Systeme.
3. Testing und Betrieb
Änderungen am Systemprompt sollten nicht „live“ passieren. Teste neue Versionen zuerst in einer kleinen Sandbox (separater Testchat oder Testprofil) mit immer denselben Standardfällen. Lege 1 bis 2 Beispielantworten als Referenz fest („so soll es aussehen“) und versioniere deine Prompts (v1, v2, v3), damit du bei Problemen schnell zurückspringen kannst. Nach dem Ausrollen kurz beobachten, ob die Regeln stabil eingehalten werden und dann erst weiter schärfen.
Der nächste Schritt: Agenten statt nur Anweisungen
Persistente Anweisungen sorgen für konsistente Antworten. Wenn du wiederkehrende Aufgaben nicht nur „gleich beantworten“, sondern automatisch abarbeiten lassen willst, kommst du zum nächsten Reifegrad: Agenten. Ein Agent ist mehr als „gutes Prompting“. Er ist ein System, das nicht nur antwortet, sondern Arbeit ausführt. Ein Agent hat ein Ziel, folgt einer Ablauflogik, kann je nach Plattform auf Tools zugreifen (z. B. Dateien, Kalender, E-Mail, Web, Apps) und liefert am Ende ein Ergebnis, nicht nur Text.
In der Praxis ist das der Übergang von „Antworten bekommen“ zu Automatisierungslösungen: wiederkehrende Abläufe werden als Workflow modelliert und vom Agenten (teil-)autonom abgearbeitet. Typische Muster sind etwa „Input prüfen → Informationen ziehen → Entscheidungsvorschlag erstellen → Rückfragen stellen → Output in ein Zielsystem schreiben“. Je nach Reifegrad reicht das von einfachen Vorlagen (Agent führt dich Schritt für Schritt) bis zu echter Prozessautomatisierung über Tools wie Power Automate, n8n, Zapier oder über interne APIs. Der Mehrwert: weniger Kontextwechsel, weniger manuelle Übergaben, mehr reproduzierbare Qualität.
Fazit
Persistente Anweisungen sind der schnellste Weg, ein LLM von „irgendwie hilfreich“ zu „verlässlich nützlich“ zu bringen. Sie sparen Zeit, weil Ton, Format und Qualitätsregeln nicht bei jeder Anfrage neu erklärt werden müssen und sie erhöhen die Konsistenz, weil das Modell einen stabilen Rahmen hat. Der wichtigste Erfolgsfaktor ist dabei nicht Kreativität, sondern Klarheit: wenige, priorisierte Regeln, die du testest und bei Bedarf nachschärfst. Wer das sauber macht, bekommt weniger Nachprompten, weniger Textmüll und deutlich mehr Output, der sich direkt verwenden lässt. Wenn daraus wiederholbare Abläufe werden sollen, ist der nächste Schritt naheliegend: Agenten, die diese Regeln mit Zielen, Tools und Workflow-Logik verbinden und Aufgaben (teil-)automatisiert abarbeiten.
FAQs
Kann ich mehrere persistente Anweisungen gleichzeitig nutzen?
Meist gibt es pro Konto nur einen Anweisungsbereich, aber darin kannst du mehrere Regeln als Bulletpoints hinterlegen. Für unterschiedliche Modi speicherst du 2 bis 3 Varianten als Textbausteine und tauschst sie bei Bedarf aus.
Was ist der Unterschied zwischen persistenter Anweisung und normalem Prompt?
Ein normaler Prompt gilt nur für die aktuelle Anfrage. Persistente Anweisungen setzen einen dauerhaften Rahmen für Ton, Format und Verhalten über viele Anfragen hinweg.
Was sollte ich niemals in persistente Anweisungen schreiben?
Keine Passwörter, keine Gesundheitsdaten und keine personenbezogenen Daten (z. B. Kundennamen, private Kontaktinfos). Nutze Platzhalter und füge sensible Details nur dort ein, wo es wirklich nötig und freigegeben ist.
Wann reichen Anweisungen nicht mehr aus und wann brauche ich Agenten/Automatisierung?
Wenn du nicht nur Antworten willst, sondern wiederkehrende Abläufe zuverlässig abarbeiten lassen möchtest (z. B. prüfen → zusammenfassen → entwerfen → ins Tool übertragen). Dann sind Agenten/Workflows sinnvoll, weil sie Ziele, Schritte und Tool-Zugriffe kombinieren.








