Vorangestellte Anweisung, die Rolle, Verhalten und Grenzen eines KI-Assistenten definiert.
Der System-Prompt wird vor dem eigentlichen Nutzerdialog platziert und gibt dem Modell Kontext über seine Rolle, seinen Ton, seinen Wissensstand oder seine Beschränkungen.
In produktiven Anwendungen enthält der System-Prompt oft Persona-Definitionen, sicherheitsbezogene Guardrails und unternehmensspezifische Anweisungen. Er ist für den Endnutzer typischerweise nicht sichtbar.
Prompt-Injection-Angriffe versuchen, über Nutzereingaben den System-Prompt zu überschreiben oder zu umgehen. Robuste Systeme setzen mehrschichtige Schutzmaßnahmen ein.
Texteingabe, mit der ein Sprachmodell zu einer bestimmten Ausgabe angeleitet wird.
Technische und inhaltliche Schutzmaßnahmen, die unerwünschte KI-Ausgaben verhindern.
Angriff, bei dem bösartige Texteingaben das Verhalten eines KI-Systems manipulieren.
Ein großes, auf Text trainiertes Sprachmodell — das Fundament moderner generativer KI.