Fähigkeit eines Modells, Aufgaben ohne Beispiele allein aufgrund von Beschreibungen zu lösen.
Zero-Shot Learning bedeutet, dass das Modell eine neue Aufgabe nur anhand ihrer Beschreibung im Prompt löst, ohne vorige Beispiele zu sehen. Dies setzt breites Vorwissen aus dem Pretraining voraus.
Große Sprachmodelle zeigen beeindruckende Zero-Shot-Fähigkeiten: Sie können übersetzen, zusammenfassen oder klassifizieren, ohne dass dafür spezifische Beispiele nötig sind.
Die Grenze zwischen Zero-Shot und Few-Shot ist fließend. Instruction-tuned Modelle wurden auf so vielen Aufgaben trainiert, dass auch 'Zero-Shot'-Prompts implizit auf gelernte Muster zurückgreifen.
Methode, bei der dem Modell wenige Beispiele im Prompt mitgegeben werden, um das gewünschte Format zu zeigen.
Texteingabe, mit der ein Sprachmodell zu einer bestimmten Ausgabe angeleitet wird.
Ein großes, auf Text trainiertes Sprachmodell — das Fundament moderner generativer KI.
Prompting-Technik, bei der das Modell Zwischenschritte des Denkprozesses explizit ausformuliert.