Sampling-Methode, die nur aus den K wahrscheinlichsten nächsten Token auswählt.
Top-K-Sampling beschränkt die Auswahl auf die K Tokens mit den höchsten Wahrscheinlichkeiten und normalisiert die Verteilung über diese Kandidaten. So werden sehr unwahrscheinliche Tokens ausgeschlossen.
Ein niedriges K erzeugt konservativere Ausgaben, ein hohes K lässt mehr Variabilität zu. K=1 entspricht Greedy Decoding, das immer das wahrscheinlichste Token wählt.
Top-K hat den Nachteil, eine fixe Anzahl Kandidaten zu verwenden, unabhängig davon, wie spitz oder flach die Wahrscheinlichkeitsverteilung ist. Top-P adressiert dieses Problem adaptiv.
Sampling-Methode, die den kleinsten Token-Satz wählt, dessen kumulative Wahrscheinlichkeit P überschreitet.
Verfahren zur Token-Auswahl bei der Textgenerierung auf Basis der Wahrscheinlichkeitsverteilung des Modells.
Sampling-Parameter, der die Zufälligkeit der Token-Auswahl steuert — höher bedeutet kreativer.
Ein großes, auf Text trainiertes Sprachmodell — das Fundament moderner generativer KI.