ki.team
AgenturenKI-ToolsRessourcenGlossarÜber uns
Newsletter
ki.team

Dein deutschsprachiges Portal für Künstliche Intelligenz: aktuelle News, fundierte Analysen, Tutorials und Einblicke in die Welt der KI.

verzeichnisse

  • KI-Agenturen
  • KI-Tools
  • Ressourcen
  • Glossar

mitmachen

  • Agentur eintragen
  • Newsletter
  • Pro-Listing

rechtliches

  • Impressum
  • Datenschutz
  • Über uns

© 2026 ki.team. Alle Rechte vorbehalten.

RSS Feed
Zum Glossar
Evaluation

Perplexität (Perplexity)

Maß dafür, wie gut ein Sprachmodell eine Textsequenz vorhersagt — niedrigere Werte sind besser.

Perplexität ist das geometrische Mittel der inversen Wahrscheinlichkeit jedes Tokens in einem Testtext. Sie misst, wie überraschend der Text für das Modell ist.

Als intrinsische Metrik misst Perplexität die Modellqualität direkt auf Texten, ohne externe Aufgaben zu benötigen. Sie korreliert aber nicht immer mit der Downstream-Aufgabenleistung.

Perplexität ist modell- und tokenizer-spezifisch: Modelle mit unterschiedlichen Vokabularen können nicht direkt verglichen werden. Als Entwicklungsmetrik ist sie dennoch nützlich, um Training-Fortschritt zu verfolgen.

Verwandte Begriffe

  • Benchmark

    Standardisierter Datensatz und Metrik zur vergleichbaren Bewertung von KI-Modellen.

  • Large Language Model (LLM)

    Ein großes, auf Text trainiertes Sprachmodell — das Fundament moderner generativer KI.

  • Token

    Kleinste Verarbeitungseinheit eines Sprachmodells — meist Wortteile, Wörter oder Satzzeichen.

  • Verlustfunktion (Loss Function)

    Mathematische Funktion, die den Fehler zwischen Modellvorhersage und tatsächlichem Zielwert misst.