ki.team
AgenturenKI-ToolsRessourcenGlossarÜber uns
Newsletter
ki.team

Dein deutschsprachiges Portal für Künstliche Intelligenz: aktuelle News, fundierte Analysen, Tutorials und Einblicke in die Welt der KI.

verzeichnisse

  • KI-Agenturen
  • KI-Tools
  • Ressourcen
  • Glossar

mitmachen

  • Agentur eintragen
  • Newsletter
  • Pro-Listing

rechtliches

  • Impressum
  • Datenschutz
  • Über uns

© 2026 ki.team. Alle Rechte vorbehalten.

RSS Feed
Zum Glossar
LLM-Konzepte

Token

Kleinste Verarbeitungseinheit eines Sprachmodells — meist Wortteile, Wörter oder Satzzeichen.

Sprachmodelle verarbeiten Text nicht zeichenweise, sondern in Token-Einheiten. Ein Token entspricht je nach Sprache und Kontext einem Wort, einem Wortteil oder einzelnen Zeichen.

Tokenisierung beeinflusst, wie effizient ein Modell Texte verarbeitet. Komprimierte Sprachen wie Englisch benötigen weniger Token pro Information als agglutinative Sprachen.

Die Anzahl der Token im Kontextfenster bestimmt, wie viel Text ein Modell gleichzeitig verarbeiten kann. Kosten für API-Nutzung werden üblicherweise pro Token berechnet.

Verwandte Begriffe

  • Tokenizer

    Komponente, die Text in Token-Sequenzen umwandelt und damit die Modell-Eingabe vorbereitet.

  • Kontextfenster (Context Window)

    Maximale Anzahl Token, die ein Sprachmodell in einem Durchlauf verarbeiten und berücksichtigen kann.

  • Large Language Model (LLM)

    Ein großes, auf Text trainiertes Sprachmodell — das Fundament moderner generativer KI.

  • Embedding (Einbettung)

    Dichte Vektordarstellung von Text, Bildern oder anderen Daten in einem hochdimensionalen Raum.