ki.team
AgenturenKI-ToolsRessourcenGlossarÜber uns
Newsletter
ki.team

Dein deutschsprachiges Portal für Künstliche Intelligenz: aktuelle News, fundierte Analysen, Tutorials und Einblicke in die Welt der KI.

verzeichnisse

  • KI-Agenturen
  • KI-Tools
  • Ressourcen
  • Glossar

mitmachen

  • Agentur eintragen
  • Newsletter
  • Pro-Listing

rechtliches

  • Impressum
  • Datenschutz
  • Über uns

© 2026 ki.team. Alle Rechte vorbehalten.

RSS Feed
Zum Glossar
LLM-Konzepte

Kontextfenster (Context Window)

Maximale Anzahl Token, die ein Sprachmodell in einem Durchlauf verarbeiten und berücksichtigen kann.

Das Kontextfenster definiert den 'Arbeitspeicher' eines Sprachmodells. Alles, was außerhalb liegt, ist für das Modell nicht direkt sichtbar und muss durch externe Mechanismen wie RAG eingebracht werden.

Größere Kontextfenster ermöglichen längere Dokumente, komplexere Konversationen und mehr Few-Shot-Beispiele. Der Rechenaufwand von Self-Attention wächst jedoch quadratisch mit der Kontextlänge.

Trotz großer Kontextfenster zeigen Modelle oft einen 'Lost in the Middle'-Effekt: Informationen in der Mitte langer Kontexte werden schlechter verarbeitet als am Anfang oder Ende.

Verwandte Begriffe

  • KV-Cache

    Zwischenspeicher für Key- und Value-Vektoren der Attention, der autoregressive Generierung beschleunigt.

  • Token

    Kleinste Verarbeitungseinheit eines Sprachmodells — meist Wortteile, Wörter oder Satzzeichen.

  • Retrieval-Augmented Generation (RAG)

    Architektur, die Sprachmodelle mit externer Wissenssuche kombiniert, um Antworten zu verankern.

  • Attention (Aufmerksamkeitsmechanismus)

    Mechanismus, der jedem Element einer Sequenz erlaubt, selektiv auf andere Elemente zu fokussieren.