ki.team
AgenturenKI-ToolsRessourcenGlossarÜber uns
Newsletter
ki.team

Dein deutschsprachiges Portal für Künstliche Intelligenz: aktuelle News, fundierte Analysen, Tutorials und Einblicke in die Welt der KI.

verzeichnisse

  • KI-Agenturen
  • KI-Tools
  • Ressourcen
  • Glossar

mitmachen

  • Agentur eintragen
  • Newsletter
  • Pro-Listing

rechtliches

  • Impressum
  • Datenschutz
  • Über uns

© 2026 ki.team. Alle Rechte vorbehalten.

RSS Feed
Zum Glossar
Architektur

Encoder

Transformerteil, der Eingabesequenzen in kontextuelle Repräsentationen umwandelt.

Der Encoder verarbeitet die gesamte Eingabesequenz bidirektional: Jedes Token kann auf alle anderen Tokens achten. Das Ergebnis sind kontextreiche Vektoren, die den Inhalt des Textes repräsentieren.

Encoder-only-Modelle wie BERT eignen sich besonders für Klassifikations- und Extraktionsaufgaben, bei denen das vollständige Verständnis der Eingabe wichtiger ist als die Textgenerierung.

In der klassischen Seq2Seq-Architektur kodiert der Encoder die Eingabe, die der Decoder dann nutzt, um die Ausgabe zu generieren. Reine Encoder werden heute häufig für Embedding-Modelle eingesetzt.

Verwandte Begriffe

  • Decoder

    Transformerteil, der autoregressive Ausgaben erzeugt, typischerweise Token für Token.

  • Transformer

    Dominante neuronale Netzwerkarchitektur für Sprache, Bild und mehr, basierend auf dem Attention-Mechanismus.

  • Self-Attention

    Attention-Variante, bei der eine Sequenz mit sich selbst interagiert, um interne Abhängigkeiten zu lernen.

  • Embedding-Modell

    Spezialisiertes Modell, das Texte in dichte Vektoren für semantische Suche und RAG umwandelt.