Spezialisiertes Modell, das Texte in dichte Vektoren für semantische Suche und RAG umwandelt.
Embedding-Modelle sind auf die Erzeugung semantisch bedeutsamer Vektoren optimiert. Sie werden meist als Bi-Encoder trainiert, sodass Ähnlichkeit effizient als Vektordistanz berechnet werden kann.
Für RAG-Systeme ist die Wahl des Embedding-Modells entscheidend: Es bestimmt, wie gut semantische Ähnlichkeit erfasst wird. Domänenspezifische Modelle schlagen allgemeine oft deutlich.
Multilinguale Embedding-Modelle können Anfragen in einer Sprache auf Dokumente in einer anderen abbilden und ermöglichen so sprachübergreifendes Retrieval.
Dichte Vektordarstellung von Text, Bildern oder anderen Daten in einem hochdimensionalen Raum.
Architektur, die Sprachmodelle mit externer Wissenssuche kombiniert, um Antworten zu verankern.
Suche, die Bedeutungsähnlichkeit statt Schlüsselwort-Übereinstimmung nutzt, um relevante Ergebnisse zu finden.
Datenbanksystem, das hochdimensionale Vektoren speichert und effiziente Ähnlichkeitssuchen ermöglicht.