ki.team
AgenturenKI-ToolsRessourcenGlossarÜber uns
Newsletter
ki.team

Dein deutschsprachiges Portal für Künstliche Intelligenz: aktuelle News, fundierte Analysen, Tutorials und Einblicke in die Welt der KI.

verzeichnisse

  • KI-Agenturen
  • KI-Tools
  • Ressourcen
  • Glossar

mitmachen

  • Agentur eintragen
  • Newsletter
  • Pro-Listing

rechtliches

  • Impressum
  • Datenschutz
  • Über uns

© 2026 ki.team. Alle Rechte vorbehalten.

RSS Feed
KI-Glossar

Begriffe der Künstlichen Intelligenz

100 Begriffe aus KI, Machine Learning, LLMs, Retrieval, Agenten, Infrastruktur, Evaluation, Sicherheit und Recht — kompakt und verständlich auf Deutsch erklärt.

Kategorien

Grundlagen

10

KI, Machine Learning und neuronale Netze

Architektur

10

Modellaufbau: Transformer, MoE, Diffusion

LLM-Konzepte

18

Tokens, Context-Window, Sampling, Prompting

Training

12

Fine-Tuning, RLHF, LoRA, Quantisierung

Retrieval & RAG

10

Vektorsuche, Chunking, Reranker

Agenten

8

Tool-Use, Function-Calling, MCP

Multimodal

10

Vision, Audio, Video, Generativ

Infrastruktur

8

Inferenz, GPUs, vLLM, Batching

Evaluation

6

Benchmarks, Metriken, LLM-as-Judge

Safety

5

Alignment, Guardrails, Red-Teaming

Recht

3

EU AI Act, DSGVO, TDM

Alphabetisch

ABCDEFGHIJKLMNOPQRSTUVWZ

A

  • Agent-Loop

    Iterativer Ausführungszyklus eines KI-Agenten: Wahrnehmen, Planen, Handeln, Beobachten und Wiederholen.

  • Alignment (KI-Ausrichtung)

    Forschungsfeld, das sicherstellt, dass KI-Systeme menschliche Werte und Absichten verfolgen.

  • Attention (Aufmerksamkeitsmechanismus)

    Mechanismus, der jedem Element einer Sequenz erlaubt, selektiv auf andere Elemente zu fokussieren.

  • Autonomer Agent

    KI-Agent, der langfristige Ziele selbstständig verfolgt und dabei ohne ständige menschliche Aufsicht arbeitet.

B

  • Backpropagation (Fehlerrückübertragung)

    Algorithmus zur effizienten Berechnung von Gradienten in neuronalen Netzen mittels Kettenregel.

  • Batching

    Zusammenfassen mehrerer Anfragen zu einem Batch, um GPU-Kapazität optimal auszunutzen.

  • Benchmark

    Standardisierter Datensatz und Metrik zur vergleichbaren Bewertung von KI-Modellen.

  • Bestärkendes Lernen (Reinforcement Learning)

    Lernparadigma, bei dem ein Agent durch Belohnungssignale lernt, optimale Entscheidungsstrategien zu entwickeln.

  • BM25

    Klassischer probabilistischer Retrieval-Algorithmus auf Basis von Term-Frequenz und inverser Dokumenthäufigkeit.

C

  • Chain-of-Thought (CoT)

    Prompting-Technik, bei der das Modell Zwischenschritte des Denkprozesses explizit ausformuliert.

  • Chunking

    Aufteilung langer Dokumente in kleinere Abschnitte, die effizient indexiert und abgerufen werden können.

  • CLIP (Contrastive Language-Image Pretraining)

    Modell, das Bilder und Texte in einem gemeinsamen Embedding-Raum verknüpft durch kontrastives Training.

  • ControlNet

    Erweiterung für Diffusionsmodelle, die präzise visuelle Kontrolle durch strukturelle Eingaben ermöglicht.

  • Convolutional Neural Network (CNN)

    Neuronale Netzwerkarchitektur mit Faltungsoperationen, besonders geeignet für Bild- und Signalverarbeitung.

  • Curriculum Learning

    Trainingsstrategie, die Beispiele vom Einfachen zum Schwierigen anordnet, analog zum menschlichen Lernen.

D

  • Decoder

    Transformerteil, der autoregressive Ausgaben erzeugt, typischerweise Token für Token.

  • Deep Learning

    Teilbereich des maschinellen Lernens, der tiefe neuronale Netze mit vielen Schichten einsetzt.

  • Diffusion (Prozess)

    Mathematischer Prozess, der Daten schrittweise verrauscht und dessen Umkehrung zur Generierung genutzt wird.

  • Diffusionsmodell

    Generatives Modell, das Daten durch schrittweises Entrauschen aus zufälligem Rauschen erzeugt.

  • Direct Preference Optimization (DPO)

    RLHF-Alternative, die menschliche Präferenzen direkt in die Verlustfunktion integriert ohne separates RL.

  • DSGVO und KI

    Anforderungen der Datenschutz-Grundverordnung beim Einsatz und Training von KI-Systemen.

E

  • Edge Inference

    Ausführung von KI-Modellen direkt auf Endgeräten ohne Verbindung zu Cloud-Servern.

  • Embedding (Einbettung)

    Dichte Vektordarstellung von Text, Bildern oder anderen Daten in einem hochdimensionalen Raum.

  • Embedding-Modell

    Spezialisiertes Modell, das Texte in dichte Vektoren für semantische Suche und RAG umwandelt.

  • Encoder

    Transformerteil, der Eingabesequenzen in kontextuelle Repräsentationen umwandelt.

  • EU AI Act

    Europäisches KI-Regulierungsgesetz, das Anforderungen nach Risikoklassen für KI-Systeme definiert.

F

  • Feature (Merkmal)

    Messbare Eigenschaft oder Variable, die einem Modell als Eingabeinformation dient.

  • Few-Shot Learning

    Methode, bei der dem Modell wenige Beispiele im Prompt mitgegeben werden, um das gewünschte Format zu zeigen.

  • Function Calling

    Fähigkeit eines LLM, strukturierte API-Aufrufe in definiertem Format zu generieren statt Freitext.

G

  • Golden Dataset

    Kuratierter Referenzdatensatz mit verifizierten Antworten als Maßstab für Modell- und Systemevaluierung.

  • GPU (Grafikprozessor)

    Spezialprozessor mit Tausenden paralleler Recheneinheiten — die dominante Hardware für KI-Training und -Inferenz.

  • Gradientenabstieg (Gradient Descent)

    Optimierungsverfahren, das Modellparameter iterativ in Richtung des steilsten Fehlerabfalls aktualisiert.

  • Guardrails (Leitplanken)

    Technische und inhaltliche Schutzmaßnahmen, die unerwünschte KI-Ausgaben verhindern.

H

  • Halluzination

    Tendenz von Sprachmodellen, plausibel klingende, aber faktisch falsche Informationen zu generieren.

  • Human Evaluation

    Bewertung von KI-Ausgaben durch menschliche Annotatoren als Goldstandard der Qualitätsmessung.

  • Hybride Suche

    Kombination aus semantischer Vektorsuche und lexikalischer Schlüsselwortsuche für bessere Retrievalqualität.

  • HyDE (Hypothetical Document Embeddings)

    Retrieval-Technik, die ein LLM nutzt, um hypothetische Antwortdokumente zu generieren und als Suchanfrage einzusetzen.

I

  • Inferenz-Server

    Spezialisierter Server zum Betrieb von KI-Modellen in der Produktion mit hohem Durchsatz und niedriger Latenz.

J

  • Jailbreak

    Technik zur Umgehung von Sicherheitsmechanismen eines Sprachmodells zur Erzeugung verbotener Inhalte.

K

  • KI-Agent

    KI-System, das Aufgaben autonom durch Planung, Werkzeugeinsatz und iteratives Handeln erledigt.

  • Kontextfenster (Context Window)

    Maximale Anzahl Token, die ein Sprachmodell in einem Durchlauf verarbeiten und berücksichtigen kann.

  • Künstliche Intelligenz (KI)

    Oberbegriff für Systeme, die menschliche Denkleistungen wie Lernen, Schlussfolgern und Wahrnehmen maschinell nachahmen.

  • KV-Cache

    Zwischenspeicher für Key- und Value-Vektoren der Attention, der autoregressive Generierung beschleunigt.

L

  • Large Language Model (LLM)

    Ein großes, auf Text trainiertes Sprachmodell — das Fundament moderner generativer KI.

  • LLM-as-Judge

    Evaluierungsansatz, bei dem ein starkes Sprachmodell die Ausgabequalität anderer Modelle bewertet.

  • LoRA (Low-Rank Adaptation)

    Parameter-effiziente Fine-Tuning-Methode, die nur wenige Zusatzparameter in niedrigen Rängen trainiert.

M

  • Machine Learning (ML)

    Teilgebiet der KI, in dem Modelle Muster aus Daten lernen, ohne explizit programmiert zu werden.

  • Mixture of Experts (MoE)

    Architektur, die nur einen Bruchteil der Modellparameter pro Token aktiviert und so Effizienz steigert.

  • Model Context Protocol (MCP)

    Offener Standard für die Kommunikation zwischen KI-Modellen und externen Werkzeugen und Datenquellen.

  • Multi-Agenten-System

    Architektur aus mehreren kooperierenden oder konkurrierenden KI-Agenten zur Lösung komplexer Aufgaben.

  • Multimodal

    KI-Systeme, die mehrere Modalitäten wie Text, Bild, Audio oder Video gleichzeitig verarbeiten.

N

  • Neuronales Netz

    Vom Gehirn inspiriertes Berechnungsmodell aus verbundenen Knoten, das Funktionen aus Daten approximiert.

O

  • Overfitting (Überanpassung)

    Fehler, bei dem ein Modell Trainingsdaten auswendig lernt und auf neuen Daten schlecht generalisiert.

P

  • Paged Attention

    Speicherverwaltungsansatz für KV-Cache, der Betriebssystem-Paging auf KI-Inferenz überträgt.

  • Perplexität (Perplexity)

    Maß dafür, wie gut ein Sprachmodell eine Textsequenz vorhersagt — niedrigere Werte sind besser.

  • Pretraining (Vortraining)

    Erste Trainingsphase, in der ein Modell auf riesigen Textmengen grundlegendes Sprach- und Weltwissen erwirbt.

  • Prompt

    Texteingabe, mit der ein Sprachmodell zu einer bestimmten Ausgabe angeleitet wird.

  • Prompt Injection

    Angriff, bei dem bösartige Texteingaben das Verhalten eines KI-Systems manipulieren.

Q

  • QLoRA

    Kombination aus 4-Bit-Quantisierung und LoRA, die Fine-Tuning großer Modelle auf Einzelverbraucher-GPUs ermöglicht.

  • Quantisierung

    Reduktion der numerischen Präzision von Modellgewichten, um Speicher und Rechenaufwand zu verringern.

R

  • ReAct-Pattern

    Agent-Framework, das Denken und Handeln in einem verschränkten Reasoning-Action-Observation-Zyklus kombiniert.

  • Reasoning-Modell

    Sprachmodell, das vor der Ausgabe längere interne Denkketten produziert und so komplexes Schlussfolgern verbessert.

  • Red-Teaming

    Strukturierte Suche nach Schwachstellen in KI-Systemen durch simulierte Angriffe und adversariale Tests.

  • Regression-Test

    Automatisierter Test, der nach Modellaktualisierungen sicherstellt, dass bekannte Fähigkeiten erhalten bleiben.

  • Reinforcement Learning from Human Feedback (RLHF)

    Trainingsverfahren, das menschliche Präferenzurteile nutzt, um Modellverhalten zu verbessern.

  • Rekurrentes Neuronales Netz (RNN)

    Netzwerkarchitektur mit Zustandsspeicher für sequentielle Daten, weitgehend durch Transformer abgelöst.

  • Reranker

    Modell, das initial abgerufene Dokumente nach tatsächlicher Relevanz zur Anfrage neu sortiert.

  • Residualverbindung (Skip Connection)

    Verbindung, die den Eingang einer Schicht direkt zum Ausgang addiert und tiefe Netze trainierbar macht.

  • Retrieval-Augmented Generation (RAG)

    Architektur, die Sprachmodelle mit externer Wissenssuche kombiniert, um Antworten zu verankern.

S

  • Sampling (Stichprobenziehung)

    Verfahren zur Token-Auswahl bei der Textgenerierung auf Basis der Wahrscheinlichkeitsverteilung des Modells.

  • Self-Attention

    Attention-Variante, bei der eine Sequenz mit sich selbst interagiert, um interne Abhängigkeiten zu lernen.

  • Semantische Suche

    Suche, die Bedeutungsähnlichkeit statt Schlüsselwort-Übereinstimmung nutzt, um relevante Ergebnisse zu finden.

  • Serverless Inference

    Betriebsmodell, bei dem KI-Modelle nur bei tatsächlichen Anfragen Ressourcen verbrauchen und auf null skalieren.

  • Small Language Model (SLM)

    Kompaktes Sprachmodell mit wenigen Milliarden Parametern, das auf ressourcenarmen Geräten lauffähig ist.

  • Speech-to-Text (STT)

    Technologie zur automatischen Transkription gesprochener Sprache in Text.

  • Stable Diffusion

    Open-Source-Bildgenerierungsmodell auf Basis latenter Diffusion, das Text in Bilder umwandelt.

  • Supervised Fine-Tuning (SFT)

    Feinjustierung eines vortrainierten Modells auf kuratierten Aufgaben-Antwort-Paaren zur Verhaltenssteuerung.

  • Synthetische Daten

    Künstlich erzeugte Trainingsdaten, oft von Sprachmodellen generiert, um reale Daten zu ergänzen oder ersetzen.

  • System-Prompt

    Vorangestellte Anweisung, die Rolle, Verhalten und Grenzen eines KI-Assistenten definiert.

T

  • Temperatur

    Sampling-Parameter, der die Zufälligkeit der Token-Auswahl steuert — höher bedeutet kreativer.

  • Text- und Data-Mining-Schranke (TDM)

    Urheberrechtliche Ausnahmeregelung, die das Trainieren von KI-Modellen auf urheberrechtlich geschützten Texten regelt.

  • Text-to-Image

    KI-Fähigkeit, aus Textbeschreibungen hochwertige Bilder zu generieren.

  • Text-to-Speech (TTS)

    Technologie zur Umwandlung von Text in natürlich klingende Sprachausgabe.

  • Text-to-Video

    KI-System, das aus Textbeschreibungen kurze Videosequenzen generiert.

  • Token

    Kleinste Verarbeitungseinheit eines Sprachmodells — meist Wortteile, Wörter oder Satzzeichen.

  • Tokenizer

    Komponente, die Text in Token-Sequenzen umwandelt und damit die Modell-Eingabe vorbereitet.

  • Tool Use (Werkzeugeinsatz)

    Fähigkeit eines Sprachmodells, externe Funktionen wie Suche oder Taschenrechner aufzurufen.

  • Top-K Sampling

    Sampling-Methode, die nur aus den K wahrscheinlichsten nächsten Token auswählt.

  • Top-P Sampling (Nucleus Sampling)

    Sampling-Methode, die den kleinsten Token-Satz wählt, dessen kumulative Wahrscheinlichkeit P überschreitet.

  • TPU (Tensor Processing Unit)

    Von Google entwickelter Spezialbeschleuniger, optimiert für Tensor-Operationen in neuronalen Netzen.

  • Transformer

    Dominante neuronale Netzwerkarchitektur für Sprache, Bild und mehr, basierend auf dem Attention-Mechanismus.

U

  • Überwachtes Lernen (Supervised Learning)

    Lernverfahren, bei dem ein Modell auf gelabelten Eingabe-Ausgabe-Paaren trainiert wird.

  • Unüberwachtes Lernen (Unsupervised Learning)

    Lernverfahren, das ohne Labels Strukturen und Muster in ungekennzeichneten Daten entdeckt.

V

  • Vektordatenbank

    Datenbanksystem, das hochdimensionale Vektoren speichert und effiziente Ähnlichkeitssuchen ermöglicht.

  • Verlustfunktion (Loss Function)

    Mathematische Funktion, die den Fehler zwischen Modellvorhersage und tatsächlichem Zielwert misst.

  • Vision-Language Model (VLM)

    Modell, das Bilder und Text gemeinsam versteht und zum Beispiel Fragen zu Bildinhalten beantworten kann.

  • vLLM

    Hochperformantes Inferenz-Framework für LLMs mit Paged Attention und effizienter Batch-Verarbeitung.

W

  • Wissendestillation (Distillation)

    Training eines kleinen Schülermodells mithilfe der weichen Ausgaben eines großen Lehrermodells.

  • Wissensgraph (Knowledge Graph)

    Strukturiertes Netzwerk von Entitäten und ihren Beziehungen als maschinenlesbare Wissensbasis.

Z

  • Zero-Shot Learning

    Fähigkeit eines Modells, Aufgaben ohne Beispiele allein aufgrund von Beschreibungen zu lösen.

Nach Kategorie

Grundlagen

KI, Machine Learning und neuronale Netze

  • Bestärkendes Lernen (Reinforcement Learning)

    Lernparadigma, bei dem ein Agent durch Belohnungssignale lernt, optimale Entscheidungsstrategien zu entwickeln.

  • Deep Learning

    Teilbereich des maschinellen Lernens, der tiefe neuronale Netze mit vielen Schichten einsetzt.

  • Feature (Merkmal)

    Messbare Eigenschaft oder Variable, die einem Modell als Eingabeinformation dient.

  • Gradientenabstieg (Gradient Descent)

    Optimierungsverfahren, das Modellparameter iterativ in Richtung des steilsten Fehlerabfalls aktualisiert.

  • Künstliche Intelligenz (KI)

    Oberbegriff für Systeme, die menschliche Denkleistungen wie Lernen, Schlussfolgern und Wahrnehmen maschinell nachahmen.

  • Machine Learning (ML)

    Teilgebiet der KI, in dem Modelle Muster aus Daten lernen, ohne explizit programmiert zu werden.

  • Neuronales Netz

    Vom Gehirn inspiriertes Berechnungsmodell aus verbundenen Knoten, das Funktionen aus Daten approximiert.

  • Overfitting (Überanpassung)

    Fehler, bei dem ein Modell Trainingsdaten auswendig lernt und auf neuen Daten schlecht generalisiert.

  • Überwachtes Lernen (Supervised Learning)

    Lernverfahren, bei dem ein Modell auf gelabelten Eingabe-Ausgabe-Paaren trainiert wird.

  • Unüberwachtes Lernen (Unsupervised Learning)

    Lernverfahren, das ohne Labels Strukturen und Muster in ungekennzeichneten Daten entdeckt.

Architektur

Modellaufbau: Transformer, MoE, Diffusion

  • Attention (Aufmerksamkeitsmechanismus)

    Mechanismus, der jedem Element einer Sequenz erlaubt, selektiv auf andere Elemente zu fokussieren.

  • Convolutional Neural Network (CNN)

    Neuronale Netzwerkarchitektur mit Faltungsoperationen, besonders geeignet für Bild- und Signalverarbeitung.

  • Decoder

    Transformerteil, der autoregressive Ausgaben erzeugt, typischerweise Token für Token.

  • Diffusionsmodell

    Generatives Modell, das Daten durch schrittweises Entrauschen aus zufälligem Rauschen erzeugt.

  • Encoder

    Transformerteil, der Eingabesequenzen in kontextuelle Repräsentationen umwandelt.

  • Mixture of Experts (MoE)

    Architektur, die nur einen Bruchteil der Modellparameter pro Token aktiviert und so Effizienz steigert.

  • Rekurrentes Neuronales Netz (RNN)

    Netzwerkarchitektur mit Zustandsspeicher für sequentielle Daten, weitgehend durch Transformer abgelöst.

  • Residualverbindung (Skip Connection)

    Verbindung, die den Eingang einer Schicht direkt zum Ausgang addiert und tiefe Netze trainierbar macht.

  • Self-Attention

    Attention-Variante, bei der eine Sequenz mit sich selbst interagiert, um interne Abhängigkeiten zu lernen.

  • Transformer

    Dominante neuronale Netzwerkarchitektur für Sprache, Bild und mehr, basierend auf dem Attention-Mechanismus.

LLM-Konzepte

Tokens, Context-Window, Sampling, Prompting

  • Chain-of-Thought (CoT)

    Prompting-Technik, bei der das Modell Zwischenschritte des Denkprozesses explizit ausformuliert.

  • Embedding (Einbettung)

    Dichte Vektordarstellung von Text, Bildern oder anderen Daten in einem hochdimensionalen Raum.

  • Few-Shot Learning

    Methode, bei der dem Modell wenige Beispiele im Prompt mitgegeben werden, um das gewünschte Format zu zeigen.

  • Halluzination

    Tendenz von Sprachmodellen, plausibel klingende, aber faktisch falsche Informationen zu generieren.

  • Kontextfenster (Context Window)

    Maximale Anzahl Token, die ein Sprachmodell in einem Durchlauf verarbeiten und berücksichtigen kann.

  • KV-Cache

    Zwischenspeicher für Key- und Value-Vektoren der Attention, der autoregressive Generierung beschleunigt.

  • Large Language Model (LLM)

    Ein großes, auf Text trainiertes Sprachmodell — das Fundament moderner generativer KI.

  • Prompt

    Texteingabe, mit der ein Sprachmodell zu einer bestimmten Ausgabe angeleitet wird.

  • Reasoning-Modell

    Sprachmodell, das vor der Ausgabe längere interne Denkketten produziert und so komplexes Schlussfolgern verbessert.

  • Sampling (Stichprobenziehung)

    Verfahren zur Token-Auswahl bei der Textgenerierung auf Basis der Wahrscheinlichkeitsverteilung des Modells.

  • Small Language Model (SLM)

    Kompaktes Sprachmodell mit wenigen Milliarden Parametern, das auf ressourcenarmen Geräten lauffähig ist.

  • System-Prompt

    Vorangestellte Anweisung, die Rolle, Verhalten und Grenzen eines KI-Assistenten definiert.

  • Temperatur

    Sampling-Parameter, der die Zufälligkeit der Token-Auswahl steuert — höher bedeutet kreativer.

  • Token

    Kleinste Verarbeitungseinheit eines Sprachmodells — meist Wortteile, Wörter oder Satzzeichen.

  • Tokenizer

    Komponente, die Text in Token-Sequenzen umwandelt und damit die Modell-Eingabe vorbereitet.

  • Top-K Sampling

    Sampling-Methode, die nur aus den K wahrscheinlichsten nächsten Token auswählt.

  • Top-P Sampling (Nucleus Sampling)

    Sampling-Methode, die den kleinsten Token-Satz wählt, dessen kumulative Wahrscheinlichkeit P überschreitet.

  • Zero-Shot Learning

    Fähigkeit eines Modells, Aufgaben ohne Beispiele allein aufgrund von Beschreibungen zu lösen.

Training

Fine-Tuning, RLHF, LoRA, Quantisierung

  • Backpropagation (Fehlerrückübertragung)

    Algorithmus zur effizienten Berechnung von Gradienten in neuronalen Netzen mittels Kettenregel.

  • Curriculum Learning

    Trainingsstrategie, die Beispiele vom Einfachen zum Schwierigen anordnet, analog zum menschlichen Lernen.

  • Direct Preference Optimization (DPO)

    RLHF-Alternative, die menschliche Präferenzen direkt in die Verlustfunktion integriert ohne separates RL.

  • LoRA (Low-Rank Adaptation)

    Parameter-effiziente Fine-Tuning-Methode, die nur wenige Zusatzparameter in niedrigen Rängen trainiert.

  • Pretraining (Vortraining)

    Erste Trainingsphase, in der ein Modell auf riesigen Textmengen grundlegendes Sprach- und Weltwissen erwirbt.

  • QLoRA

    Kombination aus 4-Bit-Quantisierung und LoRA, die Fine-Tuning großer Modelle auf Einzelverbraucher-GPUs ermöglicht.

  • Quantisierung

    Reduktion der numerischen Präzision von Modellgewichten, um Speicher und Rechenaufwand zu verringern.

  • Reinforcement Learning from Human Feedback (RLHF)

    Trainingsverfahren, das menschliche Präferenzurteile nutzt, um Modellverhalten zu verbessern.

  • Supervised Fine-Tuning (SFT)

    Feinjustierung eines vortrainierten Modells auf kuratierten Aufgaben-Antwort-Paaren zur Verhaltenssteuerung.

  • Synthetische Daten

    Künstlich erzeugte Trainingsdaten, oft von Sprachmodellen generiert, um reale Daten zu ergänzen oder ersetzen.

  • Verlustfunktion (Loss Function)

    Mathematische Funktion, die den Fehler zwischen Modellvorhersage und tatsächlichem Zielwert misst.

  • Wissendestillation (Distillation)

    Training eines kleinen Schülermodells mithilfe der weichen Ausgaben eines großen Lehrermodells.

Retrieval & RAG

Vektorsuche, Chunking, Reranker

  • BM25

    Klassischer probabilistischer Retrieval-Algorithmus auf Basis von Term-Frequenz und inverser Dokumenthäufigkeit.

  • Chunking

    Aufteilung langer Dokumente in kleinere Abschnitte, die effizient indexiert und abgerufen werden können.

  • Embedding-Modell

    Spezialisiertes Modell, das Texte in dichte Vektoren für semantische Suche und RAG umwandelt.

  • Hybride Suche

    Kombination aus semantischer Vektorsuche und lexikalischer Schlüsselwortsuche für bessere Retrievalqualität.

  • HyDE (Hypothetical Document Embeddings)

    Retrieval-Technik, die ein LLM nutzt, um hypothetische Antwortdokumente zu generieren und als Suchanfrage einzusetzen.

  • Reranker

    Modell, das initial abgerufene Dokumente nach tatsächlicher Relevanz zur Anfrage neu sortiert.

  • Retrieval-Augmented Generation (RAG)

    Architektur, die Sprachmodelle mit externer Wissenssuche kombiniert, um Antworten zu verankern.

  • Semantische Suche

    Suche, die Bedeutungsähnlichkeit statt Schlüsselwort-Übereinstimmung nutzt, um relevante Ergebnisse zu finden.

  • Vektordatenbank

    Datenbanksystem, das hochdimensionale Vektoren speichert und effiziente Ähnlichkeitssuchen ermöglicht.

  • Wissensgraph (Knowledge Graph)

    Strukturiertes Netzwerk von Entitäten und ihren Beziehungen als maschinenlesbare Wissensbasis.

Agenten

Tool-Use, Function-Calling, MCP

  • Agent-Loop

    Iterativer Ausführungszyklus eines KI-Agenten: Wahrnehmen, Planen, Handeln, Beobachten und Wiederholen.

  • Autonomer Agent

    KI-Agent, der langfristige Ziele selbstständig verfolgt und dabei ohne ständige menschliche Aufsicht arbeitet.

  • Function Calling

    Fähigkeit eines LLM, strukturierte API-Aufrufe in definiertem Format zu generieren statt Freitext.

  • KI-Agent

    KI-System, das Aufgaben autonom durch Planung, Werkzeugeinsatz und iteratives Handeln erledigt.

  • Model Context Protocol (MCP)

    Offener Standard für die Kommunikation zwischen KI-Modellen und externen Werkzeugen und Datenquellen.

  • Multi-Agenten-System

    Architektur aus mehreren kooperierenden oder konkurrierenden KI-Agenten zur Lösung komplexer Aufgaben.

  • ReAct-Pattern

    Agent-Framework, das Denken und Handeln in einem verschränkten Reasoning-Action-Observation-Zyklus kombiniert.

  • Tool Use (Werkzeugeinsatz)

    Fähigkeit eines Sprachmodells, externe Funktionen wie Suche oder Taschenrechner aufzurufen.

Multimodal

Vision, Audio, Video, Generativ

  • CLIP (Contrastive Language-Image Pretraining)

    Modell, das Bilder und Texte in einem gemeinsamen Embedding-Raum verknüpft durch kontrastives Training.

  • ControlNet

    Erweiterung für Diffusionsmodelle, die präzise visuelle Kontrolle durch strukturelle Eingaben ermöglicht.

  • Diffusion (Prozess)

    Mathematischer Prozess, der Daten schrittweise verrauscht und dessen Umkehrung zur Generierung genutzt wird.

  • Multimodal

    KI-Systeme, die mehrere Modalitäten wie Text, Bild, Audio oder Video gleichzeitig verarbeiten.

  • Speech-to-Text (STT)

    Technologie zur automatischen Transkription gesprochener Sprache in Text.

  • Stable Diffusion

    Open-Source-Bildgenerierungsmodell auf Basis latenter Diffusion, das Text in Bilder umwandelt.

  • Text-to-Image

    KI-Fähigkeit, aus Textbeschreibungen hochwertige Bilder zu generieren.

  • Text-to-Speech (TTS)

    Technologie zur Umwandlung von Text in natürlich klingende Sprachausgabe.

  • Text-to-Video

    KI-System, das aus Textbeschreibungen kurze Videosequenzen generiert.

  • Vision-Language Model (VLM)

    Modell, das Bilder und Text gemeinsam versteht und zum Beispiel Fragen zu Bildinhalten beantworten kann.

Infrastruktur

Inferenz, GPUs, vLLM, Batching

  • Batching

    Zusammenfassen mehrerer Anfragen zu einem Batch, um GPU-Kapazität optimal auszunutzen.

  • Edge Inference

    Ausführung von KI-Modellen direkt auf Endgeräten ohne Verbindung zu Cloud-Servern.

  • GPU (Grafikprozessor)

    Spezialprozessor mit Tausenden paralleler Recheneinheiten — die dominante Hardware für KI-Training und -Inferenz.

  • Inferenz-Server

    Spezialisierter Server zum Betrieb von KI-Modellen in der Produktion mit hohem Durchsatz und niedriger Latenz.

  • Paged Attention

    Speicherverwaltungsansatz für KV-Cache, der Betriebssystem-Paging auf KI-Inferenz überträgt.

  • Serverless Inference

    Betriebsmodell, bei dem KI-Modelle nur bei tatsächlichen Anfragen Ressourcen verbrauchen und auf null skalieren.

  • TPU (Tensor Processing Unit)

    Von Google entwickelter Spezialbeschleuniger, optimiert für Tensor-Operationen in neuronalen Netzen.

  • vLLM

    Hochperformantes Inferenz-Framework für LLMs mit Paged Attention und effizienter Batch-Verarbeitung.

Evaluation

Benchmarks, Metriken, LLM-as-Judge

  • Benchmark

    Standardisierter Datensatz und Metrik zur vergleichbaren Bewertung von KI-Modellen.

  • Golden Dataset

    Kuratierter Referenzdatensatz mit verifizierten Antworten als Maßstab für Modell- und Systemevaluierung.

  • Human Evaluation

    Bewertung von KI-Ausgaben durch menschliche Annotatoren als Goldstandard der Qualitätsmessung.

  • LLM-as-Judge

    Evaluierungsansatz, bei dem ein starkes Sprachmodell die Ausgabequalität anderer Modelle bewertet.

  • Perplexität (Perplexity)

    Maß dafür, wie gut ein Sprachmodell eine Textsequenz vorhersagt — niedrigere Werte sind besser.

  • Regression-Test

    Automatisierter Test, der nach Modellaktualisierungen sicherstellt, dass bekannte Fähigkeiten erhalten bleiben.

Safety

Alignment, Guardrails, Red-Teaming

  • Alignment (KI-Ausrichtung)

    Forschungsfeld, das sicherstellt, dass KI-Systeme menschliche Werte und Absichten verfolgen.

  • Guardrails (Leitplanken)

    Technische und inhaltliche Schutzmaßnahmen, die unerwünschte KI-Ausgaben verhindern.

  • Jailbreak

    Technik zur Umgehung von Sicherheitsmechanismen eines Sprachmodells zur Erzeugung verbotener Inhalte.

  • Prompt Injection

    Angriff, bei dem bösartige Texteingaben das Verhalten eines KI-Systems manipulieren.

  • Red-Teaming

    Strukturierte Suche nach Schwachstellen in KI-Systemen durch simulierte Angriffe und adversariale Tests.

Recht

EU AI Act, DSGVO, TDM

  • DSGVO und KI

    Anforderungen der Datenschutz-Grundverordnung beim Einsatz und Training von KI-Systemen.

  • EU AI Act

    Europäisches KI-Regulierungsgesetz, das Anforderungen nach Risikoklassen für KI-Systeme definiert.

  • Text- und Data-Mining-Schranke (TDM)

    Urheberrechtliche Ausnahmeregelung, die das Trainieren von KI-Modellen auf urheberrechtlich geschützten Texten regelt.