100 Begriffe aus KI, Machine Learning, LLMs, Retrieval, Agenten, Infrastruktur, Evaluation, Sicherheit und Recht — kompakt und verständlich auf Deutsch erklärt.
KI, Machine Learning und neuronale Netze
Modellaufbau: Transformer, MoE, Diffusion
Tokens, Context-Window, Sampling, Prompting
Fine-Tuning, RLHF, LoRA, Quantisierung
Vektorsuche, Chunking, Reranker
Tool-Use, Function-Calling, MCP
Vision, Audio, Video, Generativ
Inferenz, GPUs, vLLM, Batching
Benchmarks, Metriken, LLM-as-Judge
Alignment, Guardrails, Red-Teaming
EU AI Act, DSGVO, TDM
Iterativer Ausführungszyklus eines KI-Agenten: Wahrnehmen, Planen, Handeln, Beobachten und Wiederholen.
Forschungsfeld, das sicherstellt, dass KI-Systeme menschliche Werte und Absichten verfolgen.
Mechanismus, der jedem Element einer Sequenz erlaubt, selektiv auf andere Elemente zu fokussieren.
KI-Agent, der langfristige Ziele selbstständig verfolgt und dabei ohne ständige menschliche Aufsicht arbeitet.
Algorithmus zur effizienten Berechnung von Gradienten in neuronalen Netzen mittels Kettenregel.
Zusammenfassen mehrerer Anfragen zu einem Batch, um GPU-Kapazität optimal auszunutzen.
Standardisierter Datensatz und Metrik zur vergleichbaren Bewertung von KI-Modellen.
Lernparadigma, bei dem ein Agent durch Belohnungssignale lernt, optimale Entscheidungsstrategien zu entwickeln.
Klassischer probabilistischer Retrieval-Algorithmus auf Basis von Term-Frequenz und inverser Dokumenthäufigkeit.
Prompting-Technik, bei der das Modell Zwischenschritte des Denkprozesses explizit ausformuliert.
Aufteilung langer Dokumente in kleinere Abschnitte, die effizient indexiert und abgerufen werden können.
Modell, das Bilder und Texte in einem gemeinsamen Embedding-Raum verknüpft durch kontrastives Training.
Erweiterung für Diffusionsmodelle, die präzise visuelle Kontrolle durch strukturelle Eingaben ermöglicht.
Neuronale Netzwerkarchitektur mit Faltungsoperationen, besonders geeignet für Bild- und Signalverarbeitung.
Trainingsstrategie, die Beispiele vom Einfachen zum Schwierigen anordnet, analog zum menschlichen Lernen.
Transformerteil, der autoregressive Ausgaben erzeugt, typischerweise Token für Token.
Teilbereich des maschinellen Lernens, der tiefe neuronale Netze mit vielen Schichten einsetzt.
Mathematischer Prozess, der Daten schrittweise verrauscht und dessen Umkehrung zur Generierung genutzt wird.
Generatives Modell, das Daten durch schrittweises Entrauschen aus zufälligem Rauschen erzeugt.
RLHF-Alternative, die menschliche Präferenzen direkt in die Verlustfunktion integriert ohne separates RL.
Anforderungen der Datenschutz-Grundverordnung beim Einsatz und Training von KI-Systemen.
Ausführung von KI-Modellen direkt auf Endgeräten ohne Verbindung zu Cloud-Servern.
Dichte Vektordarstellung von Text, Bildern oder anderen Daten in einem hochdimensionalen Raum.
Spezialisiertes Modell, das Texte in dichte Vektoren für semantische Suche und RAG umwandelt.
Transformerteil, der Eingabesequenzen in kontextuelle Repräsentationen umwandelt.
Europäisches KI-Regulierungsgesetz, das Anforderungen nach Risikoklassen für KI-Systeme definiert.
Messbare Eigenschaft oder Variable, die einem Modell als Eingabeinformation dient.
Methode, bei der dem Modell wenige Beispiele im Prompt mitgegeben werden, um das gewünschte Format zu zeigen.
Fähigkeit eines LLM, strukturierte API-Aufrufe in definiertem Format zu generieren statt Freitext.
Kuratierter Referenzdatensatz mit verifizierten Antworten als Maßstab für Modell- und Systemevaluierung.
Spezialprozessor mit Tausenden paralleler Recheneinheiten — die dominante Hardware für KI-Training und -Inferenz.
Optimierungsverfahren, das Modellparameter iterativ in Richtung des steilsten Fehlerabfalls aktualisiert.
Technische und inhaltliche Schutzmaßnahmen, die unerwünschte KI-Ausgaben verhindern.
Tendenz von Sprachmodellen, plausibel klingende, aber faktisch falsche Informationen zu generieren.
Bewertung von KI-Ausgaben durch menschliche Annotatoren als Goldstandard der Qualitätsmessung.
Kombination aus semantischer Vektorsuche und lexikalischer Schlüsselwortsuche für bessere Retrievalqualität.
Retrieval-Technik, die ein LLM nutzt, um hypothetische Antwortdokumente zu generieren und als Suchanfrage einzusetzen.
KI-System, das Aufgaben autonom durch Planung, Werkzeugeinsatz und iteratives Handeln erledigt.
Maximale Anzahl Token, die ein Sprachmodell in einem Durchlauf verarbeiten und berücksichtigen kann.
Oberbegriff für Systeme, die menschliche Denkleistungen wie Lernen, Schlussfolgern und Wahrnehmen maschinell nachahmen.
Zwischenspeicher für Key- und Value-Vektoren der Attention, der autoregressive Generierung beschleunigt.
Ein großes, auf Text trainiertes Sprachmodell — das Fundament moderner generativer KI.
Evaluierungsansatz, bei dem ein starkes Sprachmodell die Ausgabequalität anderer Modelle bewertet.
Parameter-effiziente Fine-Tuning-Methode, die nur wenige Zusatzparameter in niedrigen Rängen trainiert.
Teilgebiet der KI, in dem Modelle Muster aus Daten lernen, ohne explizit programmiert zu werden.
Architektur, die nur einen Bruchteil der Modellparameter pro Token aktiviert und so Effizienz steigert.
Offener Standard für die Kommunikation zwischen KI-Modellen und externen Werkzeugen und Datenquellen.
Architektur aus mehreren kooperierenden oder konkurrierenden KI-Agenten zur Lösung komplexer Aufgaben.
KI-Systeme, die mehrere Modalitäten wie Text, Bild, Audio oder Video gleichzeitig verarbeiten.
Speicherverwaltungsansatz für KV-Cache, der Betriebssystem-Paging auf KI-Inferenz überträgt.
Maß dafür, wie gut ein Sprachmodell eine Textsequenz vorhersagt — niedrigere Werte sind besser.
Erste Trainingsphase, in der ein Modell auf riesigen Textmengen grundlegendes Sprach- und Weltwissen erwirbt.
Texteingabe, mit der ein Sprachmodell zu einer bestimmten Ausgabe angeleitet wird.
Angriff, bei dem bösartige Texteingaben das Verhalten eines KI-Systems manipulieren.
Agent-Framework, das Denken und Handeln in einem verschränkten Reasoning-Action-Observation-Zyklus kombiniert.
Sprachmodell, das vor der Ausgabe längere interne Denkketten produziert und so komplexes Schlussfolgern verbessert.
Strukturierte Suche nach Schwachstellen in KI-Systemen durch simulierte Angriffe und adversariale Tests.
Automatisierter Test, der nach Modellaktualisierungen sicherstellt, dass bekannte Fähigkeiten erhalten bleiben.
Trainingsverfahren, das menschliche Präferenzurteile nutzt, um Modellverhalten zu verbessern.
Netzwerkarchitektur mit Zustandsspeicher für sequentielle Daten, weitgehend durch Transformer abgelöst.
Modell, das initial abgerufene Dokumente nach tatsächlicher Relevanz zur Anfrage neu sortiert.
Verbindung, die den Eingang einer Schicht direkt zum Ausgang addiert und tiefe Netze trainierbar macht.
Architektur, die Sprachmodelle mit externer Wissenssuche kombiniert, um Antworten zu verankern.
Verfahren zur Token-Auswahl bei der Textgenerierung auf Basis der Wahrscheinlichkeitsverteilung des Modells.
Attention-Variante, bei der eine Sequenz mit sich selbst interagiert, um interne Abhängigkeiten zu lernen.
Suche, die Bedeutungsähnlichkeit statt Schlüsselwort-Übereinstimmung nutzt, um relevante Ergebnisse zu finden.
Betriebsmodell, bei dem KI-Modelle nur bei tatsächlichen Anfragen Ressourcen verbrauchen und auf null skalieren.
Kompaktes Sprachmodell mit wenigen Milliarden Parametern, das auf ressourcenarmen Geräten lauffähig ist.
Technologie zur automatischen Transkription gesprochener Sprache in Text.
Open-Source-Bildgenerierungsmodell auf Basis latenter Diffusion, das Text in Bilder umwandelt.
Feinjustierung eines vortrainierten Modells auf kuratierten Aufgaben-Antwort-Paaren zur Verhaltenssteuerung.
Künstlich erzeugte Trainingsdaten, oft von Sprachmodellen generiert, um reale Daten zu ergänzen oder ersetzen.
Vorangestellte Anweisung, die Rolle, Verhalten und Grenzen eines KI-Assistenten definiert.
Sampling-Parameter, der die Zufälligkeit der Token-Auswahl steuert — höher bedeutet kreativer.
Urheberrechtliche Ausnahmeregelung, die das Trainieren von KI-Modellen auf urheberrechtlich geschützten Texten regelt.
KI-Fähigkeit, aus Textbeschreibungen hochwertige Bilder zu generieren.
Technologie zur Umwandlung von Text in natürlich klingende Sprachausgabe.
KI-System, das aus Textbeschreibungen kurze Videosequenzen generiert.
Kleinste Verarbeitungseinheit eines Sprachmodells — meist Wortteile, Wörter oder Satzzeichen.
Komponente, die Text in Token-Sequenzen umwandelt und damit die Modell-Eingabe vorbereitet.
Fähigkeit eines Sprachmodells, externe Funktionen wie Suche oder Taschenrechner aufzurufen.
Sampling-Methode, die nur aus den K wahrscheinlichsten nächsten Token auswählt.
Sampling-Methode, die den kleinsten Token-Satz wählt, dessen kumulative Wahrscheinlichkeit P überschreitet.
Von Google entwickelter Spezialbeschleuniger, optimiert für Tensor-Operationen in neuronalen Netzen.
Dominante neuronale Netzwerkarchitektur für Sprache, Bild und mehr, basierend auf dem Attention-Mechanismus.
Datenbanksystem, das hochdimensionale Vektoren speichert und effiziente Ähnlichkeitssuchen ermöglicht.
Mathematische Funktion, die den Fehler zwischen Modellvorhersage und tatsächlichem Zielwert misst.
Modell, das Bilder und Text gemeinsam versteht und zum Beispiel Fragen zu Bildinhalten beantworten kann.
Hochperformantes Inferenz-Framework für LLMs mit Paged Attention und effizienter Batch-Verarbeitung.
KI, Machine Learning und neuronale Netze
Lernparadigma, bei dem ein Agent durch Belohnungssignale lernt, optimale Entscheidungsstrategien zu entwickeln.
Teilbereich des maschinellen Lernens, der tiefe neuronale Netze mit vielen Schichten einsetzt.
Messbare Eigenschaft oder Variable, die einem Modell als Eingabeinformation dient.
Optimierungsverfahren, das Modellparameter iterativ in Richtung des steilsten Fehlerabfalls aktualisiert.
Oberbegriff für Systeme, die menschliche Denkleistungen wie Lernen, Schlussfolgern und Wahrnehmen maschinell nachahmen.
Teilgebiet der KI, in dem Modelle Muster aus Daten lernen, ohne explizit programmiert zu werden.
Vom Gehirn inspiriertes Berechnungsmodell aus verbundenen Knoten, das Funktionen aus Daten approximiert.
Fehler, bei dem ein Modell Trainingsdaten auswendig lernt und auf neuen Daten schlecht generalisiert.
Lernverfahren, bei dem ein Modell auf gelabelten Eingabe-Ausgabe-Paaren trainiert wird.
Lernverfahren, das ohne Labels Strukturen und Muster in ungekennzeichneten Daten entdeckt.
Modellaufbau: Transformer, MoE, Diffusion
Mechanismus, der jedem Element einer Sequenz erlaubt, selektiv auf andere Elemente zu fokussieren.
Neuronale Netzwerkarchitektur mit Faltungsoperationen, besonders geeignet für Bild- und Signalverarbeitung.
Transformerteil, der autoregressive Ausgaben erzeugt, typischerweise Token für Token.
Generatives Modell, das Daten durch schrittweises Entrauschen aus zufälligem Rauschen erzeugt.
Transformerteil, der Eingabesequenzen in kontextuelle Repräsentationen umwandelt.
Architektur, die nur einen Bruchteil der Modellparameter pro Token aktiviert und so Effizienz steigert.
Netzwerkarchitektur mit Zustandsspeicher für sequentielle Daten, weitgehend durch Transformer abgelöst.
Verbindung, die den Eingang einer Schicht direkt zum Ausgang addiert und tiefe Netze trainierbar macht.
Attention-Variante, bei der eine Sequenz mit sich selbst interagiert, um interne Abhängigkeiten zu lernen.
Dominante neuronale Netzwerkarchitektur für Sprache, Bild und mehr, basierend auf dem Attention-Mechanismus.
Tokens, Context-Window, Sampling, Prompting
Prompting-Technik, bei der das Modell Zwischenschritte des Denkprozesses explizit ausformuliert.
Dichte Vektordarstellung von Text, Bildern oder anderen Daten in einem hochdimensionalen Raum.
Methode, bei der dem Modell wenige Beispiele im Prompt mitgegeben werden, um das gewünschte Format zu zeigen.
Tendenz von Sprachmodellen, plausibel klingende, aber faktisch falsche Informationen zu generieren.
Maximale Anzahl Token, die ein Sprachmodell in einem Durchlauf verarbeiten und berücksichtigen kann.
Zwischenspeicher für Key- und Value-Vektoren der Attention, der autoregressive Generierung beschleunigt.
Ein großes, auf Text trainiertes Sprachmodell — das Fundament moderner generativer KI.
Texteingabe, mit der ein Sprachmodell zu einer bestimmten Ausgabe angeleitet wird.
Sprachmodell, das vor der Ausgabe längere interne Denkketten produziert und so komplexes Schlussfolgern verbessert.
Verfahren zur Token-Auswahl bei der Textgenerierung auf Basis der Wahrscheinlichkeitsverteilung des Modells.
Kompaktes Sprachmodell mit wenigen Milliarden Parametern, das auf ressourcenarmen Geräten lauffähig ist.
Vorangestellte Anweisung, die Rolle, Verhalten und Grenzen eines KI-Assistenten definiert.
Sampling-Parameter, der die Zufälligkeit der Token-Auswahl steuert — höher bedeutet kreativer.
Kleinste Verarbeitungseinheit eines Sprachmodells — meist Wortteile, Wörter oder Satzzeichen.
Komponente, die Text in Token-Sequenzen umwandelt und damit die Modell-Eingabe vorbereitet.
Sampling-Methode, die nur aus den K wahrscheinlichsten nächsten Token auswählt.
Sampling-Methode, die den kleinsten Token-Satz wählt, dessen kumulative Wahrscheinlichkeit P überschreitet.
Fähigkeit eines Modells, Aufgaben ohne Beispiele allein aufgrund von Beschreibungen zu lösen.
Fine-Tuning, RLHF, LoRA, Quantisierung
Algorithmus zur effizienten Berechnung von Gradienten in neuronalen Netzen mittels Kettenregel.
Trainingsstrategie, die Beispiele vom Einfachen zum Schwierigen anordnet, analog zum menschlichen Lernen.
RLHF-Alternative, die menschliche Präferenzen direkt in die Verlustfunktion integriert ohne separates RL.
Parameter-effiziente Fine-Tuning-Methode, die nur wenige Zusatzparameter in niedrigen Rängen trainiert.
Erste Trainingsphase, in der ein Modell auf riesigen Textmengen grundlegendes Sprach- und Weltwissen erwirbt.
Kombination aus 4-Bit-Quantisierung und LoRA, die Fine-Tuning großer Modelle auf Einzelverbraucher-GPUs ermöglicht.
Reduktion der numerischen Präzision von Modellgewichten, um Speicher und Rechenaufwand zu verringern.
Trainingsverfahren, das menschliche Präferenzurteile nutzt, um Modellverhalten zu verbessern.
Feinjustierung eines vortrainierten Modells auf kuratierten Aufgaben-Antwort-Paaren zur Verhaltenssteuerung.
Künstlich erzeugte Trainingsdaten, oft von Sprachmodellen generiert, um reale Daten zu ergänzen oder ersetzen.
Mathematische Funktion, die den Fehler zwischen Modellvorhersage und tatsächlichem Zielwert misst.
Training eines kleinen Schülermodells mithilfe der weichen Ausgaben eines großen Lehrermodells.
Vektorsuche, Chunking, Reranker
Klassischer probabilistischer Retrieval-Algorithmus auf Basis von Term-Frequenz und inverser Dokumenthäufigkeit.
Aufteilung langer Dokumente in kleinere Abschnitte, die effizient indexiert und abgerufen werden können.
Spezialisiertes Modell, das Texte in dichte Vektoren für semantische Suche und RAG umwandelt.
Kombination aus semantischer Vektorsuche und lexikalischer Schlüsselwortsuche für bessere Retrievalqualität.
Retrieval-Technik, die ein LLM nutzt, um hypothetische Antwortdokumente zu generieren und als Suchanfrage einzusetzen.
Modell, das initial abgerufene Dokumente nach tatsächlicher Relevanz zur Anfrage neu sortiert.
Architektur, die Sprachmodelle mit externer Wissenssuche kombiniert, um Antworten zu verankern.
Suche, die Bedeutungsähnlichkeit statt Schlüsselwort-Übereinstimmung nutzt, um relevante Ergebnisse zu finden.
Datenbanksystem, das hochdimensionale Vektoren speichert und effiziente Ähnlichkeitssuchen ermöglicht.
Strukturiertes Netzwerk von Entitäten und ihren Beziehungen als maschinenlesbare Wissensbasis.
Tool-Use, Function-Calling, MCP
Iterativer Ausführungszyklus eines KI-Agenten: Wahrnehmen, Planen, Handeln, Beobachten und Wiederholen.
KI-Agent, der langfristige Ziele selbstständig verfolgt und dabei ohne ständige menschliche Aufsicht arbeitet.
Fähigkeit eines LLM, strukturierte API-Aufrufe in definiertem Format zu generieren statt Freitext.
KI-System, das Aufgaben autonom durch Planung, Werkzeugeinsatz und iteratives Handeln erledigt.
Offener Standard für die Kommunikation zwischen KI-Modellen und externen Werkzeugen und Datenquellen.
Architektur aus mehreren kooperierenden oder konkurrierenden KI-Agenten zur Lösung komplexer Aufgaben.
Agent-Framework, das Denken und Handeln in einem verschränkten Reasoning-Action-Observation-Zyklus kombiniert.
Fähigkeit eines Sprachmodells, externe Funktionen wie Suche oder Taschenrechner aufzurufen.
Vision, Audio, Video, Generativ
Modell, das Bilder und Texte in einem gemeinsamen Embedding-Raum verknüpft durch kontrastives Training.
Erweiterung für Diffusionsmodelle, die präzise visuelle Kontrolle durch strukturelle Eingaben ermöglicht.
Mathematischer Prozess, der Daten schrittweise verrauscht und dessen Umkehrung zur Generierung genutzt wird.
KI-Systeme, die mehrere Modalitäten wie Text, Bild, Audio oder Video gleichzeitig verarbeiten.
Technologie zur automatischen Transkription gesprochener Sprache in Text.
Open-Source-Bildgenerierungsmodell auf Basis latenter Diffusion, das Text in Bilder umwandelt.
KI-Fähigkeit, aus Textbeschreibungen hochwertige Bilder zu generieren.
Technologie zur Umwandlung von Text in natürlich klingende Sprachausgabe.
KI-System, das aus Textbeschreibungen kurze Videosequenzen generiert.
Modell, das Bilder und Text gemeinsam versteht und zum Beispiel Fragen zu Bildinhalten beantworten kann.
Inferenz, GPUs, vLLM, Batching
Zusammenfassen mehrerer Anfragen zu einem Batch, um GPU-Kapazität optimal auszunutzen.
Ausführung von KI-Modellen direkt auf Endgeräten ohne Verbindung zu Cloud-Servern.
Spezialprozessor mit Tausenden paralleler Recheneinheiten — die dominante Hardware für KI-Training und -Inferenz.
Spezialisierter Server zum Betrieb von KI-Modellen in der Produktion mit hohem Durchsatz und niedriger Latenz.
Speicherverwaltungsansatz für KV-Cache, der Betriebssystem-Paging auf KI-Inferenz überträgt.
Betriebsmodell, bei dem KI-Modelle nur bei tatsächlichen Anfragen Ressourcen verbrauchen und auf null skalieren.
Von Google entwickelter Spezialbeschleuniger, optimiert für Tensor-Operationen in neuronalen Netzen.
Hochperformantes Inferenz-Framework für LLMs mit Paged Attention und effizienter Batch-Verarbeitung.
Benchmarks, Metriken, LLM-as-Judge
Standardisierter Datensatz und Metrik zur vergleichbaren Bewertung von KI-Modellen.
Kuratierter Referenzdatensatz mit verifizierten Antworten als Maßstab für Modell- und Systemevaluierung.
Bewertung von KI-Ausgaben durch menschliche Annotatoren als Goldstandard der Qualitätsmessung.
Evaluierungsansatz, bei dem ein starkes Sprachmodell die Ausgabequalität anderer Modelle bewertet.
Maß dafür, wie gut ein Sprachmodell eine Textsequenz vorhersagt — niedrigere Werte sind besser.
Automatisierter Test, der nach Modellaktualisierungen sicherstellt, dass bekannte Fähigkeiten erhalten bleiben.
Alignment, Guardrails, Red-Teaming
Forschungsfeld, das sicherstellt, dass KI-Systeme menschliche Werte und Absichten verfolgen.
Technische und inhaltliche Schutzmaßnahmen, die unerwünschte KI-Ausgaben verhindern.
Technik zur Umgehung von Sicherheitsmechanismen eines Sprachmodells zur Erzeugung verbotener Inhalte.
Angriff, bei dem bösartige Texteingaben das Verhalten eines KI-Systems manipulieren.
Strukturierte Suche nach Schwachstellen in KI-Systemen durch simulierte Angriffe und adversariale Tests.
EU AI Act, DSGVO, TDM
Anforderungen der Datenschutz-Grundverordnung beim Einsatz und Training von KI-Systemen.
Europäisches KI-Regulierungsgesetz, das Anforderungen nach Risikoklassen für KI-Systeme definiert.
Urheberrechtliche Ausnahmeregelung, die das Trainieren von KI-Modellen auf urheberrechtlich geschützten Texten regelt.