ki.team
AgenturenKI-ToolsRessourcenGlossarÜber uns
Newsletter
ki.team

Dein deutschsprachiges Portal für Künstliche Intelligenz: aktuelle News, fundierte Analysen, Tutorials und Einblicke in die Welt der KI.

verzeichnisse

  • KI-Agenturen
  • KI-Tools
  • Ressourcen
  • Glossar

mitmachen

  • Agentur eintragen
  • Newsletter
  • Pro-Listing

rechtliches

  • Impressum
  • Datenschutz
  • Über uns

© 2026 ki.team. Alle Rechte vorbehalten.

RSS Feed
Zum Glossar
Training

LoRA (Low-Rank Adaptation)

Parameter-effiziente Fine-Tuning-Methode, die nur wenige Zusatzparameter in niedrigen Rängen trainiert.

LoRA friert die Gewichte des vortrainierten Modells ein und fügt in ausgewählten Schichten niedrangige Zerlegungsmatrizen hinzu. Nur diese kleinen Zusatzmatrizen werden während des Fine-Tunings trainiert.

Ein LoRA-Adapter kann weniger als ein Prozent der ursprünglichen Parameterzahl ausmachen und ist damit leicht speicherbar und austauschbar. Mehrere Adapter für verschiedene Aufgaben können parallel vorgehalten werden.

LoRA hat Parameter-effizientes Fine-Tuning demokratisiert: Auch mit einer einzelnen Consumer-GPU lassen sich mittelgroße Sprachmodelle für spezifische Aufgaben anpassen.

Verwandte Begriffe

  • QLoRA

    Kombination aus 4-Bit-Quantisierung und LoRA, die Fine-Tuning großer Modelle auf Einzelverbraucher-GPUs ermöglicht.

  • Supervised Fine-Tuning (SFT)

    Feinjustierung eines vortrainierten Modells auf kuratierten Aufgaben-Antwort-Paaren zur Verhaltenssteuerung.

  • Quantisierung

    Reduktion der numerischen Präzision von Modellgewichten, um Speicher und Rechenaufwand zu verringern.

  • Large Language Model (LLM)

    Ein großes, auf Text trainiertes Sprachmodell — das Fundament moderner generativer KI.