ki.team
AgenturenKI-ToolsRessourcenGlossarÜber uns
Newsletter
ki.team

Dein deutschsprachiges Portal für Künstliche Intelligenz: aktuelle News, fundierte Analysen, Tutorials und Einblicke in die Welt der KI.

verzeichnisse

  • KI-Agenturen
  • KI-Tools
  • Ressourcen
  • Glossar

mitmachen

  • Agentur eintragen
  • Newsletter
  • Pro-Listing

rechtliches

  • Impressum
  • Datenschutz
  • Über uns

© 2026 ki.team. Alle Rechte vorbehalten.

RSS Feed
Zum Glossar
Grundlagen

Overfitting (Überanpassung)

Fehler, bei dem ein Modell Trainingsdaten auswendig lernt und auf neuen Daten schlecht generalisiert.

Overfitting entsteht, wenn ein Modell zu komplex für die verfügbaren Trainingsdaten ist. Es lernt auch Rauschen und Ausreißer auswendig, statt echte Muster zu erkennen.

Erkennbar ist Overfitting daran, dass der Trainingsfehler sehr niedrig ist, der Validierungsfehler aber deutlich höher. Regularisierungstechniken wie Dropout, Weight Decay oder Early Stopping helfen dagegen.

Das Gegenteil, Underfitting, tritt auf, wenn das Modell zu einfach ist und selbst die Trainingsdaten nicht ausreichend erklärt. Die Balance zwischen beiden nennt sich Bias-Varianz-Tradeoff.

Verwandte Begriffe

  • Machine Learning (ML)

    Teilgebiet der KI, in dem Modelle Muster aus Daten lernen, ohne explizit programmiert zu werden.

  • Überwachtes Lernen (Supervised Learning)

    Lernverfahren, bei dem ein Modell auf gelabelten Eingabe-Ausgabe-Paaren trainiert wird.

  • Verlustfunktion (Loss Function)

    Mathematische Funktion, die den Fehler zwischen Modellvorhersage und tatsächlichem Zielwert misst.

  • Synthetische Daten

    Künstlich erzeugte Trainingsdaten, oft von Sprachmodellen generiert, um reale Daten zu ergänzen oder ersetzen.