Fehler, bei dem ein Modell Trainingsdaten auswendig lernt und auf neuen Daten schlecht generalisiert.
Overfitting entsteht, wenn ein Modell zu komplex für die verfügbaren Trainingsdaten ist. Es lernt auch Rauschen und Ausreißer auswendig, statt echte Muster zu erkennen.
Erkennbar ist Overfitting daran, dass der Trainingsfehler sehr niedrig ist, der Validierungsfehler aber deutlich höher. Regularisierungstechniken wie Dropout, Weight Decay oder Early Stopping helfen dagegen.
Das Gegenteil, Underfitting, tritt auf, wenn das Modell zu einfach ist und selbst die Trainingsdaten nicht ausreichend erklärt. Die Balance zwischen beiden nennt sich Bias-Varianz-Tradeoff.
Teilgebiet der KI, in dem Modelle Muster aus Daten lernen, ohne explizit programmiert zu werden.
Lernverfahren, bei dem ein Modell auf gelabelten Eingabe-Ausgabe-Paaren trainiert wird.
Mathematische Funktion, die den Fehler zwischen Modellvorhersage und tatsächlichem Zielwert misst.
Künstlich erzeugte Trainingsdaten, oft von Sprachmodellen generiert, um reale Daten zu ergänzen oder ersetzen.