Vom Gehirn inspiriertes Berechnungsmodell aus verbundenen Knoten, das Funktionen aus Daten approximiert.
Ein künstliches neuronales Netz besteht aus Schichten von Knoten (Neuronen), die durch gewichtete Verbindungen miteinander verknüpft sind. Die Eingabe wird vorwärts durch das Netz propagiert, wobei jeder Knoten eine nichtlineare Aktivierungsfunktion anwendet.
Das Training erfolgt über Backpropagation: Fehler werden rückwärts durch das Netz geleitet, und die Gewichte werden iterativ angepasst, um den Vorhersagefehler zu minimieren. Dabei kommt Gradientenabstieg zum Einsatz.
Tiefe Netze können in der Theorie beliebig komplexe Funktionen approximieren. Praktisch limitieren Rechenleistung, Datenmenge und Regularisierungstechniken die sinnvolle Tiefe.
Teilbereich des maschinellen Lernens, der tiefe neuronale Netze mit vielen Schichten einsetzt.
Algorithmus zur effizienten Berechnung von Gradienten in neuronalen Netzen mittels Kettenregel.
Optimierungsverfahren, das Modellparameter iterativ in Richtung des steilsten Fehlerabfalls aktualisiert.
Dominante neuronale Netzwerkarchitektur für Sprache, Bild und mehr, basierend auf dem Attention-Mechanismus.