Teilbereich des maschinellen Lernens, der tiefe neuronale Netze mit vielen Schichten einsetzt.
Deep Learning nutzt neuronale Netze mit mehreren verborgenen Schichten, die hierarchische Repräsentationen der Eingabedaten lernen. Jede Schicht abstrahiert dabei zunehmend komplexere Merkmale aus den Rohdaten.
Der Durchbruch kam mit der Verfügbarkeit großer Datensätze, leistungsfähiger GPUs und verbesserter Trainingsverfahren. Seitdem dominiert Deep Learning in der Bild-, Sprach- und Textverarbeitung.
Architekturen wie CNNs für Bilder, RNNs für Sequenzen und schließlich Transformer haben das Feld geprägt. Der Erfolg von Large Language Models ist direkt auf die Skalierbarkeit tiefer Netze zurückzuführen.
Vom Gehirn inspiriertes Berechnungsmodell aus verbundenen Knoten, das Funktionen aus Daten approximiert.
Dominante neuronale Netzwerkarchitektur für Sprache, Bild und mehr, basierend auf dem Attention-Mechanismus.
Neuronale Netzwerkarchitektur mit Faltungsoperationen, besonders geeignet für Bild- und Signalverarbeitung.
Netzwerkarchitektur mit Zustandsspeicher für sequentielle Daten, weitgehend durch Transformer abgelöst.