ki.team
AgenturenKI-ToolsRessourcenGlossarÜber uns
Newsletter
ki.team

Dein deutschsprachiges Portal für Künstliche Intelligenz: aktuelle News, fundierte Analysen, Tutorials und Einblicke in die Welt der KI.

verzeichnisse

  • KI-Agenturen
  • KI-Tools
  • Ressourcen
  • Glossar

mitmachen

  • Agentur eintragen
  • Newsletter
  • Pro-Listing

rechtliches

  • Impressum
  • Datenschutz
  • Über uns

© 2026 ki.team. Alle Rechte vorbehalten.

RSS Feed
Zum Glossar
Architektur

Residualverbindung (Skip Connection)

Verbindung, die den Eingang einer Schicht direkt zum Ausgang addiert und tiefe Netze trainierbar macht.

Residualverbindungen leiten den Eingang einer Netzwerkschicht unter Umgehung der Schicht direkt zum Ausgang weiter und addieren beide. Das Netz lernt damit nur die Restfunktion, nicht die volle Transformation.

Diese Technik löst das Problem verschwindender Gradienten in sehr tiefen Netzen. ResNets mit Hunderten von Schichten konnten dadurch trainiert werden, wo vorher das Training instabil wurde.

Im Transformer sind Residualverbindungen um jede Attention- und Feed-Forward-Sublayer herum angeordnet. Zusammen mit Layer-Normalisierung ermöglichen sie das Training von Modellen mit Tausenden von Schichten.

Verwandte Begriffe

  • Transformer

    Dominante neuronale Netzwerkarchitektur für Sprache, Bild und mehr, basierend auf dem Attention-Mechanismus.

  • Deep Learning

    Teilbereich des maschinellen Lernens, der tiefe neuronale Netze mit vielen Schichten einsetzt.

  • Neuronales Netz

    Vom Gehirn inspiriertes Berechnungsmodell aus verbundenen Knoten, das Funktionen aus Daten approximiert.

  • Backpropagation (Fehlerrückübertragung)

    Algorithmus zur effizienten Berechnung von Gradienten in neuronalen Netzen mittels Kettenregel.