ki.team
AgenturenKI-ToolsRessourcenGlossarÜber uns
Newsletter
ki.team

Dein deutschsprachiges Portal für Künstliche Intelligenz: aktuelle News, fundierte Analysen, Tutorials und Einblicke in die Welt der KI.

verzeichnisse

  • KI-Agenturen
  • KI-Tools
  • Ressourcen
  • Glossar

mitmachen

  • Agentur eintragen
  • Newsletter
  • Pro-Listing

rechtliches

  • Impressum
  • Datenschutz
  • Über uns

© 2026 ki.team. Alle Rechte vorbehalten.

RSS Feed
Zum Glossar
Infrastruktur

GPU (Grafikprozessor)

Spezialprozessor mit Tausenden paralleler Recheneinheiten — die dominante Hardware für KI-Training und -Inferenz.

GPUs wurden ursprünglich für Grafikanwendungen entwickelt, erwiesen sich aber als ideal für die massiv parallelen Matrixoperationen des Deep Learnings. Heutige KI-GPUs sind speziell für Tensor-Operationen optimiert.

Der Speicher (VRAM) ist oft der limitierende Faktor: Große Modelle und Batches erfordern Dutzende oder Hunderte Gigabyte. Multi-GPU-Training mit Techniken wie Tensor- und Pipeline-Parallelismus ist für sehr große Modelle nötig.

NVIDIA dominiert den Markt durch die CUDA-Plattform, die eine breite Ökosystem-Kompatibilität bietet. AMD, Intel und spezialisierte KI-Chips streben zunehmend in diesen Markt.

Verwandte Begriffe

  • TPU (Tensor Processing Unit)

    Von Google entwickelter Spezialbeschleuniger, optimiert für Tensor-Operationen in neuronalen Netzen.

  • vLLM

    Hochperformantes Inferenz-Framework für LLMs mit Paged Attention und effizienter Batch-Verarbeitung.

  • Paged Attention

    Speicherverwaltungsansatz für KV-Cache, der Betriebssystem-Paging auf KI-Inferenz überträgt.

  • Quantisierung

    Reduktion der numerischen Präzision von Modellgewichten, um Speicher und Rechenaufwand zu verringern.