Sprachmodell, das vor der Ausgabe längere interne Denkketten produziert und so komplexes Schlussfolgern verbessert.
Reasoning-Modelle wurden darauf trainiert, vor der finalen Antwort ausführliche Überlegungen anzustellen. Diese 'Thinking Tokens' sind oft nicht sichtbar, beeinflussen aber die Qualität der Antwort.
Durch verlängertes Nachdenken zur Inferenzzeit, auch Test-Time Compute genannt, verbessern diese Modelle ihre Leistung bei mathematischen Beweisen, Code-Debugging und logischen Rätseln.
Der Trade-off ist Latenz und Token-Kosten: Reasoning-Modelle sind langsamer und teurer als Standardmodelle, liefern aber bei schwierigen Aufgaben deutlich bessere Ergebnisse.
Prompting-Technik, bei der das Modell Zwischenschritte des Denkprozesses explizit ausformuliert.
Ein großes, auf Text trainiertes Sprachmodell — das Fundament moderner generativer KI.
Standardisierter Datensatz und Metrik zur vergleichbaren Bewertung von KI-Modellen.
Kleinste Verarbeitungseinheit eines Sprachmodells — meist Wortteile, Wörter oder Satzzeichen.