Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Leistungsverlust”
Forschung

<h1>LLMs kompaktieren: Schrittweise Reduktion ohne Leistungsverlust</h1> <p>Neues Verfahren aus dem arXiv-Preprint „Gradually Compacting Large Language Models for Reasoning Like a Boiling Frog“ zeigt, wie große Sprachmodelle ohne Qualitätsverlust deutlich kleiner gemacht werden können. Durch gezielte Reduktion der Parameter wird der Rechenaufwand für Inferenz drastisch gesenkt, während die Fähigkeit zum logischen Denken erhalten bleibt.</p> <p>Der Ansatz nutzt einen iterativen Prune‑Tune‑Loop (PTL), bei dem

arXiv – cs.LG