ParaThinker: Paralleldenken steigert LLM-Leistung bei Testzeit

MarkTechPost Original ≈1 Min. Lesezeit
Anzeige

Warum stoßen sequenzielle LLMs an ihre Grenzen? Testzeit‑Computing‑Skalierung hat sich traditionell auf das Ausweiten einzelner Denkpfade konzentriert. Diese Methode verbessert die Argumentation nur bis zu einem gewissen Punkt, danach stagniert die Leistung.

Experimente mit DeepSeek‑R1‑distill‑Qwen‑1.5B zeigen, dass ein Token‑Budget von über 32 000 Tokens – bis zu 128 000 Tokens – kaum Genauigkeitszuwächse bringt. Der Engpass entsteht bereits früh im Token‑Verlauf.

ParaThinker nutzt nativen Paralleldenken, um diese Tunnelvision zu überwinden und die Testzeit‑Performance nachhaltig zu erhöhen.

Ähnliche Artikel