Estimating the Self-Consistency of LLMs
Anzeige
Ähnliche Artikel
arXiv – cs.LG
•
STEP: Schrittweise Bewertung von Traces senkt LLM‑Latenz um bis zu 70 %
arXiv – cs.LG
•
The Virtues of Brevity: Avoid Overthinking in Parallel Test-Time Reasoning
arXiv – cs.LG
•
LLM-Post-Training: Skalierung von Reinforcement Learning in der Mathematik
arXiv – cs.LG
•
Ultra-Lange Sequenz-Editierung: Neue Methode verhindert Modellkollaps
arXiv – cs.LG
•
Manifold-Reshaping Policy Optimization lässt LLMs über ihre Grenzen hinaus denken
arXiv – cs.LG
•
D²Quant: Präzise Low-Bit-Quantisierung von LLMs ohne Genauigkeitsverlust