Estimating the Self-Consistency of LLMs
Anzeige
Ähnliche Artikel
arXiv – cs.LG
•
STEP: Schrittweise Bewertung von Traces senkt LLM‑Latenz um bis zu 70 %
arXiv – cs.LG
•
The Virtues of Brevity: Avoid Overthinking in Parallel Test-Time Reasoning
arXiv – cs.LG
•
LLM-Post-Training: Skalierung von Reinforcement Learning in der Mathematik
arXiv – cs.LG
•
D²Quant: Präzise Low-Bit-Quantisierung von LLMs ohne Genauigkeitsverlust
arXiv – cs.LG
•
HyPAC: Kostenoptimierte Hybrid-Annotation mit PAC-Fehlergarantie
arXiv – cs.LG
•
SEAM: Strukturierte Erfahrung verbessert LLM‑Leistung ohne Freeze