LTA-thinker: Latent Thought-Augmented Training Framework for Large Language Models on Complex Reasoning
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
Boosting Accuracy and Efficiency of Budget Forcing in LLMs via Reinforcement Learning for Mathematical Reasoning
arXiv – cs.AI
•
Dynamic Experts Search: Enhancing Reasoning in Mixture-of-Experts LLMs at Test Time
arXiv – cs.AI
•
Building Coding Agents via Entropy-Enhanced Multi-Turn Preference Optimization
MarkTechPost
•
Comparing the Top 6 Inference Runtimes for LLM Serving in 2025
arXiv – cs.LG
•
LLM-Inference auf IoT: Adaptive Split-Computing reduziert Speicher und Latenz
AI News (TechForge)
•
Unternehmensvorstände fordern KI-Produktivität, doch sie erhöhen die Angriffsfläche