Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “STEP”
Forschung

Monte-Carlo-Sampler verbessert Diffusionsmodelle: Neue Methode steigert Qualität Auf der Plattform arXiv wurde ein neuer Ansatz vorgestellt, der die Leistung von stochastischen Differentialgleichungsmodellen (SDE) in der bedingten Generierung deutlich verbessert. Der Beitrag beschreibt, wie ein zusätzlicher Rückwärts-Denoising-Schritt in Kombination mit Monte-Carlo-Sampling – kurz ABMS – die Genauigkeit der Gradienten für die Guidance erhöht und damit die Konsistenz der generierten Ergebnisse steigert.

arXiv – cs.LG
Forschung

<p>LLM-gestützte Planung mit PDDL-Simulation: Neue Erkenntnisse</p> <p>In einer aktuellen Studie wird untersucht, ob große Sprachmodelle (LLMs) als effektive Planer für autonome Robotiksysteme fungieren können. Dazu wurde PyPDDLEngine entwickelt – ein Open‑Source‑Simulationswerkzeug für die Planning Domain Definition Language (PDDL), das LLMs über ein Model Context Protocol (MCP) als Tool‑Calls nutzen lässt.</p> <p>Im Gegensatz zu herkömmlichen Planern, die einen kompletten Aktionsplan auf einmal generieren

arXiv – cs.AI
Forschung

<p>LLMs meistern Mehrstufige Theoremvorhersage dank struktureller Priors</p> <p>In der automatisierten Beweistechnik stellt die Vorhersage von mehrstufigen Theoremen eine zentrale Herausforderung dar. Traditionelle neuronale‑symbolische Ansätze setzen stark auf überwachungsbasierte, parametrisierte Modelle, die jedoch bei sich wandelnden Theorem-Bibliotheken nur begrenzte Generalisierung zeigen. In einer neuen Studie wird ein komplett trainingsfreier Ansatz vorgestellt, der auf In‑Context‑Learning (ICL) bas

arXiv – cs.AI