Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Trainingsfrei”
Forschung

<p>LLMs meistern Mehrstufige Theoremvorhersage dank struktureller Priors</p> <p>In der automatisierten Beweistechnik stellt die Vorhersage von mehrstufigen Theoremen eine zentrale Herausforderung dar. Traditionelle neuronale‑symbolische Ansätze setzen stark auf überwachungsbasierte, parametrisierte Modelle, die jedoch bei sich wandelnden Theorem-Bibliotheken nur begrenzte Generalisierung zeigen. In einer neuen Studie wird ein komplett trainingsfreier Ansatz vorgestellt, der auf In‑Context‑Learning (ICL) bas

arXiv – cs.AI
Forschung

<h1>Diffusionsmodelle können formale Syntax einhalten – neue Methode</h1> <p>Diffusionsbasierte Sprachmodelle gelten als vielversprechende Alternative zu autoregressiven Systemen, weil sie Texte global und ohne kausale Abhängigkeiten erzeugen. Ihre kontinuierlichen latenten Zustände machen jedoch die Durchsetzung diskreter Vorgaben – etwa das Erzeugen eines JSON‑Dokuments, das einem vorgegebenen Schema entspricht – schwierig.</p> <p>Die neue, trainingsfreie Guidance‑Methode löst dieses Problem, indem sie ei

arXiv – cs.LG