Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “GUIDE”
Forschung

Monte-Carlo-Sampler verbessert Diffusionsmodelle: Neue Methode steigert Qualität Auf der Plattform arXiv wurde ein neuer Ansatz vorgestellt, der die Leistung von stochastischen Differentialgleichungsmodellen (SDE) in der bedingten Generierung deutlich verbessert. Der Beitrag beschreibt, wie ein zusätzlicher Rückwärts-Denoising-Schritt in Kombination mit Monte-Carlo-Sampling – kurz ABMS – die Genauigkeit der Gradienten für die Guidance erhöht und damit die Konsistenz der generierten Ergebnisse steigert.

arXiv – cs.LG
Forschung

<h1>LLMs optimieren Hochfrequente Entscheidungen: Normalisierte Belohnungsstrategie</h1> <p>Large Language Models (LLMs) sind das Rückgrat moderner Agenten für sequenzielle Entscheidungen, doch ihre Leistungsfähigkeit lässt bei hochfrequenten Aufgaben nach. In der Regel konzentriert sich die Forschung auf diskrete, eingebettete Szenarien mit seltenen, stark semantisch unterschiedlichen Zuständen – etwa bei der Hausplanung. Solche Ansätze zeigen bei Aufgaben, bei denen sich numerische Zustände ständig, aber

arXiv – cs.AI
Forschung

<h1>Label-basierte Distanzskalierung verbessert Few-Shot-Textklassifikation</h1> <p>In der Welt der Few-Shot-Textklassifikation, bei der Modelle unbekannte Klassen mit nur wenigen gelabelten Textproben erkennen sollen, gibt es ein zentrales Problem: Während des Trainings werden komplexe Algorithmen entwickelt, doch die gelabelten Stichproben, die im Test verwendet werden, werden zufällig ausgewählt. Dadurch erhalten die Modelle oft keine wirklichen Leitfäden, was zu Fehlklassifikationen führt.</p> <p>Die ne

arXiv – cs.LG