Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “DANCE”
Forschung

Monte-Carlo-Sampler verbessert Diffusionsmodelle: Neue Methode steigert Qualität Auf der Plattform arXiv wurde ein neuer Ansatz vorgestellt, der die Leistung von stochastischen Differentialgleichungsmodellen (SDE) in der bedingten Generierung deutlich verbessert. Der Beitrag beschreibt, wie ein zusätzlicher Rückwärts-Denoising-Schritt in Kombination mit Monte-Carlo-Sampling – kurz ABMS – die Genauigkeit der Gradienten für die Guidance erhöht und damit die Konsistenz der generierten Ergebnisse steigert.

arXiv – cs.LG
Aktuell

<p>Die Ukraine-Krise hat gezeigt, dass Drohnen die moderne Kriegsführung revolutionieren. Jetzt rückt die Künstliche Intelligenz in den Fokus, wenn es um die nächste Generation militärischer Technologien geht.</p> <p>Ein Beispiel für die rasante Entwicklung ist Bytedances neuester CUDA-Schreibagent. Dieser KI-Algorithmus kann Programmcode automatisch generieren, was die Entwicklung von Hochleistungs-Software erheblich beschleunigt. Für die Verteidigungsindustrie bedeutet das, dass komplexe Systeme schneller

Jack Clark – Import AI
Forschung

<h1>Diffusionsmodelle können formale Syntax einhalten – neue Methode</h1> <p>Diffusionsbasierte Sprachmodelle gelten als vielversprechende Alternative zu autoregressiven Systemen, weil sie Texte global und ohne kausale Abhängigkeiten erzeugen. Ihre kontinuierlichen latenten Zustände machen jedoch die Durchsetzung diskreter Vorgaben – etwa das Erzeugen eines JSON‑Dokuments, das einem vorgegebenen Schema entspricht – schwierig.</p> <p>Die neue, trainingsfreie Guidance‑Methode löst dieses Problem, indem sie ei

arXiv – cs.LG
Forschung

<p>Neues Verfahren: Dual-Granularitäts-Contrastive Reward erhöht Effizienz von Embodied RL</p> <p>In der Welt des Reinforcement Learning (RL) gilt die Gestaltung geeigneter Belohnungen als entscheidende Herausforderung, besonders bei körperlich gesteuerten Manipulationsaufgaben. Traditionelle Trajektorien-Erfolgsbelohnungen sind zwar intuitiv, doch ihre starke Sparsamkeit hemmt die Sample‑Effizienz von RL-Algorithmen. Aktuelle Ansätze, die auf dichte Belohnungen setzen, benötigen häufig umfangreiche, von Me

arXiv – cs.LG