Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “ARM”
Forschung

<p>LLMs zeigen feste Entscheidungsbiases – Bandit-Tests enthüllen robuste Muster</p> <p>In einer neuen Untersuchung wurden große Sprachmodelle (LLMs) in klassischen Zweiarm-Bandit-Experimenten getestet. Für jede Bedingung wurden 20.000 Versuche durchgeführt, wobei vier unterschiedliche Decodierungsparameter – Temperatur, top‑p, top‑k und die Standard‑Einstellung – variiert wurden. Unter symmetrischen Belohnungen neigten die Modelle dazu, die Reihenfolge der Arm‑Positionen zu verstärken und sich auf einen ei

arXiv – cs.AI
Forschung

<p>Annealed Co-Generation: Variablen entwirren mit schrittweiser Paarmodellierung</p> <p>Wissenschaftler haben ein neues Verfahren namens Annealed Co-Generation (ACG) vorgestellt, das die Modellierung mehrdimensionaler Daten revolutioniert. Durch die Aufteilung komplexer Zusammenhänge in Paare von Variablen wird die Rechenlast deutlich reduziert und das Problem von Datenungleichgewicht angegangen.</p> <p>Traditionelle Ansätze versuchen, sämtliche Variablen gleichzeitig zu modellieren, was zu enormen Rechena

arXiv – cs.LG
Forschung

<h1>Neues Verfahren ABRA verbessert Batch‑Korrektur bei Zellbild‑Scans</h1> <p>In der hochauflösenden Zellbildgebung, die in der Pharmakologie und Genetik eingesetzt wird, entstehen große Mengen an Bilddaten. Diese Daten sind jedoch häufig von sogenannten Bio‑Batch‑Effekten betroffen, die durch technische Unterschiede in den Experimenten entstehen und die Leistung von Deep‑Learning‑Modellen stark beeinträchtigen.</p> <p>Forscher haben das Problem als Domain‑Generalization‑Aufgabe formuliert und ein neues Ve

arXiv – cs.AI
Forschung

<h1>Harmonische Datensatz‑Distillation revolutioniert Zeitreihenprognosen</h1> <p>Die Vorhersage von Zeitreihen steht heute vor enormen Rechen- und Speicheraufwand, weil reale Datensätze immer größer werden. Dataset‑Distillation (DD) bietet eine Lösung, indem sie einen kompakten Datensatz erzeugt, der das Training genauso gut wie das Original ermöglicht. Traditionelle DD‑Ansätze sind jedoch für Zeitreihen nicht optimiert, leiden unter architektonischem Overfitting und skaliert schlecht.</p> <p>Um diese Prob

arXiv – cs.LG