Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Skalierung”
Forschung

<h1>Skalierung erhöht kritische semantische Duplikate im Pretraining</h1> <p>In der KI‑Forschung wird deutlich, dass Daten­duplikate während des Pretrainings die Generalisierung von Modellen stark beeinträchtigen können. Besonders bei Web‑Skalen wird die Definition eines „Duplikats“ komplexer: Neben offensichtlichen Text‑Übereinstimmungen können semantisch gleichwertige Dokumente – etwa Übersetzungen – zu redundanten Trainingssignalen führen, sobald Modelle leistungsfähiger werden.</p> <p>Die Studie zeigt,

arXiv – cs.LG
Forschung

<h1>Label-basierte Distanzskalierung verbessert Few-Shot-Textklassifikation</h1> <p>In der Welt der Few-Shot-Textklassifikation, bei der Modelle unbekannte Klassen mit nur wenigen gelabelten Textproben erkennen sollen, gibt es ein zentrales Problem: Während des Trainings werden komplexe Algorithmen entwickelt, doch die gelabelten Stichproben, die im Test verwendet werden, werden zufällig ausgewählt. Dadurch erhalten die Modelle oft keine wirklichen Leitfäden, was zu Fehlklassifikationen führt.</p> <p>Die ne

arXiv – cs.LG
Forschung

Full-Waveform-Inversion (FWI) ist ein hochkomplexes, nichtlineares Problem, das versucht, Untergrundgeschwindigkeitskarten aus an der Oberfläche aufgezeichneten seismischen Wellen zu rekonstruieren. Traditionell wurden datengetriebene FWI-Methoden mit kleinen Modellen trainiert, weil verfügbare Datensätze begrenzte Volumen, geologische Vielfalt und räumliche Ausdehnung aufweisen. Diese Beschränkungen führten zu erheblichen Bedenken hinsichtlich Overfitting und einer schlechten Generalisierung auf realistisc

In der vorliegenden Studie wird gezeigt, dass ein Modell, das ausschließlich auf simulierten und relativ einfachen Daten trainiert wurde, e…
arXiv – cs.LG