Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “ASEN”
Forschung

<p>LLMs ermöglichen portable Patientenrepräsentationen für klinische Zeitreihen</p> <p>In einer neuen Studie zeigen Forscher, dass große Sprachmodelle (LLMs) in der Lage sind, aus unregelmäßigen ICU‑Zeitreihen kompakte, sprachbasierte Zusammenfassungen zu erzeugen. Diese Summaries werden anschließend mit einem festen Text‑Embedding‑Modell in feste Vektoren umgewandelt, die als Eingabe für verschiedenste Vorhersagemodelle dienen können.</p> <p>Die Methode wurde auf drei großen Datensätzen – MIMIC‑IV, HIRID u

arXiv – cs.LG
Forschung

<p>Persistente Speicheradapter schaffen dauerhafte Erinnerung in Decoder-Only LLMs</p> <p>In einer neuen Studie wird gezeigt, dass selbst vollständig eingefrorene Decoder‑Only‑Sprachmodelle – wie GPT‑2 – mit gezielten Speicheradaptern eine dauerhafte Erinnerung im latenten Raum erhalten können. Der Ansatz nutzt die Idee, dass die versteckten Repräsentationen eines Modells normalerweise nach jedem Durchlauf verworfen werden, und fügt stattdessen einen kleinen, trainierbaren Adapter ein, der die Erinnerung sp

arXiv – cs.LG
Forschung

<p>LLMs enthüllen: Latente semantische Manifeste erklären Token‑Mismatch</p> <p>Neues Forschungspapier aus dem arXiv‑Repository präsentiert ein mathematisches Modell, das die inneren Rechenräume großer Sprachmodelle (LLMs) als latente semantische Manifeste interpretiert. Diese Manifeste sind Riemannsche Untermanifeste, die mit dem Fisher‑Information‑Metrik ausgestattet sind. Die Tokens, die die Modelle ausgeben, entsprechen dabei Voronoi‑Regionen, die das Manifold partitionieren.</p> <p>Im Fokus steht die s

arXiv – cs.LG