Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Long-Context”
Forschung

<p>ORBITFLOW: Adaptive KV-Cache-Optimierung steigert LLM-Performance um bis zu 3,3×</p> <p>Die Ausführung von Sprachmodellen mit langen Kontexten stellt die KI-Community vor ein großes Problem: Während die Token‑Generierung fortschreitet, schwankt der Speicherbedarf stark, sodass die GPU‑Speicherauslastung unvorhersehbar wird. Traditionelle Offloading‑Strategien, die KV‑Caches statisch in den Host‑Speicher verschieben, können diese Schwankungen nicht in Echtzeit ausgleichen. Das führt zu häufigen CPU‑zu‑GPU

arXiv – cs.AI
Forschung

<p>LLM-WebAgents: Neue Benchmark zeigt schwere Verluste bei langen Kontexten</p> <p>Mit der zunehmenden Verbreitung von KI‑Agenten im Alltag wird die Fähigkeit, über lange Interaktionsverläufe hinweg zu denken, immer wichtiger. Ein neues Benchmark‑Set, das von Forschern auf arXiv veröffentlicht wurde, prüft genau diese Fähigkeit bei Web‑Agenten, die in realen Browser‑Umgebungen agieren.</p> <p>Das Testsystem simuliert mehrere Benutzersitzungen, indem zwischen abhängigen Teilaufgaben absichtlich irrelevante

arXiv – cs.LG