Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Erinnerung”
Forschung

<p>Persistente Agenten: Mehrschichtige Veränderbarkeit & Governance</p> <p>Neuer Forschungsbericht auf arXiv beleuchtet, wie moderne Sprachmodellagenten, die Werkzeuge nutzen, mehrstufige Erinnerungen besitzen und sich selbst anpassen, ihr Verhalten nicht nur durch aktuelle Eingaben, sondern auch durch sich verändernde interne Zustände formen.</p> <p>Der Beitrag führt das Konzept der „layered mutability“ ein – ein Rahmenwerk, das die Veränderung von Agenten in fünf Schichten analysiert: Pre‑Training, Post‑T

arXiv – cs.AI
Forschung

<p>LLM-basierte Smart‑Home‑Steuerung: Neues Benchmark für Memory‑Driven Control</p> <p>Large Language Models (LLMs) haben sich als entscheidende Grundlage für personalisierte Smart‑Home‑Erlebnisse etabliert. Während bisherige Studien vor allem untersuchen, wie Sprachassistenten Geräte in Echtzeit steuern, bleibt die Fähigkeit, auf gespeicherte Erinnerungen zurückzugreifen, um Geräte zu kontrollieren, ein schwieriges Problem – sowohl bei der Bewertung als auch bei der Methodik.</p> <p>Bei der Bewertung konze

arXiv – cs.AI
Forschung

<p>LLM-Poker-Agenten entwickeln ToM‑ähnliches Verhalten dank Speicher</p> <p>Eine neue Untersuchung auf arXiv zeigt, dass große Sprachmodelle (LLMs) in dynamischen Interaktionen – hier beim Texas Hold'em Poker – ein ToM‑ähnliches Verhalten entwickeln können, wenn sie über persistente Erinnerung verfügen. Das Ergebnis ist ein klarer Beweis dafür, dass ToM nicht nur in statischen Szenarien, sondern auch in laufenden Gesprächen und Spielen entstehen kann.</p> <p>Die Studie umfasste 20 unabhängige Experimente m

arXiv – cs.AI
Forschung

<h1>LLMs verlieren bei gleichzeitigem Formatieren und Aufgaben 2–21 % Genauigkeit</h1> <p>Eine neue Studie von Forschern auf arXiv zeigt, dass große Sprachmodelle (LLMs) bei gleichzeitigem Formatieren und komplexen Aufgaben deutlich an Genauigkeit verlieren. Die Untersuchung nutzt einen Ansatz aus der kognitiven Psychologie, der die Fähigkeit zur „prospektiven Erinnerung“ – also das Behalten von Aufgaben bis zu einem späteren Zeitpunkt – in den Fokus rückt.</p> <p>Die Autoren kombinierten prüfbare Formatier

arXiv – cs.AI
Forschung

<p>Persistente Speicheradapter schaffen dauerhafte Erinnerung in Decoder-Only LLMs</p> <p>In einer neuen Studie wird gezeigt, dass selbst vollständig eingefrorene Decoder‑Only‑Sprachmodelle – wie GPT‑2 – mit gezielten Speicheradaptern eine dauerhafte Erinnerung im latenten Raum erhalten können. Der Ansatz nutzt die Idee, dass die versteckten Repräsentationen eines Modells normalerweise nach jedem Durchlauf verworfen werden, und fügt stattdessen einen kleinen, trainierbaren Adapter ein, der die Erinnerung sp

arXiv – cs.LG