Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Wahlen”
Forschung

<h1>LLMs wählen Ziele anders als Menschen – Forschung warnt vor Ersatz</h1> <p>Eine neue Studie von Forschern auf arXiv zeigt, dass große Sprachmodelle (LLMs) bei der Auswahl von Zielen in offenen Aufgaben deutlich von menschlichem Verhalten abweichen.</p> <p>Die Untersuchung testete vier Top-Modelle – GPT‑5, Gemini 2.5 Pro, Claude Sonnet 4.5 und Centaur – in einem kontrollierten Lernexperiment, das aus der Kognitionswissenschaft stammt.</p> <p>Während Menschen allmählich verschiedene Ziele erkunden und dab

arXiv – cs.AI
Aktuell

Sind Sie für die KI-Ära „Agentisch“ genug?<br/><p>Silicon Valley hat KI‑Coding‑Agenten entwickelt, die die meisten Routineaufgaben übernehmen können. Der wahre Wettbewerbsvorteil liegt nun nicht mehr in der Programmierung selbst, sondern darin, die richtigen Aufgaben für diese Agenten auszuwählen und zu steuern. Wer heute die Fähigkeit besitzt, die richtigen Fragen zu stellen und die Agenten gezielt einzusetzen, wird in der Technologiebranche die wertvollste Rolle einnehmen.</p>

Wired – AI (Latest)
Forschung

HiPER: Hierarchisches RL mit expliziter Kreditzuweisung verbessert LLM-Agenten<br/><p>Die neue Methode HiPER löst ein zentrales Problem bei der Nutzung von großen Sprachmodellen (LLMs) als interaktive Agenten: In Aufgaben mit langen Entscheidungsfolgen und spärlichen, verzögerten Belohnungen ist es schwierig, die Verantwortung für einzelne Aktionen korrekt zuzuordnen. Traditionelle Reinforcement‑Learning‑Ansätze behandeln LLMs als flache Richtlinien, die bei jedem Schritt nur eine Aktion wählen. Dadurch mus

arXiv – cs.LG