Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “WISE”
Forschung

<p>Neue Theorie erklärt, warum Entropie in Sprachmodellen mit Genauigkeit korreliert</p> <p>Eine kürzlich veröffentlichte Studie auf arXiv beleuchtet ein zentrales Rätsel der KI-Forschung: Warum zeigen die internen Entropie‑Dynamiken von großen Sprachmodellen (LLMs) eine so starke Korrelation mit der tatsächlichen Richtigkeit ihrer Antworten? Die Autoren führen die „Stepwise Informativeness Assumption“ (SIA) ein, die besagt, dass autoregressive Modelle dann korrekt antworten, wenn sie im Verlauf der Textgen

arXiv – cs.AI
Forschung

<h1>HYPER‑TINYPW: Kompression durch Generierung für TinyML auf Mikrocontrollern</h1> <p>Die Ausführung von neuronalen Netzwerken auf Mikrocontrollern ist stark durch die begrenzten Flash‑ und SRAM‑Ressourcen eingeschränkt. Besonders die 1×1‑Pointwise‑Mixer (PW) verbrauchen selbst nach INT8‑Quantisierung einen Großteil des Speicherplatzes in Vision-, Audio‑ und Wearable‑Sensing‑Anwendungen. Mit dem neuen Ansatz HYPER‑TINYPW wird dieser Engpass durch eine „Compression‑as‑Generation“-Strategie überwunden.</p>

arXiv – cs.LG
Forschung

Implicit Turn-Wise Policy Optimization: Proaktive Mensch-LLM-Interaktion neu <p>Die Zusammenarbeit zwischen Mensch und KI in mehrstufigen Dialogen ist entscheidend für moderne interaktive Dienste wie adaptives Tutoring, konversationelle Empfehlungen und professionelle Beratung. Trotz großer Fortschritte bleibt die Optimierung solcher Interaktionen über Reinforcement Learning (RL) eine Herausforderung, weil Zwischenbelohnungen selten und die Reaktionen der Nutzer stark stochastisch sind.</p> <p>Um diese

arXiv – cs.LG
Forschung

<p>Annealed Co-Generation: Variablen entwirren mit schrittweiser Paarmodellierung</p> <p>Wissenschaftler haben ein neues Verfahren namens Annealed Co-Generation (ACG) vorgestellt, das die Modellierung mehrdimensionaler Daten revolutioniert. Durch die Aufteilung komplexer Zusammenhänge in Paare von Variablen wird die Rechenlast deutlich reduziert und das Problem von Datenungleichgewicht angegangen.</p> <p>Traditionelle Ansätze versuchen, sämtliche Variablen gleichzeitig zu modellieren, was zu enormen Rechena

arXiv – cs.LG
Forschung

<p>LLM-gestützte Planung mit PDDL-Simulation: Neue Erkenntnisse</p> <p>In einer aktuellen Studie wird untersucht, ob große Sprachmodelle (LLMs) als effektive Planer für autonome Robotiksysteme fungieren können. Dazu wurde PyPDDLEngine entwickelt – ein Open‑Source‑Simulationswerkzeug für die Planning Domain Definition Language (PDDL), das LLMs über ein Model Context Protocol (MCP) als Tool‑Calls nutzen lässt.</p> <p>Im Gegensatz zu herkömmlichen Planern, die einen kompletten Aktionsplan auf einmal generieren

arXiv – cs.AI