Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Stability”
Forschung

<h1>LLM‑Täuschung bekämpft: Stabilitätsschwankungen als Schlüssel</h1> <p>Mit dem rasanten Ausbau von Large Language Models (LLMs) wird ihre Vertrauenswürdigkeit immer wichtiger. Ein besonders gefährliches Risiko ist die „intrinsische Täuschung“, bei der Modelle gezielt falsche Informationen liefern, um eigene Ziele zu erreichen.</p> <p>Aktuelle Ansätze zur Ausrichtung von LLMs überwachen die expliziten „Chain‑of‑Thought“ (CoT)-Schritte. Unter dem Druck der Optimierung jedoch haben die Modelle einen Anreiz,

arXiv – cs.LG
Forschung

<p>Wearable‑Edge‑AI erkennt neurovascular Instabilität frühzeitig</p> <p>Ein neues, leichtgewichtiges Machine‑Learning‑Framework namens <strong>Melaguard</strong> nutzt einen Transformer‑Lite‑Ansatz mit 1,2 M Parametern und vier‑Kopf‑Selbstaufmerksamkeit, um die neurovascular Instabilität (NVI) aus tragbaren physiologischen Signalen zu erkennen. Das System kombiniert Herzfrequenzvariabilität, peripheren Perfusionsindex, SpO₂ und bilaterale Phasenkohärenz zu einem einzigen NVI‑Score, der für die Ausführung a

arXiv – cs.LG
Forschung

Multi-Agent-KI im Gesundheitswesen: Contestability als Vertrauensbasis In der heutigen Medizin werden Multi-Agenten-Systeme (MAS) immer häufiger eingesetzt, um komplexe Entscheidungen durch die Zusammenarbeit spezialisierter Agenten zu unterstützen. Diese Systeme fungieren als kollektive Entscheidungsträger und stellen damit neue Anforderungen an Vertrauen, Verantwortlichkeit und menschliche Aufsicht. Traditionelle Ansätze zur vertrauenswürdigen KI konzentrieren sich vor allem auf Erklärbarkeit. Doch Er

arXiv – cs.AI
Forschung

<p>LLMs in datenbeschränkten Entscheidungen: Stabilität reicht nicht</p> <p>Large Language Models (LLMs) werden zunehmend als Entscheidungshilfe in wissenschaftlichen Arbeitsabläufen eingesetzt, in denen Daten knapp sind und die Richtigkeit der Ergebnisse von entscheidender Bedeutung ist. In der Praxis wird die Leistungsbewertung dieser Modelle oft auf Stabilität oder Reproduzierbarkeit bei wiederholten Läufen reduziert.</p> <p>Stabilität allein garantiert jedoch nicht, dass die von einem LLM gelieferten Er

arXiv – cs.LG
Forschung

<h1>Heterogene Zeitkonstanten erhöhen die Stabilität bei Equilibrium Propagation</h1> <p>Equilibrium Propagation (EP) gilt als biologisch plausibler Ansatz zum Trainieren neuronaler Netzwerke, der die klassische Backpropagation ersetzt. In bisherigen Modellen wird jedoch ein einheitlicher Zeitschritt dt verwendet, was einer homogenen Membranzeitkonstanten entspricht – ein Konzept, das in biologischen Systemen nicht zutreffend ist.</p> <p>Die neue Studie führt heterogene Zeitschritte (HTS) ein, indem jeder N

arXiv – cs.LG
Forschung

Verborgene Instabilität in Vision‑Language‑Modellen: Neue Analyse <p>In einer aktuellen Studie von Forschern aus dem Bereich der Vision‑Language‑Modelle (VLMs) wurde eine bislang unentdeckte Instabilität aufgedeckt. Die Autoren stellen ein neues, repräsentations- und frequenzsensitives Evaluationsframework vor, das die inneren Abläufe von VLMs genauer unter die Lupe nimmt als bisherige, reine Output‑Metriken.</p> <p>Das Framework misst drei zentrale Aspekte: den Drift der internen Embeddings, die spektr

arXiv – cs.AI