Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Forschungspapier”
Forschung

<p>LLMs enthüllen: Latente semantische Manifeste erklären Token‑Mismatch</p> <p>Neues Forschungspapier aus dem arXiv‑Repository präsentiert ein mathematisches Modell, das die inneren Rechenräume großer Sprachmodelle (LLMs) als latente semantische Manifeste interpretiert. Diese Manifeste sind Riemannsche Untermanifeste, die mit dem Fisher‑Information‑Metrik ausgestattet sind. Die Tokens, die die Modelle ausgeben, entsprechen dabei Voronoi‑Regionen, die das Manifold partitionieren.</p> <p>Im Fokus steht die s

arXiv – cs.LG
Forschung

<p>LLMs ermöglichen flexible, aber deterministische wissenschaftliche Workflows</p> <p>Neues Forschungspapier auf arXiv zeigt, dass große Sprachmodelle (LLMs) inzwischen in der Lage sind, die Ziele von Forschern in klare, ausführbare Befehle zu übersetzen. Gleichzeitig stellen wissenschaftliche Workflows hohe Anforderungen an Determinismus, Nachvollziehbarkeit und Governance – Eigenschaften, die schwer zu garantieren sind, wenn ein LLM selbst entscheidet, was ausgeführt wird.</p> <p>Durch halbstrukturierte

arXiv – cs.AI
Forschung

<p>Diffusionsmodelle: Geometrische Analyse zeigt, wann Daten aus Training ausspucken</p> <p>Neues Forschungspapier auf arXiv beleuchtet, wie Diffusionsmodelle – die Algorithmen, die für die Erzeugung hochqualitativer Bilder und Texte bekannt sind – ungewollt Trainingsdaten ausspucken können. Die Autoren stellen fest, dass das Risiko des Ausspuckens von privaten Daten stark von der Stufe des Rauschens abhängt, das während des Trainingsprozesses eingesetzt wird.</p> <p>Durch die Einteilung des Rauschens in dr

arXiv – cs.LG
Forschung

<p>LLMs lernen wie Menschen: Metakognitive Reflexion beschleunigt Selbstverbesserung</p> <p>Neues Forschungspapier aus dem arXiv-Repository präsentiert MARS – einen innovativen Ansatz, mit dem große Sprachmodelle (LLMs) ihre eigenen Fähigkeiten in einem einzigen Reflexionszyklus optimieren können. Während herkömmliche Agenten durch statische, vom Menschen erstellte Eingabeaufforderungen eingeschränkt bleiben, nutzt MARS Prinzipien der Bildungspsychologie, um die Lernprozesse von LLMs nachzuahmen.</p> <p>Der

arXiv – cs.AI
Forschung

PathMind: Neues Framework für Wissensgraphen mit LLMs – Retrieve‑Prioritize‑Reason <p>Ein neues Forschungspapier, veröffentlicht auf arXiv (2511.14256v1), stellt PathMind vor – ein innovatives Framework, das die Leistungsfähigkeit großer Sprachmodelle (LLMs) für die Wissensgraphen‑Reasoning (KGR) deutlich steigert. PathMind kombiniert drei zentrale Schritte: Retrieve, Prioritize und Reason, um präzise und nachvollziehbare Schlussfolgerungen zu ermöglichen.</p> <p>Derzeitige LLM‑basierte KGR‑Methoden sto

arXiv – cs.AI
Forschung

<h1>LLMs zeigen Schwächen beim Schach: neues Bewertungsmodell enthüllt</h1> <p>Neues Forschungspapier aus dem arXiv‑Repository präsentiert ein innovatives, modellunabhängiges Verfahren, mit dem die Fähigkeit großer Sprachmodelle (LLMs) bewertet wird, strukturierte Welten zu verfolgen. Anstatt sich auf interne Aktivierungen zu stützen, nutzt die Methode den Schachspielstand als Prüfstand und untersucht die Verteilung zulässiger Züge, um die semantische Genauigkeit der vom Modell vorhergesagten Spielzustände

arXiv – cs.AI