Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Multi-Agent LLM”
Forschung

Auditierung von Multi-Agenten-LLM-Denkbäumen übertrifft Mehrheitsabstimmung In der Forschung zu Multi-Agenten-Systemen (MAS) wird die Rechenkraft großer Sprachmodelle (LLMs) häufig durch die Zusammenarbeit mehrerer Agenten erweitert. Dennoch setzen die meisten Ansätze noch immer auf eine einfache Mehrheitsabstimmung, um die einzelnen Agentenausgaben zu aggregieren. Diese Heuristik ignoriert jedoch die eigentliche Beweiskette der einzelnen Denkpfade und ist besonders anfällig, wenn die Agenten zu einer

arXiv – cs.AI
Forschung

<p>LLMs entdecken Instrumentvariablen: Multi-Agent-Framework für kausale Analyse</p> <p>In der Forschung, wo ein endogenes Merkmal und das Ergebnis durch Störfaktoren verfälscht werden, sind Instrumentvariablen (IVs) entscheidend, um den kausalen Effekt zu isolieren. Die Suche nach gültigen IVs ist jedoch komplex und erfordert interdisziplinäres Wissen, Kreativität und ein tiefes Verständnis des Kontextes. In einer neuen Studie wird untersucht, ob große Sprachmodelle (LLMs) dabei unterstützen können.</p> <p

arXiv – cs.AI
Forschung

<p>ALIGN: Delegation mit Leistungsgarantien steigert LLM-Logik</p> <p>Die Leistung von großen Sprachmodellen (LLMs) bei komplexen Logikaufgaben bleibt oft hinter den Erwartungen zurück, wenn sie auf einen einzigen Generierungs- und Auswahlprozess angewiesen sind. Inferenzzeit-Ensemble-Methoden können die Genauigkeit verbessern, indem sie verschiedene Denkpfade erfassen oder mehrere Kandidaten aggregieren, behandeln diese jedoch meist unabhängig voneinander und bieten keine formalen Garantien, dass das Ensem

arXiv – cs.LG