Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “ATI”
Forschung

Prompt-Optimierung in KI-Systemen: Zufall oder gezielte Chance?<br/><p>Eine neue Studie von Forschern auf arXiv zeigt, dass die Optimierung von Prompt-Ketten in komplexen KI-Systemen statistisch kaum besser ist als ein Münzwurf. Bei 72 Versuchen mit dem Modell Claude Haiku erreichten 49 % der Optimierungen schlechtere Ergebnisse als die reine Zero‑Shot‑Methode; bei Amazon Nova Lite war die Fehlerrate sogar noch höher.</p><p>Interessanterweise verbesserte sich bei einer einzigen Aufgabe jede der sechs getest

arXiv – cs.AI
Forschung

Künstliche Daten: Wann steigern sie die Leistung von Finanz‑ML?<br/><p>In der Finanzwelt, wo Datenknappheit häufig die Genauigkeit von Machine‑Learning‑Modellen einschränkt, setzen Forscher vermehrt auf synthetische Augmentation. Doch bislang blieb die statistische Wirkung dieser Technik unklar. Ein neues Papier von der arXiv‑Community klärt die Frage, indem es synthetische Daten als gezielte Veränderung der effektiven Trainingsverteilung formalisiert.</p><p>Die Autoren zeigen, dass zusätzliche synthetische

arXiv – cs.AI
Forschung

<h1>LLM-Fehleranalyse: Wie und wann große Sprachmodelle scheitern</h1> <p>Große Sprachmodelle (LLMs) erreichen beeindruckende Ergebnisse, indem sie lange, schrittweise Überlegungen durchführen. Doch genau, wo und warum diese Überlegungen scheitern, bleibt bislang wenig geklärt. Durch die Analyse der von Modellen erzeugten Denkpfade wurde deutlich, dass Fehler nicht gleichmäßig verteilt sind, sondern häufig an wenigen, frühen Übergangspunkten entstehen. Nach diesen kritischen Momenten bleibt die Argumentatio

arXiv – cs.AI