Halluzinationen in KI: Warum selbst optimale Schätzungen fehlschlagen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Eine neue Studie auf arXiv definiert Halluzinationen in generativen Modellen als das Versagen, eine Schätzung mit einer plausiblen Ursache zu verknüpfen. Selbst bei Verlustminimierung, also bei optimalen Schätzern, kommt es laut der Autoren zu Halluzinationen. Durch einen allgemeinen, mit hoher Wahrscheinlichkeit gültigen unteren Grenzwert für die Halluzinationsrate bei beliebigen Datendistributionen wird gezeigt, dass das Phänomen strukturell in die Diskrepanz zwischen Verlustminimierung und menschlich akzeptablen Ausgaben eingebettet ist. Diese Fehlanpassung führt zu Schätzfehlern, die auf eine Fehlkalibrierung zurückzuführen sind. Experimente zu Münzaggregation, offenen Fragen und Text‑zu‑Bild‑Generierung untermauern die theoretischen Erkenntnisse und verdeutlichen, dass Halluzinationen ein tiefgreifendes Problem in der KI-Forschung darstellen.

Ähnliche Artikel