LLMs halluzinieren: Warum und wie Bewertungssysteme das Problem verstärken
Anzeige
Large Language Models (LLMs) erzeugen häufig „Halluzinationen“ – überzeugende, aber falsche Antworten. Trotz Fortschritten in Training und Architektur bleiben diese Phänomene bestehen. Eine neue Studie von OpenAI liefert eine klare Erklärung: Halluzinationen entstehen aus statistischen Unterschieden zwischen überwachten und selbstüberwachten Lernmethoden. Gleichzeitig verstärken falsche oder nicht ausgerichtete Evaluierungsbenchmarks das Problem, indem sie Modelle belohnen, die plausibel, aber inkorrekt antworten.
Ähnliche Artikel
arXiv – cs.AI
•
Learned Hallucination Detection in Black-Box LLMs using Token-level Entropy Production Rate
ZDNet – Artificial Intelligence
•
OpenAI erreicht 1 Million Geschäftskunden – ist der ROI für KI endlich positiv?
Gary Marcus – Marcus on AI
•
Sam Altman sorgt erneut für Aufsehen
arXiv – cs.AI
•
Agentmandering: Spieltheoretisches Modell für faire Wahlkreisbildung
arXiv – cs.AI
•
AdversariaLLM: Einheitliches Tool zur Forschung an LLM‑Sicherheit
arXiv – cs.AI
•
LLM-Tests: RAG-System übertrifft geschlossene Modelle Hochtemperatur-Supraleitung