Forschung
<p>LLM-Halluzinationen intern erkennen: Weak‑Supervised Distillation in Transformers</p> <p>Forscher haben einen neuen Ansatz entwickelt, um Halluzinationen in großen Sprachmodellen (LLMs) ohne externe Prüfungen zu erkennen. Anstatt bei der Inferenz auf Goldantworten, Suchsysteme oder zusätzliche Urteilsmodelle angewiesen zu sein, wird die notwendige Supervision während des Trainings in die eigenen Modellrepräsentationen eingebettet.</p> <p>Der Schlüssel liegt in einem schwach überwachten Rahmen, der drei e
arXiv – cs.AI