Forschung
Wie entstehen Halluzinationen in Sprachmodellen? Ein graphbasiertes Analysemodell
In großen Sprachmodellen (LLMs) tauchen häufig „Reasoning‑Halluzinationen“ auf: flüssige, aber faktisch unzutreffende Aussagen, die weder d…
arXiv – cs.AI