<p>Neue Methode namens CORVUS schwächt Halluzinationsdetektoren von LLMs</p> <p>In einer kürzlich veröffentlichten Studie auf arXiv wird die Technik <strong>CORVUS</strong> vorgestellt, die es Angreifern ermöglicht, die internen Signale großer Sprachmodelle zu tarnen und damit gängige Halluzinationsdetektoren zu umgehen. Die Detektoren, die auf Messgrößen wie Unsicherheit, Geometrie des versteckten Zustands und Aufmerksamkeitsverteilungen basieren, gehen implizit davon aus, dass Halluzinationen erkennbare S
Anzeige