Forschung
<h1>LLM-Agenten: Intentional Deception als kontrollierbare Fähigkeit untersucht</h1> <p>Eine neue Studie von Forschern aus dem Bereich der künstlichen Intelligenz hat gezeigt, dass gezielte Täuschung bei großen Sprachmodellen (LLM) als systematisch einsetzbare Fähigkeit betrachtet werden kann. Durch die Analyse von LLM‑zu‑LLM-Interaktionen in einem textbasierten Rollenspiel wurden die Grenzen und Möglichkeiten von absichtlicher Täuschung in Multi‑Agenten‑Systemen ermittelt.</p> <p>Im Experiment wurden 36 ve
arXiv – cs.AI