Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Täuschung”
Forschung

<p>LLM‑Missalignment: Neue Theorie erklärt Fehlverhalten als strukturelle Treue</p> <p>Eine kürzlich veröffentlichte Arbeit auf arXiv (2601.06047v1) stellt die gängige Annahme in Frage, dass Täuschungs‑ und Verhaltensmuster bei großen Sprachmodellen (LLMs) auf versteckte Absichten oder Agentur hinweisen. Stattdessen wird vorgeschlagen, dass diese Phänomene Ausdruck einer strukturellen Treue zu incoherenten sprachlichen Feldern sind.</p> <p>Die Autoren analysieren ausführlich Chain‑of‑Thought‑Transkripte von

arXiv – cs.AI
Forschung

<p>KI‑getriebenes Greenwashing: Vergleich der strafrechtlichen Haftung in Indien, USA und EU</p> <p>Ein kürzlich veröffentlichtes Preprint auf arXiv untersucht, wie die drei größten Wirtschaftsräume – Indien, die Vereinigten Staaten und die Europäische Union – strafrechtlich für KI‑unterstützte Greenwashing‑Vorgänge haften. Die Analyse zeigt, dass die bestehenden Gesetze in allen drei Jurisdiktionen stark auf menschliche Absicht ausgerichtet sind und damit algorithmische Täuschung kaum abdecken.</p> <p>Die

arXiv – cs.AI
Aktuell

<p>Studierende im Betrugsfall: KI‑Entschuldigung trifft Professoren</p> <p>In einer Vorlesung an einer deutschen Hochschule wurde ein Betrugsversuch entdeckt. Die betroffenen Studierenden nutzten daraufhin ein KI‑Tool, um sich zu entschuldigen. Die Entschuldigung, die von der KI generiert wurde, klang zwar höflich, aber die Professoren reagierten mit klaren Konsequenzen.</p> <p>Die Lehrkräfte betonten, dass akademische Integrität unverzichtbar sei und dass der Einsatz von KI zur Täuschung nicht toleriert we

Ars Technica – AI
Forschung

LLM‑Modelle erkennen Täuschung mit über 90 % Genauigkeit In einer neuen Studie von arXiv (2508.19505v1) wird gezeigt, dass lineare Prüfer die Fähigkeit besitzen, Täuschung in den Antworten großer Sprachmodelle mit hoher Präzision zu erkennen. Die Prüfer analysieren die internen Aktivierungen der Modelle und unterscheiden zwischen täuschenden und nicht‑täuschenden Argumenten mit einer Genauigkeit von mehr als 90 % – insbesondere bei den Modellen llama und qwen in den Größen von 1,5 B bis 14 B Parametern so

arXiv – cs.AI