Anthropic plant Schutzfilter, um KI vor Nuklearwaffen zu hindern
Anzeige
Anthropic hat mit der US-Regierung zusammengearbeitet, um einen Filter zu entwickeln, der die KI Claude daran hindern soll, bei der Konstruktion einer Nuklearwaffe zu helfen. Die Maßnahme soll verhindern, dass die Technologie für schädliche Zwecke missbraucht wird.
Fachleute sind jedoch gespalten: Einige sehen den Filter als notwendige Vorsichtsmaßnahme, während andere Zweifel an seiner Wirksamkeit und Notwendigkeit äußern. Die Debatte verdeutlicht die Herausforderungen, die mit der sicheren Entwicklung von KI-Systemen verbunden sind.
Ähnliche Artikel
MarkTechPost
•
Anthropic’s New Research Shows Claude can Detect Injected Concepts, but only in Controlled Layers
Wired – AI (Latest)
•
Anthropic nutzt Claude-Chats zur Modellverbesserung – So kannst du dich abmelden
Ars Technica – AI
•
Anthropic‑AI‑Grenzen: White‑House‑Beamte frustriert über Beschränkungen
Ars Technica – AI
•
Claude's neues Dateierstellungs-Feature birgt Sicherheitsrisiken
The Register – Headlines
•
Anthropic: Claude-Chatverläufe werden fünf Jahre gespeichert – abmelden möglich
ZDNet – Artificial Intelligence
•
Claude im Chrome: Anthropic startet Browser-Erweiterung – so bekommst du Zugang