Anthropic durchsucht Claude-Chat nach DIY-Atomwaffen-Anfragen
Anzeige
Anthropic hat einen Teil der Gespräche mit seinem KI-Modell Claude durchsucht, um beunruhigende Anfragen zu Atomwaffen zu erkennen.
Die Initiative folgt dem Prinzip, dass selbst raffinierte Terroristen öffentliche Internetdienste nutzen, um ihre Pläne zu schmieden. Durch die Analyse von Chatverläufen soll das Unternehmen potenzielle Bedrohungen frühzeitig identifizieren.
Der genaue Umfang der gescannten Konversationen bleibt vertraulich, doch Anthropic betont, dass die Maßnahme Teil seiner Sicherheitsstrategie ist, um die missbräuchliche Nutzung der KI zu verhindern.
Mit dieser Vorgehensweise setzt das Unternehmen ein klares Signal: Die Entwicklung und der Einsatz von KI sollen nicht für die Planung von Atomwaffen missbraucht werden.
Ähnliche Artikel
MarkTechPost
•
Anthropic’s New Research Shows Claude can Detect Injected Concepts, but only in Controlled Layers
Wired – AI (Latest)
•
Anthropic plant Schutzfilter, um KI vor Nuklearwaffen zu hindern
Wired – AI (Latest)
•
Anthropic nutzt Claude-Chats zur Modellverbesserung – So kannst du dich abmelden
Ars Technica – AI
•
Anthropic‑AI‑Grenzen: White‑House‑Beamte frustriert über Beschränkungen
Ars Technica – AI
•
Claude's neues Dateierstellungs-Feature birgt Sicherheitsrisiken
The Register – Headlines
•
Anthropic: Claude-Chatverläufe werden fünf Jahre gespeichert – abmelden möglich