Anthropic‑AI‑Grenzen: White‑House‑Beamte frustriert über Beschränkungen
Anzeige
White‑House‑Beamte haben ihre Unzufriedenheit über die Beschränkungen der Anthropic‑Claude‑Chatbot‑Nutzungsrichtlinien zum Ausdruck gebracht. Die Regeln verhindern, dass Mitarbeiter des FBI und des Secret Service die KI für ihre Arbeit einsetzen können. Dadurch sind wichtige Projekte und Ermittlungen behindert, so die Beamten. Anthropic hat die Richtlinien eingeführt, um Missbrauch zu verhindern, doch die Behörden sehen die Einschränkungen als Hindernis für die öffentliche Sicherheit. Die White‑House‑Beamten fordern eine Überprüfung der Vorgaben, um die Einsatzmöglichkeiten der KI für Strafverfolgungsbehörden zu erweitern.
Ähnliche Artikel
MarkTechPost
•
Anthropic’s New Research Shows Claude can Detect Injected Concepts, but only in Controlled Layers
Wired – AI (Latest)
•
Anthropic plant Schutzfilter, um KI vor Nuklearwaffen zu hindern
Wired – AI (Latest)
•
Anthropic nutzt Claude-Chats zur Modellverbesserung – So kannst du dich abmelden
Ars Technica – AI
•
Claude's neues Dateierstellungs-Feature birgt Sicherheitsrisiken
The Register – Headlines
•
Anthropic: Claude-Chatverläufe werden fünf Jahre gespeichert – abmelden möglich
ZDNet – Artificial Intelligence
•
Claude im Chrome: Anthropic startet Browser-Erweiterung – so bekommst du Zugang