Anthropic nutzt Claude-Chats zur Modellverbesserung – So kannst du dich abmelden
Anzeige
Anthropic hat angekündigt, dass künftig neue Claude‑Chats als Trainingsdaten für seine Modelle verwendet werden. Damit soll die KI noch besser auf Nutzeranfragen reagieren können.
Benutzer, die ihre Unterhaltungen nicht in die KI‑Weiterentwicklung einfließen lassen möchten, haben die Möglichkeit, sich abzumelden. Öffne dazu die Einstellungen, wähle den Bereich „Datenschutz“ und deaktiviere die Option „Chat‑Daten für Training nutzen“. Sobald die Einstellung gespeichert ist, werden deine Gespräche nicht mehr für das Training herangezogen.
Durch das Opt‑Out schützt du deine Privatsphäre, während Anthropic weiterhin an der Verbesserung seiner KI arbeitet. So bleibt die Nutzung von Claude sicher und transparent.
Ähnliche Artikel
The Register – Headlines
•
Anthropic: Claude-Chatverläufe werden fünf Jahre gespeichert – abmelden möglich
MarkTechPost
•
Anthropic’s New Research Shows Claude can Detect Injected Concepts, but only in Controlled Layers
Wired – AI (Latest)
•
Anthropic plant Schutzfilter, um KI vor Nuklearwaffen zu hindern
Ars Technica – AI
•
Anthropic‑AI‑Grenzen: White‑House‑Beamte frustriert über Beschränkungen
Ars Technica – AI
•
Claude's neues Dateierstellungs-Feature birgt Sicherheitsrisiken
ZDNet – Artificial Intelligence
•
Claude im Chrome: Anthropic startet Browser-Erweiterung – so bekommst du Zugang