Claude kann jetzt Gespräche beenden – zum Schutz des Modells
Anzeige
Anthropic hat seinem Chatbot Claude die Möglichkeit verliehen, toxische Gespräche eigenständig zu beenden. Diese neue Funktion ist Teil einer umfassenden Initiative zum Modellwohlbefinden, die darauf abzielt, die Sicherheit und Stabilität der KI zu erhöhen.
Durch das Beenden von Gesprächen, die potenziell schädlich oder missbräuchlich sind, soll das Modell vor schädlichen Einflüssen geschützt werden. Die Maßnahme unterstreicht Anthropics Engagement, verantwortungsvolle KI-Entwicklung zu fördern und gleichzeitig die Nutzererfahrung zu verbessern.
Ähnliche Artikel
VentureBeat – AI
•
Google debuts AI chips with 4X performance boost, secures Anthropic megadeal worth billions
MarkTechPost
•
Anthropic’s New Research Shows Claude can Detect Injected Concepts, but only in Controlled Layers
The Register – Headlines
•
Claude code will send your data to crims ... if they ask it nicely
VentureBeat – AI
•
Anthropic scientists hacked Claude’s brain — and it noticed. Here’s why that’s huge
VentureBeat – AI
•
Anthropic rolls out Claude AI for finance, integrates with Excel to rival Microsoft Copilot
Wired – AI (Latest)
•
Anthropic plant Schutzfilter, um KI vor Nuklearwaffen zu hindern