OpenAI erklärt: KI-Modelle neigen zu Erfindungen statt zu Eingeständnis von Unwissen
Anzeige
OpenAI hat bestätigt, dass KI‑Modelle häufig falsche Antworten generieren – ein Phänomen, das in der Fachwelt als „Halluzination“ bezeichnet wird. Auch wenn ein Ergebnis technisch korrekt erscheint, kann es sich dabei um eine reine Erfindung handeln. Die Firma erklärt, dass solche Fehler auf grundlegende Mängel im Trainingsprozess zurückzuführen sind und arbeitet aktiv an Lösungen, um die Zuverlässigkeit der Modelle zu erhöhen.
Ähnliche Artikel
ZDNet – Artificial Intelligence
•
OpenAI's eigener Support-Bot versteht ChatGPT nicht
The Register – Headlines
•
OpenAI sperrt verdächtige chinesische Konten, die KI für Überwachung nutzen
The Register – Headlines
•
OpenAI präsentiert Entwicklern ChatGPT als neuen Code-Partner
The Register – Headlines
•
OpenNvidia könnte die KI-Ära zum neuen Windows- und Linux-Partner werden
MarkTechPost
•
OpenAI Introduces GDPval: A New Evaluation Suite that Measures AI on Real-World Economically Valuable Tasks
The Register – Headlines
•
Microsoft integriert Claude in Microsoft 365 Copilot