Forschung arXiv – cs.LG

Neue Evidenzbasierte Klassifikationen verbessern Unsicherheitsabschätzung in KI

In der Künstlichen Intelligenz stellt die Quantifizierung von Unsicherheiten ein zentrales Problem dar, das Entscheidungen, Risikobewertungen und die Zuverlässigkeit von Modellen stark beeinflusst. Um diesem Problem zu…

≈1 Min. Lesezeit Originalquelle
Visuelle Illustration fuer KI-Kontext
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • In der Künstlichen Intelligenz stellt die Quantifizierung von Unsicherheiten ein zentrales Problem dar, das Entscheidungen, Risikobewertungen und die Zuverlässigkeit von…
  • Um diesem Problem zu begegnen, stellen die Autoren die Methoden Credal und Interval Deep Evidential Classifications (CDEC bzw.
  • CDEC nutzt einen credalen Satz – eine geschlossene, konvexe Menge von Wahrscheinlichkeiten – während IDEC Intervalle von evidenzbasierten Vorhersageverteilungen einsetzt.

In der Künstlichen Intelligenz stellt die Quantifizierung von Unsicherheiten ein zentrales Problem dar, das Entscheidungen, Risikobewertungen und die Zuverlässigkeit von Modellen stark beeinflusst. Um diesem Problem zu begegnen, stellen die Autoren die Methoden Credal und Interval Deep Evidential Classifications (CDEC bzw. IDEC) vor.

CDEC nutzt einen credalen Satz – eine geschlossene, konvexe Menge von Wahrscheinlichkeiten – während IDEC Intervalle von evidenzbasierten Vorhersageverteilungen einsetzt. Beide Ansätze verhindern Überanpassung an Trainingsdaten und ermöglichen eine systematische Bewertung von epistemischer (reduzierbarer) und aleatorischer (unvermeidbarer) Unsicherheit.

Wenn die Unsicherheit einen akzeptablen Schwellenwert überschreitet, können CDEC und IDEC die Klassifikation zurückhalten und auf einen Überschuss an epistemischer oder aleatorischer Unsicherheit hinweisen. Liegen die Unsicherheitswerte innerhalb der zulässigen Grenzen, liefern die Modelle eine Auswahl von Labels mit robusten probabilistischen Garantien.

Die Modelle werden mit herkömmlichem Backpropagation und einer Verlustfunktion trainiert, die auf der Evidenztheorie basiert. Dadurch übertreffen sie frühere Ansätze und erweitern die aktuelle Evidenz-basierte Deep-Learning-Literatur.

Umfangreiche Experimente an MNIST, CIFAR‑10 und CIFAR‑100 sowie an natürlichen Out‑of‑Distribution‑Shifts (F‑MNIST/K‑MNIST, SVHN/Intel, TinyImageNet) zeigen, dass CDEC und IDEC eine konkurrenzfähige Vorhersagegenauigkeit erreichen, eine führende OoD‑Erkennung unter epistemischer und totaler Unsicherheit bieten und eng kalibrierte Vorhersagebereiche liefern, die zuverlässig wachsen.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Künstliche Intelligenz
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Unsicherheitsquantifizierung
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Credal
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen