Meta-Policy Controller verbessert Unsicherheitskalibrierung in Evidential Learning

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Traditionelle Evidential Deep Learning‑Modelle setzen auf feste Hyperparameter, was ihre Anpassungsfähigkeit an sich verändernde Datenverteilungen stark einschränkt. Das neue Meta‑Policy Controller‑Framework (MPC) löst dieses Problem, indem es die KL‑Divergenz‑Koeffizienten und die Dirichlet‑Prior‑Stärken dynamisch anpasst.

MPC nutzt eine bi‑level‑Optimierung: Im inneren Loop werden die Modellparameter mit einem loss‑Funktion aktualisiert, die sich an den aktuellen Trainingszustand anpasst. Im äußeren Loop optimiert ein Policy‑Netzwerk die KL‑Koeffizienten und die klassen­spezifischen Dirichlet‑Prioren anhand mehrerer Belohnungsziele, die sowohl die Vorhersagegenauigkeit als auch die Qualität der Unsicherheit berücksichtigen.

Durch die lernbaren Dirichlet‑Prioren kann MPC flexibel auf unterschiedliche Klassenverteilungen und Trainingsdynamiken reagieren – ein entscheidender Vorteil gegenüber bisherigen Methoden mit festen Prioren. Umfangreiche Experimente zeigen, dass MPC die Zuverlässigkeit und Kalibrierung der Vorhersagen deutlich verbessert, die Genauigkeit steigert und die Leistung auch nach einer auf Konfidenz basierenden Stichprobenablehnung stabil hält.

Ähnliche Artikel