Anchor‑MoE: Neue Methode liefert optimale probabilistische Regression
Die Vorhersage von Unsicherheiten in Regressionsaufgaben ist in Wissenschaft und Technik von zentraler Bedeutung. Mit dem neuen Ansatz Anchor‑Mischung von Experten (Anchor‑MoE) wird sowohl die Punkt‑ als auch die probabilistische Regression in einem Modell vereint.
Anchor‑MoE nutzt einen vortrainierten Punktregressor – in der Veröffentlichung ein abgestimmtes Gradient‑Boosting‑Modell – um einen „Anchor‑Mittelwert“ zu erzeugen. Dieser wird in einen latenten Raum projiziert, in dem ein lernbarer, metrischer Kernel die Lokalität bewertet. Anschließend weist ein weicher Router jedes Beispiel einer kleinen Menge von Mischungsdichtes-Netzwerk-Experten zu, die eine heteroskedastische Korrektur und die Vorhersagevarianz liefern.
Das Training erfolgt durch Minimierung der negativen Log‑Likelihood. Auf einer separaten Kalibrierungssplit wird anschließend ein linearer Nachbearbeitungsschritt auf die Mittelwerte angewendet, um die Punktgenauigkeit weiter zu verbessern.
Auf theoretischer Ebene zeigt die Arbeit, dass Anchor‑MoE bei einer Holder‑glatten Regressionsfunktion der Ordnung α und festen Lipschitz‑Gewichtungen einen minimax‑optimalen L²‑Risikorate von O(N⁻²α/(2α+d)) erreicht. Der CRPS‑Generalisation‑Gap skaliert logarithmisch in der Anzahl der Experten und proportional zur Quadratwurzel der Modellkomplexität. Für die Test‑NLL gilt ein ähnliches Ergebnis, solange die Mittelwerte und Varianzen beschränkt bleiben.
Empirisch wurde Anchor‑MoE auf den klassischen UCI‑Regressionsdatensätzen getestet und zeigte im Vergleich zu bestehenden Methoden sowohl höhere Punkt‑ als auch probabilistische Genauigkeit.