Gewichtungsabnahme, Temperatur‑Skalierung & Early Stopping steigern Deep‑Ensemble
Die neu entwickelte Methode kombiniert Gewichtungsabnahme, Temperatur‑Skalierung und Early‑Stopping, um die Generalisierung von neuronalen Netzen zu verbessern. Durch die gleichzeitige Optimierung dieser drei Hyperparameter werden die Modelle robuster gegen Überanpassung und liefern stabilere Vorhersagen. Im Vergleich zu herkömmlichen Verfahren, die meist nur einen dieser Parameter anpassen, zeigt die Studie, dass die kombinierte Strategie die Test‑Genauigkeit signifikant steigert. Besonders bei kleinen Datensätzen profitieren Modelle von der reduzierten Varianz, während bei großen Datensätzen die Lernrate effizienter gesteuert wird. Die Autoren betonen, dass die Methode leicht in bestehende Trainingspipelines integriert werden kann und keine zusätzlichen Rechenressourcen erfordert. Erste Experimente deuten darauf hin, dass die Kombination von Gewichtungsabnahme, Temperatur‑Skalierung und Early‑Stopping die Leistung von Deep‑Learning‑Modellen nachhaltig verbessert.