Overfitting vs. Underfitting: Das Geheimnis des Bias-Variance-Trade-Off

Towards Data Science Original ≈1 Min. Lesezeit
Anzeige

In der Welt des maschinellen Lernens gilt: Der optimale Punkt liegt zwischen zwei Extremen – Overfitting und Underfitting. Overfitting bedeutet, dass ein Modell die Trainingsdaten zu genau abbildet und dadurch bei neuen Daten versagt. Underfitting dagegen lässt wichtige Muster unentdeckt.

Der Schlüssel liegt im Bias‑Variance‑Trade‑Off: Ein Modell mit zu hoher Bias lernt zu wenig, ein Modell mit zu hoher Varianz lernt zu viel. Die besten Modelle finden die Balance, generalisieren zuverlässig und behalten dabei genügend Flexibilität, um komplexe Zusammenhänge zu erfassen, ohne die Daten zu überstrapazieren.

So leben die leistungsstärksten Modelle im „sweet spot“ – sie lernen genug, generalisieren gut und bleiben dabei robust gegenüber neuen Daten.

Ähnliche Artikel