Erfolg von Gründern vorhersagen: Grenzen der Karriere‑Daten
Forscher haben die Herausforderung angegangen, den Erfolg von Start‑Ups anhand der Karriere‑Daten ihrer Gründer vorherzusagen. Dabei stoßen sie auf ein schwaches Signal, seltene Erfolgslabels (nur 9 %) und die Tatsache…
- Forscher haben die Herausforderung angegangen, den Erfolg von Start‑Ups anhand der Karriere‑Daten ihrer Gründer vorherzusagen.
- Dabei stoßen sie auf ein schwaches Signal, seltene Erfolgslabels (nur 9 %) und die Tatsache, dass erfolgreiche Gründer fast identisch zu denen aussehen, die scheitern.
- Um diese Grenzen zu überwinden, haben sie 28 strukturierte Features direkt aus den rohen JSON‑Feldern – Jobs, Ausbildung und Exit‑Daten – extrahiert.
Forscher haben die Herausforderung angegangen, den Erfolg von Start‑Ups anhand der Karriere‑Daten ihrer Gründer vorherzusagen. Dabei stoßen sie auf ein schwaches Signal, seltene Erfolgslabels (nur 9 %) und die Tatsache, dass erfolgreiche Gründer fast identisch zu denen aussehen, die scheitern.
Um diese Grenzen zu überwinden, haben sie 28 strukturierte Features direkt aus den rohen JSON‑Feldern – Jobs, Ausbildung und Exit‑Daten – extrahiert. Diese Features werden mit einer deterministischen Regel‑Schicht und XGBoost‑gestützten Boosted Stumps kombiniert. Das Modell erzielt dabei eine Validierungs‑F0.5‑Score von 0,3030, eine Präzision von 0,3333 und einen Recall von 0,2222 – ein Plus von 17,7 pp gegenüber einer Zero‑Shot‑LLM‑Baseline.
In einem kontrollierten Experiment wurden neun Features aus dem Prose‑Feld mit Claude Haiku extrahiert, sowohl bei 67 % als auch bei 100 % Datensatzabdeckung. Die LLM‑Features erklären zwar 26,4 % der Modell‑Wichtigkeit, liefern jedoch keinen zusätzlichen Cross‑Validation‑Signal (Delta = –0,05 pp). Der Grund liegt in der Struktur: anonymisierte Prose ist lediglich eine verlustbehaftete Re‑Kodierung der gleichen JSON‑Daten und bietet keine reichhaltigere Informationsquelle.
Die beobachtete Leistungsobergrenze (CV ≈ 0,25, Val ≈ 0,30) spiegelt den Informationsgehalt des Datensatzes wider und nicht eine Modell‑Beschränkung. Diese Arbeit fungiert als Benchmark‑Diagnose und zeigt klar auf, welche zusätzlichen Daten nötig wären, um die Vorhersagekraft weiter zu steigern.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.