Neue Kaczmarz‑Algorithmen verbessern Echtzeit‑Matchmaking ohne Bias
In einer neuen Studie werden Kaczmarz‑basierte Lernverfahren vorgestellt, die das Echtzeit‑Matchmaking in personalisierten Empfehlungs‑Systemen deutlich verbessern. Durch die gängige L2‑Normalisierung nach jedem Schritt…
- In einer neuen Studie werden Kaczmarz‑basierte Lernverfahren vorgestellt, die das Echtzeit‑Matchmaking in personalisierten Empfehlungs‑Systemen deutlich verbessern.
- Durch die gängige L2‑Normalisierung nach jedem Schritt entsteht ein exponentieller „Recency Bias“, bei dem die Wirkung einer Interaktion nach etwa 20 Swipes fast verschw…
- Die Autoren ersetzen diesen Schritt durch einen Tikhonov‑regularisierten Projektionsbegriff, der die Schrittgröße analytisch begrenzt, ohne die Historie der Interaktion…
In einer neuen Studie werden Kaczmarz‑basierte Lernverfahren vorgestellt, die das Echtzeit‑Matchmaking in personalisierten Empfehlungs‑Systemen deutlich verbessern. Durch die gängige L2‑Normalisierung nach jedem Schritt entsteht ein exponentieller „Recency Bias“, bei dem die Wirkung einer Interaktion nach etwa 20 Swipes fast verschwindet. Die Autoren ersetzen diesen Schritt durch einen Tikhonov‑regularisierten Projektionsbegriff, der die Schrittgröße analytisch begrenzt, ohne die Historie der Interaktionen zu verlieren.
Wenn die Kandidaten‑Tag‑Vektoren nicht vorab normalisiert sind – was in realen Anwendungen üblich ist – liefert der Tikhonov‑Nenner ‖a‖² + α adaptive Schrittgrößen für jeden Kandidaten. Damit unterscheiden sich die Verfahren strukturell von Online‑Gradient‑Descent mit fester Lernrate.
Ein Block‑Variante, die komplette Swipe‑Sitzungen als ein einziges Gram‑Matrix‑Problem löst, zeigt in Simulationen mit 6 400 Swipes die besten Ergebnisse. Das Block‑Normalized‑Kaczmarz‑Modell (BlockNK) erzielt die höchste Präferenz‑Ausrichtung (Align@20 = 0,698), die stärkste Stabilität zwischen den Sitzungen (Δ = 0,994) und die flatteste Abnahme bei Rausch‑Labels über Flip‑Raten von 10 % bis 35 %.
Weiterhin demonstrieren Experimente mit Cosinus‑Ähnlichkeits‑Subsampling, dass eine adaptive Filterung des Kandidatenpools in Richtung der aktuellen Präferenz die asymptotische Ausrichtung weiter verbessert, allerdings mit einem gewissen Kostenaufwand verbunden ist.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.