RAST‑MoE: Neues Mixture‑of‑Experts‑Modell steigert Ride‑Hailing‑Effizienz um 13 %
Ride‑Hailing‑Plattformen stehen vor der Aufgabe, die Wartezeiten der Passagiere mit der Gesamteffizienz des Systems in einem stark schwankenden Angebot‑Nachfrage‑Umfeld auszubalancieren. Adaptive verzögerte Zuordnung schafft einen Kompromiss zwischen sofortiger Zuordnung und Batch‑Matching, indem entschieden wird, ob Fahrer sofort zugewiesen oder Anfragen zusammengefasst werden.
Da die Ergebnisse über lange Zeiträume mit stochastischen Dynamiken akkumulieren, ist Reinforcement Learning (RL) ein geeignetes Werkzeug. Bestehende Ansätze vereinfachen jedoch häufig die Verkehrsdynamik oder nutzen flache Encoder, die komplexe räumlich‑zeitliche Muster vernachlässigen. Der Regime‑Aware Spatio‑Temporal Mixture‑of‑Experts (RAST‑MoE) adressiert diese Lücken, indem er adaptive verzögerte Zuordnung als regime‑bewussten MDP formalisiert und einen selbst‑Aufmerksamkeits‑MoE‑Encoder einsetzt.
Im Gegensatz zu monolithischen Netzwerken spezialisieren sich die Experten automatisch, was die Repräsentationskapazität erhöht und gleichzeitig die Recheneffizienz erhält. Ein physik‑informierter Stau‑Surrogat liefert realistische Dichte‑Geschwindigkeits‑Feedbacks, wodurch Millionen von effizienten Rollouts möglich sind. Ein adaptives Belohnungsschema verhindert pathologische Strategien. Mit lediglich 12 Mio. Parametern übertrifft RAST‑MoE starke Baselines.
Auf realen Uber‑Trajektordaten aus San Francisco steigert das Modell die Gesamtbelohnung um mehr als 13 %, reduziert die durchschnittlichen Matching‑ und Pickup‑Verzögerungen um 10 % bzw. 15 %. Es zeigt Robustheit gegenüber unbekannten Nachfrage‑Regimen und stabile Trainingsverläufe. Diese Ergebnisse unterstreichen das Potenzial von MoE‑verbessertem RL für großskalige Entscheidungsprozesse mit komplexen räumlich‑zeitlichen Dynamiken.