Reinforcement Learning: DDPG mit TiDE schlägt Buy-and-Hold bei Asset Allocation

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In einer aktuellen Veröffentlichung auf arXiv wird gezeigt, wie Deep‑Reinforcement‑Learning die klassische Problemstellung der optimalen Vermögensallokation zwischen riskanten und risikofreien Anlagen neu definiert. Durch die Formulierung des Problems als Markov Decision Process (MDP) können Agenten dynamische Strategien entwickeln, die nicht von starren Verteilungsannahmen abhängig sind.

Der Ansatz kombiniert den Deep Deterministic Policy Gradient (DDPG) Algorithmus mit dem Time‑Series Dense Encoder (TiDE), einem neuronalen Netzwerk, das Zeitreihen effizient verarbeitet. Zusätzlich wird das Kelly‑Kriterium eingesetzt, um kurzfristige Belohnungen mit langfristigen Renditezielen in Einklang zu bringen. So entsteht ein kontinuierliches Entscheidungsmodell, das in simulierten Marktszenarien trainiert wird.

Bei den Experimenten übertrifft die DDPG‑TiDE‑Strategie sowohl ein einfaches Q‑Learning‑Modell mit diskreten Aktionen als auch die klassische Buy‑and‑Hold‑Strategie. Die Ergebnisse zeigen höhere risikoadjustierte Renditen und eine robustere Performance gegenüber Marktvolatilität.

Die Studie legt nahe, dass die Integration von TiDE in ein DDPG‑Framework ein vielversprechender Ansatz ist, um die Herausforderungen der optimalen Asset Allocation zu adressieren. Weitere Untersuchungen könnten die Anwendung auf komplexere Portfolios und reale Marktdaten vertiefen.

Ähnliche Artikel