Deep Reinforcement Learning: Energie‑ und CO₂‑Effizienz bei Atari‑Benchmarks analysiert

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In einer neuen Studie wurden die Energie- und CO₂‑Emissionen von sieben modernen Deep‑Reinforcement‑Learning‑Algorithmen – DQN, TRPO, A2C, ARS, PPO, RecurrentPPO und QR‑DQN – systematisch untersucht. Die Algorithmen wurden jeweils 1 Million Schritte auf zehn Atari‑2600‑Spielen trainiert, wobei der Stromverbrauch in Echtzeit gemessen und in Gesamtenergie, CO₂‑Äquivalente sowie Stromkosten umgerechnet wurde.

Die Ergebnisse zeigen deutliche Unterschiede in der Energieeffizienz: Einige Verfahren verbrauchen bis zu 24 % weniger Energie als andere, während die CO₂‑Emissionen um fast 68 % reduziert werden können. Im Vergleich zu weniger effizienten Modellen sinken die Kosten für Strom und damit die finanziellen Aufwendungen um ebenso viel wie 68 %. Trotz dieser Einsparungen erreichen die effizienteren Algorithmen vergleichbare Lernleistungen.

Die Analyse beleuchtet die Abwägungen zwischen Lernfortschritt, Trainingsdauer, Energieverbrauch und Kosten. Sie liefert konkrete Handlungsempfehlungen, wie durch gezielte Algorithmuswahl sowohl ökologische als auch ökonomische Auswirkungen reduziert werden können, ohne die Leistungsfähigkeit zu beeinträchtigen. Diese Erkenntnisse bilden eine wichtige Grundlage für die Entwicklung energie‑ und kostenbewusster Deep‑Reinforcement‑Learning‑Praxis.

Ähnliche Artikel