Shielded Controller Units sichern RL-Optimierung in Fern‑Mikrogrids
Reinforcement Learning (RL) gilt als leistungsstarkes Werkzeug, um Entscheidungsprozesse in komplexen, unsicheren Systemen zu optimieren – ein zentrales Anliegen der Energiewende. Besonders in abgelegenen Mikrogrids, die Gemeinden ohne Anschluss zum Hauptnetz versorgen, muss die Koordination von Windturbinen, Kraftwerken und Batterien exakt erfolgen, um den Strombedarf zu decken, den Kraftstoffverbrauch zu senken und die Batterien vor übermäßigem Verschleiß zu schützen.
Die neue Studie führt Shielded Controller Units (SCUs) ein, ein systematisches und interpretierbares Konzept, das auf vorhandenen Kenntnissen der Systemdynamik basiert. Durch eine hierarchische Aufteilung übernimmt jede SCU einen Teil der regulatorischen und betrieblichen Vorgaben, sodass der RL-Agent stets innerhalb der zulässigen Grenzen agiert.
In einem realitätsnahen Testaufbau für ein Fern‑Mikrogrid zeigte ein RL-Agent, der mit SCUs ausgestattet war, eine beeindruckende Einsparung von 24 % im Kraftstoffverbrauch, ohne die Batterien zu belasten. Im Vergleich zu herkömmlichen Ansätzen übertraf er sämtliche Baselines und erfüllte gleichzeitig sämtliche Vorgaben.
Diese Ergebnisse unterstreichen, dass Shielded Controller Units einen wichtigen Schritt darstellen, um die sichere und regelkonforme Anwendung von Reinforcement Learning in der Energieversorgung zu ermöglichen. Die Autoren hoffen, dass SCUs künftig als Standardwerkzeug für die Optimierung von Mikrogrids und ähnlichen Systemen eingesetzt werden.