Maschinelles Lernen schätzt Energieverbrauch virtueller Server exakt
Ein neues Forschungsdokument aus dem arXiv-Repository zeigt, wie man den Energieverbrauch von virtuellen Servern zuverlässig schätzen kann – ganz ohne Zugriff auf physische Messgeräte. Durch die Analyse von Ressourcennutzungsdaten, die von den Gastsystemen selbst erfasst werden, trainiert ein Gradient‑Boosting‑Regressor die Vorhersage des Stromverbrauchs, der üblicherweise über RAPL (Running Average Power Limit) am Host gemessen wird.
Die Studie demonstriert erstmals, dass reine Guest‑Metriken ausreichen, um den Energieverbrauch präzise zu bestimmen, ohne privilegierten Zugriff auf den Host. In einer Reihe von Tests mit unterschiedlichen Arbeitslasten erreichte das Modell eine R²‑Wert zwischen 0,90 und 0,97 – ein deutliches Indiz für hohe Genauigkeit und erklärbare Varianz.
Diese Methode eröffnet neue Möglichkeiten für energieeffiziente Planung und Kostenoptimierung in virtualisierten Umgebungen, etwa in Cloud‑Infrastrukturen, wo direkte Messungen praktisch unmöglich sind. Durch hostunabhängige Schätzungen können Betreiber ihre Ressourcen besser steuern und gleichzeitig die Umweltbelastung reduzieren.