Deep Reinforcement Learning stärkt Malware‑Erkennung bei Drift

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In einer neuen Studie aus dem arXiv‑Repository wird ein innovativer Ansatz vorgestellt, der die Erkennung von Malware in dynamischen Umgebungen deutlich verbessert. Das Team hat Malware‑Detection als einen ein‑Schritt‑Markov‑Entscheidungsprozess formuliert und einen Deep‑Reinforcement‑Learning‑Agenten trainiert, der gleichzeitig die Klassifikation von Samples optimiert und bei hohem Risiko entscheidet, welche Fälle manuell überprüft werden sollen.

Die Evaluation erfolgte an Android‑Malware‑Datensätzen, die realistische Konzept‑Drift‑Szenarien über mehrere Jahre abbilden. Der so entwickelte DRMD‑Agent (Deep Reinforcement‑Learning for Malware Detection) zeigte im Vergleich zu klassischen Klassifikatoren eine höhere Area Under Time (AUT) – ein Maß für die langfristige Stabilität der Erkennungsleistung. Die durchschnittlichen AUT‑Verbesserungen betrugen 5,18 % bei reiner Klassifikation, 14,49 % bei Klassifikation mit Ablehnungsmechanismus und 10,06 % bei Kombination aus Ablehnung und aktivem Lernen.

Diese Ergebnisse markieren erstmals einen Durchbruch, indem sie zeigen, dass Reinforcement‑Learning nicht nur die Klassifikationsgenauigkeit steigern, sondern auch aktiv gegen Konzept‑Drift in Malware‑Detektionssystemen vorgehen kann. Der Ansatz eröffnet neue Perspektiven für robuste Sicherheitslösungen, die sich selbstständig an sich wandelnde Bedrohungen anpassen.

Ähnliche Artikel