Reinforcement Learning initiiert Variationsquantumalgorithmen – Barren Plateaus überwunden
Variationsquantumalgorithmen (VQAs) gelten als vielversprechende Methode, um aktuelle Quantencomputer für Optimierungsaufgaben, Chemiesimulationen und maschinelles Lernen zu nutzen. Ihr Erfolg wird jedoch häufig durch das sogenannte „barren plateau“-Phänomen begrenzt, bei dem die Gradienten mit zunehmender Schaltungstiefe exponentiell abnehmen und das Training stark verlangsamen.
In der neuen Studie wird eine Reinforcement‑Learning‑basierte Initialisierung vorgestellt, die das Problem gezielt adressiert. Hierbei werden verschiedene RL‑Algorithmen – darunter Deterministic Policy Gradient, Soft Actor‑Critic und Proximal Policy Optimization – eingesetzt, um die Schaltungsparameter als Aktionen zu bestimmen. Durch das Vortrainieren mit RL wird die Kostenfunktion bereits vor dem klassischen Gradientenabstieg minimiert, sodass die anschließende Optimierung mit Verfahren wie Gradient Descent oder Adam aus einer viel besseren Ausgangsposition startet.
Die umfangreichen Simulationen zeigen, dass die RL‑basierte Vorgehensweise die Konvergenzgeschwindigkeit deutlich erhöht und die Endqualität der Lösungen verbessert, selbst unter unterschiedlichen Rauschbedingungen und bei verschiedenen Aufgaben. Ein Vergleich der einzelnen RL‑Algorithmen verdeutlicht, dass mehrere Ansätze vergleichbare Leistungssteigerungen erzielen, was die Flexibilität und Robustheit der Methode unterstreicht.
Diese Ergebnisse eröffnen einen vielversprechenden Ansatz, um die Grenzen von VQAs zu überwinden und die praktische Anwendbarkeit von Quantenalgorithmen in der nahen Zukunft zu stärken. Der Ansatz verbindet die Stärken von maschinellem Lernen mit der Quanteninformatik und eröffnet neue Perspektiven für die Entwicklung effizienterer Quantenalgorithmen.