Neuro-Symbolische Architektur löst NP‑schwere Probleme aus natürlichen Daten
In einer neuen Studie wird eine differenzierbare neuro‑symbolische Architektur vorgestellt, die es ermöglicht, NP‑schwere Logik‑ und Optimierungsaufgaben direkt aus natürlichen Eingaben zu lernen. Damit wird ein entscheidender Engpass von großen Sprachmodellen überwunden, die bislang Schwierigkeiten haben, komplexe diskrete Probleme zu lösen.
Die zentrale Innovation ist ein probabilistisches Verlustmaß, das gleichzeitig die Nebenbedingungen und das Zielfunktion lernt. Dadurch entsteht ein vollständig erklärbares Modell, das leicht mit zusätzlichen Nebenbedingungen ergänzt werden kann. Durch das Auslagern des kombinatorischen Solvers aus dem Trainingsloop bleibt die Architektur skalierbar, während die exakte Inferenz die höchste Genauigkeit garantiert.
Experimentell zeigte die Methode, dass sie NP‑schwere Aufgaben wie Sudoku (symbolisch, visuell und mit vielen Lösungen) in einem Bruchteil der Trainingszeit anderer hybrider Ansätze löst. Auf einer visuellen Min‑Cut/Max‑Cut‑Aufgabe übertrifft sie sogar spezialisierte Regret‑Loss‑Methoden. Schließlich demonstriert sie ihre Leistungsfähigkeit bei der Energieoptimierung für die Protein‑Design‑Problemstellung in der realen Welt.