Neues neuronales Netzwerk simuliert probabilistische endliche Automaten exakt
Eine neue Studie aus dem arXiv-Repository präsentiert einen innovativen Ansatz, mit dem probabilistische endliche Automaten (PFAs) exakt durch symbolische Feedforward-Neuronale Netzwerke nachgebildet werden können. Die Autoren zeigen, dass Zustandsverteilungen als Vektoren und Übergänge als stochastische Matrizen dargestellt werden können, wodurch die probabilistische Zustandsweitergabe durch Matrix-Vektor-Multiplikationen parallel, interpretierbar und differenzierbar erfolgt – ohne rekursive Strukturen.
Der Beitrag liefert eine formale Charakterisierung klassischer Konzepte wie probabilistischer Teilmengenkonstruktion, ε‑Closure und exakter Simulation mittels mehrschichtiger symbolischer Berechnungen. Dabei wird die Gleichwertigkeit von PFAs und einer speziellen Klasse neuronaler Netzwerke mathematisch nachgewiesen, was die Brücke zwischen symbolischer Automata-Theorie und modernen Deep‑Learning-Architekturen schlägt.
Ein besonders bemerkenswertes Ergebnis ist die Nachweisbarkeit der Lernbarkeit dieser symbolischen Simulatoren. Durch herkömmliche Gradient‑Descent‑Optimierung auf gelabelten Sequenzdaten können die Netzwerke das exakte Verhalten von Ground‑Truth‑PFAs rekonstruieren. Diese Eigenschaft, formal in Proposition 5.1 beschrieben, unterstreicht das Potenzial, klassische Automatenmodelle in lernfähige neuronale Strukturen zu überführen.
Die Arbeit vereint damit probabilistische Automaten und neuronale Netzwerke in einem rigorosen algebraischen Rahmen und eröffnet neue Perspektiven für die Integration symbolischer Berechnungen in die Deep‑Learning‑Forschung.