Formale Sprachen entscheidend: LLMs profitieren von neurosymbolischer Übersetzung

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Large Language Models (LLMs) erzielen beeindruckende Ergebnisse bei einer Vielzahl von Aufgaben, doch ihre Fähigkeit zum formalen Denken bleibt hinter den Erwartungen zurück. Ein vielversprechender Ansatz ist die neurosymbolische LLM‑Reasoning‑Methode, bei der LLMs als Übersetzer von natürlicher Sprache in formale Sprachen fungieren und symbolische Solver die korrekten Ergebnisse berechnen.

Die Faktoren, die den Erfolg dieser Kombination bestimmen, waren bislang unklar. In der aktuellen Studie wird deutlich, dass die Wahl der formalen Sprache ein entscheidender, bisher übersehener Einflussfaktor ist. Das Konzept des „Intermediate Language Challenge“ wird vorgestellt: die Auswahl einer geeigneten formalen Sprache für neurosymbolisches Denken.

Durch den Vergleich von vier formalen Sprachen über drei Datensätze und sieben unterschiedlichen LLMs konnte gezeigt werden, dass die Sprache sowohl syntaktische als auch semantische Fähigkeiten der Modelle beeinflusst. Die Ergebnisse verdeutlichen zudem, dass die Wirkung je nach LLM variiert, was wichtige Implikationen für die zukünftige Entwicklung von neurosymbolischen Systemen liefert.

Ähnliche Artikel