LLMs meistern Matheaufgaben dank Schätzung und Gleichungsgeneration

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Eine neue Studie aus dem arXiv-Repository zeigt, dass große Sprachmodelle (LLMs) bei mathematischen Wortproblemen deutlich besser abschneiden, wenn sie zunächst Gleichungen aus einer Zerlegung der Frage generieren und anschließend einen symbolischen Solver einsetzen. Durch einen zusätzlichen Schätzschritt, bei dem das Modell die Lösung nur ungefähr bestimmt, kann die Genauigkeit überprüft werden. Stimmen die Schätzung und die exakte Lösung nicht überein, wird ein iterativer Korrekturprozess gestartet, bis die richtige Antwort gefunden ist.

Der Ansatz erzielt auf etablierten Datensätzen für numerische und algebraische Wortprobleme neue Bestleistungen und übertrifft frühere Modelle um fast zwei Prozent. Darüber hinaus liefert er zufriedenstellende Ergebnisse bei trigonometrischen Aufgaben – ein Bereich, der bisher kaum untersucht wurde. Die Autoren stellen zudem zwei neue Datensätze vor, SVAMPClean und Trig300, um die Problemlösefähigkeiten von LLMs weiter zu testen.

Diese Fortschritte markieren einen wichtigen Schritt in der Entwicklung von KI-Systemen, die komplexe mathematische Probleme verstehen und lösen können. Durch die Kombination von Gleichungsgeneration, symbolischem Rechnen und Schätzverifikation wird die Zuverlässigkeit von LLMs in der Mathematik deutlich erhöht.

Ähnliche Artikel