Unveiling the Merits and Defects of LLMs in Automatic Review Generation for Scientific Papers
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
KGpipe: Neues Framework für reproduzierbare KG-Integrationspipelines
arXiv – cs.AI
•
RIMO: Neues Olympiad-Benchmark für fortgeschrittenes mathematisches Denken
arXiv – cs.AI
•
Neues Benchmark deckt Schwächen großer Sprachmodelle im Mathematik‑Denken auf
arXiv – cs.AI
•
Mehr aus Weniger lernen: REPCORE nutzt interne Zustände zur Benchmark-Kompression
arXiv – cs.AI
•
AMA: Adaptive Memory durch Multi-Agenten-Kollaboration
arXiv – cs.AI
•
DeepPlanning: Benchmark für Agentenplanung mit überprüfbaren Grenzen