CAC-CoT: 2/3 kürzere Chain-of-Thought-Traces, ohne Genauigkeitsverlust
Anzeige
Das neue Verfahren CAC-CoT (Connector‑Aware Compact Chain‑of‑Thought) reduziert die Länge der Chain‑of‑Thought‑Spuren drastisch, ohne die Leistung zu beeinträchtigen. Durch die gezielte Beschränkung auf ein kleines Set von Verbindungssätzen führt das Modell zu prägnanten, gut strukturierten Erklärungen. In Tests mit Gemini‑2.0‑Flash erzielt CAC‑CoT rund 85 % bei GSM8K, etwa 40 % bei GPQA und behält gleichzeitig ca. 90 % bei S1‑Bench bei. Die durchschnittliche Spurenlänge beträgt nur etwa 300 Tokens – das ist ungefähr ein Drittel der üblichen Länge – und sorgt so für höhere Effizienz bei gleichbleibender Genauigkeit.
Ähnliche Artikel
arXiv – cs.LG
•
Dynamische Schwellenwerte beschleunigen Diffusions‑Sprachmodelle
arXiv – cs.LG
•
Neuer Ansatz für Korrelation-Clustering ohne Vorwissen
arXiv – cs.LG
•
Amortized Latent Steering: Low-Cost Alternative to Test-Time Optimization
Towards Data Science
•
Bewertung synthetischer Daten – Die Million-Dollar-Frage
Ars Technica – AI
•
Zu Freundlich online: KI-Bots entlarven – Studie zeigt 80 % Trefferquote
arXiv – cs.AI
•
VeriCoT: Neuro-symbolische Chain-of-Thought-Validierung durch logische Checks