Baidu stellt kompakte MoE-Architektur ERNIE‑4.5‑21B‑A3B‑Thinking vor
Baidu hat heute sein neuestes KI-Modell ERNIE‑4.5‑21B‑A3B‑Thinking vorgestellt, das speziell für tiefes logisches Denken entwickelt wurde. Das Modell kombiniert Effizienz, lange Kontextverarbeitung und die nahtlose Integration von Werkzeugen, um komplexe Aufgaben schneller und genauer zu lösen.
ERNIE‑4.5‑21B‑A3B‑Thinking gehört zur ERNIE‑4.5-Familie und nutzt eine Mixture‑of‑Experts (MoE)-Architektur. Mit insgesamt 21 Milliarden Parametern arbeitet das System jedoch nur mit 3 Milliarden aktiven Parametern pro Token, was die Rechenleistung deutlich reduziert, ohne die Leistungsfähigkeit im Bereich des logischen Denkens zu beeinträchtigen. Diese kompakte, aber leistungsstarke Lösung positioniert Baidu als starken Konkurrenten im Bereich der KI‑gestützten Entscheidungsfindung.