Forschung
AIMER: Kalibrierungsfreies MoE‑Pruning ohne Aufgabenabhängigkeit
Die neuesten Mixture‑of‑Experts‑Modelle (MoE) erhöhen die Parameterkapazität, ohne dass die Berechnungskosten pro Token proportional stei…
arXiv – cs.LG