Forschung
Die $qs$-Ungleichung: Doppelte Nachteile von MoE bei Inferenz
Mixture-of-Experts (MoE) Modelle versprechen hohe Qualität bei geringer Trainingskomplexität, doch die Effizienz verschwindet häufig, sobal…
arXiv – cs.LG