Forschung
Exclusive Self Attention steigert Transformer-Leistung
In einer kürzlich veröffentlichten Studie auf arXiv wird die neue Technik „Exclusive Self Attention“ (XSA) vorgestellt, die die Leistungsfä…
arXiv – cs.LG