DAQ: Delta-Aware Quantisierung kompaktiert LLM-Gewichte ohne Wissensverlust
Ein neues Verfahren namens Delta-Aware Quantization (DAQ) wurde auf arXiv veröffentlicht und verspricht, die Kompression von Sprachmodellen nach dem Training ohne Verlust an Wissen zu ermöglichen. DAQ arbeitet ohne zusä…