Liquid AI’s LFM2-VL-3B Brings a 3B Parameter Vision Language Model (VLM) to Edge-Class Devices
Anzeige
Ähnliche Artikel
MarkTechPost
•
Liquid AI präsentiert LFM2.5: Kompaktes KI-Modell für On-Device-Agenten
arXiv – cs.LG
•
IMU-1: Mit 72 B Tokens ein kleines Modell, das große Konkurrenz schlägt
arXiv – cs.LG
•
Effizienz von LLMs: Quantisierung, Batch-Strategien und Serving senken Energieverbrauch
MarkTechPost
•
Liquid AI stellt LFM2.5-1.2B-Thinking vor: 1,2 Mrd. Parameter im Unter-1-GB-Modell
arXiv – cs.LG
•
QFed: Quanten-gestütztes Federated Learning reduziert Parameter um 77,6 %
arXiv – cs.LG
•
Verbesserte Modelloptimierung: Muon-basierte Distillation & Quantisierung für LLMs