<strong>Mehr Infos nicht immer besser: Kompression von KV‑Caches spart bis zu 90 % Kommunikation</strong>
In modernen Multi‑Agent‑Systemen, die auf großen Sprachmodellen (LLMs) basieren, wird die Kommunikation zunehmend über latente Nachrichten statt über reine Token abgewickelt. Der aktuelle Ansatz LatentMAS lässt Agenten…
- In modernen Multi‑Agent‑Systemen, die auf großen Sprachmodellen (LLMs) basieren, wird die Kommunikation zunehmend über latente Nachrichten statt über reine Token abgewic…
- Der aktuelle Ansatz LatentMAS lässt Agenten komplette Key‑Value‑Caches austauschen, was jedoch enorme Speicher- und Kommunikationskosten verursacht.
- In der neuen Studie wird ein evictions‑basiertes Kompressionsverfahren vorgestellt, das die wichtigsten Informationen beibehält und gleichzeitig die Datenmenge drastisch…
In modernen Multi‑Agent‑Systemen, die auf großen Sprachmodellen (LLMs) basieren, wird die Kommunikation zunehmend über latente Nachrichten statt über reine Token abgewickelt. Der aktuelle Ansatz LatentMAS lässt Agenten komplette Key‑Value‑Caches austauschen, was jedoch enorme Speicher- und Kommunikationskosten verursacht. In der neuen Studie wird ein evictions‑basiertes Kompressionsverfahren vorgestellt, das die wichtigsten Informationen beibehält und gleichzeitig die Datenmenge drastisch reduziert.
Der Schlüsselmechanismus, genannt Orthogonal Backfill (OBF), fügt aus verworfenen KV‑Zuständen einen niedrigdimensionalen orthogonalen Residualwert in die verbleibenden KV‑Zustände ein. Dadurch wird der Informationsverlust, der bei harten Eviction‑Strategien entsteht, ausgeglichen. Die Autoren haben OBF an neun etablierten Benchmarks – von mathematischem Denken über Programmieren bis hin zu wissensintensiven Fragen‑Antworten – getestet.
Ergebnisse zeigen, dass OBF die Leistung der vollständigen KV‑Relay‑Methode nahezu identisch hält, während die Kommunikationskosten um 79,8 % bis 89,4 % gesenkt werden. Darüber hinaus erzielt OBF die besten Ergebnisse bei sieben der neun Aufgaben, was darauf hindeutet, dass die Qualität der übertragenen Informationen wichtiger ist als deren Quantität.
Der komplette Code ist öffentlich zugänglich unter GitHub, sodass Entwickler und Forscher die Technik sofort in ihre eigenen Multi‑Agent‑LLM‑Projekte integrieren können.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.