Cache-to-Cache (C2C): Large Language Models kommunizieren ohne Text
Ein internationales Forscherteam hat ein neues Kommunikationsparadigma vorgestellt, das es großen Sprachmodellen ermöglicht, direkt miteinander zu interagieren, ohne einen einzigen Text‑Token auszutauschen.
Das Konzept, genannt Cache‑to‑Cache (C2C), nutzt die KV‑Cache‑Strukturen der Modelle, um semantische Informationen auszutauschen. Durch die Fusion der KV‑Caches können die Modelle ihre internen Zustände synchronisieren und so in Echtzeit zusammenarbeiten.
Die Studie stammt von der Tsinghua University, Infinigence AI, der Chinese University of Hong Kong, dem Shanghai AI Laboratory und der Shanghai Jiao Tong University. Diese Entwicklung könnte die Effizienz und Sicherheit von KI‑Systemen erheblich steigern, da keine sensiblen Textdaten übertragen werden müssen.