Interfaze: KI der Zukunft nutzt spezialisierte kleine Modelle

arXiv – cs.AI Original ≈2 Min. Lesezeit
Anzeige

Interfaze ist ein neues System, das die Art und Weise, wie moderne Sprachmodelle eingesetzt werden, grundlegend verändert. Anstatt sich auf ein einzelnes, massives Transformer-Modell zu verlassen, kombiniert Interfaze eine Reihe von heterogenen Deep‑Learning‑Netzwerken mit kleinen Sprachmodellen, die als Wahrnehmungs­module für komplexe PDFs, Diagramme und mehrsprachige Spracherkennung dienen.

Ein zentraler Bestandteil ist die Kontext‑Konstruktionsebene, die das Web, Code‑Repos und PDFs durchsucht, indexiert und in kompakte, strukturierte Zustände überführt. Auf dieser Basis agiert eine Aktionsschicht, die das Browsen, Abrufen von Daten, das Ausführen von Code in einer sicheren Sandbox und das Steuern eines Headless‑Browsers für dynamische Webseiten ermöglicht.

Ein schlanker Controller steuert die gesamte Architektur und bietet einen einzigen, OpenAI‑ähnlichen Endpunkt. Er entscheidet, welche kleinen Modelle und Aktionen ausgeführt werden, und leitet den verdichteten Kontext an ein vom Nutzer ausgewähltes großes Sprachmodell weiter, das die endgültige Antwort generiert.

In Tests erzielt Interfaze‑Beta beeindruckende Ergebnisse: 83,6 % bei MMLU‑Pro, 91,4 % bei MMLU, 81,3 % bei GPQA‑Diamond, 57,8 % bei LiveCodeBench v5 und 90,0 % bei AIME‑2025. Im multimodalen Bereich liegen die Scores bei MMMU (77,3 %), AI2D (91,5 %), ChartQA (90,9 %) und Common Voice v16 (90,8 %).

Die meisten Anfragen werden dabei primär von den kleinen Modellen und dem Tool‑Stack bearbeitet, während das große Sprachmodell nur auf den verdichteten Kontext zugreift. Dadurch erreicht Interfaze eine konkurrenzfähige Genauigkeit und reduziert gleichzeitig die Rechenlast, die bisher auf teure, monolithische Modelle entfielen.

Ähnliche Artikel