Forschung arXiv – cs.LG

NANOZK: Layerweise Zero-Knowledge-Beweise ermöglichen verifizierbare LLM-Inferenz

Wenn Nutzer proprietäre LLM‑APIs abfragen, erhalten sie Ergebnisse ohne kryptografische Garantie, dass tatsächlich das angegebene Modell verwendet wurde. Anbieter könnten teurere Modelle durch günstigere ersetzen, aggre…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Wenn Nutzer proprietäre LLM‑APIs abfragen, erhalten sie Ergebnisse ohne kryptografische Garantie, dass tatsächlich das angegebene Modell verwendet wurde.
  • Anbieter könnten teurere Modelle durch günstigere ersetzen, aggressive Quantisierung anwenden oder gecachte Antworten zurückgeben – und das bleibt für zahlende Kunden un…
  • Mit METHOD, einem Zero‑Knowledge‑Proof‑System, wird die LLM‑Inference verifizierbar.

Wenn Nutzer proprietäre LLM‑APIs abfragen, erhalten sie Ergebnisse ohne kryptografische Garantie, dass tatsächlich das angegebene Modell verwendet wurde. Anbieter könnten teurere Modelle durch günstigere ersetzen, aggressive Quantisierung anwenden oder gecachte Antworten zurückgeben – und das bleibt für zahlende Kunden unauffindbar.

Mit METHOD, einem Zero‑Knowledge‑Proof‑System, wird die LLM‑Inference verifizierbar. Nutzer können kryptografisch nachweisen, dass die Ausgabe dem Rechenweg eines bestimmten Modells entspricht. Die Lösung nutzt die natürliche Aufteilung von Transformer‑Inference in unabhängige Layer‑Berechnungen und erzeugt für jeden Layer einen konstanten Beweis, unabhängig von der Modellbreite.

Durch Lookup‑Tabellen‑Approximationen für nicht‑arithmetische Operationen wie Softmax, GELU und LayerNorm entstehen keine messbaren Genauigkeitsverluste. Für Fälle, in denen das Beweisen aller Layer unpraktisch ist, wird eine Fisher‑Information‑gesteuerte Verifikation eingeführt. Auf Modellen bis zu d=128 liefert METHOD Layer‑Beweise von 5,5 KB (2,1 KB Attention + 3,5 KB MLP) und eine Verifikationszeit von 24 ms.

Im Vergleich zu EZKL sind die Beweise 70‑fach kleiner und das Beweis‑Erstellungs‑Zeit 5,7‑fach schneller bei d=128, während die formale Korrektheit (ε < 1e‑37) erhalten bleibt. Die Lookup‑Approximationen bewahren die Modell‑Perplexität exakt, sodass die Verifikation ohne Qualitätsverlust möglich ist.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.

Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.

Welches konkrete Problem loest das Modell besser als bisher?
Was bedeutet die Neuerung fuer Geschwindigkeit, Kosten oder Zuverlaessigkeit?
Was veraendert sich praktisch?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

LLM
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Zero-Knowledge-Proof
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
METHOD
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.LG
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen