NANOZK: Layerweise Zero-Knowledge-Beweise ermöglichen verifizierbare LLM-Inferenz
Wenn Nutzer proprietäre LLM‑APIs abfragen, erhalten sie Ergebnisse ohne kryptografische Garantie, dass tatsächlich das angegebene Modell verwendet wurde. Anbieter könnten teurere Modelle durch günstigere ersetzen, aggressive Quantisierung anwenden oder gecachte Antworten zurückgeben – und das bleib…