Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Clients”
Forschung

<p>Federated Learning ermöglicht datenschutzfreundliches Modelltraining, doch die geteilten lokalen Updates bleiben Angriffen ausgesetzt. Um diese Schwachstellen zu beheben, wurden sichere Aggregationsverfahren entwickelt, die die Privatsphäre der Clients schützen.</p> <p>Die bisher vorgeschlagene Quantum Secure Aggregation (QSA) nutzt einen einzigen globalen GHZ‑Zustand, um die Client‑Updates in die globale Phase mehrteiliger, verschränkter Zustände zu kodieren. Bei steigender Teilnehmerzahl verschlechtert

arXiv – cs.LG
Praxis

<h1>Federated Learning: LoRA-Fine‑Tuning von LLMs mit Flower & PEFT</h1> <p>In einem neuen Tutorial wird gezeigt, wie das Feintuning eines großen Sprachmodells (LLM) federiert werden kann, ohne jemals private Textdaten zu zentralisieren. Durch den Einsatz von LoRA (Low‑Rank Adaptation) bleiben die Daten der einzelnen Organisationen lokal, während das Modell gemeinsam verbessert wird.</p> <p>Das Beispiel simuliert mehrere Organisationen als virtuelle Clients. Jeder Client passt das gemeinsame Basismodell lok

MarkTechPost