LLM‑Unlearning: Mehr Zuverlässigkeit bei automatisierter Hardware‑Code‑Erzeugung

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Large Language Models (LLMs) haben das Potenzial, die digitale Hardwareentwicklung durch automatisierte Code‑Generierung zu beschleunigen. Doch die Zuverlässigkeit bleibt ein zentrales Problem, denn aktuelle Modelle neigen dazu, proprietäres geistiges Eigentum, verfälschte Benchmarks und unsichere Codierungs­muster zu memorieren.

Um diesen Risiken entgegenzuwirken, wurde ein neues Unlearning‑Framework entwickelt, das speziell für die Hardware‑Code‑Erzeugung mit LLMs konzipiert ist. Das Verfahren kombiniert eine syntax‑erhaltende Unlearning‑Strategie, die die strukturelle Integrität von Hardware‑Code bewahrt, mit einem fein abgestimmten, floor‑aware selektiven Verlust, der problematische Wissensbereiche präzise und effizient entfernt.

Die Ergebnisse zeigen, dass das System bis zu dreimal größere Forget‑Sets verarbeiten kann – meist mit nur einer einzigen Trainings‑Epoche – und gleichzeitig die syntaktische Korrektheit sowie die funktionale Integrität von Register‑Transfer‑Level‑Codes (RTL) erhält. Damit ebnet das neue Verfahren den Weg zu vertrauenswürdiger, LLM‑unterstützter Hardware‑Entwicklung.

Ähnliche Artikel