PLAN: Proactive Low-Rank Allocation for Continual Learning
Anzeige
Ähnliche Artikel
arXiv – cs.LG
•
ScaLoRA: Optimally Scaled Low-Rank Adaptation for Efficient High-Rank Fine-Tuning
arXiv – cs.LG
•
LLM-Modelle: Gewichtungsverteilung enthüllt neue Zusammenhänge
arXiv – cs.LG
•
Sparse Adapter Fusion: Parameter sparen bei kontinuierlichem NLP‑Lernen
arXiv – cs.LG
•
LoRA trotzt Etikettenschmutz: Theorie erklärt robuste Feinabstimmung
arXiv – cs.AI
•
Bayesian-LoRA: Probabilistische Low‑Rank‑Anpassung für bessere Kalibrierung großer Sprachmodelle
arXiv – cs.AI
•
Medizinische Chatbots lernen selbstständig: Online RL mit Informationsgewinn