LoFT: Parameter-Efficient Fine-Tuning for Long-tailed Semi-Supervised Learning in Open-World Scenarios
Anzeige
Ähnliche Artikel
arXiv – cs.LG
•
Neue Theorie kombiniert Konfidenz und Varianz zur besseren Pseudo‑Label‑Auswahl
arXiv – cs.LG
•
Neuer Ansatz steigert semi-supervised kontrastives Lernen durch Entropie‑basierte Gewichtung
arXiv – cs.LG
•
Foundational Models and Federated Learning: Survey, Taxonomy, Challenges and Practical Insights
arXiv – cs.LG
•
KI-Modelle für Cybersicherheit: Parameter‑Effizienz trifft große Sprachmodelle
arXiv – cs.LG
•
SEAM: Strukturierte Erfahrung verbessert LLM‑Leistung ohne Freeze
arXiv – cs.AI
•
Neuro-symbolische KI: Wege für Predictive Maintenance – Analyse & Empfehlungen