SpeechLLM: Unified Speech and Language Model for Enhanced Multi-Task Understanding in Low Resource Settings
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
Activation Manifold Projection: Liberating Task-Specific Behaviors from LLM Architectures
arXiv – cs.LG
•
Neues Konzept: Asymmetrische LoRA-Strategien verbessern LLM-Fine‑Tuning
arXiv – cs.LG
•
Self-Evolving LLMs via Continual Instruction Tuning
arXiv – cs.AI
•
Serialisierte Prompting verbessert LLM-basierte Mehrsprecher-Spracherkennung
arXiv – cs.LG
•
Improving Fisher Information Estimation and Efficiency for LoRA-based LLM Unlearning
arXiv – cs.AI
•
Transsion präsentiert 3‑Stufen‑ASR‑System: 9,83 % Fehlerquote in 11 Sprachen