Evaluating Hallucinations in Multimodal LLMs with Spoken Queries under Diverse Acoustic Conditions
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
LLMs als menschzentrierte Begleiter: Ein neues Rahmenwerk für verantwortungsvolle KI
arXiv – cs.AI
•
Ariadne: A Controllable Framework for Probing and Extending VLM Reasoning Boundaries
arXiv – cs.LG
•
ECVL-ROUTER: Scenario-Aware Routing for Vision-Language Models
arXiv – cs.AI
•
LLM‑Logik überprüft: Rang der Korrelation liefert zuverlässige Fehlererkennung
arXiv – cs.AI
•
A Multimodal Benchmark for Framing of Oil & Gas Advertising and Potential Greenwashing Detection
arXiv – cs.AI
•
Sketch2BIM: A Multi-Agent Human-AI Collaborative Pipeline to Convert Hand-Drawn Floor Plans to 3D BIM