Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “LDA”
Forschung

<p>LLM-Halluzinationen intern erkennen: Weak‑Supervised Distillation in Transformers</p> <p>Forscher haben einen neuen Ansatz entwickelt, um Halluzinationen in großen Sprachmodellen (LLMs) ohne externe Prüfungen zu erkennen. Anstatt bei der Inferenz auf Goldantworten, Suchsysteme oder zusätzliche Urteilsmodelle angewiesen zu sein, wird die notwendige Supervision während des Trainings in die eigenen Modellrepräsentationen eingebettet.</p> <p>Der Schlüssel liegt in einem schwach überwachten Rahmen, der drei e

arXiv – cs.AI
Forschung

<h1>Multimodale Sprachmodelle zeigen Schwächen beim räumlichen Perspektivwechsel</h1> <p>Mit der zunehmenden Nutzung multimodaler Sprachmodelle (MLMs) in sozialen und kollaborativen Anwendungen wird die Frage nach ihrer Fähigkeit zum Perspektivwechsel immer wichtiger. Bisher beruhen die meisten Tests auf rein textbasierten Szenarien oder statischen Bildanalysen, wodurch der Bereich des visuospatziellen Perspektivwechsels (VPT) kaum untersucht wurde.</p> <p>Um diese Lücke zu schließen, wurden zwei etablierte

arXiv – cs.AI
Forschung

<h1>HATL: Neues Framework steigert maschinelles Gebärdensprache-Übersetzen</h1> <p>Die maschinelle Übersetzung von Gebärdensprache (SLMT) steht vor großen Hindernissen: Datenmengen sind knapp, die Vielfalt der Gebärdenden ist begrenzt und die Kluft zwischen den Signaldaten und vortrainierten Modellen ist groß. Traditionelle Transfer‑Learning‑Ansätze bleiben statisch und neigen zu Überanpassung, was die Leistungsfähigkeit einschränkt.</p> <p>Um diese Probleme zu überwinden, wurde das hierarchische Adaptive T

arXiv – cs.AI