DemoBias: Studie zeigt demografische Verzerrungen in Vision-Foundation-Modellen
Die neueste Untersuchung namens DemoBias beleuchtet, wie große Vision‑Language‑Modelle (LVLMs) bei der biometrischen Gesichtserkennung mit Textgenerierung zu stark von demografischen Faktoren beeinflusst werden. Trotz beeindruckender Leistungen in vielen Anwendungsfeldern bleiben Verzerrungen in Bezug auf Ethnie, Geschlecht und Alter ein zentrales Problem.
Im Rahmen der Studie wurden drei populäre LVLMs – LLaVA, BLIP‑2 und PaliGemma – auf einem selbst erstellten, demografisch ausgewogenen Datensatz feinabgestimmt und getestet. Durch die Anwendung von gruppenspezifischen BERTScores und der Fairness‑Discrepancy‑Rate konnten die Forscher die Leistungsunterschiede zwischen den verschiedenen Bevölkerungsgruppen quantifizieren.
Die Ergebnisse zeigen deutlich, dass PaliGemma und LLaVA bei den Gruppen Hispanic/Latino, Caucasian und South Asian größere Diskrepanzen aufweisen, während BLIP‑2 relativ gleichmäßiger performt. Diese Erkenntnisse unterstreichen die Notwendigkeit, Fairness-Mechanismen in Vision‑Foundation‑Modellen stärker zu berücksichtigen.
Die vollständigen Ergebnisse und der zugehörige Code sind auf GitHub verfügbar: https://github.com/Sufianlab/DemoBias.