MedGR$^2$: Datenknappheit in der medizinischen KI überwinden
Die Anwendung von Vision‑Language‑Modellen (VLMs) im medizinischen Bereich wird bislang durch den Mangel an hochwertigen, Experten‑annotierten Daten stark eingeschränkt. Beim klassischen Supervised Fine‑Tuning (SFT) auf vorhandenen Datensätzen kommt es häufig zu schlechter Generalisierung auf neue Modalitäten und Aufgaben. Reinforcement Learning (RL) gilt als vielversprechende Alternative, doch in diesem datenarmen Umfeld fehlt es an verlässlichen Belohnungssignalen.
Mit dem neuen Ansatz MedGR$^2$ – Generative Reward Learning for Medical Reasoning – wird dieser Engpass überwunden. Das System entwickelt gleichzeitig einen Datengenerator und ein Belohnungsmodell, wodurch ein selbstverbessernder Kreislauf entsteht. Durch die automatisierte, kontinuierliche Erzeugung von multimodalen, medizinischen Daten liefert MedGR$^2$ einen qualitativ hochwertigen Trainingspool, der sowohl für SFT als auch für RL genutzt werden kann.
Experimentelle Ergebnisse zeigen, dass SFT mit den von MedGR$^2$ generierten Daten bereits die Leistung von Baselines übertrifft, die auf großen, von Menschen kuratierten Datensätzen trainiert wurden. Wenn diese Daten anschließend in einem RL‑Framework namens Group Relative Policy Optimization (GRPO) eingesetzt werden, erreicht das Modell einen branchenführenden Grad an Cross‑Modality‑ und Cross‑Task‑Generalisation und übertrifft spezialisierte RL‑Methoden deutlich.
Bemerkenswert ist, dass ein kompakteres Modell, das von MedGR$^2$ unterstützt wird, Leistungen erzielt, die mit denen von Foundation‑Modellen vergleichbar sind, die mehr als zehnmal so viele Parameter besitzen. MedGR$^2$ eröffnet damit ein neues Paradigma für daten‑effizientes Lernen in hochriskanten Bereichen und wandelt das Problem der Datenknappheit in die Chance der Datengenerierung um, wodurch das volle Potenzial von RL für allgemein einsetzbare medizinische KI freigesetzt wird.