Graph-Transformer GT-BEHRT: Kritische Analyse von Lücken in EHR-Vorhersagen
Transformer‑basierte Modelle haben die Vorhersageleistung bei longitudinalen elektronischen Gesundheitsdaten (EHR) durch groß angelegtes, selbstüberwachtes Pretraining deutlich verbessert. Dennoch behandeln die meisten…