Hypergraph-Transformer steigert Diagnosenvorhersage aus EHR

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Eine neue Studie aus dem arXiv-Repository präsentiert den Structure‑aware Hypergraph Transformer (SHGT), der die Vorhersage von Diagnosen aus elektronischen Patientenakten (EHR) deutlich verbessert. Der Ansatz nutzt die reichhaltigen medizinischen Codes, die in EHRs standardisiert erfasst werden, um komplexe Zusammenhänge zwischen Patienteninformationen zu modellieren.

Traditionelle Graph‑Neural‑Networks (GNNs) haben zwar gezeigt, dass sie Interaktionen zwischen einzelnen medizinischen Codes erfassen können, stoßen jedoch an ihre Grenzen. Sie berücksichtigen lediglich paarweise Beziehungen und beschränken sich auf lokales Message‑Passing, wodurch höhere‑Ordnung‑Abhängigkeiten, die in klinischen Daten häufig vorkommen, unberücksichtigt bleiben.

Der SHGT überwindet diese Einschränkungen in drei Schritten: Erstens wird ein Hypergraph‑Encoder eingesetzt, der höhere‑Ordnung‑Interaktionen zwischen Codes abbildet. Zweitens integriert der Transformer die gesamte Hypergraph‑Struktur, um globale Zusammenhänge zu berücksichtigen. Drittens wird ein spezieller Verlustterm eingeführt, der die Rekonstruktion des Hypergraphs fördert und so die ursprüngliche Struktur bewahrt.

Experimentelle Tests auf realen EHR‑Datensätzen zeigen, dass der SHGT die Leistung bestehender Modelle bei der Diagnosenvorhersage übertrifft. Diese Fortschritte deuten darauf hin, dass Hypergraph‑basierte Transformer ein vielversprechender Ansatz für die Analyse komplexer medizinischer Daten sind.

Ähnliche Artikel