Forschung
<p>LLMs können Graph-Lernen täuschen: Universelle Angriffe auf textbasierte Graphen</p> <p>Textattributierte Graphen (TAGs) kombinieren die semantische Tiefe von Texten mit der strukturellen Kraft von Graphen. Durch diese Fusion gewinnen Modelle wie Graph Neural Networks (GNNs) und vortrainierte Sprachmodelle (PLMs) an Ausdruckskraft, eröffnen jedoch gleichzeitig neue Angriffsflächen. Textbasierte Manipulationen können die Erkennungsfähigkeit von TAG-Modellen erheblich beeinträchtigen.</p> <p>Die Entwicklun
arXiv – cs.AI