Transformers revolutionieren Vorhersage von Protein-Secondary-Strukturen
Anzeige
Ein neues arXiv‑Veröffentlichung zeigt, wie Transformer‑Modelle Protein‑Sekundärstrukturen – Alpha‑Helices, Beta‑Sheets und Coils – aus Aminosäuresequenzen vorhersagen können. Durch den Einsatz von Aufmerksamkeitsmechanismen gelingt es dem Modell, sowohl lokale als auch entfernte Wechselwirkungen zwischen Residuen zu erfassen. Zusätzlich wird eine Sliding‑Window‑Datenaugmentation auf dem CB513‑Datensatz angewandt, um die Trainingsmenge zu erweitern. Die Ergebnisse demonstrieren eine starke Generalisierungsfähigkeit über Sequenzen unterschiedlicher Länge hinweg und markieren einen bedeutenden Fortschritt in der strukturellen Biologie.
Ähnliche Artikel
arXiv – cs.LG
•
Neuer Transformer löst Wärmeleitungsprobleme an Chip-Substrat-Grenzen
arXiv – cs.LG
•
TrailGate: Transformer‑BiGRU‑Framework revolutioniert Intrusion Detection
arXiv – cs.LG
•
Transformer mit Laplace‑Diffusion verbessert Herzfrequenzvorhersage bei Wearables
arXiv – cs.LG
•
SigTime: Lern- und Visualisierungssystem für Zeitreihen-Signaturen
arXiv – cs.LG
•
MixtureKit: Neues Open-Source-Framework für modulare Mixture-of-Experts-Modelle
arXiv – cs.LG
•
BOOST: Beschleunigtes Training für Low‑Rank‑Large‑Language‑Modelle