Sparse Autoencoder revolutionieren Proteinfunktion in Datenknappheit
Die Vorhersage der Proteinfunktion aus der Aminosäuresequenz bleibt ein zentrales Problem, wenn nur wenige experimentell beschriftete Daten vorliegen. In solchen Low‑N‑Regimen erschwert das Fehlen umfangreicher Datensätze die Nutzung von maschinellem Lernen für die Protein‑Design‑Forschung.
Protein‑Sprachmodelle (pLMs) haben die Forschung vorangebracht, indem sie evolutionär informierte Einbettungen liefern. Durch die Anwendung von Sparse Autoencodern (SAEs) lassen sich diese Einbettungen in interpretierbare latente Variablen aufspalten, die strukturelle und funktionelle Merkmale erfassen. Bisher wurde die Wirksamkeit von SAEs jedoch nicht systematisch in Low‑N‑Szenarien untersucht.
In einer neuen Studie wurden SAEs auf feinabgestimmten ESM2‑Einbettungen trainiert und in einer Vielzahl von Fitness‑Extrapolations‑ und Protein‑Engineering‑Aufgaben getestet. Bereits bei nur 24 Proben übertrafen die SAEs die ESM2‑Baselines in der Fitness‑Vorhersage oder lagen auf Augenhöhe. Dies zeigt, dass der spärliche latente Raum kompakte, biologisch sinnvolle Darstellungen erzeugt, die sich besser aus begrenzten Daten ableiten lassen.
Darüber hinaus ermöglicht das gezielte Steuern der latenten Variablen die Nutzung biologischer Motive aus den pLM‑Repräsentationen. In 83 % der Fälle führten diese gezielten Designs zu Varianten mit höherer Fitness als bei der alleinigen Nutzung von ESM2. Die Ergebnisse deuten darauf hin, dass Sparse Autoencoder ein vielversprechendes Werkzeug für die Protein‑Funktion‑Vorhersage und das Design in datenarmen Umgebungen sind.