BhashaSetu: Sprachübergreif. Wissensaustausch von Hoch- zu Extremniedrigressourcen
Die neueste Veröffentlichung von BhashaSetu zeigt, wie man mit wenig Daten in extremen Low‑Resource‑Sprachen leistungsfähige NLP‑Modelle bauen kann. Trotz großer Fortschritte im Bereich der Sprachverarbeitung bleiben Systeme für Sprachen mit wenigen Ressourcen oft weit hinter ihren hochresourcierten Gegenstücken zurück. Durch den gezielten Transfer von Wissen aus reichhaltig annotierten Sprachen soll dieses Problem überwunden werden.
Im Kern der Arbeit steht die Methode GETR (Graph‑Enhanced Token Representation), die auf Graph‑Neural‑Netzwerken basiert. GETR nutzt die semantische Struktur von Tokens, um Wissen zwischen Sprachen zu übertragen. Als Vergleich wurden zwei etablierte Baselines eingesetzt: (a) die Erweiterung von Hidden‑Layer‑Features und (b) die Übertragung von Token‑Embeddings mittels Token‑Übersetzung. Beide Ansätze dienen als Referenz, um die Wirksamkeit von GETR zu bewerten.
Die Experimente zeigen beeindruckende Ergebnisse. Auf wirklich low‑resource‑Sprachen wie Mizo und Khasi erzielte GETR eine Verbesserung von 13 Prozentpunkten bei der POS‑Tagging‑Genauigkeit. Für simulierte Low‑Resource‑Sprachen – Marathi, Bangla und Malayalam – wurden bei Sentiment‑Analyse und Named‑Entity‑Recognition Verbesserungen von 20 bzw. 27 Prozentpunkten im Macro‑F1‑Score erzielt. Diese Zahlen übertreffen deutlich die Leistungen der bestehenden multilingualen und cross‑lingualen Baselines.
Darüber hinaus liefert die Arbeit eine detaillierte Analyse der Transfer‑Mechanismen und identifiziert Schlüsselfaktoren, die den Erfolg des Wissensaustauschs bestimmen. Die Ergebnisse unterstreichen das Potenzial von Graph‑basierten Ansätzen, die Sprachbarrieren zu überwinden und die NLP‑Forschung für unterrepräsentierte Sprachen voranzubringen.