TrInk: Transformer‑basiertes Modell erzeugt Handschrift mit 35 % weniger Fehlern
Ein brandneues Modell namens TrInk nutzt die Kraft von Transformer‑Netzwerken, um Handschrift zu erzeugen, die nicht nur leserlich, sondern auch stilistisch konsistent ist. Durch die Kombination von skalierter Positions‑Embeddings und einer Gaussian‑Memory‑Mask im Cross‑Attention‑Modul gelingt es TrInk, die Eingabetexte präzise mit den generierten Strichpunkten abzugleichen.
Um die Qualität der erzeugten Handschrift umfassend zu prüfen, wurden sowohl subjektive als auch objektive Evaluationspipelines entwickelt. Die Ergebnisse sind beeindruckend: Im Vergleich zu bisherigen Ansätzen reduziert TrInk die Zeichenfehlerquote (CER) um 35,56 % und die Wortfehlerquote (WER) um 29,66 % auf dem IAM‑OnDB‑Datensatz.
Für Interessierte steht eine Demo-Seite zur Verfügung, auf der Handschriftproben von TrInk sowie von Basis‑Modellen angezeigt werden: https://akahello-a11y.github.io/trink-demo/.