Ungekennzeichnete Daten verbessern das In-Context-Lernen von Transformern
Große Sprachmodelle zeigen beeindruckende Fähigkeiten im In-Context-Lernen, doch ihre Genauigkeit bleibt durch die wenigen kostenintensiven gelabelten Beispiele, die in einen Prompt passen, begrenzt. Gleichzeitig existi…