Wiederholung des Eingabe-Prompts steigert Leistung von LLMs ohne mehr Tokens
Ein neuer arXiv-Preprint (2512.14982v1) hat gezeigt, dass die Wiederholung des Eingabe-Prompts die Leistung von großen Sprachmodellen erheblich verbessert – und das ohne zusätzliche Token oder erhöhte Latenz. Die Studie testete die populären Modelle Gemini, GPT, Claude und Deepseek und stellte fest, dass ein einfaches Duplizieren des Prompt-Texts die Genauigkeit und Reaktionsqualität steigert.
Die Autoren betonen, dass die Methode keine zusätzlichen Rechenressourcen erfordert. Durch die Wiederholung wird die Wahrscheinlichkeit erhöht, dass das Modell die relevanten Informationen im Prompt erkennt und nutzt, ohne dass die Ausgabe länger wird oder die Antwortzeit verlängert wird. Dies ist besonders interessant für Anwendungen, bei denen Geschwindigkeit und Effizienz entscheidend sind.
Die Ergebnisse deuten darauf hin, dass ein leichtes Prompt-Engineering – hier die Wiederholung – ein kostengünstiger Weg sein kann, die Leistungsfähigkeit von LLMs zu optimieren. Entwickler und Forscher können diese Technik sofort in ihre Workflows integrieren, um bessere Ergebnisse zu erzielen, ohne die Infrastruktur zu belasten.