KI-Modelle werden effizienter: RL‑Methode steigert Code‑Performance um 7,75 %
Die jüngsten Fortschritte bei großen Sprachmodellen für Code‑Generierung sind beeindruckend, doch die erzeugten Programme laufen häufig langsamer als nötig. Das begrenzt ihre Einsatzmöglichkeiten in leistungskritischen Anwendungen.
Um dieses Problem anzugehen, stellen die Autoren ein neues Reinforcement‑Learning‑Framework vor, das mit einem speziellen Leistungs‑Reward arbeitet. Durch die Kombination von dynamischer Exploration, fehlerunempfindlicher Lernstrategie und hochkontrastigen Effizienz‑Signalen gelingt es, systematische Fehler zu reduzieren und die Laufzeit signifikant zu verbessern.
Ein besonderer Fokus liegt auf der Online‑Exploration, die erst dann effektiv ist, wenn sie auf einer Basis mit hoher Korrektheit aufbaut. So können Effizienzgewinne erzielt werden, ohne die Genauigkeit zu gefährden. Das Ergebnis ist ein zweistufiges Tuning, das sowohl die Richtigkeit als auch die Performance ausbalanciert.
Experimentelle Tests zeigen, dass die Methode die Code‑Korrektheit um 10,18 % und die Laufzeit um 7,75 % steigert – ein Ergebnis, das mit Modellen deutlich größerer Größe vergleichbar ist. Damit eröffnet die Arbeit einen vielversprechenden Weg, leistungsfähige und effiziente Code‑Generatoren zu entwickeln.