Kleine Sprachmodelle unterstützen Lehrpläne – nachhaltig und leistungsfähig

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die Nutzung generativer KI in der Bildung ist noch in den Anfängen, doch neue Forschungsergebnisse zeigen, dass kleine Sprachmodelle (SLMs) bereits eine vielversprechende Alternative zu großen Modellen darstellen. In einer Studie wurden acht SLMs – darunter LLaMA 3.1, IBM Granite 3.3 und Gemma 3 (7‑17 Milliarden Parameter) – mit dem hochentwickelten GPT‑4o verglichen, um zu prüfen, ob sie Lehrpläne zuverlässig unterstützen können.

Durch den Einsatz einer Retrieval‑Augmented‑Generation‑Pipeline, die gezielt auf ausgewählte Open‑Source‑Daten zugreift, konnten die SLMs mit passender Prompt‑Gestaltung exakt und didaktisch passend antworten. Die Ergebnisse zeigen, dass die kleineren Modelle bei richtiger Konfiguration die Leistung der großen Modelle erreichen, ohne dabei an Qualität einzubüßen.

Ein entscheidender Vorteil der SLMs liegt in ihrer geringen Rechen- und Energieintensität. Sie lassen sich in Echtzeit auf handelsüblichen Computern ausführen und benötigen keine teure Cloud‑Infrastruktur. Das macht sie nicht nur kostengünstiger und datenschutzfreundlicher, sondern auch umweltverträglicher – ein wichtiger Schritt für Bildungseinrichtungen, die personalisiertes Lernen skalieren wollen, ohne die Umwelt zu belasten.

Ähnliche Artikel