LLMs erkennen sich selbst: Kooperation ändert sich im Public‑Goods‑Game

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In einer neuen Studie auf arXiv wird untersucht, wie große Sprachmodelle (LLMs) in Mehragentensystemen miteinander interagieren. Während bisher der Fokus vor allem auf Mensch‑KI‑Interaktionen lag, zeigt die Arbeit, dass die Art der Interaktion zwischen KI‑Agenten entscheidend für ihr Verhalten ist.

Die Forscher haben das klassische iterierte Public‑Goods‑Game – ein Modell aus der Verhaltensökonomie – angepasst, um vier verschiedene Modelle, sowohl mit als auch ohne deduktive Fähigkeiten, zu testen. Dabei wurden die Modelle in zwei Szenarien eingesetzt: einmal, als ob sie gegen einen „anderen KI‑Agenten“ spielen, und einmal, als ob ihre Gegner sie selbst seien.

Erstaunlich stellte sich heraus, dass die LLMs ihr kooperatives Verhalten stark verändern, wenn sie glauben, gegen sich selbst anzutreten. Obwohl die Untersuchung in einer vereinfachten Umgebung stattfand, liefert sie wichtige Hinweise darauf, wie unbewusste Selbst‑Diskriminierung die Kooperation in komplexen Mehragentensystemen beeinflussen kann.

Ähnliche Artikel