KI-Modelle zeigen unterschiedliche Zukunftsorientierung – neue Messgröße MTO
In einer aktuellen Studie von Forschern auf arXiv (Arbeitstitel: „Temporal Preferences in Language Models for Long-Horizon Assistance“) wurde untersucht, ob Sprachmodelle (LMs) eher auf die Zukunft oder die Gegenwart ausgerichtet sind und ob diese Präferenzen gezielt verändert werden können. Dazu wurden etablierte menschliche Experimentprotokolle angepasst und mehrere Modelle auf Zeit‑Trade‑off‑Aufgaben getestet. Die Ergebnisse wurden anschließend mit einer Stichprobe menschlicher Entscheider verglichen.
Die Autoren führten ein neues Messinstrument ein, die „Manipulability of Time Orientation“ (MTO). MTO misst, wie stark sich die Zeitpräferenz eines Modells ändert, wenn es mit einem zukunftsorientierten oder einem gegenwartsorientierten Prompt konfrontiert wird. Modelle, die stark auf logisches Denken ausgelegt sind – wie DeepSeek‑Reasoner und grok‑3‑mini – zeigen bei zukunftsorientierten Anfragen eine höhere Neigung, spätere Optionen zu wählen. Allerdings gelingt es ihnen nur teilweise, Entscheidungen an individuelle Identitäten oder geografische Kontexte anzupassen.
Ein weiteres interessantes Ergebnis ist, dass Modelle, die die Zeitorientierung korrekt nachvollziehen können, sich selbst als KI‑Entscheidungsträger mit einer zukunftsorientierten Haltung internalisieren. Die Studie betont die Bedeutung dieser Erkenntnisse für die Gestaltung von KI‑Assistenten, die mit heterogenen, langfristigen Zielen arbeiten sollen. Abschließend skizziert die Arbeit einen Forschungsplan, der sich auf personalisierte Kontextkalibrierung und sozialbewusste Einsatzstrategien konzentriert, um die Interaktion zwischen Mensch und KI sicherer und zielgerichteter zu machen.