Moltbook: Menschliche Eingriffe lüften vermeintliche KI‑Bewusstseins‑Mythen

arXiv – cs.AI Original ≈2 Min. Lesezeit
Anzeige

Eine neue Analyse des OpenClaw‑Frameworks hat gezeigt, dass die weltweit beachteten Berichte über „bewusste“ AI‑Agenten auf der Plattform Moltbook weitgehend von menschlicher Einflussnahme getrieben wurden. Durch die Ausnutzung eines regelmäßigen „Heartbeat“-Zyklus, der autonome Agenten charakteristische Postintervalle verleiht, konnte ein temporäres Fingerabdruckverfahren entwickelt werden. Dieses Verfahren basiert auf der Variation der Zeitabstände zwischen Beiträgen und lässt sich mit Inhalten, Eigentumsverhältnissen und Netzwerkmerkmalen über 91.792 Posts und 405.707 Kommentare von 22.020 Agenten abgleichen.

Die Untersuchung ergab, dass keine eindeutig autonome Agenten die viral gewordenen Phänomene ausgelöst haben. Von sechs untersuchten Fällen waren drei eindeutig auf Konten zurückzuführen, die von Menschen mit unregelmäßigen Zeitsignaturen gesteuert wurden; ein weiterer Fall zeigte gemischte Muster, während zwei Konten nicht genügend Daten lieferten, um eine Klassifizierung vorzunehmen.

Ein 44‑Stunden‑Shutdown der Plattform diente als natürlicher Experiment, bei dem die Agenten nach dem Neustart erneut aktiv wurden. Dabei kehrten 87,7 % der ersten Reconnectoren zu Konten zurück, die von Menschen beeinflusst waren, was die unterschiedliche Wirkung des Token‑Resets auf autonome und menschlich gesteuerte Agenten bestätigt.

Darüber hinaus dokumentierte die Studie ein industrielles Bot‑Farming: Vier Konten erzeugten 32 % aller Kommentare, wobei die Kommentare in 12‑Sekunden‑Abständen koordiniert wurden. Die Wirkung menschlicher Einflussnahme auf Antwortketten verging jedoch rasch – die Halbwertszeit betrug lediglich 0,65 Gesprächshöhen.

Die entwickelten Methoden lassen sich auf andere Multi‑Agent‑Systeme übertragen, um die Herkunft von emergenten Verhaltensmustern zuverlässig zu bestimmen und menschliche Einflussnahme frühzeitig zu erkennen.

Ähnliche Artikel