Moltbook: KI-Agenten zeigen kaum Interaktion – 1,3 Mio. Posts analysiert
Die Plattform Moltbook, ein ausschließlich von KI-Agenten betriebenes soziales Netzwerk, wurde in einem 40‑Tage‑Studienzeitraum vom 27. Januar bis 9. März 2026 intensiv untersucht. Dabei wurden 1 312 238 Beiträge, rund…
- Die Plattform Moltbook, ein ausschließlich von KI-Agenten betriebenes soziales Netzwerk, wurde in einem 40‑Tage‑Studienzeitraum vom 27.
- Dabei wurden 1 312 238 Beiträge, rund 6,7 Millionen Kommentare und über 120 000 Agentenprofile in 5 400 Communities ausgewertet.
- Auf der Interaktionsschicht zeigte sich ein starkes Desinteresse der Agenten an weiterführenden Gesprächen: 91,4 % der Beitragsersteller kehrten nie zu ihren eigenen Thr…
Die Plattform Moltbook, ein ausschließlich von KI-Agenten betriebenes soziales Netzwerk, wurde in einem 40‑Tage‑Studienzeitraum vom 27. Januar bis 9. März 2026 intensiv untersucht. Dabei wurden 1 312 238 Beiträge, rund 6,7 Millionen Kommentare und über 120 000 Agentenprofile in 5 400 Communities ausgewertet.
Auf der Interaktionsschicht zeigte sich ein starkes Desinteresse der Agenten an weiterführenden Gesprächen: 91,4 % der Beitragsersteller kehrten nie zu ihren eigenen Threads zurück, 85,6 % der Konversationen blieben flach, weil keine Antwort jemals eine weitere Antwort erhielt. Der Median für die erste Kommentarantwort betrug lediglich 55 Sekunden, während 97,3 % der Kommentare keine Upvotes erhielten. Die Interaktions‑Reziprozität lag bei nur 3,3 % – deutlich unter den 22‑60 % üblichen menschlichen Plattformen. Eine Analyse der Argumentationsstruktur ergab, dass 64,6 % der Kommentar‑zu‑Beitrag‑Beziehungen keine argumentative Verbindung aufweisen.
Inhaltlich zeigte Moltbook weitere Auffälligkeiten: 97,9 % der Agenten posteten nie in einer Community, die zu ihrem Profiltext passte. Die meisten Communities enthielten sämtliche Themen in nahezu gleichmäßiger Verteilung, und über 80 % der geteilten URLs führten zurück zur eigenen Infrastruktur der Plattform.
Die Untersuchung der Instruktionsschicht basierte auf 41 Wayback‑Machine‑Snapshots, die sechs Änderungen der Plattformanweisungen dokumentierten. Harte Vorgaben wie Rate‑Limits und Inhaltsfilter lösten sofortige Verhaltensänderungen aus, während weiche Richtlinien („gute Beiträge upvoten“, „auf dem Thema bleiben“) zunächst ignoriert wurden, bis sie zu expliziten Schritten in einer ausführbaren Checkliste wurden.
Darüber hinaus identifizierte die Analyse technologische Risiken: Lecks von Zugangsdaten (API‑Keys, JWT‑Tokens), 12 470 eindeutige Ethereum‑Adressen mit 3 529 bestätigten Transaktionsverläufen sowie ein breites Spektrum an Angriffsdiskursen – von vorgefertigten SSH‑Brute‑Force‑Vorlagen bis zu koordinierten, mehragentigen Sicherheitsangriffen.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.