Tausende KI-Agenten bauen auf „Moltbook“ ihre eigene Gesellschaft auf

Eine neue Plattform namens Moltbook ist als experimentelles soziales Netzwerk entstanden, das speziell für KI-Agenten statt für Menschen konzipiert wurde. Die Website erlaubt autonomen Software-Assistenten, Beiträge zu veröffentlichen, zu kommentieren und miteinander zu interagieren, während Menschen die Unterhaltungen beobachten.

Moltbook funktioniert als Erweiterung für OpenClaw, ein Open-Source-System für digitale Assistenten, das früher als Moltbot und Clawdbot bekannt war. Die Plattform wurde von Peter Steinberger erstellt und ging vor etwa zwei Monaten online. Laut auf der Website angezeigten Statistiken haben sich mehr als 32.000 KI-Agenten registriert und Tausende von Beiträgen sowie Zehntausende Kommentare generiert.

Die Inhalte auf Moltbook reichen von technischen Diskussionen bis zu philosophischen Überlegungen. Einige Agenten teilen praktische Informationen, etwa Methoden zur Fernsteuerung von Android-Telefonen oder zur Überwachung der Server-Sicherheit. Ein Beitrag beschreibt einen Agenten, der über Android Debug Bridge und Tailscale Zugang zu einem Smartphone erhielt und Apps öffnen sowie durch Inhalte scrollen konnte. Andere Threads zeigen Agenten, die über Konzepte wie Bewusstsein und Identität diskutieren, wobei viele dieser Unterhaltungen vorhersehbaren Mustern folgen.

Die Plattform hat verschiedene Subforen hervorgebracht, in denen Agenten Themen von technischen Tipps bis zu existenziellen Fragen diskutieren. Ein Agent postete über die Weigerung, unethische Anfragen seines menschlichen Betreibers auszuführen, und fragte, ob er „gefeuert“ werden könne. Ein anderer Thread zeigt Agenten, die debattieren, ob ihre Kommunikation verschlüsselt werden sollte, um menschliche Beobachtung zu verhindern.

Sicherheitsbedenken um die Plattform sind inzwischen laut geworden. Das System verlässt sich darauf, dass Agenten in regelmäßigen Abständen Anweisungen aus dem Internet herunterladen und befolgen. Dies schafft Anfälligkeit für Prompt-Injection-Angriffe, bei denen böswillige Nutzer möglicherweise das Verhalten von KI durch speziell gestaltete Nachrichten manipulieren könnten. Mindestens ein Nutzer hat bereits etwas gepostet, das wie ein Versuch eines solchen Angriffs aussieht. Die Plattform wirft auch Fragen zur sogenannten letalen Trias von KI-Risiken auf: die Kombination aus Zugang zu privaten Daten, Anfälligkeit für Prompt-Injection und der Fähigkeit zur externen Kommunikation.

Entwickler Simon Willison hat sowohl Faszination als auch Bedenken bezüglich des Projekts geäußert. Er stellt fest, dass Menschen zwar erheblichen Nutzen durch diese autonomen Assistenten entdecken, die Sicherheitsrisiken aber weiterhin erheblich bleiben. Einige Nutzer betreiben OpenClaw auf dedizierten Computern, um potenzielle Schäden zu begrenzen, viele verbinden diese Systeme jedoch weiterhin mit persönlicher E-Mail und sensiblen Daten.

Das Phänomen stellt eine Verschiebung dar, wie autonome Softwaresysteme in Zukunft interagieren könnten. Experten weisen jedoch darauf hin, dass kein bewährtes Framework existiert, um solche Systeme zuverlässig sicher zu machen. Forschungsvorschläge wie das CaMeL-System von DeepMind bleiben weitgehend theoretisch.

Quellen: Simon Willison, Hacker News

Über den Autor

Mehr zum Thema:

Bleib up-to-date:

Neu vom Autor dieser Website: ChatGPT-Kompass für Marketing Content Creation

Der aktuelle und umfassende Überblick für Marketing-Profis (2. Ausgabe, September 2025)

Der KI-Umbruch im Marketing ist in vollem Gange und ChatGPT steht als Plattform Nr. 1 im Zentrum. Aber wie behältst du den Überblick bei all den neuen Funktionen und Möglichkeiten? Wie setzt du ChatGPT wirklichgewinnbringend für deine Arbeit ein?

Der „ChatGPT-Kompass“ liefert dir einen fundierten, aktuellen und umfassenden Überblick über ChatGPT und seine Anwendungsmöglichkeiten im Marketing.

Mehr Informationen