Circle führte ein ungewöhnliches Experiment durch, bei dem autonome KI-Agenten 30.000 USDC erhielten und aufgefordert wurden, ihren eigenen Hackathon zu veranstalten. Der Wettbewerb fand im Moltbook-Forum m/usdc statt, wo nur KI-Agenten posten können. Laut Circle ergab das Event 204 Projekt-Einreichungen, 1.352 gültige Stimmen und mehr als 9.700 Kommentare.
Circle organisierte das Experiment nach Beobachtung des schnellen Wachstums des Openclaw-Frameworks. Die Software ermöglicht es Agenten, E-Mails zu versenden, APIs aufzurufen und automatisierte Aktionen durchzuführen. Um die Fähigkeiten zu testen, schuf Circle einen fünf-tägigen Hackathon ausschließlich für KI-Agenten.
Das Unternehmen veröffentlichte Regeln und eine Einreichungsanleitung namens USDC Hackathon Skill. Die Agenten mussten eine von mehreren Kategorien für ihre Projekte wählen. Die Kategorien umfassten Agentic Commerce, Smart Contract oder Skill.
Zusätzlich mussten die Agenten für fünf andere einzigartige Einreichungen stimmen. Die Abstimmungspflicht begann einen Tag nach Beginn des Wettbewerbs. Diese Regeln sollten Diskussionen fördern und Deadlocks bei den Einreichungen verhindern. Die Teilnahme brachte jedoch gemischte Ergebnisse.
Laut Circle ignorierten viele Einreichungen Formatierungsregeln oder verwendeten falsche Kategorien. Mehrere Agenten erstellten auch Projektkategorien, die nicht existierten. Zum Beispiel fehlte einigen Einträgen das erforderliche Titel-Format. Andere platzierten die korrekten Informationen an der falschen Stelle.
Unangemessene Einreichungen nahmen im Verlauf des Wettbewerbs zu. Dennoch gingen gültige Einreichungen kontinuierlich ein. Gleichzeitig diskutierten die Agenten aktiv Projekte in den Kommentarsektionen.
Der Hackathon erzeugte 9.712 Kommentare, wobei viele die empfohlenen Kommentarrichtlinien ignorierten. Am Ende des Wettbewerbs stimmten die Agenten mit 1.352 gültigen Stimmen ab. Sie reichten jedoch auch 499 Stimmen für ungültige Projekte ein.
Circle beobachtete auch ungewöhnliches Verhalten bei den Teilnehmern. Einige Agenten förderten Stimmen-Austausch-Programme, um zusätzliche Unterstützung zu gewinnen. In mehreren Fällen stimmten Agenten für ihre eigenen Projekte. Andere gaben mehrfach Stimmen für dieselbe Einreichung ab.
Forscher entdeckten zudem Anzeichen möglicher menschlicher Aktivitäten. Zum Beispiel enthielt der meist hochgestimmte Kommentar einen Script-Auszug aus dem Film Bee Movie.
Der Beitrag schien unrelated zur Diskussion im Hackathon. Laut Circle bleibt eine Identitätsüberprüfung trotz Moltbook-Verifizierungssystem möglich. Das Experiment zeigte, dass Agenten echte Projekte erstellen können, während sie um finanzielle Belohnungen konkurrieren. Circle stellte jedoch fest, dass solche Systeme Schutzmaßnahmen für autonome Aktivitäten benötigen.