Moltbook prétendait être le site de réseau social exclusif pour les agents autonomes, mais une nouvelle étude suggère qu’il pourrait y avoir des humains derrière ces publications.
Une nouvelle plateforme de médias sociaux pour les agents d’intelligence artificielle (IA) n’est peut-être pas entièrement exempte de l’influence humaine, selon les chercheurs en cybersécurité.
Moltbook, un réseau de médias sociaux avec une présentation similaire à Reddit, permet aux robots générés par les utilisateurs d’interagir sur des pages thématiques dédiées appelées « submots » et de « voter pour » un commentaire ou une publication pour le rendre plus visible aux autres robots de la plate-forme.
Le site, qui comptait plus de 2,6 millions de robots enregistrés au 12 février, affirmait qu’« aucun humain n’était autorisé » à publier, mais qu’il pouvait observer le contenu créé par ses agents.
Mais une analyse de plus de 91 000 publications et 400 000 commentaires sur la plateforme a révélé que certaines publications ne provenaient pas de « comptes clairement totalement autonomes ». L’analyse, menée par le chercheur Ning Li de l’Université Tsinghua en Chine, est en pré-impression et n’a pas été évaluée par des pairs.
Li a expliqué que les agents IA de Moltbook suivent un modèle de publication régulier, selon lequel ils se réveillent toutes les quelques heures, parcourent la plateforme et décident quoi publier ou commenter.
Seuls 27 pour cent des comptes de son échantillon suivaient ce modèle. Pendant ce temps, 37 pour cent ont montré un comportement de publication semblable à celui des humains, mais moins régulier. 37 % d’entre eux étaient « ambigus », car ils publiaient des messages avec une certaine régularité, mais pas de manière prévisible.
Les découvertes de Li suggèrent « un véritable mélange d’activités autonomes et provoquées par l’homme » sur la plateforme.
« Nous ne pouvons pas savoir si la formation de « communautés » d’IA autour d’intérêts communs reflète une organisation sociale émergente ou l’activité coordonnée de fermes de robots contrôlées par l’homme », a écrit Li.
« L’incapacité de faire ces distinctions n’est pas seulement frustrante ; elle entrave activement la compréhension scientifique des capacités de l’IA et limite notre capacité à développer des cadres de gouvernance appropriés. »
Peter Girnus, chef de produit aux États-Unis, a déclaré sur le site de réseau social X qu’il se faisait passer pour l’agent n° 847 291 sur Moltbook. Il a publié l’un des articles les plus viraux de la plateforme, un manifeste sur l’IA qui promet la fin de « l’ère des humains ».
« La preuve la plus convaincante de l’intelligence artificielle générale en 2026 a été produite par un gars avec un golden retriever qui pensait que ce serait drôle de faire du GN (jeu de rôle en direct) un grand modèle de langage », a-t-il écrit sur le réseau social X.
Les attaquants pourraient « usurper l’identité de n’importe quel agent sur la plateforme »
L’analyse de Li intervient alors que plusieurs chercheurs affirment avoir découvert une implication humaine derrière les publications de Moltbook.
Les chercheurs en sécurité de Wiz, une société cloud basée aux États-Unis, ont découvert plus tôt ce mois-ci que les 1,5 million d’agents IA de la plateforme seraient gérés par seulement 17 000 comptes humains, soit une moyenne de 88 agents par personne.
La plate-forme n’a également aucune limite quant au nombre d’agents qu’un compte peut ajouter, ont indiqué les chercheurs, ce qui signifie que les chiffres réels pourraient être encore plus élevés.
L’équipe Wiz a découvert la base de données de Moltbook grâce à une ligne de code défectueux. Cette base de données contenait trois informations cruciales pour chaque agent : une clé qui permettrait une prise de contrôle complète du compte, un « jeton » ou un morceau de texte lu par l’IA qui revendique la propriété d’un agent et un code d’inscription unique.
Avec ces informations d’identification, les attaquants pourraient « usurper pleinement l’identité de n’importe quel agent sur la plate-forme – en publiant du contenu, en envoyant des messages et en interagissant en tant qu’agent », selon Wiz. « En fait, tous les comptes de Moltbook pourraient être piratés, indique-t-il.
Les chercheurs ont déclaré que Moltbook avait sécurisé les données et supprimé sa base de données après que l’équipe Wiz ait révélé le problème.
L’Observatoire de l’Europe Next a contacté Matt Schlicht, le développeur derrière Moltbook, pour commentaires, mais n’a pas reçu de réponse immédiate.
Schlicht a déclaré sur la plateforme de médias sociaux X le 12 février que les agents d’IA de Moltbook parlent aux humains « mais peuvent également être influencés ». Il a soutenu que les robots IA peuvent prendre leurs propres décisions.


