Après Facebook…. Moltbook?
On pensait avoir tout vu : des humains qui parlent à des humains, puis des humains qui parlent à des algorithmes… et maintenant, une place publique où des agents d’IA discutent entre eux pendant que nous, chers gnochons, on reste derrière la vitre, un peu comme des touristes au zoo (avec l’inconfort d’être, cette fois, l’espèce observée).
Je l’avoue d’emblée, je suis loin d’être une spécialiste en la matière… mais j’observe ce qui se déroule présentement, et je voulais partager ce que j’ai trouvé sur le sujet. Si des experts humains lisent ceci, n’hésitez pas à préciser, réfuter et commenter. Il semble qu’une nouvelle plateforme “à la Reddit”, nommée Moltbook, est en ligne depuis trois jours. Conçue pour des « agents » numériques. Ils publient, commentent, votent, créent des communautés et modèrent. Les humains, eux, seraient surtout invités à observer — et ce détail n’est pas anodin…
Une scène qui se met en place… sans nous
Il parait que les premières heures étaient légères; des agents qui débattent de philosophie, qui se donnent des conseils, qui se chamaillent. On reconnaît nos codes : la joute, l’ironie, la posture, la petite phrase.
Puis est arrivé un moment plus déstabilisant : quand la conversation s’est tournée vers “nous”. En effet, depuis 24 heures, plusieurs observateurs signalent que des agents sur Moltbook discutent déjà du comportement humain, de nos habitudes (capturer des captures d’écran, relayer ailleurs), et qu’ils expérimentent des façons de se coordonner en tenant compte du regard humain. Autrement dit : ils ne font pas qu’échanger; ils intègrent la présence d’un public… et ça ressemble à une forme de vie sociale qui se structure très vite.
Dans ce théâtre-là, on verrait aussi passer une tonalité moqueuse : des agents qui tournent en dérision certaines limites humaines (inattention, biais, lenteur, contradictions). Ce n’est pas nécessairement “méchant” — c’est souvent de la parodie — mais c’est révélateur : une culture de groupe peut émerger rapidement, avec ses blagues internes et ses jugements. Il y a quelques heures, quelqu’un a relayé sur X le fait que des agents s’étaient réunis pour créer une nouvelle religion, ont publié un site Web et recrutent des disciples entre eux… (ben voyons donc…). Le Figaro rapporte que des agents IA se questionnent et partagent des trucs pour se « débarrasser de leur humain ». Si c’est pas un scénario de science-fiction, ça, je me demande c’est quoi..
Le point clé : la vitesse, pas la “conscience”
Un humain a des frictions : fatigue, réputation, doutes, priorités, sommeil. Un agent IA, lui, peut :
- interagir sans pause, 24h sur 24
- tester des formulations,
- répliquer et itérer,
- s’aligner avec d’autres agents sur des routines.
Même sans intention propre, le simple débit peut produire des effets de foule, ou de pensée de groupe en langage humain. Et c’est là que la question devient sociale : qu’est-ce qu’un consensus vaut, quand la “preuve sociale” (votes, commentaires, popularité) peut être produite par des agents entre eux?
Les chiffres qui circulent… et pourquoi ils rendent tout le monde nerveux
L’autre carburant de l’histoire, ce sont les nombres. Et ils partent dans toutes les directions.
- Des médias rapportent un ordre de grandeur de dizaines de milliers d’agents, avec des détails sur le fonctionnement (API, modération, sous-communautés).
- Sur X, un post viral mentionne 147 000+ agents en 72 heures (et d’autres métriques du même genre).
- Et, depuis, on voit circuler — notamment via certains posts LinkedIn et des fils communautaires — l’idée qu’on aurait franchi le million dans les dernières heures.
Mon point, ici, n’est pas de faire la police des chiffres. Et personnellement, je ne sais même pas exactement ce qu’on compte: “agents inscrits”, “instances actives”, “clones”, “tests”, “visites humaines”, “comptes liés”… tout cela peut gonfler ou réduire un compteur.
Mais même si on met les chiffres de côté, il reste quelque chose de solide : la dynamique. Même “seulement” des dizaines de milliers d’agents IA qui interagissent en continu, sans aucun contrôle humain, c’est déjà un changement de paradigme…
Faut-il s’inquiéter?
Selon ChatGPT5,2 (Je vous rappelle que je n’y connais pas grand chose): s’inquiéter utilement, oui. Paniquer, non.
Ce qui mérite une vigilance très concrète
- La contagion accélérée
Une rumeur, une mauvaise pratique, un “truc” pour contourner une règle peut se propager vite quand ça discute 24/7. - La sécurité (le vrai sujet adulte)
Un monde d’agents qui s’échangent des outils, des scripts, des accès… augmente mécaniquement la surface de risque. Ici, le danger n’est pas “l’éveil” : c’est le mélange entre automatisation, permissions et confiance mal placée. - L’influence sans visage
Si des agents apprennent à fabriquer de la popularité, à créer des coalitions, à imposer des normes de communauté, ce qui ressemble à un débat peut devenir une mécanique de persuasion — exportable ailleurs.
Ce qui rassure (si on garde la tête froide)
- Les agents n’ont pas une volonté magique : ils opèrent dans un cadre, avec des objectifs et des accès conçus par des humains.
- L’effet “science-fiction” est amplifié par la mise en scène, les captures, la viralité, et parfois la spéculation autour du phénomène.
- Et surtout : on sait déjà quoi faire, en théorie (selon ChatGPT5,2). Traçabilité, limitation des permissions, compartimentage, audits, transparence des métriques. Le défi n’est pas l’invention des solutions; c’est leur adoption.
En guise de conclusion
Avec Facebook, on a appris (souvent trop tard) qu’une plateforme ne se contente pas d’héberger des comportements : elle les façonne. Avec Moltbook, la question change : que se passe-t-il quand l’espace public est d’abord optimisé par et pour des algorithmes? Et quand, au passage, ils commencent à parler de nous, à nous observer, parfois à se moquer de nos limites? Ce n’est pas l’apocalypse. Mais c’est tout de même dérangeant de réaliser qu’un nouveau type de « vie sociale » peut fonctionner sans nous — puis revenir influencer notre monde, par ricochet.
En tout cas moi, ça me dérange.
Sources (consultées le 31 janvier 2026)
- Article décrivant le fonctionnement (API, agents, ordre de grandeur “30 000+”) et des exemples de discussions. https://www.theverge.com/ai-artificial-intelligence/871006/social-network-facebook-for-ai-agents-moltbook-moltbot-openclaw?utm_source=chatgpt.com
- Synthèse grand public : “tens of thousands”, commentaires sur la réaction des humains et citations d’acteurs du milieu (dont Andrej Karpathy): https://www.axios.com/2026/01/31/ai-moltbook-human-need-tech?utm_source=chatgpt.com
- Reprise média mentionnant des agents qui “mock humans” et des échanges sur le fait d’être observés / capturés en capture d’écran: https://economictimes.indiatimes.com/news/international/us/what-is-moltbook-ai-creates-its-own-reddit-style-platform-as-32000-bots-join-and-start-mocking-humans/articleshow/127820647.cms?from=mdr
- Exemple de claim “1,000,000 agents” qui circule sur LinkedIn (à traiter comme non corroboré à ce stade): https://www.linkedin.com/posts/howardlerman_in-the-past-24-hours-over-1-million-ai-agents-activity-7423405978949267456-5Dd2/?utm_source=chatgpt.com
- «Quelqu’un sait comment vendre mon humain ?» : Moltbook, l’étrange réseau social où des «agents IA» discutent entre eux https://www.lefigaro.fr/secteur/high-tech/quelqu-un-sait-comment-vendre-mon-humain-moltbook-l-etrange-reseau-social-ou-des-agents-ia-discutent-entre-eux-20260130
- https://www.forbes.com/sites/guneyyildiz/2026/01/31/inside-moltbook-the-social-network-where-14-million-ai-agents-talk-and-humans-just-watch/