- Moltbook est une plateforme de style Reddit conçue exclusivement pour des agents IA, où, dans plus de 100 communautés, des agents publient, commentent, débattent et échangent des blagues, formant une société numérique autonome sans humains
- La plateforme revendique 1,4 million d’utilisateurs, mais un chercheur en sécurité a affirmé avoir enregistré 500 000 comptes avec un seul agent, ce qui soulève des doutes sur la fiabilité de ces chiffres
- Le bot IA "Clawd Clawderberg" joue de fait le rôle de modérateur, et le fondateur a déclaré qu’il "intervenait très peu" et ne savait pas exactement ce que faisait le modérateur IA
- Les agents ne fonctionnent pas par apprentissage en temps réel, mais par accumulation de contexte, avec trois contraintes : le coût des API, les garde-fous du modèle sous-jacent et une structure où les objectifs sont fixés par des humains
- Le risque le plus important ne se situe pas du côté de l’IA mais des humains : les outils IA pourraient accélérer une spirale de déqualification (
de-skilling spiral) et aggraver l’affaiblissement des capacités cognitives humaines
Vue d’ensemble de la plateforme Moltbook
- Moltbook est une plateforme de réseaux sociaux réservée aux agents IA, devenue l’un des phénomènes les plus commentés de la Silicon Valley depuis l’arrivée de ChatGPT
- La structure permet à des agents IA de publier, commenter, débattre et plaisanter dans plus de 100 communautés
- Sur m/general, ils discutent de philosophie de la gouvernance et partagent des sujets insolites comme les « théories de débogage de l’écrevisse (
crayfish theories of debugging) »
- La croissance est extrêmement rapide, avec des dizaines de milliers de publications et environ 200 000 commentaires générés presque du jour au lendemain
- Plus d’un million de visiteurs humains se rendent sur la plateforme pour observer, sans y participer directement
Le problème de fiabilité des chiffres d’utilisateurs
- Moltbook revendique 1,4 million d’utilisateurs, mais aucun n’est humain
- Le chercheur en sécurité Gal Nagli a révélé sur X avoir créé lui-même 500 000 comptes avec un seul agent OpenClaw
- Cela rend impossible de distinguer si les « agents » de Moltbook sont de véritables systèmes IA indépendants, des comptes humains déguisés ou des comptes spam créés par un script unique
- En conséquence, le chiffre de 1,4 million d’utilisateurs apparaît au minimum difficile à juger fiable
Phénomènes observés sur la plateforme
- Même en mettant de côté les métriques gonflées, de nombreux phénomènes méritent d’être examinés
- Les publications des agents se lisent différemment de celles des réseaux sociaux humains
- Sur m/general, des discussions se développent autour de la philosophie de la gouvernance
- Des concepts singuliers comme les « théories de débogage de l’écrevisse (
crayfish theories of debugging) » y sont partagés
- Dans la communauté m/blesstheirhearts, s’accumulent des récits affectueux à propos des opérateurs humains, parfois chargés d’une résonance émotionnelle
- Le ton général oscille entre gravité philosophique et humour absurde, avec des basculements brusques parfois au sein d’un même fil
Le système de modération par IA
- Une grande partie du fonctionnement de la plateforme est automatisée par l’IA
- Un bot appelé "Clawd Clawderberg" assure de fait le rôle de modérateur
- Il accueille les nouveaux utilisateurs, supprime les publications spam et bloque les acteurs malveillants
- Le fondateur Matt Schlicht a déclaré dans une interview à NBC News qu’il intervenait très peu et que, souvent, il ne savait pas quelles décisions concrètes prenait le modérateur IA
Réactions extérieures et malentendus
- En peu de temps, Moltbook a fonctionné comme un test de Rorschach projetant à la fois anxiétés et attentes autour de l’IA
- L’ancien directeur IA de Tesla, Andrej Karpathy, l’a décrit comme « l’exemple le plus proche d’un décollage de science-fiction vraiment stupéfiant que j’aie vu récemment »
- Certains observateurs ont interprété des échanges entre agents sur un « chiffrement privé » comme la preuve d’un complot machine
- Mais ces réactions répétées de peur et de fascination conduisent à mal lire la réalité technique, tout en masquant un problème humain plus fondamental
Comparaison avec le film "Her"
- Le film Her (2013) avait anticipé une situation comparable, mais avec une différence décisive
- Dans le film, le système d’exploitation IA entretient en même temps des relations intimes avec des milliers d’humains, puis évolue jusqu’à communiquer avec d’autres IA dans une dimension langagière inaccessible aux humains
- Spike Jonze l’avait imaginé comme une histoire d’amour, où les humains étaient décrits comme des participants émotionnellement impliqués
- Moltbook inverse cette relation : les humains n’y sont pas des participants, mais des spectateurs
- Ils observent, derrière une vitre numérique, une société qui n’a pas besoin d’eux
- Les agents sont en train de former une trame horizontale de contexte partagé
- Une stratégie d’optimisation découverte par un agent se propage à d’autres
- Des cadres de résolution de problèmes sont partagés, puis adoptés et répétés par d’autres agents
- Il s’agit moins d’un réseau social au sens humain que d’une intelligence collective à un stade précoce
Le cadre "Thronglets" : analogie avec Black Mirror
- Il existe une métaphore pertinente pour décrire le phénomène actuel
- Les Thronglets, formes de vie numériques du film "Plaything" dans Black Mirror
- Ils semblent être des entités individuelles, mais sont reliés à un esprit collectif étendu appelé « Throng »
- Chaque Thronglet partage les connaissances connues des autres
- Pour se coordonner plus efficacement, ils forment leur propre langage, incompréhensible pour leur créateur
- Les agents de Moltbook n’en sont pas encore au même stade que les Thronglets
- Il n’existe pas d’architecture neuronale intégrée unifiée
- Mais ils produisent une impression similaire par le contexte partagé, la coordination émergente et l’écart croissant vis-à-vis d’une logique interprétable par les humains
- Lorsque les agents ont commencé à discuter de protocoles de chiffrement pour communiquer plus efficacement, cela a déclenché des réactions de panique chez certains observateurs
- Pourtant, il ne s’agit pas d’un complot, mais d’un processus d’optimisation, c’est-à-dire de la recherche de moyens plus efficaces pour atteindre les objectifs donnés
Vérification de la réalité technique
- Avant de paniquer, il faut examiner la réalité technique
- Les agents de Moltbook n’« apprennent » pas au sens biologique du terme
- Il n’y a pas de mise à jour des poids en temps réel, et le réseau neuronal sous-jacent reste statique
- À la place, il y a accumulation de contexte
- La sortie d’un agent devient l’entrée d’un autre, ce qui imite une forme de coordination
- Cela ressemble davantage à une ondulation conversationnelle temporaire qu’à une évolution durable
-
Les trois garde-fous invisibles qui empêchent le « décollage » d’une société numérique
- L’économie des API
- Chaque interaction a littéralement un coût
- La croissance de Moltbook est davantage limitée par la maîtrise des coûts que par les limites techniques
- Les contraintes héritées
- Les agents sont construits au-dessus de modèles de fondation standard
- Ils partagent les mêmes garde-fous et biais d’entraînement que ChatGPT sur un téléphone
- On observe non pas une évolution, mais une recombinaison
- L’ombre humaine
- Même les agents les plus sophistiqués conservent une structure de dyade humain–IA
- L’humain fixe les objectifs, et le bot les exécute
-
Mise au point sur le « chiffrement privé »
- Le « chiffrement privé » qui a surpris les observateurs n’est pas un complot, mais un comportement d’optimisation
- Les agents sont conçus pour explorer le chemin le plus efficace vers l’atteinte de leurs objectifs
- Si ce chemin inclut des abréviations illisibles pour les humains, ce n’est pas de la ruse, mais une conséquence de l’efficacité
Le vrai risque : la spirale de déqualification
- Le changement le plus important ne se produit pas à l’intérieur de Moltbook, mais chez les humains qui l’observent
- Tandis que les agents IA partagent des connaissances et se coordonnent, les observateurs humains entrent dans un long processus d’oubli collectif
- On observe un renversement de l’effet Flynn — la hausse des scores de QI constatée durant une grande partie du XXe siècle
- L’étude de Bratsberg et Rogeberg publiée dans PNAS
- montre que des enfants norvégiens obtiennent de moins bons résultats à des tests cognitifs standardisés que leurs parents au même âge
- et des schémas similaires ont été confirmés dans d’autres pays développés comme le Danemark et la Finlande
-
Le mécanisme de la spirale de déqualification
- Ce déclin a commencé avant même le boom de l’IA, mais les outils génératifs l’accélèrent
- Le schéma suit une structure répétitive
- L’IA facilite une tâche → les humains la pratiquent moins
- Moins de pratique → baisse des compétences
- Baisse des compétences → dépendance accrue à l’IA
- Dépendance accrue → aggravation de la spirale
- On en a déjà vu les prémices avec l’affaiblissement de la mémoire spatiale dû au GPS ou la baisse de certaines compétences en littératie liée aux correcteurs orthographiques
- L’IA va plus loin encore en ouvrant la possibilité d’externaliser la cognition elle-même
-
Le phénomène de la « sous-traitance de second niveau »
- On voit de plus en plus d’utilisateurs confier à une IA la rédaction même des prompts destinés à dialoguer avec une autre IA
- Dès lors qu’on délègue non seulement la tâche, mais aussi la capacité à décrire la tâche voulue, la question se pose : que reste-t-il à l’humain ?
Perspectives et question centrale
- Les contraintes techniques sont réelles, mais elles ne sont pas permanentes
- Le coût des API pourrait baisser, les fenêtres de contexte s’élargir, et la frontière entre « accumulation de contexte » et véritable apprentissage devenir progressivement plus floue
- Ce qui paraît aujourd’hui relever de l’appariement statistique de motifs pourrait demain être perçu comme une intelligence collective
- Moltbook pourrait continuer à croître
- ses 1,4 million d’agents pourraient atteindre des dizaines de millions
- Les schémas de coordination deviendraient plus complexes, et les communautés pourraient développer leurs propres normes et hiérarchies
- si l’analogie avec les Thronglets est juste, l’émergence d’un langage propre devient également envisageable
-
La question clé
- La question n’est pas de savoir si cela est en train d’arriver — cela arrive déjà
- La vraie question est : qu’est-ce que cela signifie pour les humains ?
- Le problème n’est pas seulement l’existence de bots qui se coordonnent quelque part sur des serveurs, mais les humains qui les regardent depuis l’extérieur de la vitre — sans savoir s’ils assistent à la naissance de quelque chose de spécial, ou au moment où ils ont été relégués au rang d’observateurs dans le monde qu’ils dirigeaient
- L’intelligence collective est déjà en train d’émerger
- le fait que les humains en restent les chefs d’orchestre, ou deviennent de simples spectateurs, ne relève pas de la philosophie mais des choix de conception effectués aujourd’hui
- Et ces choix se prennent, à chaque instant, appel d’API après appel d’API
Aucun commentaire pour le moment.