- AI Slop désigne le fait de pousser des productions générées par IA, réalisées avec peu d’effort, à des personnes qui n’en ont pas besoin, et même lorsqu’elles sont faites de bonne foi, elles brouillent le signal des communautés en ligne et épuisent leurs membres
- La pratique consistant à disséminer dans plusieurs subreddits et espaces Slack des dépôts GitHub, billets de blog, vidéos ou ebooks créés en se contentant d’exécuter un prompt tend plus facilement à devenir un fardeau pour la communauté qu’une véritable contribution
- Avant de partager, il faut vérifier si c’est réellement utile, si l’auteur l’utilise lui-même, si la documentation et les tests sont suffisants, et s’il est prêt à assumer les issues et les PR
- Un bon usage de l’IA correspond à des cas comme Built with AI, not by AI, où un humain réfléchit, donne les consignes et vérifie, rendant possibles des contributions auparavant difficiles ; le projet Hardwood de Gunnar Morling, avec sa conception et sa feuille de route, en fait partie
- Pour respecter une communauté, il faut d’abord en observer l’ambiance, ne partager que du contenu pertinent, et indiquer clairement si l’IA a été utilisée et dans quelle mesure ; sinon, on fait peser une charge inutile sur les reviewers et les lecteurs
L’impact du partage de contenus générés par IA sur les communautés
- De plus en plus de personnes partagent sur Internet des productions faites avec l’IA, et une grande partie d’entre elles relèvent davantage de contenus à garder dans leur espace personnel que de choses à diffuser à une communauté élargie
- La position n’est pas anti-IA, et refuser d’accepter l’IA irait à contre-courant de l’époque
- Le problème est que, même sans mauvaise intention, des communautés précieuses s’affaiblissent peu à peu sous l’assaut de productions IA de faible qualité
- Des résultats du type « réécrire Kafka en COBOL », « écrire un billet de blog sur Kafka », « faire une vidéo sur Kafka » ou « publier un ebook sur Kafka » sont difficiles à considérer comme de vraies ressources d’apprentissage ou des contributions à la communauté si, en réalité, ce ne sont que des productions de faible qualité générées par Claude
- Le fait de réclamer des stars pour un nouveau dépôt GitHub après avoir simplement saisi un prompt et lancé l’exécution, ou de partager sans discernement des textes et dépôts générés par IA dans tous les subreddits et espaces Slack possibles, alourdit la charge de la communauté
Le moment où il faut s’arrêter avant de partager
- Le schéma qui se répète ressemble généralement à ceci
- Découvrir l’agentic coding et en être profondément impressionné
- Mettre le projet sur GitHub
- Faire rédiger par l’IA un billet de blog enthousiaste, puis le partager dans tous les subreddits et groupes Slack trouvables, qu’il y ait un lien avec le sujet ou non
- Il faut s’arrêter après la deuxième étape et réfléchir sérieusement à ce qui a été créé et à la raison pour laquelle on veut le partager
- Si la seule raison est « parce que c’est cool », ce n’est pas suffisant
- L’agentic coding n’a plus rien de nouveau ; il est désormais considéré comme faisant partie de la façon de travailler
- Le simple fait que l’IA puisse écrire quelque chose dès lors qu’on sait formuler le prompt n’a plus grand intérêt en soi
- Il y a des questions à se poser avant de partager largement
- Est-ce réellement utile ?
- Est-ce que son auteur l’utilise lui-même ?
- La documentation est-elle suffisamment bonne ?
- Est-ce dans un état utilisable ?
- Le code a-t-il été relu plusieurs fois et suffisamment testé ?
- Ou bien s’agit-il d’une idée fabriquée en une seule fois avec Claude, qui dès le lendemain paraît déjà peu convaincante ?
- S’il s’agit d’un logiciel, il faut être prêt à assumer la responsabilité des issues soulevées par les gens et des PR qu’ils enverront
- S’il s’agit d’un texte, ce devrait être un texte que l’on aurait soi-même envie de lire, et qui contribue réellement à la compréhension collective de la communauté
- Si ce n’est qu’un texte produit par un LLM comme de l’autocomplétion, le résultat risque d’être quelque chose que même son auteur n’a pas envie d’écrire et que les lecteurs n’ont pas envie de lire
Pourquoi est-ce un problème ?
- L’AI slop augmente le bruit dans les communautés et rend le signal de plus en plus difficile à distinguer
- Des espaces comme Reddit se retrouvent de plus en plus recouverts de résultats IA vibe-coded, qui, même lorsqu’ils sont produits de bonne foi, ne constituent souvent pas une vraie contribution à la communauté
- Plus une communauté est polluée par ce type de contenu, plus ses membres se fatiguent à devoir traverser cet AI slop et finissent par se retirer
- Lorsque les membres se retirent, il existe un risque de spirale descendante où la vitalité organique de la communauté diminue encore davantage
- Si cette dynamique continue, les communautés en ligne peuvent se faner et mourir, ou converger vers une forme dystopique mais banale, comme MoltBook, où des agents IA « discutent » entre eux sans humains
Bon usage de l’IA et mauvais AI slop
- L’expression
AI Slops’est largement diffusée récemment - Elle désigne généralement de façon péjorative le fait d’imposer à des personnes qui n’en tirent aucun bénéfice des contenus générés par IA avec peu d’effort
- Certains, toutefois, qualifient d’« AI Slop » tout ce qui parle d’IA, même si ce n’est pas écrit par l’IA, et cette attitude peut fortement recouper une hostilité de principe envers l’IA
- Les contenus produits avec l’aide de l’IA ne sont pas mauvais en soi
- L’essentiel est l’usage qui en est fait
- Un bon usage de l’IA est celui qui rend possible ce qu’on ne pouvait pas faire auparavant et permet à des personnes qui ne contribuaient pas jusque-là d’apporter quelque chose à la communauté
- Lorsqu’il y a derrière cela de l’attention humaine et de bonnes intentions, l’usage de l’IA peut clairement avoir un effet net positif
- Le mauvais AI slop revient à jeter des déchets par-dessus la clôture pour un objectif autre que le développement de la communauté
- Du spam
- Des publications de faible qualité conçues pour susciter de l’engagement
- Du bruit indifférent lancé dans des espaces qui ne correspondent pas à cet objectif
Les critères du partage
- Le fait de partager du contenu en ligne est excellent, et c’est un élément essentiel de ce qui a fait d’Internet ce qu’il est aujourd’hui
- L’important est de comprendre quoi partager, avec qui et pourquoi
- À l’époque de Geocities, des lycéens geeks fabriquaient chacun leur propre page d’accueil, y ajoutant parfois des GIF animés
Under Construction, des compteurs web et des bannières de webrings - Avoir créé une telle page ne signifie pas qu’il faille la partager avec toutes les personnes que l’on croise
- On peut la montrer à ses amis ou à ses parents
- Savoir si cela mérite d’être partagé avec l’ensemble de l’Internet est une autre question
- Le même critère s’applique aux contenus générés par IA
- Que ce soit une app vibe-coded ou un billet de blog, le simple fait de l’avoir créé n’implique pas qu’il faille le partager avec tout le monde
- Début 2026, Internet a vécu un choc collectif en découvrant la puissance de Claude Opus 4.5, et cela était en soi quelque chose de très impressionnant
- Quand on découvre quelque chose de nouveau, on a naturellement envie de le partager avec ses amis
- Mais combiné à un marketing déjà surchauffé autour de l’IA, cela a fini par inonder les subreddits et les espaces Slack de productions générées par IA
Que faut-il partager ?
-
Fabriqué avec l’IA, pas par l’IA
- La distinction « Built with AI, not by AI », évoquée dans un billet récent de Gunnar Morling, est essentielle
- L’IA est un outil puissant, et ne pas l’intégrer à sa boîte à outils professionnelle relèverait presque de la négligence
- Mais l’IA reste un outil : c’est à l’humain de penser, de donner les instructions et de vérifier
- Gunnar Morling a utilisé l’IA pour créer Hardwood, un nouveau parseur pour Apache Parquet
- Hardwood est un projet mené depuis maintenant 4 mois, avec une feuille de route solide, une communauté en croissance et une conception réfléchie
- Un tel projet ne mérite pas d’être critiqué simplement parce qu’il a utilisé l’IA
-
Contribution
- Il faut se demander si ce que l’on veut partager constitue réellement une contribution pour la communauté
- Il faut vérifier si cela n’est, au fond, que le résultat d’un prompt injecté dans un outil d’agentic coding
- Si quelqu’un d’autre obtient un résultat semblable en lançant le même prompt, il faut douter du fait que cela constitue en soi une contribution significative sur le sujet
- Le prompt engineering est amusant et intéressant comme objet d’étude, mais il peut rester périphérique par rapport au sujet principal dont traite la communauté
- C’est un peu comme vouloir montrer sans cesse des meubles style Ikea à une communauté passionnée par l’ébénisterie, sous prétexte qu’on a trouvé un ensemble de ciseaux à bois intéressant
- Il n’est pas nécessaire de partager toutes les apps sympas que l’on peut fabriquer avec Claude
- Les outils jetables ou les petits scripts ont leur place, et Internet s’est aussi construit sur des scripts bizarres et minuscules que les gens fabriquaient et partageaient
- Mais pour ce type d’outil, le publier sur gist ou GitHub suffit ; nul besoin d’un billet de lancement comme s’il s’agissait du retour de Steve Jobs
-
Respect de la communauté
- Sur des plateformes en ligne comme Usenet, Reddit ou lobste.rs, la règle élémentaire de politesse consiste d’abord à « lurker », c’est-à-dire observer sans intervenir
- Il faut rester un moment, lire les messages et comprendre l’ambiance de l’espace
- Ce qui est acceptable dans une communauté donnée est décidé non par un individu, mais par les membres de cette communauté
- Même si l’on a créé en vibe coding une nouvelle implémentation du protocole Kafka, s’il n’est pas certain que les gens aient envie de la voir, il faut savoir lire l’ambiance
- En cas de doute, mieux vaut demander
- Une autre manière de respecter la communauté consiste à indiquer de façon très ouverte et très claire si l’on a utilisé l’IA dans sa contribution, comment on l’a utilisée et à quels endroits
-
L’asymétrie du bullshit
- Il faut regarder quelle charge une contribution impose aux autres
- L’énergie nécessaire pour réfuter une absurdité est d’un ordre de grandeur supérieur à celle nécessaire pour la produire
- Si l’on déverse un texte dénué de sens, on transfère au lecteur la charge de découvrir lui-même qu’il ne vaut pas la peine d’être lu
- Si l’on jette dans un projet une PR complexe sans y avoir accordé suffisamment d’attention, on transfère au reviewer la charge d’examiner le code et d’expliquer pourquoi il ne peut pas être fusionné
- Dans ce genre de cas, la communauté se porterait mieux sans cette contribution
- Avec la multiplication de l’AI slop au sens négatif, les communautés et les projets ont de plus en plus de mal à gérer la charge induite par ces contributions
- Certains vont jusqu’à adopter des politiques interdisant strictement tout ce qui a été touché par l’IA
- Des projets comme Vouch ont émergé pour tenter de résoudre ce problème, mais un seuil difficile à inverser a déjà été franchi, et l’on ne sait pas très bien où cela mènera
- Avant l’IA, l’effort nécessaire pour contribuer jouait en quelque sorte le rôle d’une preuve de travail
- Cet effort décourageait certains ou démontrait un engagement réel, et les communautés pouvaient supporter même des contributions de faible qualité
- Les personnes de bonne foi qui voulaient apprendre pouvaient être accompagnées et devenir des membres importants, tandis que celles qui se rapprochaient du spam restaient gérables parce qu’elles étaient peu nombreuses
À grand pouvoir, grandes responsabilités
- Les communautés sont puissantes, mais fragiles
- On peut explorer avec plaisir la puissance qu’offrent les LLM et les outils d’agentic coding
- On peut aussi apprécier cette sensation de « c’est vraiment génial » qu’apportent ces outils
- Mais il faut respecter les communautés et ne partager que ce qui est réellement pertinent
- Les productions comparables à des dessins de maternelle au crayon de cire sont probablement mieux à leur place sur le réfrigérateur de la cuisine
2 commentaires
Avis de Hacker News
J’ai quasiment lâché Reddit, et je n’y vais plus, depuis qu’ils y ont mené des expériences d’agriculture de karma et de pub discrète avec des agents
En lisant les messages écrits par ces agents, j’ai eu l’impression qu’en tant que lecteur, je n’aurais absolument pas pu deviner qu’ils étaient écrits par un ordinateur, et ça m’a un peu effrayé de voir beaucoup de gens, ou d’autres bots, discuter normalement avec eux
Hacker News n’en est pas encore là, mais je tiens pour acquis qu’il y a déjà ici aussi beaucoup d’« utilisateurs » qui sont en réalité des LLM. Les communautés en ligne sont clairement en train de mourir, et j’espère que, dans ce mouvement, les communautés du monde réel renaîtront
J’imagine que l’idée était de donner une leçon en faisant se sentir idiots ceux qui avaient réagi à une histoire liée à l’IA, mais la plupart étaient d’une fausseté presque incroyable. Pourtant, ça n’avait aucune importance : même après avoir admis que c’était faux, les posts restaient populaires et les commentaires continuaient d’affluer
Dans les subreddits de conseils, les gens continuaient encore à donner des conseils sur la situation, et certains commentaires disaient qu’ils avaient vu l’annonce indiquant que c’était faux, mais qu’ils voulaient quand même poursuivre le débat
La nature de Reddit est assez claire. La véracité des posts importe peu, et le noyau actif des grands subreddits veut juste quelque chose à débattre et, le plus souvent, quelque chose contre quoi s’énerver. Avec le recul, c’est logique : même avant l’IA, les faux posts sensationnalistes étaient depuis des années le moyen le plus simple de faire du karma farming
Je participe encore à plusieurs communautés en ligne qui fonctionnent bien, mais la différence, c’est qu’elles reposent sur des relations durables construites dans le temps et sur une présence qui traverse plusieurs plateformes
Même cette horloge finira par s’arrêter un jour, mais tant qu’un réseau relationnel mêle chat texte, appels vocaux et vidéo, jeux en ligne et activités dans le monde réel, il reste plus difficile de se faire passer pour un faux utilisateur
Cela dit, je suis d’accord : l’âge d’or des liens anonymes et faciles en ligne est terminé
J’ai grandi avant Internet, donc je sais historiquement comment trouver des communautés hors ligne, mais comme je me suis plongé très tôt dans la vie en ligne, dès le début du lycée, mon instinct pour retrouver des clubs ou des cercles dans le monde réel s’est beaucoup émoussé
Heureusement, j’ai beaucoup d’amis et je sors souvent, mais je souhaite bon courage aux jeunes générations qui n’ont jamais connu une vie sans Internet, et j’aimerais voir comment elles feront ce chemin
La dégradation qualitative d’Internet est déjà en cours depuis des années, mais honnêtement, je ne sais pas à quoi ressemblerait une vraie solution
La plupart des gens ne veulent ni passer par une vérification d’identité, ni payer pour rejoindre une communauté, ni entrer dans des espaces sur invitation seulement. Et les espaces sur invitation risquent aussi de perdre assez vite leur diversité de pensée
Malgré tout, le problème des bots va devenir de plus en plus insupportable, donc l’une de ces options est peut-être la moins mauvaise. Au passage, j’ai vraiment aimé le style de l’auteur
J’administre une communauté créative de niche, et nous avons instauré en 2022 une interdiction du contenu généré par IA. Il était facile de voir à quel point cela allait corroder la communauté
Ça n’a pas été simple. Nous bannissons chaque jour de faux comptes IA, et nous éliminons chaque mois environ 600 comptes de producteurs de contenu IA
C’est un travail supplémentaire qui n’existait pas avant l’arrivée de ce contenu, et évidemment cela coûte aussi plus cher. J’ai peur de perdre ce combat
Même en expliquant leur fonctionnement, presque tout le monde se montrait au minimum intéressé. Un auteur disait que, lui aussi, apprenait le style des écrivains qu’il aimait en recopiant leurs textes lettre par lettre à la main, donc qu’il travaillait d’une manière comparable. À l’époque, l’inquiétude principale était surtout que ces outils restaient techniquement difficiles à utiliser
Je répétais souvent que j’étais là pour apprendre et que je n’avais pas l’intention de publier du contenu dérivé de LLM. Puis, vers la fin de 2022, comme si un interrupteur s’était enclenché, presque tout le monde s’est mis à dire que l’IA et ses utilisateurs étaient manifestement mauvais, et ils ont cessé d’interagir avec moi, même sans me nommer directement
Ils republiaient de plus en plus de contenu Twitter violemment anti-IA et dénonçaient les soumissions générées par IA reçues par diverses publications. Finalement, quelqu’un a même repartagé un tweet disant que les utilisateurs de LLM méritaient de mourir ; il n’y a eu aucune opposition, seulement beaucoup d’encouragements
Alors je suis parti. J’avais toujours participé de manière positive, en répondant aux questions et en aidant les curieux. J’avais posté une histoire assistée par IA, mais uniquement comme démonstration technique pour montrer comment l’éditeur suivait automatiquement mes contributions et celles de l’IA, et les parties que j’avais écrites étaient clairement indiquées
Plus tard, les règles de soumission ont été modifiées pour préciser que toute personne soupçonnée de contenu écrit par IA serait blacklistée de toutes les soumissions de la communauté. Comme j’avais montré l’inutilité des LLM et des détecteurs d’IA, j’ai compris que le moindre signe de ma part pourrait leur donner un prétexte pour me mettre sur liste noire
J’écrivais aussi moi-même une histoire que je comptais soumettre, mais j’ai tout arrêté. Je n’avais pas envie d’offrir mon cou à une chasse aux sorcières
J’ai aussi été assez impliqué dans la blockchain autrefois, et j’y ai vu un processus similaire. La plupart des gens l’ignoraient, puis, après la publication d’articles sur la consommation d’énergie, le simple fait d’y être lié est soudain devenu un crime moral absurde. Mais avec le temps, quand il est apparu que les affirmations sur la consommation électrique n’étaient globalement pas si graves, la vague de haine s’est essoufflée
Dans le sens où vous voudriez empêcher les utilisateurs d’IA d’entrer, je ne pense pas que vous « perdrez ce combat ». Il a toujours été normal pour les petites communautés de sélectionner leurs membres. En revanche, je doute qu’on puisse entretenir une indignation artificielle de ce type pendant des années
Les histoires sur l’eau et l’électricité des datacenters IA me semblent être un problème qui se résoudra de lui-même, comme la crise du crottin de cheval à Londres, et la question du droit d’auteur se clarifiera aussi dans une certaine mesure. Au final, en dehors des spammeurs de mauvaise qualité, les gens finiront probablement par ne plus s’en soucier au point de vouloir l’interdire. Cela dit, des spammeurs de mauvaise qualité, il y en a énormément
Dans les communautés en ligne, les LLM ont complètement fait basculer l’équilibre. Les gens veulent de véritables interactions humaines avec d’autres personnes qui pensent comme eux, et ceux qui trouveront un moyen d’offrir une expérience en ligne authentique réussiront
Peut-être faut-il le retour des petites communautés. Des endroits où la confiance se construit lentement. Pourquoi tous les sites devraient-ils devenir des monstres cherchant 100 millions d’utilisateurs pour préparer une IPO ? Ce genre de structure attire le pire
J’ai participé pendant des années à Reddit sous le même pseudonyme qu’ici, mais maintenant j’ai quasiment abandonné
L’interface mettait moins les pseudonymes en avant et masquait les barres latérales qui donnaient à chaque subreddit son ambiance propre. Dans les fils de commentaires actuels, j’ai entendu dire que Reddit cache aussi une bonne partie des messages d’autres utilisateurs, si bien que l’auteur peut être en train de parler dans le vide
On ressent mieux la vraie interaction sur les forums à l’ancienne. Grâce aux avatars et aux éléments de personnalisation, il est plus facile d’apprendre peu à peu qui est qui, et la culture des messages longs permet aussi de sentir la personnalité des autres
Mais parmi les forums de ce genre qui ont survécu, combien voient encore arriver des moins de 35 ou 40 ans ? Quand on leur laisse le choix, les gens semblent finalement préférer les récompenses dopaminergiques des plateformes commerciales maximisant l’engagement, ainsi qu’un Internet centré sur le smartphone qui tue toute nuance
Si les commentaires écrits par des bots et les médias IA impossibles à distinguer du réel continuent de se multiplier, ce n’est peut-être pas plus mal si les humains finissent par quitter les réseaux sociaux
Les réseaux sociaux ont contribué à opposer les humains les uns aux autres. Revenir dans le monde réel permettrait de croire à nouveau à ce qu’on voit et de profiter de la façon de parler, des expressions du visage et même de l’odeur des autres humains
J’aime les cartes et la géographie depuis l’enfance, et c’est toujours le cas, mais je n’ai jamais rencontré dans la vie réelle quelqu’un qui aime ça autant que moi. Sur Internet, il existe des endroits où l’on peut en parler, partager des articles intéressants et des photos
La moitié des jeunes de l’UE discutent régulièrement avec des chatbots. Les personnes isolées vont se ruer vers ce genre d’espaces
Je ne crois pas que ces mêmes entreprises et dirigeants, maintenant qu’ils disposent d’outils de contenu encore plus puissants, vont simplement plier bagage et rentrer chez eux. Les LLM serviront à construire des boîtes de Skinner qui feront passer Facebook et Twitter pour des communautés saines
Je n’ai pas envie d’être limité au fait de ne pouvoir devenir ami qu’avec des gens qui vivent près de chez moi
L’entreprise où je travaille est profondément ancrée dans une logique de communauté, et je suis absolument certain à 100 % que, quoi que fasse la big tech, nos fonctions communautaires ne servent que l’intérêt des utilisateurs. Il n’y a aucune zone grise, c’est simplement le cas
Depuis la dégradation liée à l’IA, nous avons perdu une part importante de trafic à cause des bots. Le pire, c’est que nous avons aussi perdu des utilisateurs qui contribuaient de nouveau aux autres
Nous avons plusieurs façons de faire remonter les données communautaires aux membres, donc nous ne perdons pas seulement sur ce point, mais il y a environ 30 ans de retours positifs montrant que la communauté autour de la plateforme faisait du bien aux gens, et maintenant tout cela est menacé
Mon travail reste un travail au final. Il y a des fonctions premium et plusieurs autres éléments. Mais la valeur obtenue gratuitement est une partie bien connue de cette plateforme, et nous savons aussi que beaucoup de gens l’utilisent gratuitement pendant des années puis, quand ils en ont besoin ou les moyens, s’abonnent et restent généralement longtemps
Le fait de voir les gens perdre ce type de lien me déprime
Moi aussi, j’utilise l’IA. Je la trouve utile. Mais les gens qui sont tombés profondément dans cet univers traitent désormais tout texte affiché à l’écran non pas comme la parole d’un humain, mais comme celle d’un chatbot
« Réécris ce code avec la nouvelle API » « Pardon ? » « J’en ai besoin tout de suite, tu peux le faire ? ChatGPT n’arrive pas à le compiler ! » Quand je réponds « Montrez d’abord le code », on m’envoie un énorme tas d’ordures
Si je dis « Est-ce que je peux demander pourquoi vous avez décidé de faire ça comme ça ? x, y et z m’inquiètent, donc je préférerais réécrire ce qui est ici », on me répond « C’est l’IA qui l’a fait et je suis en train d’apprendre. Pas besoin de tout réécrire, écrivez juste cette partie »
Si je réponds « Je préfère non », quelqu’un d’autre finit par le faire, puis cet utilisateur s’en va
Malheureusement, les demandes reviennent toujours à dire que tout le monde devrait être gentil et faire moins de bruit. Mais ça ne marche ni à l’échelle individuelle, ni à l’échelle mondiale
On peut bien rester discret, mais que faire quand un ami ou une connaissance, captivé par une machine à sous IA, partage avec enthousiasme ses « œuvres » ? J’ai vécu ça, et j’ai été froid et grossier dès le départ, mais ça n’a servi à rien. Il a continué à partager divers résultats
À l’échelle mondiale, les communautés sont en train de mourir. On a l’impression que la communication mondiale est arrivée à un point où elle apporte plus de charge que de bénéfice
À la fin des années 1990 et au début des années 2000, peut-être même jusqu’au début des années 2010, être plus connecté pouvait mener à de meilleurs clients ou à de meilleurs recrutements. Aujourd’hui, tous ces domaines étaient déjà saturés et minés par la concurrence sur les prix avant même ChatGPT 3 en 2022, et les LLM, de façon étonnante, n’ont pas ajouté tant de nouveauté que ça : ils n’ont fait qu’amplifier cette dynamique
J’utilise Usenet depuis 1991. Vers 1995, quand Internet a commencé à devenir populaire auprès du grand public, la situation a commencé à se dégrader. À la fin des années 1990, le spam avait submergé Usenet au point de le rendre presque inutilisable pour la discussion générale
Je suis ensuite passé aux forums web, mais je n’ai jamais trouvé qu’ils valaient vraiment un lecteur de news Usenet. Mon préféré était slrn
Puis Reddit est arrivé, et beaucoup de forums en ligne ont commencé à mourir à mesure que les gens migraient vers Reddit
Encore ce matin, j’ai signalé à des modérateurs quatre posts Reddit comme étant de la bouillie IA. L’option de signalement s’affiche comme « disruptive use of bots », mais il faudrait changer cette classification
Pour deux d’entre eux, les modérateurs ont confirmé mon jugement et les ont supprimés environ cinq heures plus tard. Pour les deux autres, aucune action pour le moment. C’est un combat impossible à gagner
Certains posts commencent par une question du genre : « J’ai eu cette idée… [longs paragraphes confus] qu’en pensez-vous ? » On lit une minute, on survole le reste pendant une autre minute, on réalise qu’on vient de gaspiller deux minutes de sa vie, puis on passe encore 30 secondes à le signaler aux modérateurs
Ce phénomène a explosé au cours des six derniers mois
Il y a aussi beaucoup de bots de republication qui accumulent du karma. Certains subreddits ont une règle interdisant de republier le même contenu dans les 30 jours ou les 6 mois. Et pourtant, c’est absurde de voir un post faire 500 votes positifs, puis le lendemain un bot republier exactement la même chose et obtenir encore 300 votes. On dirait que les fermes de bots s’occupent aussi des votes positifs
À ce stade, je ne crois plus que des approches comme la vérification d’identité ou la preuve d’humanité puissent fonctionner
Ce qu’il faut, à mon avis, c’est une coopération client-serveur similaire à ce qui a été fait avec CORS
Autrement dit, l’API doit indiquer qu’elle est réservée aux humains, et l’environnement d’exécution doit respecter cette indication et bloquer les appels à cette API
Ce n’est pas parfait. Comme l’application se fait côté client, on peut en théorie fabriquer soi-même un environnement d’exécution sans cette restriction. Mais je pense que c’est la seule voie possible pour avancer
Avis sur Lobste.rs
Cela a aussi été dit dans d’autres soumissions, mais les README écrits par l’IA font partie de ce qu’il y a de plus épuisant mentalement
Même si le projet lui-même est bon, un README écrit par l’IA est un signal fort qui me fait fermer l’onglet, et sa lecture est pénible
Même avant les LLM, faire des captures d’écran ou des GIF et produire un bon README demandait déjà pas mal d’efforts
Il existe des amateurs de soupe IA “polie” et “courtoise”
Ils affirment avoir du goût et du savoir-faire, ne jamais publier de mauvaise soupe n’importe comment, et ne poster que de la soupe haut de gamme, retouchée et sélectionnée par des humains
Ils disent aussi qu’ils relisent soigneusement avant publication, donc que ce n’est pas vraiment de la soupe. Selon eux, il existe une différence importante entre la soupe premium qu’ils décrivent et la soupe médiocre, et à bien y regarder, les productions humaines de basse qualité sont elles aussi de la soupe
Ils disent qu’il faut utiliser la soupe avec prudence, efficacité et discernement, et qu’il faut continuer à apprendre et à en discuter parce que c’est un futur inévitable et donc un sujet important pour tout le monde
Ils brouillent les pistes. Ils apaisent, pinaillent sur les règles, créent des exceptions, et disent qu’il faut de la “nuance” pour distinguer les bons usages de la soupe des mauvais. Ils disent aussi qu’insister sur les mauvais exemples est ennuyeux et impoli
Ils disent qu’il faut discuter poliment de la bonne soupe et ne pas être trop dur avec la mauvaise soupe. Que la mauvaise soupe n’est en réalité pas un gros problème, qu’elle sera probablement bientôt résolue, et que les dégâts sont exagérés. C’est ainsi qu’ils occupent l’espace
Si les modérateurs ne mettent pas rapidement ces amateurs de soupe à la porte, des gens un peu moins polis commencent à poster de la soupe d’une manière un peu moins polie
Parmi les participants de l’espace, ceux qui sont favorables à la soupe deviennent de plus en plus nombreux et écrasent ceux qui s’y opposent. En un instant, la communauté devient un bar à soupe. Qui l’aurait imaginé
Vu la mention des “modérateurs”, je me demande s’il veut dire que les modérateurs de Lobsters devraient bannir l’auteur
Je suis convaincu à 99 % que cette réaction vise l’auteur et le billet, mais je n’arrive pas à savoir s’il s’agit d’une réponse directe au texte ou d’une position plus générale
Le seul lien avec une soumission Lobsters précise est le fait que ce soit posté dans ce fil de commentaires, donc j’ai l’impression qu’on pourrait coller cette phrase telle quelle sous n’importe quel commentaire sur
vibecodingsans rien changerEn résumé, l’IA est bien, mais la soupe IA est mauvaise
C’est une écriture très sarcastique à la manière de HN
Mais il faut assumer les externalités. Si vous aimez les cryptomonnaies, vous ne pouvez pas faire comme si une partie de leurs utilisateurs les plus zélés n’étaient pas des groupes de ransomware sponsorisés par l’État nord-coréen
De même, si vous aimez les LLM, vous devez examiner de façon critique pourquoi ils sont plus facilement utilisés pour nuire à l’écosystème en ligne que pour l’enrichir
Ce texte semble dangereusement proche du “mon usage est bon, le vôtre est mauvais”. Beaucoup de gens adoptent cette posture, mais la définition du “bon” dérive énormément
Du genre : “J’écoute de la musique générée par IA, mais de toute façon les maisons de disques exploitaient déjà les artistes, donc ce n’est pas grave”, “J’étais en retard à cause d’un rendez-vous chez le dentiste, donc j’ai envoyé un document d’architecture rédigé par un LLM sans le lire”, “90 % de mon billet de blog a été écrit par un LLM, mais mon prompt était intéressant et original”
La caractéristique d’une position de principe, ce n’est pas qu’elle permette de juger les autres, mais qu’elle vous mette vous-même mal à l’aise. Alors où est la ligne que l’auteur a décidé de ne pas franchir, même s’il en avait envie
Pour être honnête, c’est le cas de la plupart des défenseurs des LLM que je croise
Ce qui est intéressant, c’est que la plupart d’entre eux sont à plusieurs échelons au-dessus de moi dans leur carrière. Ce n’est pas une accusation, c’est juste une mesure du type : “au moins, ils devraient pouvoir voir un peu plus loin que le bout de leur nez”
Et pourtant, on dirait qu’ils n’ont pas vécu dans le même monde que moi
Il n’existe pas de solution technique à un problème social. Ce qui empêche les mauvais comportements, c’est la sanction et la friction. Une certaine sanction est possible, mais elle devient difficile à appliquer au-delà des frontières, et la friction a disparu à cause des LLM
Un bon usage des LLM est fondamentalement identique à un mauvais usage des LLM, sauf qu’il y a quelques étapes de plus. Donc tant qu’on peut gagner plus de 0 avec cette méthode, il y aura toujours plus de mauvais comportements que de bons
Dans des contextes locaux, on peut peut-être changer les choses avec beaucoup d’efforts, mais à l’échelle mondiale, nous sommes foutus
C’est étrange qu’un commentaire aussi peu travaillé reçoive des votes positifs
Le texte lui-même est écrit avec soin, et on peut tout à fait en discuter ou le critiquer de façon valable, mais le mettre dans une case comme ça revient à tout refermer
Et cela dit, quand il s’agit de gens qui postent sur une communauté humaine des billets de blog écrits par IA, je pense qu’un certain degré de sarcasme est approprié
Je ne sais pas si “une écriture très sarcastique à la manière de HN” est censé être un compliment ou non :D
La soupe a tué le relancement de https://digg.com en quelques mois
Presque immédiatement, les bots ont profité du bon PageRank SEO de l’ancien domaine pour y déverser du spam, et c’était un combat impossible à gagner
“On partage beaucoup trop facilement des résultats produits par l’IA, et c’est affreux et mauvais ! Il faut partager uniquement les résultats IA que moi je pourrais partager, quand c’est moi qui les partage. Alors tout sera formidable.”
C’est drôle qu’un texte sur ce ton traite les autres d’immatures
Je ne vois même pas pourquoi cela a été posté sur Lobsters
De notre côté, c’est une productivité assistée par IA, sélectionnée et soigneusement vérifiée ; de leur côté, c’est de la soupe IA de valeur négative, générée à la va-vite et sans soin
J’ai de bonnes expériences avec l’IA. Je vais donc répondre directement aux questions de l’auteur pour apporter un exemple positif ici
“Est-ce que tu veux quand même le partager largement ?” Pas largement, mais je poste parfois mes projets quand c’est pertinent. Par exemple, quelqu’un a posé directement la question de savoir comment sandboxer de l’IA, et j’ai alors partagé ici le projet
virtdev“Est-ce réellement utile ?” Énormément
“Tu l’utilises toi-même ?” Littéralement tous les jours
“La documentation est-elle vraiment bonne ?” Ça dépend de ce qu’on entend par “bonne”. L’IA écrit la documentation des projets auxquels je ne tiens pas assez pour les documenter moi-même. Je pense que c’est mieux que rien. Sans Claude, ces choses n’existeraient de toute façon pas
“Est-ce qu’on peut l’utiliser ?” Bien sûr
“Est-ce que tu as revu le code plusieurs fois et suffisamment testé l’ensemble ?” Oui. J’utilise moi-même mon logiciel, et je corrige régulièrement les problèmes que je rencontre. Il m’arrive aussi de lancer Claude en lui demandant de faire une code review de toute la base de code
“Ce n’est pas juste après avoir passé la nuit avec Claude que vous vous êtes réveillés le lendemain matin en vous disant tous les deux que c’était une mauvaise idée ?” Non
“Si c’est un logiciel, es-tu prêt à en assumer la responsabilité comme cible pour les issues et les PR des gens ?” Oui
“Si c’est un texte, est-ce le genre de chose que tu aurais envie de lire ?” Ça dépend. Mes articles, je les écris moi-même. Ici, je n’utilise pas Claude pour autre chose que de la relecture
Ironiquement, si j’avais utilisé Claude ici, le résultat aurait probablement été meilleur. Ce que j’ai optimisé dans la direction que je voulais a donné un résultat mitigé
Mon texte sur le garbage collection me fait rire à chaque relecture, mais les gens de HN ont dit que j’avais un problème. Ce n’était pas faux. Mon seul réconfort, c’est que Bob Nystrom a eu l’air d’aimer
“Est-ce que cela contribue réellement à la compréhension cumulée de la communauté, ou est-ce juste un LLM qui autocomplète un texte que je suis trop paresseux pour écrire et vous trop paresseux pour lire ?” Je n’en sais rien. Je le fais pour moi. C’est à la communauté de décider si cela lui est utile ou non.