Les commentaires du type « c’est un texte écrit par un LLM » devraient être signalés comme hors sujet
(lobste.rs)- Sur Lobsters, les discussions se sont poursuivies autour de l’interdiction des textes générés par LLM et du changement des tags, mais un consensus semble se dégager : les publications à faible effort et à faible contenu informatif devraient être traitées comme du spam
- La proposition est de signaler comme hors sujet les commentaires qui se contentent de dire des choses comme « this is LLM slop », car ils ne parlent pas du contenu du texte mais se limitent à juger s’il a été généré ou non
- Au moins 80 % de la raison pour laquelle on lit Lobsters tient à la qualité des commentaires, et devoir filtrer les débats sur le fait de savoir si un texte est ou non un produit de LLM est pénible
- Lorsqu’on soumet un article jugé intéressant et que le seul commentaire est du genre « si seulement ce n’était pas un texte écrit par un LLM », cela est frustrant pour la personne qui l’a soumis
- Il est encore plus décourageant qu’un texte écrit directement par une personne soit soupçonné d’être un contenu généré par LLM ; cela est arrivé sur d’autres plateformes ainsi qu’à d’autres auteurs sur Lobsters
Proposition
- Les discussions ont continué autour de l’interdiction des textes générés par LLM et du changement des tags
ai/vibecoding, mais il semble y avoir un accord pour signaler comme spam les publications à faible effort et à faible contenu informatif, puis passer à autre chose - La proposition est de signaler comme hors sujet les commentaires qui se contentent de dire « this is LLM slop » ou des formulations similaires
- Au moins 80 % de l’intérêt de lire Lobsters vient de la qualité des commentaires, et il est frustrant de devoir filtrer des débats qui dérivent vers la question de savoir si le texte discuté est ou non un produit de LLM
- Lorsqu’on soumet un texte parce qu’on le juge intéressant, et que l’unique commentaire est du type « ça aurait été un bon texte si seulement il n’avait pas été écrit par un LLM », c’est également frustrant du point de vue de la personne qui l’a soumis
- Il est encore plus frustrant et démoralisant qu’un texte rédigé directement, sans recours à un LLM, soit ensuite soupçonné d’être un contenu généré par LLM
- Cela n’est pas arrivé sur Lobsters à propos de ses propres textes, mais l’auteur a reçu ce type de réaction sur d’autres plateformes et a vu la même chose arriver à d’autres auteurs sur Lobsters
Contexte et intention
- Les LLM sont un sujet polarisant au sein de la communauté et la situation est frustrante pour tout le monde ; à ce stade, il semble peu probable que les opinions des uns et des autres changent
- Le cœur de la proposition, en plus de « signaler les textes à faible effort comme spam puis passer à autre chose », est de « signaler comme hors sujet les métacommentaires qui ne font que pointer la présence supposée d’un LLM, puis passer à autre chose »
- Comme chacun a son propre seuil pour juger ce qui relève du “slop”, l’objectif est de réduire les cas où la discussion dans les commentaires glisse du contenu du texte vers un débat sur le fait de savoir s’il a été généré par un LLM
1 commentaires
Avis sur Lobste.rs
Ça peut ne pas plaire, mais je trouve ce type de signalement utile. Je n’ai pas envie de passer du temps à lire du texte généré, et j’ai le sentiment que quand les gens délèguent l’écriture à des outils, ils perdent leur propre voix, donc je n’ai pas spécialement envie de m’intéresser non plus à une écriture « assistée »
On ne lit pas un texte seulement pour son contenu, mais aussi pour le point de vue et le style de son auteur. La manière dont le texte a été écrit n’est pas sans rapport, et c’est aussi un point qui mérite discussion, car cela montre mieux comment l’auteur a participé au travail
Les signaux précoces qui permettent de décider dès le départ comment traiter un contenu ont de la valeur. Si ça ne plaît pas, on peut appuyer sur le bouton [-], et moi je peux utiliser le bouton masquer
Dans ce cas, on aurait aimé avoir un signal d’alerte à l’avance
J’ai vu des soupçons d’usage de LLM continuer à être lancés même contre des textes dont l’auteur affirmait les avoir écrits lui-même, sans raison de ne pas le croire. Si les commentaires ne permettent même pas d’identifier de façon fiable du contenu LLM, alors ce n’est que du bruit, et au mieux c’est presque aussi mauvais que les articles de bouillie IA
Les commentaires qui signalent qu’une soumission est générée par LLM sont utiles, et je m’en sers pour la signaler comme spam et la masquer
Bien sûr, je ne crois pas ces commentaires sur parole et je vérifie moi-même
S’il était possible de signaler un élément comme bouillie / spam, ce type de commentaires disparaîtrait
Interdire uniquement les commentaires sans corriger le système de signalement n’a pas de sens. Il faut traiter la cause profonde, pas le symptôme
Pour moi, c’est assez agaçant de voir de longues discussions sur l’origine de textes qui me semblent simplement médiocres. C’est encore pire quand des faits utiles s’y retrouvent enfouis
Je me demande s’il ne serait pas utile d’avoir, indépendamment des votes sur l’intérêt d’un texte, un moyen de laisser une note chiffrée personnelle sur sa qualité ou son côté « bouillie ». On pourrait en faire une moyenne, et l’utilisateur pourrait définir un seuil de masquage automatique
Cela compliquerait peut-être lobste.rs au-delà de son intention initiale, mais ce serait peut-être raisonnable pour gérer l’environnement assez dystopique dans lequel on se trouve
Les commentaires du type « ça, c’est de la bouillie LLM » m’ont fait gagner du temps à plusieurs reprises, y compris sur au moins un texte que j’avais moi-même publié. Je n’ai pas envie de lire de la bouillie, et encore moins d’en publier
En tant que lecteur, je trouve ces commentaires utiles. Surtout quand ils expliquent pourquoi ils le pensent, c’est plus utile qu’un simple signalement
La définition du signalement « spam » sur la page about est la suivante :
C’étaient des textes postés par des obsessionnels ou des trolls pour perturber plusieurs fils. Du contenu LLM de mauvaise qualité m’apparaît indiscernable de ce type de contenu
Comment faut-il considérer un texte où quelqu’un a seulement demandé à un LLM de corriger la grammaire ou l’orthographe ? Et le cas d’un argumentaire bien structuré rédigé en espagnol puis confié à un LLM pour traduction ? Ou celui d’une personne dyslexique qui donne une liste de points clés et demande au LLM d’en faire un texte ?
J’aimerais qu’on ne simplifie pas une question nuancée. On risque d’exclure des contributions intéressantes. Bien sûr, moi non plus je n’ai pas envie de voir ici de la bouillie sans aucune valeur informationnelle, ni pire encore des hallucinations factuellement fausses
Personnellement, je comprends les deux camps. Ce qui suit n’est pas la position officielle du site, seulement mon avis personnel, et ce n’est pas non plus une conclusion mûrement élaborée. Je partage juste ma réflexion du moment si cela peut aider la discussion
Les raisons de vouloir cette mesure sont légitimes et compréhensibles. Voir un texte travaillé avec soin être réduit à quelque chose où l’humain n’aurait pas du tout participé, c’est vraiment démoralisant. Encore plus si ce jugement repose sur des indices superficiels comme le tiret cadratin. À leur place, j’aurais vite envie de partir moi aussi
Cela dit, la mesure elle-même n’est peut-être pas idéale pour atteindre cet objectif. Son effet me semble être la perte de la plus grande ligne de défense contre les contenus sans humain derrière. Quand tout le monde construit ensemble des normes sociales et les applique de façon cohérente, cela passe bien mieux à l’échelle qu’un exercice d’autorité venu d’en haut. Je suis donc très prudent à l’idée d’étouffer une dynamique sociale qui joue en ce moment un rôle important. Même si on voit déjà des effets négatifs, et j’aimerais qu’on réévalue cela plus tard si ce rôle devient moins important
Y a-t-il d’autres mesures qui pourraient aider ? S’il existe des propositions qui n’ont pas encore été évoquées ici, j’aimerais que n’importe qui les formule
Bien sûr, j’aimerais aussi que tout le monde fasse attention à ne pas lancer des accusations inconsidérées quand le niveau de certitude est faible. Quelle que soit la cause qu’on pense défendre, une réaction irréfléchie peut être très destructrice. Si les gens continuent à s’attaquer personnellement les uns les autres sur un coup de tête, aucun espace ne peut durablement rester une communauté
Tout à fait d’accord. Il m’arrive souvent de lire un texte sans y percevoir le moindre caractère généré par IA, alors que quelqu’un d’autre affirme avec certitude que si. Je peux me tromper, mais comment peut-on savoir avec certitude qu’un contenu est généré par IA ?
Si c’est vraiment de la bouillie, je pense que les gens ne la recommanderont pas, et que cela se régulera naturellement
Quand les gens disent qu’ils veulent le point de vue et l’intuition de l’auteur, il y a là quelque chose de réellement important. Même si quelqu’un créait avec un LLM, sans aide humaine autre qu’un prompt, un faux billet de blog qui se trouverait par hasard cohérent, factuellement exact et intéressant, je pense malgré tout que je n’aurais pas spécialement envie de le lire. Du moins dans le contexte de lobsters
On peut imaginer une plateforme faite pour lire ce type de contenu, comme une encyclopédie de textes LLM dans laquelle on entrerait en connaissant leur nature. Mais je ne pense pas que cela convienne à une communauté fondée sur la pensée et la créativité humaines
Cela ne change pas énormément la situation actuelle des textes eux-mêmes. Je ne peux pas dire avec assurance à quel point les commentaires du style « ça sent le LLM » sont vraiment exacts. Mais je comprends profondément le désir des membres de la communauté d’avoir l’assurance qu’ils lisent un texte rédigé par une personne consciente
Un peu à part de cette proposition, je me demande pourquoi cette proposition est signalée comme hors sujet ou comme spam. Je ne vois pas en quoi elle correspondrait à l’un ou l’autre critère ?
Je sais qu’il est indiqué dans la section about que ce genre de méta-question n’est pas idéal ici, mais je me demande sincèrement si j’ai raté quelque chose
Il y aura des blogueurs dont l’anglais n’est pas la langue maternelle qui utilisent l’IA pour lisser la langue de leurs billets. Les personnes plus à l’aise en anglais peuvent alors percevoir ces textes comme de la bouillie IA, alors qu’il ne s’agit peut-être en réalité que d’une forme d’assistance à l’écriture
Moi non plus l’anglais n’est pas ma langue maternelle, donc j’ai du mal à repérer l’usage d’IA dans ce type de texte. Ce qui compte le plus pour moi, c’est la façon dont le message essentiel est transmis