1 points par GN⁺ 18 시간 전 | 1 commentaires | Partager sur WhatsApp
  • Sur Lobsters, les discussions se sont poursuivies autour de l’interdiction des textes générés par LLM et du changement des tags, mais un consensus semble se dégager : les publications à faible effort et à faible contenu informatif devraient être traitées comme du spam
  • La proposition est de signaler comme hors sujet les commentaires qui se contentent de dire des choses comme « this is LLM slop », car ils ne parlent pas du contenu du texte mais se limitent à juger s’il a été généré ou non
  • Au moins 80 % de la raison pour laquelle on lit Lobsters tient à la qualité des commentaires, et devoir filtrer les débats sur le fait de savoir si un texte est ou non un produit de LLM est pénible
  • Lorsqu’on soumet un article jugé intéressant et que le seul commentaire est du genre « si seulement ce n’était pas un texte écrit par un LLM », cela est frustrant pour la personne qui l’a soumis
  • Il est encore plus décourageant qu’un texte écrit directement par une personne soit soupçonné d’être un contenu généré par LLM ; cela est arrivé sur d’autres plateformes ainsi qu’à d’autres auteurs sur Lobsters

Proposition

  • Les discussions ont continué autour de l’interdiction des textes générés par LLM et du changement des tags ai/vibecoding, mais il semble y avoir un accord pour signaler comme spam les publications à faible effort et à faible contenu informatif, puis passer à autre chose
  • La proposition est de signaler comme hors sujet les commentaires qui se contentent de dire « this is LLM slop » ou des formulations similaires
  • Au moins 80 % de l’intérêt de lire Lobsters vient de la qualité des commentaires, et il est frustrant de devoir filtrer des débats qui dérivent vers la question de savoir si le texte discuté est ou non un produit de LLM
  • Lorsqu’on soumet un texte parce qu’on le juge intéressant, et que l’unique commentaire est du type « ça aurait été un bon texte si seulement il n’avait pas été écrit par un LLM », c’est également frustrant du point de vue de la personne qui l’a soumis
  • Il est encore plus frustrant et démoralisant qu’un texte rédigé directement, sans recours à un LLM, soit ensuite soupçonné d’être un contenu généré par LLM
  • Cela n’est pas arrivé sur Lobsters à propos de ses propres textes, mais l’auteur a reçu ce type de réaction sur d’autres plateformes et a vu la même chose arriver à d’autres auteurs sur Lobsters

Contexte et intention

  • Les LLM sont un sujet polarisant au sein de la communauté et la situation est frustrante pour tout le monde ; à ce stade, il semble peu probable que les opinions des uns et des autres changent
  • Le cœur de la proposition, en plus de « signaler les textes à faible effort comme spam puis passer à autre chose », est de « signaler comme hors sujet les métacommentaires qui ne font que pointer la présence supposée d’un LLM, puis passer à autre chose »
  • Comme chacun a son propre seuil pour juger ce qui relève du “slop”, l’objectif est de réduire les cas où la discussion dans les commentaires glisse du contenu du texte vers un débat sur le fait de savoir s’il a été généré par un LLM

1 commentaires

 
Avis sur Lobste.rs
  • Ça peut ne pas plaire, mais je trouve ce type de signalement utile. Je n’ai pas envie de passer du temps à lire du texte généré, et j’ai le sentiment que quand les gens délèguent l’écriture à des outils, ils perdent leur propre voix, donc je n’ai pas spécialement envie de m’intéresser non plus à une écriture « assistée »
    On ne lit pas un texte seulement pour son contenu, mais aussi pour le point de vue et le style de son auteur. La manière dont le texte a été écrit n’est pas sans rapport, et c’est aussi un point qui mérite discussion, car cela montre mieux comment l’auteur a participé au travail
    Les signaux précoces qui permettent de décider dès le départ comment traiter un contenu ont de la valeur. Si ça ne plaît pas, on peut appuyer sur le bouton [-], et moi je peux utiliser le bouton masquer

    • Le plus gros problème, c’est que si un texte est une tirade creuse de 17 paragraphes et qu’on ne s’en rend compte qu’au 10e paragraphe, on a déjà gaspillé pas mal de temps sur un texte de faible valeur
      Dans ce cas, on aurait aimé avoir un signal d’alerte à l’avance
    • Je comprends qu’on n’aime pas les contenus générés par LLM, mais l’usage des LLM couvre tout un spectre, entre « trouve et écris tout à ma place » et « je ne suis pas natif, aide-moi à traduire / reformuler en anglais ». Le point le plus important, c’est qu’on n’a pas besoin que, sous chaque billet, une dizaine de commentaires en tête débattent de savoir si un LLM l’a écrit ou non
      J’ai vu des soupçons d’usage de LLM continuer à être lancés même contre des textes dont l’auteur affirmait les avoir écrits lui-même, sans raison de ne pas le croire. Si les commentaires ne permettent même pas d’identifier de façon fiable du contenu LLM, alors ce n’est que du bruit, et au mieux c’est presque aussi mauvais que les articles de bouillie IA
  • Les commentaires qui signalent qu’une soumission est générée par LLM sont utiles, et je m’en sers pour la signaler comme spam et la masquer
    Bien sûr, je ne crois pas ces commentaires sur parole et je vérifie moi-même

  • S’il était possible de signaler un élément comme bouillie / spam, ce type de commentaires disparaîtrait

    • Ces commentaires contournent clairement les limites du système de signalement. Le spam y est défini comme ayant une dimension commerciale, donc si on s’en tient à la définition, cela ne correspond pas à beaucoup de publications de bouillie
      Interdire uniquement les commentaires sans corriger le système de signalement n’a pas de sens. Il faut traiter la cause profonde, pas le symptôme
    • Je suis peut-être assez âgé pour ne pas reconnaître instinctivement la « bouillie » aussi bien que d’autres. C’est peut-être parce que ça ressemble au jargon marketing produit par des humains il y a quelques années, donc ça ne me paraît pas être un phénomène distinct
      Pour moi, c’est assez agaçant de voir de longues discussions sur l’origine de textes qui me semblent simplement médiocres. C’est encore pire quand des faits utiles s’y retrouvent enfouis
      Je me demande s’il ne serait pas utile d’avoir, indépendamment des votes sur l’intérêt d’un texte, un moyen de laisser une note chiffrée personnelle sur sa qualité ou son côté « bouillie ». On pourrait en faire une moyenne, et l’utilisateur pourrait définir un seuil de masquage automatique
      Cela compliquerait peut-être lobste.rs au-delà de son intention initiale, mais ce serait peut-être raisonnable pour gérer l’environnement assez dystopique dans lequel on se trouve
    • On peut déjà signaler un élément comme spam, non ? C’est ce que je fais souvent
  • Les commentaires du type « ça, c’est de la bouillie LLM » m’ont fait gagner du temps à plusieurs reprises, y compris sur au moins un texte que j’avais moi-même publié. Je n’ai pas envie de lire de la bouillie, et encore moins d’en publier

  • En tant que lecteur, je trouve ces commentaires utiles. Surtout quand ils expliquent pourquoi ils le pensent, c’est plus utile qu’un simple signalement
    La définition du signalement « spam » sur la page about est la suivante :

    For stories, these are: "Off-topic" for stories that are not about computing; "Already Posted" for duplicate submissions and links that elaborate on or responses to a thread that's less than a week old (see merging); and "Broken Link" for links that 404, 500, or present a paywall; "Spam" for links that promote a commercial service.
    Quand je compare cette définition, le comportement proposé, et le comportement que j’ai déjà vu soutenu auparavant par au moins un modérateur, je préfère que ce type de commentaires continue d’exister
    Le désir d’éviter la bouillie est plus fort, pour moi, que celui d’éviter le content marketing. Le marketing est plus facile à contextualiser, et un signalement suffit à fournir assez d’informations. Tant qu’il n’existe pas de catégorie de signalement distincte pour la bouillie, j’aimerais que ces commentaires restent autorisés, surtout quand ils sont argumentés

    • Personnellement, j’utilise « spam » dans un sens plus large que la définition de la page about. Je n’y mets pas seulement l’ancien « UCE », c’est-à-dire les courriels commerciaux non sollicités, mais aussi les longs pavés de propagande copiés-collés qui envahissaient certains groupes Usenet
      C’étaient des textes postés par des obsessionnels ou des trolls pour perturber plusieurs fils. Du contenu LLM de mauvaise qualité m’apparaît indiscernable de ce type de contenu
  • Comment faut-il considérer un texte où quelqu’un a seulement demandé à un LLM de corriger la grammaire ou l’orthographe ? Et le cas d’un argumentaire bien structuré rédigé en espagnol puis confié à un LLM pour traduction ? Ou celui d’une personne dyslexique qui donne une liste de points clés et demande au LLM d’en faire un texte ?
    J’aimerais qu’on ne simplifie pas une question nuancée. On risque d’exclure des contributions intéressantes. Bien sûr, moi non plus je n’ai pas envie de voir ici de la bouillie sans aucune valeur informationnelle, ni pire encore des hallucinations factuellement fausses

    • Les avantages et inconvénients du texte généré par LLM ont déjà été rabâchés jusqu’à l’épuisement. Ce que je veux, c’est simplement qu’on arrête ce débat dans les commentaires. Signalez en spam et passez à autre chose, ou bien laissez tomber
  • Personnellement, je comprends les deux camps. Ce qui suit n’est pas la position officielle du site, seulement mon avis personnel, et ce n’est pas non plus une conclusion mûrement élaborée. Je partage juste ma réflexion du moment si cela peut aider la discussion
    Les raisons de vouloir cette mesure sont légitimes et compréhensibles. Voir un texte travaillé avec soin être réduit à quelque chose où l’humain n’aurait pas du tout participé, c’est vraiment démoralisant. Encore plus si ce jugement repose sur des indices superficiels comme le tiret cadratin. À leur place, j’aurais vite envie de partir moi aussi
    Cela dit, la mesure elle-même n’est peut-être pas idéale pour atteindre cet objectif. Son effet me semble être la perte de la plus grande ligne de défense contre les contenus sans humain derrière. Quand tout le monde construit ensemble des normes sociales et les applique de façon cohérente, cela passe bien mieux à l’échelle qu’un exercice d’autorité venu d’en haut. Je suis donc très prudent à l’idée d’étouffer une dynamique sociale qui joue en ce moment un rôle important. Même si on voit déjà des effets négatifs, et j’aimerais qu’on réévalue cela plus tard si ce rôle devient moins important
    Y a-t-il d’autres mesures qui pourraient aider ? S’il existe des propositions qui n’ont pas encore été évoquées ici, j’aimerais que n’importe qui les formule
    Bien sûr, j’aimerais aussi que tout le monde fasse attention à ne pas lancer des accusations inconsidérées quand le niveau de certitude est faible. Quelle que soit la cause qu’on pense défendre, une réaction irréfléchie peut être très destructrice. Si les gens continuent à s’attaquer personnellement les uns les autres sur un coup de tête, aucun espace ne peut durablement rester une communauté

  • Tout à fait d’accord. Il m’arrive souvent de lire un texte sans y percevoir le moindre caractère généré par IA, alors que quelqu’un d’autre affirme avec certitude que si. Je peux me tromper, mais comment peut-on savoir avec certitude qu’un contenu est généré par IA ?
    Si c’est vraiment de la bouillie, je pense que les gens ne la recommanderont pas, et que cela se régulera naturellement

    • Je ne suis pas convaincu qu’il existe dans le texte généré par IA des caractéristiques intrinsèques que les gens, ou même la plupart des gens, remarqueront toujours. À terme, il pourrait presque ne plus y avoir de moyen de faire la différence à partir du texte seul. Dans ce cas, si un LLM l’a écrit mais que personne ne s’en aperçoit, est-ce vraiment de la « vraie bouillie » ?
      Quand les gens disent qu’ils veulent le point de vue et l’intuition de l’auteur, il y a là quelque chose de réellement important. Même si quelqu’un créait avec un LLM, sans aide humaine autre qu’un prompt, un faux billet de blog qui se trouverait par hasard cohérent, factuellement exact et intéressant, je pense malgré tout que je n’aurais pas spécialement envie de le lire. Du moins dans le contexte de lobsters
      On peut imaginer une plateforme faite pour lire ce type de contenu, comme une encyclopédie de textes LLM dans laquelle on entrerait en connaissant leur nature. Mais je ne pense pas que cela convienne à une communauté fondée sur la pensée et la créativité humaines
      Cela ne change pas énormément la situation actuelle des textes eux-mêmes. Je ne peux pas dire avec assurance à quel point les commentaires du style « ça sent le LLM » sont vraiment exacts. Mais je comprends profondément le désir des membres de la communauté d’avoir l’assurance qu’ils lisent un texte rédigé par une personne consciente
  • Un peu à part de cette proposition, je me demande pourquoi cette proposition est signalée comme hors sujet ou comme spam. Je ne vois pas en quoi elle correspondrait à l’un ou l’autre critère ?
    Je sais qu’il est indiqué dans la section about que ce genre de méta-question n’est pas idéal ici, mais je me demande sincèrement si j’ai raté quelque chose

    • Sur ce site, il y a pas mal de marchands humains de bouillie qui utilisent hors sujet ou spam sur n’importe quel texte qui ne leur plaît pas. C’est frustrant. Ça s’est déjà vu auparavant : https://lobste.rs/s/irxjid/ai_vampire#c_d0zhhi
  • Il y aura des blogueurs dont l’anglais n’est pas la langue maternelle qui utilisent l’IA pour lisser la langue de leurs billets. Les personnes plus à l’aise en anglais peuvent alors percevoir ces textes comme de la bouillie IA, alors qu’il ne s’agit peut-être en réalité que d’une forme d’assistance à l’écriture
    Moi non plus l’anglais n’est pas ma langue maternelle, donc j’ai du mal à repérer l’usage d’IA dans ce type de texte. Ce qui compte le plus pour moi, c’est la façon dont le message essentiel est transmis

    • Ce fil méta ne porte pas sur les raisons pour lesquelles les gens utilisent ou n’utilisent pas les LLM. Ce que je veux, c’est simplement ne plus voir dans chaque fil de commentaires d’ici des débats du genre « c’est généré par un robot ! » « non » « si, c’est évident ». Bien sûr, je force le trait un peu