6 points par GN⁺ 28 일 전 | 3 commentaires | Partager sur WhatsApp
  • L’équipe de modération de r/programming sur Reddit met en place à partir d’avril une politique expérimentale interdisant pendant 2 à 4 semaines l’ensemble des posts, articles et vidéos liés aux LLM, avec pour objectif de restaurer un espace de discussion technique de haute qualité au sein de la communauté
  • Cette décision s’explique par le fait que les contenus liés aux LLM étaient publiés en quantité telle qu’ils écrasaient les autres sujets, et que les réactions de la communauté montraient aussi un faible intérêt pour ce type de contenu
  • La règle déjà en vigueur interdisant les textes générés par des LLM est maintenue séparément de cette mesure, et les contenus IA sans lien avec les LLM, comme l’IA pour le jeu de Go ou l’analyse technique de technologies de machine learning, restent autorisés
  • L’annonce ayant été faite le 1er avril, une confusion est née dans la communauté sur un éventuel poisson d’avril, mais les modérateurs ont ajouté explicitement par modification qu’il ne s’agissait pas d’une blague, confirmant qu’il s’agissait bien d’une vraie politique
  • La majorité des membres de la communauté a salué cette mesure, mais certains ont aussi objecté qu’interdire totalement les discussions sur les LLM en programmation constituait une mesure excessive

Contexte et objectif de l’interdiction

  • L’objectif du subreddit est de préserver r/programming comme un « espace d’apprentissage et de discussion en ingénierie logicielle détaillé et technique »
  • Le volume écrasant de contenus liés aux LLM posait problème en reléguant les autres sujets au second plan
  • Le fait que les membres de la communauté aient globalement montré peu d’intérêt pour les contenus LLM est également cité comme raison de cette mise en œuvre

Périmètre de l’interdiction et exceptions

  • Sont interdits : l’ensemble des posts, articles et vidéos concernant les LLM
  • La règle déjà appliquée interdisant les textes générés par des LLM reste maintenue indépendamment de cette nouvelle mesure
  • Restent autorisés : les contenus liés à l’IA qui ne concernent pas les LLM
    • Exemples : un article technique sur la création d’une IA pour le jeu de Go, une analyse technique d’un processus de machine learning
  • Les modérateurs précisent clairement que les outils ou techniques liés aux LLM comme le prompting, le fine-tuning ou le MCP entrent eux aussi dans le champ de l’interdiction
  • La raison du choix d’une interdiction générale est que les seuls critères de qualité des articles ne permettent pas de filtrer les contenus LLM

Fonctionnement de la phase expérimentale

  • L’interdiction est maintenue tant que ce post d’annonce reste épinglé (stickied) en haut du subreddit
  • La durée de l’expérimentation est fixée à 2 à 4 semaines
  • À l’issue de cette période, un examen a posteriori est prévu pour déterminer si des contenus réellement utiles ont été supprimés

Réaction de la communauté

  • Une majorité des membres a accueilli favorablement la mesure, en soulignant que les contenus LLM avaient eu pour effet de noyer des articles de qualité
  • Comme l’annonce coïncidait avec le 1er avril, une confusion a surgi sur la possibilité d’une blague, et les modérateurs ont ensuite confirmé par une modification qu’il s’agissait d’une vraie politique
  • Certains ont toutefois contesté la mesure en estimant que, dans un contexte où les LLM sont désormais profondément impliqués dans le développement logiciel, bloquer toute discussion sur le sujet est excessif
  • Certains ont aussi estimé que les développeurs contraints d’utiliser des LLM au travail ont besoin d’un espace pour en discuter d’un point de vue technique, mais les modérateurs considèrent qu’ils peuvent utiliser d’autres subreddits

Autres points liés à la modération

  • Les blogs spam et les articles sous paywall sont déjà interdits par les règles existantes et peuvent être traités via signalement
  • Les modérateurs reconnaissent la difficulté à identifier les textes générés par des LLM, mais indiquent qu’ils trancheront au cas par cas en cas de signalement
  • En réponse à certaines affirmations selon lesquelles l’usage du tiret cadratin serait une preuve de génération par LLM, les modérateurs ont précisé qu’il s’agissait d’un texte rédigé directement par eux-mêmes

3 commentaires

 
picopress 28 일 전

Enfin un retour à la normale...

 
dieafterwork 28 일 전

222

 
GN⁺ 28 일 전
Avis sur Hacker News
  • J’ai déjà eu un article que j’avais moi-même écrit sanctionné par les modérateurs sur r/programming pour « faible qualité, plagiat, spam de blog ou contenu généré par IA »
    Ironiquement, ce commentaire n’a été ajouté que trois mois après la publication, par un système de révision automatisé
    J’en garde encore aujourd’hui une méfiance envers Reddit

    • Je pense que Reddit est devenu une plateforme de faible qualité. Même ceux qui veulent gérer les subreddits populaires ne sont pas de vrais modérateurs compétents. À ce stade, il vaudrait mieux que les gens arrêtent complètement d’utiliser Reddit
    • On dirait des modérateurs grisés par leur pouvoir. Je les ignore simplement
    • Je me demande si ce n’est pas le fait d’avoir mis une mention d’auto-promotion dans l’article. Comme le billet indiquait qu’il servait à promouvoir une activité de conseil, il a peut-être été classé comme spam. Un blog personnel a déjà en soi un aspect auto-promotionnel, donc ce n’était sans doute pas nécessaire de le signaler explicitement
    • Moi aussi, j’ai quitté Reddit après y être resté longtemps. J’étais actif sur le subreddit Venture Bros avec plusieurs personnages, puis Reddit a commencé à réutiliser mon ancien compte et à republier mon contenu. Sans même mentionner le nom de l’auteur. Si ça m’est arrivé à moi, ça doit probablement se produire à grande échelle. Reddit est en pratique une plateforme morte
  • Je pense que l’interdiction de la programmation IA sur r/programming est une bonne décision
    La programmation IA est fondamentalement différente de la programmation traditionnelle. L’intérêt de Reddit, c’est justement d’avoir des subreddits séparés par sujet, donc avoir aussi un espace consacré uniquement à la « programmation pure » a du sens

    • Je ne suis pas d’accord avec l’idée que « la programmation IA est fondamentalement différente ». La plupart des gens font toujours du code classique
    • En réalité, ce qui est interdit, ce n’est pas toute la « programmation IA », mais les discussions liées aux LLM
    • Malgré tout, si on exclut les discussions hybrides entre IA et programmation, le subreddit finira par prendre du retard sur son époque. On est déjà à l’ère où les LLM génèrent du code SwiftUI
  • Je ne suis pas d’accord avec l’idée qu’il n’y a pas de discussions intéressantes sur la programmation IA
    J’apprends beaucoup en parlant chaque jour des LLM avec mes collègues. C’est juste qu’en ligne, ça a tendance à se dégrader et à ressembler à des débats politiques
    Dire que « la programmation IA n’est pas intéressante » est complètement faux

    • Ce que je déteste le plus dans les conversations sur les LLM, c’est que dès que quelqu’un pointe un problème des LLM, il y a toujours un commentaire pour répondre : « les humains font aussi ce genre d’erreurs »
    • On pourrait dire exactement la même chose des discussions sur React ou TypeScript : « il n’y a pas de discussions intéressantes ». En réalité, n’importe quel sujet devient intéressant si on l’aborde en profondeur
    • En fait, ce genre de débat n’est pas différent des anciennes guerres emacs vs vim
    • Si r/programming a interdit les LLM, c’est parce que la plupart des discussions avaient fini par dégénérer en spam IA. D’autres subreddits techniques comme r/rust bloquent aussi les discussions sur les LLM pour la même raison
  • J’aime la décision de r/programming
    Les projets générés par LLM et les billets de blog produits par LLM sont du contenu de faible qualité, sans authenticité.
    r/Python avait aussi été envahi par ce problème à un moment, mais la situation s’est améliorée quand les modérateurs ont fait le ménage

    • C’est en grande partie vrai, mais au fond les LLM restent un outil. À mon avis, on est encore en train d’apprendre à bien les utiliser — et à mal les utiliser aussi
  • Vu l’annonce de r/programming le 2 avril, on a l’impression que le subreddit est géré par des gens déconnectés des réalités du terrain
    On vit déjà à une époque où le développement logiciel sans LLM est impossible. Les partisans du « zéro LLM » donnent l’impression de nier la réalité

    • J’utilise aussi des LLM, mais je n’ai pas spécialement envie de lire des articles sur la manière de les utiliser. Je comprends donc que /r/programming ne veuille pas de ce type de discussions
    • Je ne suis pas d’accord avec l’idée que l’IA soit si largement utilisée. Dans mon secteur, on l’utilise à peine. Au contraire, le processus de vérification des résultats de l’IA est plus pénible. La plupart des gens travaillent encore manuellement
    • Du point de vue des modérateurs, quand un sujet devient trop populaire, il faut éviter qu’il n’écrase tous les autres contenus. J’y vois une tentative de rééquilibrage, comme les subreddits qui interdisent les mèmes
    • Quand un sujet explose en popularité, tout le subreddit finit par être colonisé par ce seul thème. Par exemple, comme le subreddit WNBA qui a été saturé de messages sur Caitlin Clark, les modérateurs doivent interdire le « contenu à faible effort » pour rétablir l’équilibre
    • Il existe des millions de programmeurs qui n’ont jamais utilisé Python, bash ou cmake. Le software engineering est un domaine bien plus vaste qu’on ne le pense
  • Reddit donne l’impression d’être vidé de sa substance. Avant c’était bien, maintenant c’est devenu un endroit où des gens en colère se font la leçon mutuellement
    Cela dit, dans les petits subreddits centrés sur des sujets précis, on trouve encore des communautés précieuses

    • Si les petits subreddits sont bons, c’est parce que Reddit a en pratique remplacé les forums classiques (vBulletin, etc.)
    • Comme sur toute plateforme, quand elle se démocratise, la qualité finit par baisser. Reddit et Quora étaient excellents en 2010
    • Depuis que Reddit est passé à un algorithme de tri basé sur l’engagement, les contenus conçus pour susciter la colère se sont multipliés. On peut voir cela dans un billet de blog de Reddit et dans une discussion HN
    • Je recommande d’essayer Lemmy. Ça rappelle Reddit en 2012
    • Au fond, si Reddit en est arrivé là, c’est parce qu’il est devenu trop gros. Grâce à l’anonymat, c’est devenu un espace où les gens n’ont plus besoin de cacher leur vraie nature. Si ça n’a pas complètement viré comme 4chan, c’est seulement grâce aux modérateurs bénévoles
  • Je pense aussi que HN devrait limiter les articles IA à visée auto-promotionnelle

    • En ce moment, HN déborde de billets « optimistes sur l’IA » ou « qui semblent sceptiques sur l’IA mais finissent quand même par être optimistes ». Il est frappant de voir que même les critiques finissent par faire la promotion de l’IA
    • Selon les nouvelles règles de HN, « les commentaires générés ou édités par IA sont interdits ». Voir à ce sujet le commentaire de dang
    • Moi, je masque systématiquement tous ces articles. Du coup, la page d’accueil devient beaucoup plus propre
    • Bientôt, au lieu de se plaindre que « cet endroit devient comme le site orange », il y aura sûrement une règle disant simplement de signaler le spam IA
  • Cette nouvelle est tellement intéressante que j’envisage de réutiliser Reddit, que j’avais quitté il y a 10 ans

    • Moi aussi, j’ai supprimé mon compte il y a quelques années, mais si cette règle est maintenue, Reddit pourrait bien devenir meilleur que HN
  • Je me suis demandé si cette annonce n’était pas en fait une blague du 1er avril. La formulation était assez ambiguë, comme s’ils voulaient voir les réactions avant de corriger ensuite

    • Mais d’après les modérateurs, « c’était juste le début d’un nouveau mois, donc un bon moment pour faire un test »
  • J’aimerais bien qu’il existe une fonction de bascule HN pour masquer tous les messages liés aux LLM