Construire une toile de confiance pour lutter contre le spam des LLM
(blog.tangled.org)- Tangled prend en charge nativement une fonctionnalité de vouching permettant aux utilisateurs d’appuyer ou de dénoncer d’autres utilisateurs avec lesquels ils ont interagi, comme signal de confiance pour répondre à la hausse des soumissions basées sur des LLM
- Les utilisateurs appuyés affichent une icône de bouclier vert à côté de leur photo de profil, tandis que les utilisateurs dénoncés affichent une icône de bouclier rouge, ce qui sert d’indice pour décider s’il faut interagir avec eux
- À mesure que les outils basés sur les LLM abaissent la barrière pour soumettre du code à un projet, les soumissions de type « vallée dérangeante », apparemment correctes mais subtilement erronées, peuvent se multiplier ; les mainteneurs peuvent alors appuyer ou dénoncer les contributeurs qui abusent de ces outils et alourdissent la charge de maintenance
- Les appuis et dénonciations incluent un champ de justification textuel et sont soumis à une atténuation, de sorte que les utilisateurs ne voient que les jugements émis par eux-mêmes et par leur cercle
- Lorsqu’on appuie ou dénonce quelqu’un dans Tangled, un enregistrement public est créé sur le PDS de l’utilisateur ; l’appview l’agrège ensuite pour afficher un « chapeau » d’appui au-dessus des profils dans les issues, commentaires, pull requests et commentaires de pull requests
Signaux de confiance de Tangled
- Tangled prend en charge nativement la fonctionnalité de vouching, qui permet aux utilisateurs d’appuyer ou de dénoncer d’autres utilisateurs avec lesquels ils ont interagi
- Les utilisateurs appuyés affichent une icône de bouclier vert à côté de leur photo de profil, et les utilisateurs dénoncés une icône de bouclier rouge
- Les utilisateurs peuvent aussi voir les jugements d’appui ou de dénonciation émis par leur cercle et s’en servir comme signal pour décider s’ils veulent interagir
- À mesure que les outils basés sur les LLM abaissent la barrière pour soumettre du code à un projet, les soumissions de type « vallée dérangeante », apparemment correctes mais subtilement erronées, peuvent se multiplier
- Les mainteneurs du réseau Tangled peuvent appuyer ou dénoncer les contributeurs qui abusent de ces outils et augmentent la charge de maintenance
Fonctionnement et contraintes de conception
-
Conception prudente
- Les appuis et dénonciations incluent un champ de justification textuel
- Une atténuation est appliquée, de sorte que les utilisateurs ne voient que les jugements émis par eux-mêmes et par leur cercle
- Actuellement, les utilisateurs dénoncés ne sont pas bloqués dans un projet ; seule une étiquette d’avertissement rouge apparaît dans certaines parties de l’interface
-
Fonctionnalités prévues
- Comme les mainteneurs et les contributeurs peuvent quitter un projet avec le temps, les appuis s’affaiblissent progressivement et doivent être renouvelés de temps à autre
- Une fonctionnalité de suivi des preuves pourrait être ajoutée : si un utilisateur est appuyé juste après la fusion d’une PR, cette PR serait ajoutée comme preuve dans l’enregistrement d’appui
-
Enregistrements publics et emplacement d’affichage
- Lorsqu’on appuie ou dénonce quelqu’un dans Tangled, un enregistrement public est créé sur le PDS de l’utilisateur
- Cet enregistrement contient l’information indiquant s’il s’agit d’un appui ou d’une dénonciation, ainsi qu’une justification facultative
- L’appview de Tangled agrège les données d’appui de l’ensemble du réseau et affiche un « chapeau » d’appui au-dessus des profils aux points d’interaction
- Les emplacements d’affichage sont les issues, les commentaires d’issues, les pull requests et les commentaires de pull requests
-
Visibilité basée sur le cercle
- Le chapeau n’est affiché au-dessus d’un utilisateur que si cet utilisateur a été directement appuyé ou dénoncé par vous, ou s’il a été appuyé ou dénoncé par une personne que vous avez vous-même appuyée
- En cliquant sur le chapeau, on peut voir qui, dans son propre cercle, a appuyé ou dénoncé cet utilisateur
- Pour l’instant, la seule conséquence d’une dénonciation est l’affichage du chapeau ; cela pourra évoluer plus tard, mais sert actuellement de signal d’aide à la décision
1 commentaires
Avis sur Lobste.rs
Une méthode meilleure et plus simple consiste à établir une politique fortement anti-LLM et à l'appliquer correctement. Il faut aussi quitter les plateformes qui encouragent l'usage des LLM ou sont pro-IA, comme GitHub
Ce n'est pas efficace à 100 %, mais même quand quelqu'un essaie de cacher l'usage d'un LLM, cela finit généralement par se voir, et il suffit alors de bannir immédiatement. Si une entreprise pousse du spam LLM, il faut bloquer toute l'entreprise et, sur une forge auto-hébergée, bloquer le réseau de cette société au niveau du pare-feu
Les systèmes bancals comme la preuve de travail pénalisent les nouveaux contributeurs et les contributeurs de passage, et le cautionnement de confiance revient lui aussi à une forme de preuve de travail. Mieux vaut ne pas harceler les plus faibles et frapper vite les mauvais acteurs, c'est plus efficace
Même dans la citation, il est dit qu'on cautionne ou qu'on blâme les contributeurs qui détournent cet outil et créent une charge de maintenance
Forcer les gens à accepter une interdiction au niveau de la plateforme sous prétexte que quelqu'un lance une chasse aux sorcières anti-LLM serait contre-productif. Ici comme sur HN, on voit parfois de faux soupçons affirmant qu'un texte a été écrit par un LLM ; si en plus il fallait gérer ça dans les PR, ce serait vraiment épuisant
Ce système cherche à éviter les contributeurs qui détournent les outils et créent une charge de maintenance, et il pourrait aussi servir contre ceux qui créent une charge de maintenance de manière plus traditionnelle. Cela ressemble à un modèle de droits de commit plus évolué
S'il existe une politique anti-LLM, on peut l'appliquer avec ça ; s'il existe une politique contre le harcèlement, on peut l'appliquer avec ça aussi
Si ce n'est pas directement lié au fait de pouvoir soumettre une PR, alors au mieux c'est inutile, et au pire cela risque de devenir un système de modération nocif. Quelqu'un va se mettre à blâmer en masse les utilisateurs qui ont déjà utilisé des LLM, puis cela pourra dériver vers des attaques groupées pour d'autres raisons
Le web of trust en lui-même est élégant, mais ce projet ne traite que l'aspect technique et pas l'aspect social. Si l'on construit un système de modération sans grande section expliquant comment il peut passer à l'échelle sans abus et en intégrant cela dans les résultats du système, on va au-devant de surprises
C'est une expérience assez intéressante, qui ajoute d'abord une motivation sociale pour traiter un problème social, et la conception semble intelligente
Si « les utilisateurs blâmés ne subissent aucune conséquence. Ils ont juste un chapeau », alors à quoi cela sert-il au juste ? Au final, il faut toujours traiter les PR de la même manière
Par exemple, on pourrait imaginer des options comme bloquer ou abaisser la priorité
Y a-t-il un mécanisme pour empêcher quelqu'un de créer plusieurs domaines, puis un million d'utilisateurs sur chacun, afin qu'ils se cautionnent mutuellement ? Sinon, d'autres pourraient m'acheter des lots de réputation difficiles à distinguer du reste
Le modèle d'arbre d'invitation de lobste.rs me semble préférable. Quand quelqu'un commence à abuser, il est facile de couper toute la sous-branche, et la croissance plus lente est plutôt un avantage
Dans human.json, personne ne cautionnerait sans doute les nœuds d'un tel réseau, ou alors ils auraient trop peu de liens entrants, donc une grande distance. Cela ne veut pas dire qu'on ne peut pas faire entrer ces sites dans le réseau, mais les cautions et la défiance peuvent rapidement les repousser. Il faut encore voir comment cela marcherait en pratique
Ce serait bien d'avoir une couche d'interface façon petnames permettant de voir en ligne ou au survol « cautionné par X, Y, Z »
Je me demande dans quelle mesure cela permettrait d'empêcher la « culture de réputation »
Au final, toutes les données sont publiques, donc quelqu'un pourrait créer tangled2.org et en faire un graphe global, mais dans l'interface, l'affaiblissement des cautions en dehors de son propre cercle est volontaire
L'idée est bonne, mais pourquoi ne pas simplement communiquer naturellement ? Tout est trop bien rangé et trop cohérent, jusque dans les plus petits échanges
Laisser quelques fautes de frappe dans ce qu'on écrit crée une empreinte plus humaine
J'aime bien cette idée. Cela me rappelle le tree of trust utilisé par lobste.rs lui-même
On a l'impression de recréer à toute vitesse les trust metric research menées presque au même moment que la naissance de l'open source. Je me demande ce que @raph en penserait
Ce n'était pas parfait, mais c'était clairement bien mieux que de n'avoir absolument rien
J'ai l'impression qu'il en existe déjà six du même genre ; pourquoi ne pas rejoindre l'un d'eux au lieu d'en créer encore un autre ?