2 points par GN⁺ 2025-04-26 | 2 commentaires | Partager sur WhatsApp
  • Sur X.com, l’algorithme et les comptes populaires manipulent discrètement la visibilité des contenus
  • La preuve sociale n’est plus le reflet de l’opinion publique réelle, mais se trouve biaisée par la proximité avec des influenceurs
  • Par une réaction en chaîne de la perception, certains récits se renforcent progressivement et se propagent
  • Autrefois, l’astroturfing reposait sur de faux comptes ; désormais, il s’appuie sur de vrais utilisateurs soigneusement sélectionnés
  • Les gens croient choisir par eux-mêmes, alors qu’en réalité, les options sont ajustées par l’algorithme

Autorité algorithmique

  • Les utilisateurs influents et la conception de l’algorithme de recommandation façonnent discrètement ce que les gens voient, ce qui attire l’attention et ce qui est enfoui
  • Lorsqu’un compte suivi par 219 millions de personnes se contente de « mute » un petit compte, les vues de ce dernier peuvent chuter de 150,000 à 20,000 en une seule journée
  • Il s’agit d’une forme de shadow ban opérée par l’algorithme, sans violation explicite des règles ni annonce
  • À l’inverse, lorsqu’un compte influent envoie un signal positif, le contenu se propage rapidement et gagne en notoriété
  • Même un simple like ou des commentaires répétés peuvent jouer le rôle d’AstroBoost™, en mettant en scène une fausse dynamique et en déclenchant l’amplification

Manipulation socio-technique de la preuve sociale

  • Autrefois, la preuve sociale reflétait la sagesse collective ; aujourd’hui, le facteur principal est la validation algorithmique
  • Une seule interaction avec un compte influent peut suffire à fausser la popularité perçue d’un contenu
  • Il en résulte une popularité artificielle, où les narratifs choisis par l’algorithme sont mis en avant tandis que les idées spontanées sont étouffées
  • Il ne s’agit pas d’une fraude, mais de ce que l’on peut définir comme une infrastructure d’influence

Réaction en chaîne de la perception

  • Il n’est pas nécessaire de supprimer ou de bloquer un contenu : il suffit de lui faire perdre sa priorité dans le fil pour réduire sa visibilité
  • De cette manière, le contenu devient naturellement moins visible et sa présence s’efface
  • À l’inverse, un contenu qui reçoit des signaux positifs déclenche une réaction en chaîne, se diffusant à travers des comptes similaires, tandis qu’un même narratif se trouve renforcé de façon répétée
  • Les utilisateurs perçoivent ce processus comme naturel, alors qu’il s’agit en réalité d’un résultat déjà filtré et hiérarchisé

Astroturfing 2.0

  • L’astroturfing d’autrefois utilisait de faux comptes et des bots ; aujourd’hui, il mobilise de vrais utilisateurs sélectionnés
  • Des comptes d’élite activent l’algorithme, et les autres utilisateurs se retrouvent pris dans l’onde de choc
  • Il ne s’agit pas de tromper la foule, mais de l’orienter
  • En amplifiant sélectivement de vrais utilisateurs et un véritable engagement, on crée l’illusion d’un large consensus
  • Le contenu qui reste et survit dans le fil finit alors par être perçu comme le « consensus »

Ce qui est visible et ce qui ne l’est pas

  • La manipulation de la perception à grande échelle finit par déterminer ce que les gens voient, achètent, soutiennent et ignorent
  • Il ne s’agit pas seulement de déformer l’attention, mais d’ajuster le résultat final
  • La vérité n’est plus définie par « ce qui est réel », mais par « ce qui est montré »
  • Ce qui n’est pas montré équivaut à ne pas exister
  • Ce phénomène n’est pas propre à un seul réseau social

Annexe : les plus bruyants s’effondrent toujours les premiers

  • L’influence la plus efficace ne se montre pas ; elle ajuste discrètement la perception à l’aide d’un simple signal algorithmique
  • Les forces qui cherchent à tout contrôler de façon trop explicite sont rapidement repérées et ne durent pas longtemps
  • En revanche, survivent celles qui manipulent les options disponibles tout en laissant croire aux gens qu’ils ont choisi eux-mêmes

2 commentaires

 
ndrgrd 2025-04-26

Indépendamment de la véracité de l’article, d’après mon expérience d’utilisation de Twitter, non seulement le fil, mais aussi les réponses semblent s’afficher non pas selon le nombre de likes ou de retweets, mais d’abord selon le nombre d’abonnés.
Cela fait qu’on ne voit que l’avis de personnes ayant déjà une grande influence (beaucoup d’abonnés), tandis que les dizaines ou centaines d’avis enfouis en dessous ont très peu de chances d’être vus, qu’ils reçoivent des likes ou non.

En réalité, ce type de mise en avant est déjà adopté dans beaucoup d’endroits, même en dehors des réseaux sociaux ; il faudrait peut-être considérer comme une vertu essentielle d’Internet le fait de chercher consciemment à consulter le plus d’avis possible.

 
GN⁺ 2025-04-26
Avis Hacker News
  • Il semble que Twitter réduise la visibilité des publications, puis les mette en avant lorsqu’elles sont signalées comme spam par des bots haineux
    • J’ai aussi vu des preuves que des publications appréciées par Twitter (des messages anti-immigration violents et haineux) étaient signalées comme spam par des bots bienveillants
    • Twitter ressemble à un canal de propagande géré par Donald/Elon et consorts
  • Il y a quelque chose de glaçant dans le fait que cette politique produise un effet composé
    • Il suffit de quelques comptes X puissants pour obtenir la capacité d’en créer davantage
    • Cela augmente la capacité non seulement à faire taire les autres, mais aussi à promouvoir des alliés complaisants afin de les réduire au silence
  • Nous sommes au début de la capture de l’influence, et certains avancent que l’influence est le nouveau capital
    • Nous reproduisons des systèmes qui permettent l’accumulation du capital dans une nouvelle ère numérique
  • Reddit est le pire ; partout où l’on trouve de l’attention à capter, le consensus fabriqué est omniprésent
  • Étonnant que cet article ait obtenu jusqu’à 40 points
    • L’auteur présente un graphique montrant que les vues d’un utilisateur précis ont chuté brutalement après sa « dispute avec musk »
    • C’est suspect et mérite d’être mentionné, mais le reste du billet n’est qu’un sermon sur « l’ingénierie sociale » et les « cascades de perception » sans la moindre preuve
    • On se demande si les gens votent seulement après avoir lu le titre et le premier paragraphe
    • On ne perdrait presque rien à réduire cet article à son seul graphique
  • Le titre est-il ironique ? Est-il utile ?
    • Le livre de Chomsky et Herman, "Manufacturing Consent", décrit une technique à peine utilisée dans cette situation
    • Ici, on est plus proche d’un média d’État
    • Chez Chomsky, le pouvoir de l’éditeur vient de sa discrétion ; ici, il vient du fait que même connu, l’éditeur ne peut pas être arrêté
    • Les gens se retrouvent désignés comme extérieurs s’ils n’acceptent pas eux-mêmes de se comporter en fans
    • Comme la plupart des gens passent par l’étape par défaut consistant à ne rien faire, ils accumulent ainsi des preuves qu’ils sont fans ou qu’ils suivent le mouvement
    • C’est une fonction coercitive qui conditionne l’acceptation
  • Dans ce cas, les articles montrant ce qui arrive quand on s’oppose à l’éditeur, ainsi que des discussions comme celle-ci, renforcent l’éditeur et augmentent l’effet d’autocensure
    • Il vaudrait peut-être mieux abandonner une plateforme lorsqu’elle ne tient pas ses promesses d’équité
  • X est de nouveau rempli de bots qui vendent des cryptomonnaies et des services financiers
  • Les articles sur le « consensus fabriqué » de X sont exagérés
    • L’influence a toujours été organisée par la curation
    • Le péché de X n’est pas un algorithme maléfique, mais son fonctionnement à l’échelle planétaire
    • Nous avons transformé des milliers de petites communautés en une seule confrontation mondiale de bruit
    • L’algorithme n’est qu’un engrenage qui maintient ce chaos
    • Certains font comme s’il existait un algorithme parfait
    • Un système « parfait » est un réseau complexe d’algorithmes différents dans des espaces différents
    • Pointer du doigt le code de X, c’est passer à côté du sujet
    • Nous nous sommes inscrits à ce cirque planétaire et continuons d’acheter des billets
  • Impossible de savoir si l’algorithme fonctionne réellement ainsi
    • L’article ne montre qu’un seul graphique pour un cas particulier, et il peut y avoir plusieurs explications à une chute brutale de l’audience
  • J’ai ressenti une similarité avec HN
    • Au moins, HN essaie d’être transparent au sujet de son « algorithme »
    • C’est un algorithme intrinsèquement simple comparé à ceux utilisés par X/FB, etc.
  • Je me demande si, dans ce genre de cas, l’algorithme est affecté par le blocage de comptes très en vue
    • Par exemple, j’ai bloqué Musk il y a longtemps, sinon l’algorithme continue de pousser son « contenu »
    • Je me demande si l’algorithme continue malgré tout à me prioriser ce avec quoi il a interagi, ou si cela ne concerne que ceux qui ne l’ont pas bloqué
    • On me recommande ce avec quoi il est censé interagir, mais je ne sais pas pourquoi cela m’est réellement poussé