1 points par GN⁺ 2026-03-19 | 1 commentaires | Partager sur WhatsApp
  • Des lanceurs d’alerte ont révélé que Meta et TikTok, tout en connaissant les résultats de recherches internes montrant que l’engagement augmente à mesure que les algorithmes suscitent la colère, ont davantage exposé les utilisateurs à des contenus nuisibles dans leur fil
  • Un ingénieur de Meta a déclaré avoir reçu pour consigne d’augmenter l’exposition aux « contenus limites » en raison de la baisse du cours de l’action, tandis qu’un employé de TikTok a présenté un tableau de bord interne montrant que des cas liés à des responsables politiques étaient traités avant des atteintes visant des enfants
  • Reels de Meta a été lancé pour concurrencer TikTok sans garde-fous suffisants, et des recherches internes ont confirmé que la proportion de commentaires relevant du harcèlement, des discours de haine et de la violence y était plus élevée que dans le fil principal d’Instagram
  • Un membre de l’équipe interne de sécurité de TikTok a témoigné que la sécurité des enfants passait au second plan pour préserver des relations politiques, en avertissant que « les parents devraient supprimer l’application »
  • Les deux entreprises ont toutes deux nié avoir amplifié volontairement des contenus nuisibles, mais les documents internes et les témoignages mettent en lumière un problème structurel dans lequel des algorithmes centrés sur l’engagement font passer les revenus avant la sécurité des utilisateurs

Vue d’ensemble des révélations des lanceurs d’alerte

  • Plus de 12 lanceurs d’alerte et personnes liées aux dossiers ont témoigné que les entreprises se livraient à une compétition pour l’engagement des utilisateurs tout en ignorant des problèmes de sécurité liés à des contenus violents, d’exploitation sexuelle ou de terrorisme
    • Un ingénieur de Meta a indiqué avoir reçu de la direction l’ordre de davantage exposer des « contenus limites » tels que la misogynie ou les théories du complot
    • Un employé de TikTok a montré à la BBC des cas où des signalements liés à des responsables politiques étaient traités avant des atteintes touchant des enfants
  • En interne chez TikTok, la préservation des relations avec des responsables politiques a été évoquée comme un moyen d’éviter des risques de régulation ou d’interdiction

Recherches internes chez Meta et problèmes de Reels

  • Le chercheur de Meta Matt Motyl a indiqué qu’au moment du lancement de Reels (2020), les garde-fous étaient insuffisants
    • Selon des recherches internes, les commentaires sur Reels présentaient des taux de harcèlement, de discours de haine et d’incitation à la violence respectivement supérieurs de 75 %, 19 % et 7 % à ceux du fil principal d’Instagram
  • L’entreprise a affecté 700 personnes à la croissance de Reels, tandis que le renforcement des équipes chargées de la protection de l’enfance et de l’intégrité électorale a été refusé
  • Des documents internes soulignent que l’algorithme donne la priorité à la maximisation des revenus plutôt qu’au bien-être des utilisateurs
    • Ils incluent la formule selon laquelle Facebook peut amener les utilisateurs à être consommés comme de la « malbouffe », mais cela peut difficilement durer dans le temps

Témoignage de l’équipe interne de sécurité de TikTok

  • La BBC a été en contact pendant plusieurs mois en 2025 avec « Nick », employé de l’équipe Trust & Safety de TikTok
    • Il a déclaré que l’introduction de l’IA et les réductions d’effectifs avaient affaibli la réponse aux contenus nuisibles
    • Il a témoigné avoir constaté une augmentation des contenus liés au terrorisme, aux violences sexuelles, aux maltraitances et à la traite des êtres humains
  • Il a présenté des cas issus d’un tableau de bord interne où une publication satirique sur des responsables politiques était examinée avant un cas de chantage sexuel visant un adolescent
    • Il a été confirmé que, dans des cas comme celui d’une victime irakienne de 16 ans, le niveau d’urgence avait été classé bas
  • Nick a affirmé que l’entreprise accordait plus d’importance aux relations politiques qu’à la sécurité des enfants, en conseillant aux parents de « supprimer TikTok »
  • TikTok a répondu que les contenus politiques ne sont pas prioritaires par rapport à la sécurité des enfants et a dénoncé une déformation des faits
    • L’entreprise a expliqué que plus de 50 paramètres de sécurité par défaut s’appliquent aux comptes d’adolescents

Compétition algorithmique et réponse de Meta

  • Face à la croissance rapide de TikTok pendant la période du Covid-19 en 2020, Meta a lancé Reels en urgence
    • Motyl a indiqué que la vitesse passait avant la protection des utilisateurs
    • Selon lui, l’équipe Reels hésitait à introduire des fonctions de sécurité parce que les contenus nuisibles généraient davantage d’engagement
  • Brandon Silverman (fondateur de Crowdtangle) a témoigné qu’à l’époque Mark Zuckerberg était extrêmement sensible à la concurrence
    • 700 personnes ont été mobilisées pour l’expansion de Reels, tandis que les équipes de sécurité peinaient à obtenir des effectifs
  • Un ancien ingénieur de Meta, « Tim », a déclaré que les restrictions sur les « contenus limites » avaient été assouplies en raison de la concurrence avec TikTok
    • Il a expliqué que dans un contexte de baisse du cours de l’action et de pression sur les revenus, la décision avait été prise d’assouplir ces mesures pour sécuriser des recettes à court terme

Fonctionnement des algorithmes et impact social

  • Des documents internes indiquent que les contenus suscitant la colère ou des réactions morales fortes génèrent un engagement élevé, et que l’algorithme leur accorde une préférence
    • Le mécanisme est le suivant : plus l’utilisateur ressent de colère, plus il consomme de contenus
  • Des spécialistes britanniques du contre-terrorisme au sein de la police ont signalé avoir récemment observé un phénomène de « normalisation » de publications antisémites, racistes et de violence d’extrême droite
  • Un adolescent a témoigné avoir été « radicalisé » par l’algorithme à partir de 14 ans, expliquant que cela avait renforcé sa colère et son rejet des autres

Position officielle des entreprises

  • Meta : « L’affirmation selon laquelle nous amplifierions des contenus nuisibles pour un gain financier est fausse »
    • L’entreprise souligne avoir réalisé d’importants investissements dans la sûreté et la sécurité au cours des dix dernières années, et avoir introduit des fonctions de protection des adolescents
  • TikTok : l’entreprise affirme que ces accusations sont fabriquées et explique qu’elle continue d’investir dans des technologies destinées à empêcher l’exposition à des contenus nuisibles
    • Elle ajoute qu’elle aide des millions de personnes à découvrir de nouveaux centres d’intérêt et à former des communautés

1 commentaires

 
GN⁺ 2026-03-19
Avis sur Hacker News
  • Depuis 5 ans, ce problème semble déjà relever du bon sens commun
    Mais la vraie question est : « Qu’est-ce qu’on est censés faire ? »
    J’essaie de ne pas perdre mon temps à m’indigner en ligne, mais c’est un fléau social trop vaste pour être supporté à l’échelle individuelle

    • Je pense qu’il faut empêcher ce genre de comportement par la régulation, ou carrément fermer ces entreprises
      Si Meta ou TikTok ont un bilan net négatif pour la société, elles n’ont aucun droit naturel à exister
    • Il faut taxer et encadrer strictement la publicité en ligne
      La racine du problème, c’est que susciter de « l’engagement » rapporte trop d’argent. Tant que cette incitation financière ne disparaît pas, le problème ne disparaîtra pas non plus
    • Mon fil Instagram est désormais presque entièrement rempli de vidéos de politiciens, de polémiques autour du président et de contenus racoleurs
      J’ai l’impression d’obtenir plus d’informations qu’en n’écoutant que NPR, mais j’évite les contenus trop fabriqués (montage, musique, narration, etc.)
      Je veux seulement recevoir la réaction émotionnelle provoquée par ce qui s’est réellement passé ou par les propos de quelqu’un
      Un « contenu d’actualité » doit avoir une forme d’authenticité
    • Une approche du type « réduisons l’efficacité de la drogue » n’est pas la solution. L’interdiction non plus
      Si on regarde pourquoi la Gen Z boit moins d’alcool que les milléniaux, il y a peut-être là une piste
    • Au fond, on ne fera probablement rien et on continuera juste à se plaindre
  • L’expression « contenu nocif » finit par désigner ce que le gouvernement ou un pays donné n’aime pas
    Au final, ça ressemble encore à une demande de censure sous une autre forme

    • D’après une étude interne de la BBC, les commentaires sur Reels contenaient bien plus de harcèlement et de discours de haine qu’ailleurs
      Si certains groupes s’opposent à ce type de violence, n’est-ce pas plutôt une bonne chose ?
    • Sur mon fil TikTok, je vois parfois des appels explicites à la violence contre les Juifs
      Même en les signalant, je n’obtiens en retour qu’une réponse du type « aucune infraction aux règles »
  • C’est frustrant que ces plateformes continuent à fonctionner ainsi
    On connaît déjà leurs dégâts sociaux depuis plus de 10 ans, et pourtant rien ne se passe
    Facebook et TikTok sont en réalité des drogues numériques, conçues par des gens dépourvus d’empathie sociale

  • Ce résultat n’a rien de surprenant. La plupart des gens penseront pareil
    Cela dit, c’est une bonne chose que les preuves soient présentées clairement

  • Ce phénomène est-il inévitable ?
    Comme cela génère des clics, des vues et de l’engagement utilisateur, si une plateforme le fait, les autres n’auront d’autre choix que de suivre

    • Désormais, ce sont les utilisateurs eux-mêmes qui doivent gérer leur fil. On ne peut plus attendre de la plateforme qu’elle fasse le tri à leur place
    • Le taux d’engagement n’est pas la même chose que la part de marché
      Par exemple, si un employé de McDonald’s insultait les clients, « l’engagement » augmenterait peut-être, mais la part de marché baisserait
  • Il est évident qu’ils ont agi ainsi
    Tant que c’est légalement permis et rentable, ils continueront

  • C’est la même histoire qui se répète au moins depuis 2012
    Le livre de Max Fisher, The Chaos Machine, l’explique très bien
    Facebook comme YouTube affirment prendre des mesures quand les critiques montent, mais en réalité c’est toujours le même cycle de contournement, retard, minimisation et déni

  • Je me demande s’il existe des organismes qui surveillent les algorithmes nocifs et vont jusqu’à engager des poursuites
    Reset.tech fait du bon travail dans ce domaine, mais j’aimerais savoir s’il y en a d’autres, et surtout qui les finance

  • Si une entreprise gagne 20 milliards de dollars et ne paie que 200 millions d’amende, elle ne se souciera absolument pas de la santé mentale des utilisateurs

  • Tant que le grand public continuera à réagir aux contenus sensationnalistes, les plateformes n’auront aucune raison de ne pas en profiter
    La plupart des publications ne sont au fond rien d’autre que des pièges à clics