- Des lanceurs d’alerte ont révélé que Meta et TikTok, tout en connaissant les résultats de recherches internes montrant que l’engagement augmente à mesure que les algorithmes suscitent la colère, ont davantage exposé les utilisateurs à des contenus nuisibles dans leur fil
- Un ingénieur de Meta a déclaré avoir reçu pour consigne d’augmenter l’exposition aux « contenus limites » en raison de la baisse du cours de l’action, tandis qu’un employé de TikTok a présenté un tableau de bord interne montrant que des cas liés à des responsables politiques étaient traités avant des atteintes visant des enfants
- Reels de Meta a été lancé pour concurrencer TikTok sans garde-fous suffisants, et des recherches internes ont confirmé que la proportion de commentaires relevant du harcèlement, des discours de haine et de la violence y était plus élevée que dans le fil principal d’Instagram
- Un membre de l’équipe interne de sécurité de TikTok a témoigné que la sécurité des enfants passait au second plan pour préserver des relations politiques, en avertissant que « les parents devraient supprimer l’application »
- Les deux entreprises ont toutes deux nié avoir amplifié volontairement des contenus nuisibles, mais les documents internes et les témoignages mettent en lumière un problème structurel dans lequel des algorithmes centrés sur l’engagement font passer les revenus avant la sécurité des utilisateurs
Vue d’ensemble des révélations des lanceurs d’alerte
- Plus de 12 lanceurs d’alerte et personnes liées aux dossiers ont témoigné que les entreprises se livraient à une compétition pour l’engagement des utilisateurs tout en ignorant des problèmes de sécurité liés à des contenus violents, d’exploitation sexuelle ou de terrorisme
- Un ingénieur de Meta a indiqué avoir reçu de la direction l’ordre de davantage exposer des « contenus limites » tels que la misogynie ou les théories du complot
- Un employé de TikTok a montré à la BBC des cas où des signalements liés à des responsables politiques étaient traités avant des atteintes touchant des enfants
- En interne chez TikTok, la préservation des relations avec des responsables politiques a été évoquée comme un moyen d’éviter des risques de régulation ou d’interdiction
Recherches internes chez Meta et problèmes de Reels
- Le chercheur de Meta Matt Motyl a indiqué qu’au moment du lancement de Reels (2020), les garde-fous étaient insuffisants
- Selon des recherches internes, les commentaires sur Reels présentaient des taux de harcèlement, de discours de haine et d’incitation à la violence respectivement supérieurs de 75 %, 19 % et 7 % à ceux du fil principal d’Instagram
- L’entreprise a affecté 700 personnes à la croissance de Reels, tandis que le renforcement des équipes chargées de la protection de l’enfance et de l’intégrité électorale a été refusé
- Des documents internes soulignent que l’algorithme donne la priorité à la maximisation des revenus plutôt qu’au bien-être des utilisateurs
- Ils incluent la formule selon laquelle Facebook peut amener les utilisateurs à être consommés comme de la « malbouffe », mais cela peut difficilement durer dans le temps
Témoignage de l’équipe interne de sécurité de TikTok
- La BBC a été en contact pendant plusieurs mois en 2025 avec « Nick », employé de l’équipe Trust & Safety de TikTok
- Il a déclaré que l’introduction de l’IA et les réductions d’effectifs avaient affaibli la réponse aux contenus nuisibles
- Il a témoigné avoir constaté une augmentation des contenus liés au terrorisme, aux violences sexuelles, aux maltraitances et à la traite des êtres humains
- Il a présenté des cas issus d’un tableau de bord interne où une publication satirique sur des responsables politiques était examinée avant un cas de chantage sexuel visant un adolescent
- Il a été confirmé que, dans des cas comme celui d’une victime irakienne de 16 ans, le niveau d’urgence avait été classé bas
- Nick a affirmé que l’entreprise accordait plus d’importance aux relations politiques qu’à la sécurité des enfants, en conseillant aux parents de « supprimer TikTok »
- TikTok a répondu que les contenus politiques ne sont pas prioritaires par rapport à la sécurité des enfants et a dénoncé une déformation des faits
- L’entreprise a expliqué que plus de 50 paramètres de sécurité par défaut s’appliquent aux comptes d’adolescents
Compétition algorithmique et réponse de Meta
- Face à la croissance rapide de TikTok pendant la période du Covid-19 en 2020, Meta a lancé Reels en urgence
- Motyl a indiqué que la vitesse passait avant la protection des utilisateurs
- Selon lui, l’équipe Reels hésitait à introduire des fonctions de sécurité parce que les contenus nuisibles généraient davantage d’engagement
- Brandon Silverman (fondateur de Crowdtangle) a témoigné qu’à l’époque Mark Zuckerberg était extrêmement sensible à la concurrence
- 700 personnes ont été mobilisées pour l’expansion de Reels, tandis que les équipes de sécurité peinaient à obtenir des effectifs
- Un ancien ingénieur de Meta, « Tim », a déclaré que les restrictions sur les « contenus limites » avaient été assouplies en raison de la concurrence avec TikTok
- Il a expliqué que dans un contexte de baisse du cours de l’action et de pression sur les revenus, la décision avait été prise d’assouplir ces mesures pour sécuriser des recettes à court terme
Fonctionnement des algorithmes et impact social
- Des documents internes indiquent que les contenus suscitant la colère ou des réactions morales fortes génèrent un engagement élevé, et que l’algorithme leur accorde une préférence
- Le mécanisme est le suivant : plus l’utilisateur ressent de colère, plus il consomme de contenus
- Des spécialistes britanniques du contre-terrorisme au sein de la police ont signalé avoir récemment observé un phénomène de « normalisation » de publications antisémites, racistes et de violence d’extrême droite
- Un adolescent a témoigné avoir été « radicalisé » par l’algorithme à partir de 14 ans, expliquant que cela avait renforcé sa colère et son rejet des autres
Position officielle des entreprises
- Meta : « L’affirmation selon laquelle nous amplifierions des contenus nuisibles pour un gain financier est fausse »
- L’entreprise souligne avoir réalisé d’importants investissements dans la sûreté et la sécurité au cours des dix dernières années, et avoir introduit des fonctions de protection des adolescents
- TikTok : l’entreprise affirme que ces accusations sont fabriquées et explique qu’elle continue d’investir dans des technologies destinées à empêcher l’exposition à des contenus nuisibles
- Elle ajoute qu’elle aide des millions de personnes à découvrir de nouveaux centres d’intérêt et à former des communautés
Aucun commentaire pour le moment.