1 points par GN⁺ 2026-02-19 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Un rapport révèle que le témoignage de Mark Zuckerberg, PDG de Meta, lors de l’audition du Sénat américain en 2024 contredit des documents internes et met en lumière des déclarations mensongères délibérées
  • The Tech Oversight Project affirme, après analyse de documents confidentiels et de rapports d’experts, que Zuckerberg a déformé les faits dans ses propos sur la protection des enfants, la santé mentale et la sécurité des contenus
  • Selon les documents internes, Meta connaissait et a laissé perdurer des problèmes systémiques, comme une stratégie d’acquisition d’utilisateurs de moins de 13 ans, la tolérance envers le proxénétisme, et la dissimulation de recherches internes
  • Le rapport souligne que Meta a mis en avant des fonctions de sécurité pour les adolescents qui étaient en réalité pour la plupart inefficaces, tandis que ses recherches internes démontraient au contraire une dégradation de la santé mentale et un renforcement du caractère addictif
  • L’organisation insiste sur la nécessité de mesures législatives comme le ‘Kids Online Safety Act’ pour corriger ces pratiques

Vue d’ensemble du rapport du Tech Oversight Project

  • Ce rapport, publié à Washington D.C., compare le témoignage de Zuckerberg lors de l’audition de la commission judiciaire du Sénat en 2024 avec de nouveaux documents internes rendus publics
    • Ces documents montrent que Zuckerberg a menti au Congrès et que Meta a dissimulé son échec à protéger les adolescents
  • L’organisation a ouvert le microsite ‘Big Tech on Trial’, qui rassemble les preuves liées à l’affaire et sera mis à jour au fil de la procédure
  • Sacha Haworth, directeur exécutif, a déclaré : « Meta s’est caché derrière la Section 230, il est maintenant temps que le Congrès agisse. »

Incohérences entre les déclarations lors de l’audition et les preuves internes

1. Fonctions de sécurité pour les adolescents

  • Zuckerberg a affirmé : « Nous menons des efforts de pointe dans l’industrie pour protéger les adolescents », mais selon
    l’enquête de Fairplay et d’autres organisations, sur les 53 fonctions de sécurité d’Instagram :
    • 64 % étaient désactivées ou inefficaces,
    • 19 % avaient une efficacité limitée,
    • seulement 17 % fonctionnaient correctement
  • Le rapport conclut que « la plupart des fonctions ne protègent pas les adolescents »

2. Conception produit et sécurité des enfants

  • Zuckerberg a déclaré : « Le fonds d’indemnisation des victimes n’est pas de mon ressort », mais
    le rapport d’expert judiciaire de Tim Estes indique que les plateformes de Meta ont été conçues sans prise en compte de la sécurité des enfants
    • Sont notamment pointés du doigt une vérification d’âge faible, des contrôles parentaux inefficaces, ainsi que les fonctions de scroll infini, lecture automatique et notifications

3. Négation de l’impact sur la santé mentale

  • Zuckerberg a affirmé que « les preuves scientifiques ne soutiennent pas l’idée que les réseaux sociaux sont nocifs », mais les Facebook Files du WSJ et des recherches internes concluent qu’Instagram aggrave chez les adolescents la baisse de l’estime de soi, l’anxiété et le risque de troubles alimentaires
    • Les effets psychologiques négatifs toucheraient particulièrement les adolescentes

4. Contenus sexuels et traite des êtres humains

  • Zuckerberg a déclaré : « Nous n’autorisons pas les contenus sexuels », mais selon des documents internes, Meta appliquait une politique tolérant jusqu’à 17 infractions pour des comptes liés au proxénétisme
    • En 2020, 79 % des cas de prostitution impliquant des enfants se produisaient sur les plateformes de Meta,
    • et 22 % des mineurs utilisant Instagram ont déclaré avoir subi un contact à caractère sexuel

5. Affirmation de l’interdiction des moins de 13 ans

  • Zuckerberg a affirmé que « les moins de 13 ans ne peuvent pas utiliser le service », mais des documents internes détaillent une stratégie de ciblage par âge incluant les ‘Kid’ de 6 à 10 ans et les ‘Tween’ de 10 à 13 ans
    • Les documents ‘Tweens Competitive Audit’ et ‘Youth Privacy’ confirment l’objectif de conquérir le marché des enfants

6. Dissimulation de recherches sur la santé mentale

  • Dans une étude interne de “désactivation”, Meta a constaté qu’un arrêt des réseaux sociaux réduisait l’anxiété et la dépression,
    mais a renoncé à publier les résultats au motif qu’ils étaient négatifs
    • Un employé a même exprimé la crainte que l’entreprise « ressemble à une compagnie de tabac »

7. Failles de Messenger Kids

  • Zuckerberg a affirmé que « Messenger Kids est plus sûr », mais un bug en 2019 a permis à des enfants de participer à des conversations de groupe avec des utilisateurs non approuvés
    • Meta a corrigé le problème discrètement, avant qu’il ne soit révélé par The Verge

8. Coopération avec les parents et règles internes

  • Zuckerberg a affirmé : « Nous protégeons les enfants avec les parents », mais des e-mails internes montrent une consigne visant à éviter de prévenir les parents, avec cette formulation : « si on le dit aux parents, le produit sera ruiné »
    • Un autre e-mail contient aussi la phrase : « il faut optimiser le fait de consulter son téléphone en cachette pendant le cours de chimie »

9. Évaluation de la valeur des adolescents

  • Un e-mail interne de 2018 évaluait la valeur à vie d’un adolescent de 13 ans à 270 dollars
    • Il évoquait aussi l’inquiétude de la direction face au risque de perdre 30 millions d’utilisateurs adolescents d’ici 2030

Autres cas concernant Meta

1. Recherche sur le caractère addictif d’Instagram

  • Adam Mosseri a déclaré que « l’impact de l’application est minime », mais une recherche interne de 2019, ‘Teen Mental Health: Creatures of Habit’, indique que :
    • « les adolescents n’arrivent pas à fermer Instagram même lorsqu’ils le veulent »,
    • et que « l’usage addictif et la pression de la perfection sont au cœur de l’anxiété »

2. Efficacité du système de modération des contenus

  • Dans un rapport publié en 2023, Meta affirmait supprimer automatiquement 99 % des contenus d’exploitation sexuelle d’enfants, mais le lanceur d’alerte Arturo Béjar a révélé que le taux réel de détection était inférieur à 5 %
    • Il a aussi été révélé que la direction avait ignoré des propositions d’amélioration du design et dissous l’équipe de recherche

Conclusion

  • Le rapport estime que Meta a répété ses échecs en matière de protection des adolescents et les fausses déclarations
  • Il avertit que sans contrainte législative, l’entreprise ne s’améliorera pas volontairement
  • Il souligne en particulier que l’adoption du Kids Online Safety Act constitue un levier clé pour protéger les enfants et les adolescents

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.