1 points par GN⁺ 2026-02-19 | 1 commentaires | Partager sur WhatsApp
  • Un rapport révèle que le témoignage de Mark Zuckerberg, PDG de Meta, lors de l’audition du Sénat américain en 2024 contredit des documents internes et met en lumière des déclarations mensongères délibérées
  • The Tech Oversight Project affirme, après analyse de documents confidentiels et de rapports d’experts, que Zuckerberg a déformé les faits dans ses propos sur la protection des enfants, la santé mentale et la sécurité des contenus
  • Selon les documents internes, Meta connaissait et a laissé perdurer des problèmes systémiques, comme une stratégie d’acquisition d’utilisateurs de moins de 13 ans, la tolérance envers le proxénétisme, et la dissimulation de recherches internes
  • Le rapport souligne que Meta a mis en avant des fonctions de sécurité pour les adolescents qui étaient en réalité pour la plupart inefficaces, tandis que ses recherches internes démontraient au contraire une dégradation de la santé mentale et un renforcement du caractère addictif
  • L’organisation insiste sur la nécessité de mesures législatives comme le ‘Kids Online Safety Act’ pour corriger ces pratiques

Vue d’ensemble du rapport du Tech Oversight Project

  • Ce rapport, publié à Washington D.C., compare le témoignage de Zuckerberg lors de l’audition de la commission judiciaire du Sénat en 2024 avec de nouveaux documents internes rendus publics
    • Ces documents montrent que Zuckerberg a menti au Congrès et que Meta a dissimulé son échec à protéger les adolescents
  • L’organisation a ouvert le microsite ‘Big Tech on Trial’, qui rassemble les preuves liées à l’affaire et sera mis à jour au fil de la procédure
  • Sacha Haworth, directeur exécutif, a déclaré : « Meta s’est caché derrière la Section 230, il est maintenant temps que le Congrès agisse. »

Incohérences entre les déclarations lors de l’audition et les preuves internes

1. Fonctions de sécurité pour les adolescents

  • Zuckerberg a affirmé : « Nous menons des efforts de pointe dans l’industrie pour protéger les adolescents », mais selon
    l’enquête de Fairplay et d’autres organisations, sur les 53 fonctions de sécurité d’Instagram :
    • 64 % étaient désactivées ou inefficaces,
    • 19 % avaient une efficacité limitée,
    • seulement 17 % fonctionnaient correctement
  • Le rapport conclut que « la plupart des fonctions ne protègent pas les adolescents »

2. Conception produit et sécurité des enfants

  • Zuckerberg a déclaré : « Le fonds d’indemnisation des victimes n’est pas de mon ressort », mais
    le rapport d’expert judiciaire de Tim Estes indique que les plateformes de Meta ont été conçues sans prise en compte de la sécurité des enfants
    • Sont notamment pointés du doigt une vérification d’âge faible, des contrôles parentaux inefficaces, ainsi que les fonctions de scroll infini, lecture automatique et notifications

3. Négation de l’impact sur la santé mentale

  • Zuckerberg a affirmé que « les preuves scientifiques ne soutiennent pas l’idée que les réseaux sociaux sont nocifs », mais les Facebook Files du WSJ et des recherches internes concluent qu’Instagram aggrave chez les adolescents la baisse de l’estime de soi, l’anxiété et le risque de troubles alimentaires
    • Les effets psychologiques négatifs toucheraient particulièrement les adolescentes

4. Contenus sexuels et traite des êtres humains

  • Zuckerberg a déclaré : « Nous n’autorisons pas les contenus sexuels », mais selon des documents internes, Meta appliquait une politique tolérant jusqu’à 17 infractions pour des comptes liés au proxénétisme
    • En 2020, 79 % des cas de prostitution impliquant des enfants se produisaient sur les plateformes de Meta,
    • et 22 % des mineurs utilisant Instagram ont déclaré avoir subi un contact à caractère sexuel

5. Affirmation de l’interdiction des moins de 13 ans

  • Zuckerberg a affirmé que « les moins de 13 ans ne peuvent pas utiliser le service », mais des documents internes détaillent une stratégie de ciblage par âge incluant les ‘Kid’ de 6 à 10 ans et les ‘Tween’ de 10 à 13 ans
    • Les documents ‘Tweens Competitive Audit’ et ‘Youth Privacy’ confirment l’objectif de conquérir le marché des enfants

6. Dissimulation de recherches sur la santé mentale

  • Dans une étude interne de “désactivation”, Meta a constaté qu’un arrêt des réseaux sociaux réduisait l’anxiété et la dépression,
    mais a renoncé à publier les résultats au motif qu’ils étaient négatifs
    • Un employé a même exprimé la crainte que l’entreprise « ressemble à une compagnie de tabac »

7. Failles de Messenger Kids

  • Zuckerberg a affirmé que « Messenger Kids est plus sûr », mais un bug en 2019 a permis à des enfants de participer à des conversations de groupe avec des utilisateurs non approuvés
    • Meta a corrigé le problème discrètement, avant qu’il ne soit révélé par The Verge

8. Coopération avec les parents et règles internes

  • Zuckerberg a affirmé : « Nous protégeons les enfants avec les parents », mais des e-mails internes montrent une consigne visant à éviter de prévenir les parents, avec cette formulation : « si on le dit aux parents, le produit sera ruiné »
    • Un autre e-mail contient aussi la phrase : « il faut optimiser le fait de consulter son téléphone en cachette pendant le cours de chimie »

9. Évaluation de la valeur des adolescents

  • Un e-mail interne de 2018 évaluait la valeur à vie d’un adolescent de 13 ans à 270 dollars
    • Il évoquait aussi l’inquiétude de la direction face au risque de perdre 30 millions d’utilisateurs adolescents d’ici 2030

Autres cas concernant Meta

1. Recherche sur le caractère addictif d’Instagram

  • Adam Mosseri a déclaré que « l’impact de l’application est minime », mais une recherche interne de 2019, ‘Teen Mental Health: Creatures of Habit’, indique que :
    • « les adolescents n’arrivent pas à fermer Instagram même lorsqu’ils le veulent »,
    • et que « l’usage addictif et la pression de la perfection sont au cœur de l’anxiété »

2. Efficacité du système de modération des contenus

  • Dans un rapport publié en 2023, Meta affirmait supprimer automatiquement 99 % des contenus d’exploitation sexuelle d’enfants, mais le lanceur d’alerte Arturo Béjar a révélé que le taux réel de détection était inférieur à 5 %
    • Il a aussi été révélé que la direction avait ignoré des propositions d’amélioration du design et dissous l’équipe de recherche

Conclusion

  • Le rapport estime que Meta a répété ses échecs en matière de protection des adolescents et les fausses déclarations
  • Il avertit que sans contrainte législative, l’entreprise ne s’améliorera pas volontairement
  • Il souligne en particulier que l’adoption du Kids Online Safety Act constitue un levier clé pour protéger les enfants et les adolescents

1 commentaires

 
GN⁺ 2026-02-19
Commentaires sur Hacker News
  • Il vaudrait mieux éviter de mélanger de vrais mensonges avec de simples questions de jugement
    Par exemple, affirmer catégoriquement qu’il a menti sur le niveau d’investissement dans les outils de protection reste ambigu. Ils ont peut-être beaucoup investi sans que cela soit efficace
    En lisant, on voit bien quelques vrais mensonges, mais une partie relève simplement d’une différence d’interprétation. Il vaudrait mieux retirer ces formulations à la frontière, ou les présenter plutôt comme « difficile à croire »
    • Tout à fait d’accord. Pour résumer les cas graves cités dans l’article :
      1. Mark a déclaré qu’ils « interdisaient les contenus sexuellement explicites pour tous les âges », alors qu’il existait en réalité une politique à 17 avertissements, et qu’en 2020 il a été rapporté que 65 % des victimes mineures de trafic sexuel recrutées via les réseaux sociaux provenaient de Facebook et 14 % d’Instagram (rapport source)
      2. Des recherches internes montraient que les utilisateurs ayant arrêté Facebook/Instagram voyaient diminuer leur anxiété, leur dépression et leur solitude, mais Meta a interrompu l’étude et n’a pas publié les résultats
      3. Adam Mosseri a affirmé que « l’impact sur la santé mentale des adolescents est faible », alors que des rapports internes analysaient que « les adolescents n’arrivent pas à décrocher de l’app, comme une addiction, et ressentent une pression à être parfaits »
    • Au minimum, il vaudrait mieux commencer par les mensonges les plus manifestes et laisser les points ambigus pour plus tard
    • On peut dépenser beaucoup d’argent avec très peu de résultats, ou bien seulement 17 % de 71 outils étaient efficaces mais c’était peut-être suffisant. Le taux d’efficacité n’équivaut pas automatiquement au résultat global
    • Comme on dit, « si on mélange des raisins secs avec de la merde, au final ça reste de la merde » : mélanger des affirmations fortes et des affirmations faibles nuit à la crédibilité d’ensemble
    • Il y a beaucoup de personnes en colère et de bots qui détestent tout ce que disent les milliardaires. J’ai l’impression qu’il est difficile de filtrer ce bruit pour distinguer les vrais problèmes
  • L’affirmation selon laquelle « 79 % du trafic sexuel impliquant des enfants en 2020 a eu lieu sur les plateformes Meta » m’a semblé tellement exagérée que j’ai vérifié la source. En réalité, il s’agissait de « 65 % sur Facebook et 14 % sur Instagram parmi les victimes recrutées via les réseaux sociaux ». Ce chiffre gonflé ressemble à du sensationnalisme. Pour info, je n’ai même pas de compte Facebook et Meta ne m’intéresse pas du tout
    • J’ai remarqué la même chose. L’étude ne portait que sur des « victimes recrutées via les réseaux sociaux », donc 100 % relevaient déjà des réseaux sociaux. Au final, ce n’est qu’une carte de parts de marché des plateformes, et prétendre qu’il s’agit de 79 % de l’ensemble des victimes de trafic sexuel est une distorsion manifeste
    • Je comprends que ce chiffre soit faux, mais ce serait plus convaincant d’ajouter aussi les sources ou le raisonnement
  • Je ne m’intéressais pas beaucoup à ce sujet, mais les exemples de l’article m’ont amené à partager la conclusion de Tech Oversight
    Récemment, en regardant Reels, je suis tombé sur un contenu clairement pour adultes et je l’ai signalé, mais il a été classé comme « ne viole pas les règles ». Il y a sans doute énormément de signalements, mais Meta n’atteint manifestement pas les objectifs de modération qu’il affiche
    • À ce stade, « il y a trop de signalements » devient difficile à utiliser comme excuse. Pour une entreprise qui investit autant dans l’IA, les cas évidents devraient pouvoir être priorisés par l’IA puis traités par des humains
    • Moi aussi, j’avais déjà signalé une vidéo de décapitation, et la réponse a été « ne viole pas les règles »
    • J’ai signalé des menaces de violence, et Instagram a répondu « ne viole pas les règles »
    • J’ai déjà vu des signalements ignorés, puis le compte disparaître quelques jours plus tard. On dirait qu’ils cachent le système via un traitement par lots
    • J’ai aussi fait des dizaines de signalements sur Twitter, et ça n’a presque jamais été traité correctement
  • Parmi les exemples que je connais, la plupart relèvent moins du « mensonge » que d’une déformation du contexte
    Par exemple, dire que « Meta préparait un produit pour les enfants de 6 à 13 ans » renvoyait à des slides sur Messenger Kids, dans une logique de conformité au COPPA.
    De même, la critique selon laquelle « ils disent aider les parents tout en permettant aux adolescents de communiquer à leur insu » concernait en réalité le contexte d’un problème de conception de la fonction de live streaming.
    Je n’aime pas non plus Facebook, mais je fais davantage confiance aux propos de Mark Zuckerberg qu’à cet article
  • Je me souviens qu’au moment du rachat d’Instagram, il semblait y avoir une condition selon laquelle il ne serait pas intégré à FB, mais en pratique j’ai l’impression qu’il a été complètement intégré en coulisses. Il arrive même que les deux services tombent en panne en même temps
    • Ce n’était pas une condition. Si on relit l’annonce de l’époque, ils disaient seulement qu’ils « maintiendraient l’indépendance et les points forts d’Instagram » (lien vers l’annonce officielle)
      On peut même considérer qu’ils ont tenu cette promesse dans la situation actuelle
    • Ce n’est pas seulement la gestion des comptes : les contenus et commentaires Instagram sont aussi transférés automatiquement vers Facebook
    • Au fond, on dirait qu’il dissimulait ses intentions dès le départ
    • FB connaît même l’historique de recherche eBay. Le partage de données entre entreprises fonctionne sans consentement des utilisateurs
    • Il a toujours été manipulateur. La plupart des gens au sommet du secteur sont du même type, et ils travaillent en se persuadant qu’ils sont « du bon côté moral ». Pour les entreprises fondées sur la pub, elles se valent à peu près toutes
  • Le Congrès ou le DOJ ne feront sans doute rien, mais la sanction pénale du parjure devant le Congrès (perjury) est clairement prévue par la loi
    Les dispositions concernées sont résumées dans ce document Congress.gov.
    En cas de fausse déclaration, la peine peut aller jusqu’à 5 à 8 ans de prison, notamment jusqu’à 8 ans si cela concerne le trafic sexuel ou l’exploitation d’enfants
  • Cela m’a rappelé la vidéo du témoignage au Congrès des PDG du tabac en 1994, quand ils disaient que « la nicotine n’est pas addictive »
    • Il y a aussi le « je ne suis pas un escroc » de Nixon, le « je n’ai pas eu de relation avec cette femme » de Clinton, sans parler de Trump
      À voir ces exemples, on a parfois l’impression que toute la procédure du jurez de dire la vérité ne fait que renforcer encore davantage le mensonge
      Voir aussi le scandale du Watergate, le scandale Clinton–Lewinsky
  • Quand j’étais enfant, je croyais que « si on enfreint la loi, on va en prison », et cette époque me manque
    • Cela vaut toujours, mais seulement pour les gens ordinaires comme nous. Les riches et les puissants font exception
    • Moi aussi, quand j’étais petit, je croyais que la justice fonctionnait et que le gouvernement travaillait pour le peuple. Aujourd’hui, j’ai l’impression que tout cela n’était qu’une illusion
    • J’en ai eu la certitude en voyant les scandales impliquant de grands financiers. La loi ne s’applique pas aux riches. Pour traiter ce genre de personnes, il faut des moyens hors du cadre légal
    • Ce n’est pas à cause de juges de gauche. C’est un problème structurel
  • À l’argument selon lequel « il faut une loi comme le Kids Online Safety Act pour empêcher les pratiques dangereuses de Meta »,
    certains répondent en citant la récente controverse sur la vérification d’âge de Discord et craignent que ce type de régulation finisse par imposer une vérification d’identité à tous les utilisateurs
    Même sans utiliser les réseaux sociaux, un site comme Hacker News pourrait aussi être juridiquement classé comme réseau social
    • Un jour, quand on parlera d’« internet censuré », on pensera peut-être d’abord non pas à la Chine, mais aux pays occidentaux (surtout le Royaume-Uni ou les États-Unis)
    • Du coup, quelle serait l’alternative ?
    • La controverse Discord portait sur la méthode de vérification d’identité, et le projet de loi KOSA ne contient pas ce genre de disposition. Présenter KOSA comme une loi sur la vérification d’identité relève de l’ignorance
    • C’est une réaction excessive du genre : « pour éliminer le voisin violent, faisons exploser une bombe nucléaire au centre du village »
    • Je suis d’accord avec l’idée que quand l’intérêt des entreprises entre en conflit avec le bien humain, une régulation est nécessaire.
      Si Facebook nuit aux adolescents et que Meta le sait tout en laissant faire, alors la régulation devient un moyen inévitable
  • Sur iOS Safari, le CSS est complètement cassé : la première colonne reste figée et devient tellement étroite que les lignes s’étirent de façon absurde
    • Même problème sur Firefox Android. Le mode lecture aide un peu, mais ça reste pénible
    • Qu’un site soit à ce point cassé sur iOS, c’est grave. On en vient même à plaisanter qu’il faudrait une intervention du Congrès