1 points par GN⁺ 4 시간 전 | 1 commentaires | Partager sur WhatsApp
  • La Commission européenne prévoit de faire avancer, au second semestre de cette année, des mesures réglementaires visant les fonctionnalités de conception addictive de TikTok et Instagram
  • Les cibles incluent des fonctions qui retiennent les enfants sur la plateforme, comme le scroll infini de TikTok, la lecture automatique et les notifications push
  • Meta est considéré comme n’appliquant pas correctement son propre âge minimum de 13 ans sur Instagram et Facebook
  • L’UE enquête sur le problème des rabbit holes menant à des contenus sur les troubles alimentaires et l’automutilation, et développe une application de vérification de l’âge axée sur des normes élevées de protection de la vie privée
  • Après les recommandations d’un panel d’experts sur la sécurité des enfants en ligne et les résultats de l’enquête, un projet de loi pourrait être préparé dès l’été

L’UE renforce sa régulation pour protéger les enfants sur les réseaux sociaux

  • La Commission européenne prévoit de prendre des mesures plus tard cette année contre les fonctionnalités de conception addictive de TikTok et Instagram
  • Ursula von der Leyen, présidente de la Commission européenne, a déclaré lors du European Summit on Artificial Intelligence and Children, organisé au Danemark, que certaines fonctionnalités des plateformes de réseaux sociaux seraient spécifiquement visées
  • Les mesures viseront notamment des fonctions qui retiennent en continu les enfants sur la plateforme, comme le scroll infini de TikTok, la lecture automatique et les notifications push
  • Meta est également jugé incapable d’appliquer correctement son propre âge minimum de 13 ans sur Instagram et Facebook
  • La Commission européenne a demandé des commentaires à ByteDance et à Meta

Contenus nocifs et vérification de l’âge

  • L’UE enquête sur la manière dont la structure des plateformes peut entraîner les enfants dans des rabbit holes de contenus nocifs
  • Parmi les exemples cités figurent des vidéos encourageant les troubles alimentaires ou l’automutilation
  • La Commission européenne a développé sa propre application de vérification de l’âge, que von der Leyen a décrite comme répondant aux « normes de protection de la vie privée les plus élevées au monde »
  • Les États membres pourront bientôt intégrer cette application à leur portefeuille numérique, et les plateformes en ligne pourront aussi l’appliquer facilement
  • Von der Leyen a déclaré : « Il n’y a plus d’excuses. La technologie de vérification de l’âge est disponible. »
  • La Commission européenne attend les conseils d’un panel spécial d’experts sur la sécurité des enfants en ligne ainsi que les résultats de l’enquête, et pourrait préparer un projet de loi dès l’été

Constat de violation du DSA et pression juridique

  • La Commission européenne a récemment estimé que Meta enfreignait le Digital Services Act de l’UE en n’empêchant pas les utilisateurs de moins de 13 ans d’accéder à Facebook et Instagram
  • L’enquête préliminaire a conclu que les mineurs pouvaient facilement contourner la procédure de vérification
  • Le contrôle juridique autour de la sécurité des enfants sur les réseaux sociaux s’est renforcé après que Meta et YouTube ont perdu, en mars aux États-Unis, une décision de justice importante
  • Cette décision a estimé que des fonctionnalités de conception comme le scroll infini et la lecture automatique avaient contribué à l’addiction des adolescents et à la dégradation de leur santé mentale

Répression des Big Tech américaines et extension internationale

  • Au cours de l’année écoulée, l’UE a intensifié ses actions contre les Big Tech américaines dans le cadre de l’application des lois visant à renforcer la responsabilité des grandes entreprises technologiques
  • Une série d’amendes a suscité les critiques de responsables américains, qui ont averti que l’UE risquait de manquer des opportunités dans l’économie de l’IA
  • Le président américain Donald Trump réagit à des amendes visant des entreprises américaines qui ont dépassé au total 7 milliards de dollars sur les deux dernières années
  • Apple, Meta et Google ont été condamnés à des amendes pour violation des règles européennes en matière d’antitrust et de concurrence, et contestent ces décisions
  • Plus tôt cette année, la Commission européenne a ouvert une enquête visant X, propriété d’Elon Musk, au sujet de la diffusion de contenus sexuellement explicites non consentis représentant des femmes et des enfants, générés par le chatbot Grok

La dynamique des restrictions des réseaux sociaux pour les moins de 16 ans

  • Les gouvernements de plusieurs pays examinent des lois destinées à protéger les enfants des effets néfastes des réseaux sociaux
  • En décembre, l’Australie est devenue le premier pays à mettre en œuvre une interdiction large des réseaux sociaux pour les moins de 16 ans
  • Depuis, la dynamique en faveur d’une interdiction des réseaux sociaux pour les moins de 16 ans gagne du terrain parmi les gouvernements du monde entier
  • En Europe, Spain, la France et le U.K. proposent leurs propres législations pour écarter les enfants des réseaux sociaux

1 commentaires

 
GN⁺ 4 시간 전
Avis Hacker News
  • Si une plateforme présente des données via un algorithme, alors elle n’est plus un transporteur commun neutre et doit être tenue responsable du contenu qu’elle met en avant
    Si on laisse les utilisateurs décider eux-mêmes, comme à l’époque des réseaux sociaux 1.0, le périmètre de responsabilité peut être différent

    • Hacker News est aussi un site qui présente des données via un algorithme, donc selon cette définition, Hacker News devrait aussi disparaître
      Plus précisément, il vaudrait mieux dire que ce sont les algorithmes de recommandation personnalisée qui sont visés, et il n’est pas évident qu’offrir un algorithme de recommandation fasse automatiquement perdre à un site son statut de transporteur commun neutre
    • Le problème commence dès qu’on se demande quelle vidéo montrer en premier quand un utilisateur ouvre l’application
      Comment l’utilisateur pourrait-il choisir lui-même parmi des millions ou des dizaines de millions de vidéos ? Même si on permettait une recherche comme sur YouTube, il faudrait encore décider comment classer les résultats, et cela aussi relève d’un algorithme, donc ce n’est pas du tout un problème simple à résoudre
    • Comme la discussion revient régulièrement, certains bloquent sur l’idée que « pour trier quoi que ce soit, par date ou par popularité, il faut bien un algorithme comme quicksort »
      Ce n’est évidemment pas ce que le grand public ou les responsables politiques veulent dire par « algorithme », mais ce qu’ils visent précisément reste assez flou. L’UE semble bien comprendre ce point, et c’est sans doute pour cela qu’elle met l’accent sur la notion de conception addictive. Cela montre que le problème n’est pas un algorithme facile à désigner du doigt, mais une zone grise liée aux comportements qu’il cherche à provoquer
    • C’est un problème difficile à traduire dans la réalité du droit. Au final, il faut bien définir ce qu’est un algorithme
      Ajouter de la publicité, est-ce un algorithme ? Inclure des likes ? Lancer automatiquement la vidéo suivante quand la précédente se termine ? Le scroll infini ? Ce genre de questions surgit sans cesse
    • La notion de service informatique interactif du CDA 230 n’est pas la même chose qu’un transporteur commun
      Ignorer cette distinction et dire que « c’est facile à résoudre » ne ressemble pas à une proposition suffisamment réfléchie
  • Ce n’est pas un problème qui concerne seulement les enfants
    Beaucoup d’adultes en ont aussi besoin. Les applis addictives sont extrêmement bien conçues, alors que la plupart des bloqueurs sont soit trop faciles à contourner, soit trop pénibles à utiliser au quotidien. J’ai eu le même problème, donc j’ai créé un petit bloqueur iOS, et la vraie difficulté est de le rendre assez strict pour être réellement efficace, sans que les gens le détestent

    • J’ai entendu à la radio ce que la Chine fait pendant les périodes d’examen scolaire : comme toutes les écoles passent les examens en même temps, les réseaux sociaux sont bloqués la nuit pendant cette période
      Je ne me souviens plus de l’horaire exact, mais il me semble que c’était quelque chose comme de 22 h à 6 h. Globalement, je me suis dit que ce pourrait être une bonne politique pour tout le monde. Il me semble aussi avoir entendu que les entreprises d’IA passent hors ligne pendant les examens, mais je me trompe peut-être sur ce point
    • Les notifications toast ont été une grosse erreur, et les badges aussi
      Dans un monde idéal, la seule chose pour laquelle un utilisateur devrait continuer à recevoir des alertes indiquant que quelqu’un essaie de le joindre serait la messagerie vocale, et encore, elle devrait être soumise aux mêmes règles anti-spam que le reste
    • Je suis un adulte qui déteste toutes ces applis, mais je ne veux pas donner à l’État le droit de prendre cette décision à ma place
    • Si on appliquait les mêmes protections aux adultes, il n’y aurait même plus besoin de vérification d’âge
  • Je ne comprends pas pourquoi ces algorithmes deviendraient soudain acceptables au moment où la victime atteint 18 ans
    C’est nocif pour tout le monde, et si l’on veut vraiment réglementer cela, il faudrait l’interdire pour tous

    • Les adultes ne sont pas du bétail à contrôler, et je préfère largement voir via un algorithme de recommandation des choses qui correspondent à mes centres d’intérêt plutôt qu’aux préoccupations du grand public
      Mieux encore, j’aimerais pouvoir téléverser mon propre modèle de recommandation sur tous les réseaux sociaux pour mieux faire le tri, créer des trous noirs autour des sujets que je veux éviter, et avoir aussi une option pour brouiller légèrement les résultats afin de favoriser l’exploration
    • À lire seulement cet article, il n’est pas clair si des mécanismes comme le scroll infini ou « voir la vidéo suivante » seraient régulés différemment selon l’âge de l’utilisateur
      Il dit seulement que les plateformes qui utilisent ce genre de mécanismes visent souvent les enfants
    • C’est comme le tabac. Les restrictions concernant les enfants sont bien plus faciles à faire accepter socialement, parce qu’il existe un consensus plus large sur le fait qu’ils doivent être protégés
      Les appliquer aux adultes est bien plus difficile, parce que le consensus y est beaucoup plus faible
    • L’idée est qu’un cerveau moins développé a moins de capacité à faire les bons choix
      Mais dans ce cas, on peut aussi se demander pourquoi on considère qu’à 18 ans, on devient soudain responsable de ses actes
    • Dans une société libre, on considère généralement que le coût du fait de laisser les adultes faire de mauvais choix reste acceptable, alors que les enfants sont jugés trop immatures et pas assez lucides pour faire ce type de choix par eux-mêmes
      La plupart des adultes manquent eux aussi de maturité et de jugement, mais permettre aux adultes de prendre de mauvaises décisions est généralement moins dangereux que de donner à quelqu’un le pouvoir de décréter que certaines décisions sont trop mauvaises pour être autorisées
  • En particulier, limiter le scroll infini me semble globalement être une bonne chose pour réduire le caractère addictif et les effets nocifs des réseaux sociaux
    J’aime beaucoup le fait que HN utilise des pages plutôt qu’un fil ou une liste sans fin

    • Une autre très bonne chose sur HN, c’est que les titres sont tous ennuyeux et vont droit au but
      Les règles sur les titres[1] sont excellentes, et j’aimerais que davantage de sites web et de médias traditionnels fassent pareil. Des choses qui ne m’intéressent pas n’essaient pas de gaspiller mon temps et mon attention
      [1] https://news.ycombinator.com/newsguidelines.html
    • Le point essentiel, c’est que ces fonctionnalités sont conçues pour créer une addiction
      Le « scroll infini » n’est qu’un détail d’implémentation : même si on l’interdit, elles continueront à fabriquer de l’addiction par tous les autres moyens possibles
  • J’ai entendu dans un podcast que les algorithmes des réseaux sociaux étaient le tabac moderne, et ça m’a vraiment parlé
    Ces entreprises savent que leurs produits sont addictifs et mauvais pour les utilisateurs, et elles continuent malgré tout à les pousser. Comme le tabac, c’est mauvais non seulement pour les enfants mais pour tout le monde. C’est pour ça que j’ai créé un bloqueur d’algorithmes pour Safari, et c’est assez frappant de voir à quel point les réseaux sociaux deviennent plus agréables quand il n’y a plus du tout d’algorithme de recommandation. L’UE et d’autres juridictions devraient traiter cette question plus largement, pas seulement sous l’angle des enfants, même si je comprends pourquoi elles commencent par là

    • Ce commentaire est une publicité pour une appli payante qui cherche à exploiter la colère contre les réseaux sociaux
      Je salue l’effort, mais il y a un intérêt financier derrière, donc ce n’est pas un avis neutre sur le sujet. Si vous voulez filtrer les fils des réseaux sociaux, il existe aussi beaucoup de plugins gratuits
    • Comparer les réseaux sociaux au tabac moderne est vraiment une analogie parfaite
      Des groupes d’entreprises devenus richement au-delà de l’imaginable diffusent dans le monde entier des produits nocifs, les rendent aussi addictifs que possible, et enterrent activement les recherches qui prouvent leur nocivité. J’espère sincèrement qu’un jour nous regarderons les réseaux sociaux et l’usage du smartphone comme nous regardons aujourd’hui le tabagisme
    • Depuis que je suis passé à Pixelfed et Mastodon, je passe beaucoup moins de temps sur les réseaux sociaux qu’avant
      Ce n’est pas parce que je ne suis pas les bonnes personnes, mais parce qu’il n’y a plus d’algorithme qui exploite mon cerveau reptilien pour me faire swiper sans arrêt. Quand j’y pense et que je vais vérifier, c’est toujours agréable, puis je lis quelques posts, un lien intéressant, et vingt minutes plus tard je reviens à la réalité. C’est excellent du point de vue de l’utilisateur, mais je doute qu’on puisse bâtir un business financé par la publicité là-dessus. J’aimerais dire que je suis trop malin pour me faire aspirer par des dizaines de vidéos « amusantes », mais si j’y passe une heure, cette heure est perdue et il n’en reste rien
    • Il suffit de chercher eu cigarettes boxes dans Google Images
      L’interdiction peut être un coin mince dans la porte, mais je pense que les réseaux sociaux ont eux aussi besoin de quelque chose comme des étiquettes d’avertissement
    • Comme l’industrie du tabac, ils ont des notes internes non publiques sur la manière de cibler les enfants, tout en affirmant publiquement qu’ils ne les visent jamais
      Puis ils poussent fortement des lois destinées à faire porter la responsabilité à quelqu’un d’autre. Cela rappelle la façon dont l’industrie du tabac avait promu, via de faux mouvements d’opinion, l’interdiction de vendre des cigarettes aux mineurs. Leurs propres études montraient pourtant qu’il n’y avait pas de différence notable dans le tabagisme adolescent, et que cela améliorait même l’image « rebelle ». La manière dont Meta pousse très fort pour que le système d’exploitation déclare l’âge de l’utilisateur y ressemble étrangement
  • Je ne suis pas d’accord. Sauf si l’on parle de substances chimiques, le caractère addictif a une part de subjectivité
    À une certaine époque, on aurait pu considérer les livres, les films ou les bandes dessinées comme addictifs eux aussi. Pour les mineurs, il faudrait interdire les réseaux sociaux dans leur ensemble, et ce seraient aux réseaux sociaux eux-mêmes de vérifier l’âge des utilisateurs, comme les boîtes de nuit sont responsables de l’âge des personnes qu’elles laissent entrer. Le discours sur la « vérification de l’âge par le système d’exploitation » est clairement un prétexte pour la surveillance, pas pour protéger les enfants

    • Je ne vois pas pourquoi dire que « si ce n’est pas une substance chimique, l’addiction est subjective »
      Il est bien établi que les schémas addictifs de ces applis stimulent la dopamine de façon comparable à certaines drogues. D’une certaine manière, la dopamine est justement la « substance chimique » au cœur de l’addiction, et l’héroïne comme les algorithmes ne sont que deux moyens différents de l’obtenir
      https://med.stanford.edu/news/insights/2021/10/addictive-pot...
    • Le caractère addictif se mesure par l’expression du gène ∆FosB
      On peut évaluer le « potentiel addictif » d’une substance ou d’une activité selon le degré d’expression de ∆FosB, donc ce n’est absolument pas quelque chose de purement subjectif. Les livres, les films, les bandes dessinées, etc. peuvent tous être mesurés selon cette échelle, et en général, tout possède un certain potentiel addictif
    • Si l’on aborde le sujet de cette manière, c’est parce qu’il est bien plus difficile de délimiter ce qu’est exactement un réseau social, et que ce n’est pas non plus un objet considéré comme généralement nuisible en soi
    • On peut tout de même distinguer assez clairement l’addiction, qui produit des effets nocifs significatifs, du simple fait qu’une chose soit absorbante
      Par exemple, Wikipedia décrit l’addiction comme « un trouble neuropsychologique caractérisé par une impulsion forte et persistante à utiliser une drogue ou à adopter un comportement procurant une récompense psychologique immédiate, malgré des dommages importants et d’autres conséquences négatives ». Dans ce cadre, dire qu’une chose est addictive signifie qu’elle tend à provoquer une addiction chez une part significative de la population
    • La différence avec les livres, c’est qu’un livre n’est pas personnalisé pour chaque lecteur
      Donc je ne pense pas que l’exemple du livre soit pertinent
  • Ce qui est vraiment bien sur HN, c’est justement l’absence de scroll infini
    On parcourt la première page, on regarde ce qui attire l’œil. S’il y a beaucoup de commentaires, cela semble important. Une fois qu’on a fini de survoler et de lire, c’est fini. Sur les réseaux sociaux, ça ne finit jamais

    • C’est pour ça qu’il y a /new et le bouton d’actualisation
      Honnêtement, comme j’ai tendance à procrastiner, HN est aussi une très bonne excuse, autant que n’importe quel autre réseau social
  • Je n’utilise pas moi-même ce genre de sites et je ne fais pas partie de la tranche d’âge concernée
    Instagram est tellement rempli de pubs que ça m’agace immédiatement, donc je ne l’utilise pas. Si l’on cherche à promouvoir un produit, je comprends l’intérêt d’augmenter l’engagement. Récemment, j’ai arrêté de scroller Reddit, de m’y connecter, et de regarder des vidéos YouTube, parce que c’est vraiment sans fin et presque bizarre. Si je ne fais rien, je me sens anxieux et je m’ennuie, donc j’essaie de ne plus faire de multitâche comme avant, par exemple lancer une vidéo YouTube tout en scrollant Reddit en même temps. Maintenant, j’essaie soit d’écouter de la musique en travaillant sur l’ordinateur, soit, si je regarde quelque chose, de ne faire que ça. Je cherche aussi davantage d’interactions sociales réelles, ce qui me donne envie d’aller dans des cafés, mais malheureusement j’habite en banlieue, donc je dois prendre la voiture pour y aller. À ce stade, je consulte surtout ce site-ci ou des sites de startup motivants

    • Je suis curieux de savoir quels sites liés aux startups tu regardes
      J’ai l’impression d’être à peu près au même stade en ce moment
  • Je ne comprends pas pourquoi on veut toujours que l’État joue le rôle des parents
    Ma mère me confisquait l’ordinateur quand je ne respectais pas les règles

    • Il s’agit de réglementer des produits dont il est prouvé qu’ils nuisent au bien-être à grande échelle
      Quel rapport cela a-t-il avec le fait de jouer les parents ?
    • Ce n’est pas un sujet qui concerne les enfants
  • Moi aussi, en tant qu’adulte, j’ai besoin de cette protection

    • L’usage des réseaux sociaux est influencé par l’expression de ∆FosB, donc moins on les utilise, moins on a envie de les utiliser
      Cela suit grosso modo une échelle de temps d’environ trois mois