- La Commission européenne met en cause la conception addictive de TikTok et exige notamment la désactivation du défilement infini ainsi que des limites de temps d’écran
- Il s’agit du premier cas où, dans le cadre du Digital Services Act (DSA), la conception même d’une plateforme de réseaux sociaux est visée par la régulation
- La Commission estime que la conception de TikTok fait peser un risque sur la santé mentale des enfants en particulier, et qu’en cas de non-respect, une amende pouvant aller jusqu’à 6 % du chiffre d’affaires mondial peut être imposée
- Pour les mêmes raisons, Facebook et Instagram de Meta font également l’objet d’une enquête, et cette mesure pourrait servir de nouvelle référence de conception pour d’autres plateformes
- Ce tournant est perçu comme le moment où l’UE commence à considérer le « design addictif » des plateformes comme un risque juridique
Mesures de régulation de l’UE sur la conception de TikTok
- La Commission européenne demande à TikTok de désactiver le défilement infini, d’introduire des limites de temps d’écran et de modifier son algorithme de recommandation
- La Commission estime que la conception du service TikTok provoque une dépendance chez les utilisateurs, en particulier chez les enfants
- TikTok a qualifié cette décision de « description totalement infondée » et a déclaré qu’il répondrait par tous les moyens juridiques
- La fondation citoyenne polonaise Panoptykon Foundation considère cette mesure comme un défi majeur au modèle économique fondé sur la surveillance et la publicité
- Si TikTok ne satisfait pas aux exigences de la Commission, une amende pouvant atteindre 6 % de son chiffre d’affaires annuel mondial pourrait être infligée
Le Digital Services Act (DSA) et un nouveau standard
- Cette décision constitue, depuis l’entrée en vigueur du DSA, le premier cas où la conception même d’une plateforme est mise en cause, et le premier à clarifier la position de la Commission
- Le DSA impose aux plateformes d’évaluer et d’atténuer les risques systémiques qu’elles font peser sur les utilisateurs, mais l’application est restée floue jusqu’ici en raison d’une définition ambiguë du risque
- La Commission indique explicitement que la conception de TikTok crée un risque pour la santé mentale et définit le design addictif comme un risque juridique
- La commissaire européenne chargée du numérique, Henna Virkkunen, a indiqué que cette mesure marque l’entrée dans une phase plus mûre de la gestion des risques systémiques
Possibilité d’extension à d’autres plateformes
- Facebook et Instagram font eux aussi l’objet, depuis mai 2024, d’une enquête de l’UE sur la conception addictive et les risques pour les enfants
- Jan Penfrat, de l’ONG EDRi, a indiqué que ce cas visant TikTok a de fortes chances d’être appliqué à d’autres entreprises
- Meta fait l’objet en Californie d’un procès pour conception favorisant l’addiction des utilisateurs, tandis que TikTok et Snap ont réglé l’affaire à l’amiable
Réponse réglementaire et procédure à venir
- TikTok aura l’occasion d’examiner les preuves de la Commission et de préparer sa défense, tandis que les échanges avec les autorités de régulation doivent se poursuivre
- Dans le passé, même dans le cas des violations de transparence de X (ex-Twitter), plus d’un an a été nécessaire avant une décision finale
- L’expert Peter Chapman explique que, les profils de risque et les usages différant selon les plateformes, les mesures correctives seront elles aussi adaptées au cas par cas
- Par exemple, la fonction notification présente des risques d’addiction différents selon qu’il s’agit de messages ou de notifications de live
Ce que signifie la régulation de la conception des plateformes
- Cette mesure est considérée comme une première tentative d’établir un standard juridique sur le caractère addictif des plateformes
- La Commission considère le design addictif comme un risque susceptible de faire l’objet d’une application effective, ce qui pourrait à terme influencer les standards mondiaux de conception des plateformes
- Chaque plateforme devrait devoir examiner diverses modifications possibles, comme changer les paramètres par défaut, interdire certaines fonctions ou renforcer le contrôle des utilisateurs
- Le cas TikTok montre que l’UE étend désormais la régulation jusqu’à la conception de l’expérience utilisateur des entreprises technologiques
5 commentaires
Mais quand on se met à regarder des Shorts, des Reels ou TikTok sans réfléchir, on ne voit pas le temps passer, et on a l’impression que ça abrutit le cerveau, donc ça semble effectivement nécessiter une solution.
De niveau cyber-mafia. L’UE.
Avis Hacker News
Il ne s’agit pas d’interdire le scroll infini en soi, mais de réguler les designs addictifs, dont le scroll infini est cité comme exemple
Au départ, je pensais que c’était un mauvais précédent, mais en y réfléchissant, j’en suis arrivé à la conclusion qu’il est presque impossible de définir concrètement en droit ce qu’est un « design addictif »
Si c’est trop précis, les entreprises trouveront des failles juridiques ; si c’est trop large, cela peut freiner l’innovation
C’est pourquoi des lignes directrices souples comme celles d’aujourd’hui me paraissent au contraire réalistes
Cela dit, si ce type de régulation va trop loin, il y a un risque de fragmentation des services
Mon billet de ce matin à ce sujet vaut aussi le détour : lien
Si la pub disparaît, des plateformes comme TikTok, YouTube ou X devront passer à l’abonnement, et l’incitation à l’addiction laissera naturellement place à une concurrence fondée sur la qualité
Le célèbre précédent du « je le reconnais quand je le vois » utilisé pour juger la frontière entre art et obscénité s’inscrit dans la même logique : référence
C’est pour cela qu’il faut parfois écrire volontairement de façon vague, afin de pouvoir s’adapter aux évolutions technologiques futures
Il existe bien sûr des domaines qui exigent de la précision, comme le calcul de l’impôt ou les critères pénaux, mais la plupart des bonnes lois sont « aussi précises que nécessaire et aussi souples que possible »
Des entreprises pesant des milliers de milliards de dollars transforment notre attention en champ de bataille
Les fils infinis nuisent non seulement aux individus, mais aussi à la démocratie
Réglementer des produits nuisibles aux consommateurs n’a rien de nouveau
En interne, tout tourne autour de métriques comme le « DAU » et l’« engagement », et la santé mentale n’est traitée qu’à des fins de relations publiques
Tant que les CEO ne changent pas, la structure des revenus publicitaires restera la racine du problème
Au final, je pense que la régulation est la seule solution
Le fait qu’il y ait autant de commentateurs payés opposés à cette régulation est au contraire un signe qu’elle va dans la bonne direction
Mais en réalité, le problème n’est pas aussi simple
La technologie est difficile à contrôler comme le monde réel, et les moyens d’échapper à la régulation sont infinis
À mes yeux, c’est en partie pour cela que la capitalisation boursière des entreprises européennes reste inférieure à celle des américaines
Ou alors c’est simplement le fait même « d’ajouter de la régulation » qui est perçu comme une vertu
J’ai le sentiment que la vie est plus heureuse à mesure qu’on s’éloigne de l’influence de la bureaucratie
Si l’on compare avec les entreprises technologiques chinoises, le problème européen est bien plus complexe
Le marché américain est surtout tiré vers le haut par des géants comme les « Magnificent 7 »
Les réseaux sociaux addictifs causent de graves dommages aux adolescents, et ce type de règles est nécessaire
Le discours de lobbying à l’américaine selon lequel « l’Europe rate son économie à cause de la régulation » est exagéré
Les États-Unis font de même en légalisant les paris via des plateformes comme Kalshi
L’UE met en avant la protection des données personnelles tout en poussant des politiques anti-vie privée comme Chat Control, ce qui manque de cohérence
Une régulation des réseaux sociaux est nécessaire, mais l’attention devrait porter sur des problèmes plus importants que le scroll infini
En Suède, des startups ont exploité des failles du droit au début des années 2000, mais le cadre est devenu assez strict aujourd’hui
Malgré cela, le secteur garde toujours un côté profondément malsain
C’est par là qu’il faudrait commencer à réguler
Ceci dit, ce n’est pas un conseil juridique
C’est presque un réflexe d’évitement désormais
Le GDPR n’exige un consentement que lorsque les données sont partagées avec des tiers
Les cookies strictement nécessaires au fonctionnement du service (par ex. protection DDoS, détection des bots) font exception
Dans ce cas, un petit avis dans un coin de l’écran ou un lien clair vers la politique de confidentialité suffit
Certains pays conservent encore les anciennes « lois sur les pop-ups de cookies » d’avant le GDPR, ce qui entretient la confusion
L’UE cherche d’ailleurs à supprimer ces vieilles règles
Je me demande quelles astuces ingénieuses les entreprises vont inventer à l’avenir pour contourner ce genre de régulation
Peut-être que chaque plateforme finira par proposer une « extension officielle » pour rétablir les fonctions interdites
D’un côté, il faut des règles pour empêcher le « doomscrolling », mais de l’autre, j’ai parfois moi aussi envie d’oublier la réalité de cette manière
Il ne s’agit pas de l’interdire totalement comme une drogue, mais je pense qu’une auto-régulation comparable à l’alcool serait appropriée
Par exemple, on pourrait réserver le scroll infini aux personnes au-delà d’un certain âge
(bien sûr, c’est ce qu’un ami m’a raconté)
Ce genre de pratiques pousse à installer des applications, ce qui débouche sur un bombardement de notifications push ou sur de la collecte de données
En lisant Geeknews tous les jours, j’ai souvent l’impression qu’une partie des utilisateurs américains de HackerNews vit, pour le dire crûment, dans le monde des Bisounours.
Quand on les voit s’imaginer que réguler les géants américains de la tech rendra Internet plus éthique, on a l’impression qu’ils essaient de regarder le monde uniquement à travers leur propre prisme.
C'est toujours mieux que de ne rien faire.