- Les lunettes IA offrent des fonctions comme le guidage en voyage et la traduction en temps réel, mais elles impliquent aussi une collecte et une analyse massives de données personnelles
- Un sous-traitant kényan contrôle et annote des vidéos privées et des données vocales, avec des témoignages mentionnant des contenus incluant nudité, actes sexuels et informations financières
- En Suède, des vendeurs en magasin ont fourni des informations erronées sur le traitement des données ou ont montré une compréhension insuffisante du sujet, alors qu’en réalité les données sont transmises vers des serveurs de Meta (en Suède, au Danemark, etc.)
- Les conditions d’utilisation de l’IA de Meta précisent que les conversations des utilisateurs peuvent faire l’objet d’un examen automatisé ou humain, mais l’étendue réelle du traitement et de la conservation des données n’est pas clairement divulguée
- Des experts estiment que les utilisateurs donnent leur accord sans comprendre la portée de l’usage de leurs données, et soulignent un risque de violation des exigences de transparence et de consentement du RGPD
Les lunettes IA de Meta et l’architecture de traitement des données
- Meta a lancé, en partenariat avec Ray-Ban, des lunettes intelligentes intégrant des fonctions d’IA, avec traduction en temps réel, prise de photo et commandes vocales
- Les utilisateurs peuvent prendre des photos et des vidéos via la commande vocale « Hey Meta » ou un bouton
- Meta traite ces données via l’application smartphone (Meta AI), et le fonctionnement des fonctions d’IA nécessite une connexion Internet et un envoi vers les serveurs
- Selon l’analyse réseau menée par les journalistes, l’application communique en continu avec des serveurs Meta situés à Luleå en Suède et au Danemark
- Les explications en magasin affirmant que les données seraient conservées uniquement en local ne correspondent pas aux faits
Conditions de travail chez Sama, le sous-traitant kényan
- Sama, à Nairobi au Kenya, réalise des travaux d’annotation de données pour l’entraînement de l’IA de Meta
- Les travailleurs classent et étiquettent des vidéos, images et données vocales afin d’entraîner l’IA à reconnaître des objets
- Certaines vidéos contiendraient des scènes de toilettes, des actes sexuels, de la nudité et des informations de carte bancaire
- En raison d’accords de confidentialité (NDA), les travailleurs risquent le licenciement s’ils révèlent leur identité
- Un témoignage affirme : « Nous voyons tout, du salon jusqu’à la nudité »
- Certaines vidéos auraient été filmées directement dans le quotidien de foyers occidentaux
Vente en Suède et perception des consommateurs
- En 2025, de grandes chaînes d’optique comme Synsam et Synoptik vendent le produit en Suède
- Après la visite de 10 magasins par les journalistes, il est apparu que de nombreux employés ne connaissaient pas les chemins de transmission ni les lieux de stockage des données
- Certains ont affirmé que « toutes les données sont stockées uniquement dans l’application », mais les tests ont confirmé une transmission automatique lors de l’utilisation des fonctions d’IA
- Synsam et Synoptik ont répondu par écrit que « la responsabilité juridique incombe à l’utilisateur »
Conditions d’utilisation et politique de confidentialité de Meta
- Les conditions du service IA de Meta indiquent que le contenu des conversations et messages des utilisateurs peut être soumis à un examen automatisé ou manuel (humain)
- Les utilisateurs sont invités à ne pas partager d’informations sensibles, mais la durée d’analyse, de conservation et l’identité des personnes pouvant accéder aux données ne sont pas précisées
- Meta, en tant qu’entreprise mondiale, affirme transférer, stocker et traiter les données à l’échelle mondiale
- En Europe, la responsabilité juridique relève de Meta Ireland, qui explique que l’emplacement effectif du traitement n’est pas déterminant d’un point de vue réglementaire
- Le Kenya ne fait pas encore partie des pays bénéficiant d’une décision d’adéquation de l’UE, même si des discussions sont en cours depuis 2024
Point de vue des experts juridiques et des autorités de protection des données
- Kleanthi Sardeli, avocate de l’organisation autrichienne à but non lucratif NOYB, souligne le risque que les utilisateurs ne réalisent pas qu’ils sont enregistrés lorsqu’ils parlent avec l’IA
- Si les données sont utilisées pour entraîner l’IA sans consentement explicite, cela implique un manque de transparence et de base légale
- Petter Flink, de l’autorité suédoise de protection des données (IMY), déclare : « Les utilisateurs ne savent pas réellement ce qui se passe. »
- Selon lui, les données collectées par Meta sont un actif plus précieux que le produit lui-même et peuvent être utilisées pour améliorer la précision du ciblage publicitaire
- Petra Wierup, également de l’IMY, insiste sur la nécessité de contrats solides et d’une base juridique claire lors des transferts de données vers des pays tiers
Réponse de Meta
- En réponse aux questions des journalistes, Meta a envoyé un e-mail au nom de sa porte-parole londonienne Joyce Omope
- L’entreprise a expliqué l’architecture de transfert des données, mais n’a pas répondu à la question de savoir pourquoi des vidéos sensibles étaient transmises à des sous-traitants
- Elle s’est contentée d’indiquer que « lors de l’utilisation de Live AI, les médias sont traités conformément aux conditions Meta AI et à la politique de confidentialité »
- La même série de questions a été adressée à Sama, mais aucune réponse n’a été reçue
Conclusion
- Les lunettes intelligentes de Meta sont présentées comme un symbole de l’innovation en IA, mais en pratique elles exposent la vie privée des utilisateurs à un réseau mondial de traitement des données
- Les témoignages des travailleurs kényans et les tests menés en Suède mettent en lumière le manque de transparence des données et la fragilité de la protection de la vie privée
- Des experts estiment qu’il faut vérifier la conformité au RGPD et l’efficacité réelle des procédures de consentement des utilisateurs
Aucun commentaire pour le moment.