- Des travailleurs kényans de Sama chargés d’examiner des contenus de lunettes connectées destinés à l’entraînement de l’IA se retrouvent au centre d’un conflit, la fin du contrat avec Meta devant entraîner 1 108 licenciements
- La fin du contrat est intervenue moins de deux mois après que des travailleurs ont déclaré avoir vu, dans des vidéos de lunettes Meta, des scènes d’utilisation des toilettes et de rapports sexuels d’utilisateurs
- Meta a affirmé que Sama ne respectait pas les standards opérationnels requis, tandis que Sama a rétorqué avoir satisfait, y compris pour Meta, aux normes d’exploitation, de sécurité et de qualité exigées, sans jamais avoir été informé d’un manquement
- Meta indique que des contenus de lunettes connectées partagés par les utilisateurs avec Meta AI peuvent parfois être examinés par des travailleurs sous-traitants, et qu’un consentement explicite des utilisateurs est obtenu pour les revues humaines visant à améliorer les performances du produit
- L’ICO britannique et le Commissaire kényan à la protection des données ont réagi à des inquiétudes sur la vie privée, tandis que la polémique autour du précédent contrat de moderation de contenu Facebook de Sama met aussi en lumière les risques du travail des données pour l’IA
Les enjeux autour de la fin du contrat entre Meta et Sama
- Meta a mis fin à un contrat majeur avec Sama, utilisé pour l’entraînement de l’IA, et Sama estime que cette décision entraînera le licenciement de 1 108 personnes
- La fin du contrat est survenue moins de deux mois après que des travailleurs de Sama basés au Kenya ont déclaré avoir vu, dans des vidéos de lunettes connectées Meta, des scènes montrant des utilisateurs aux toilettes ou en plein rapport sexuel
- Meta affirme avoir mis fin au contrat parce que Sama ne respectait pas ses standards opérationnels
- Sama conteste et affirme avoir continuellement respecté les normes d’exploitation, de sécurité et de qualité exigées pour les missions de ses clients, y compris Meta, et n’avoir jamais été averti d’un quelconque manquement
- Une organisation kényane de travailleurs estime que la décision de Meta est liée aux déclarations publiques des employés, mais Meta n’a pas répondu directement à cette accusation
Examen des vidéos de lunettes connectées et questions de données personnelles
- Dans une enquête publiée fin février par les médias suédois Svenska Dagbladet et Goteborgs-Posten, des travailleurs anonymes ont déclaré avoir examiné des vidéos filmées avec des lunettes Meta
- L’un d’eux a déclaré voir « tout, du salon jusqu’à la nudité », ajoutant que les vidéos comprenaient aussi des scènes d’utilisation des toilettes ou de rapports sexuels
- Meta reconnaît que des contenus de lunettes connectées partagés par les utilisateurs avec Meta AI peuvent parfois être examinés par des travailleurs sous-traitants
- Meta affirme que cet examen vise à améliorer l’expérience client et qu’il s’agit d’une pratique courante dans d’autres entreprises
- Dans une déclaration envoyée à la BBC, Meta précise que les photos et vidéos ne sont pas rendues publiques, et qu’un consentement explicite des utilisateurs est obtenu pour l’examen humain des contenus IA dans le but d’améliorer les performances du produit
Autorités de régulation et risques liés à l’usage du produit
- Peu après les révélations suédoises, l’autorité britannique de protection des données ICO a jugé ces informations « préoccupantes » et a adressé une lettre à Meta
- Le Commissaire kényan à la protection des données a lui aussi ouvert une enquête sur les inquiétudes liées à la vie privée soulevées par ces lunettes connectées
- Meta a présenté en septembre une gamme de lunettes alimentées par l’IA avec Ray-Ban et Oakley
- Les fonctions incluent la traduction de texte et des réponses à des questions sur ce que l’utilisateur regarde, avec un intérêt particulier pour les personnes aveugles ou malvoyantes
- À mesure que ces appareils gagnent en popularité, les craintes de détournement se sont accrues, notamment au Kenya, où ils ont été associés à des captations non consenties de femmes
- Les lunettes Meta sont conçues pour allumer un voyant lumineux dans l’angle de la monture lorsque la caméra intégrée enregistre
Travail d’annotation des données et polémique autour d’anciens contrats
- Les travailleurs de Sama, en tant qu’annotateurs de données, apposaient manuellement des étiquettes sur des contenus afin d’aider Meta AI à interpréter les images, et examinaient aussi des transcripts d’interactions avec l’IA
- Selon un travailleur, les lunettes d’un homme ont continué à enregistrer dans une chambre, puis une femme semblant être son épouse a été filmée en train de se déshabiller
- Sama est une société d’externalisation basée aux États-Unis, issue d’une organisation à but non lucratif visant à élargir l’emploi via la création d’emplois technologiques, et fonctionne aujourd’hui comme une B-corp se revendiquant « ethical »
- Le précédent contrat de moderation de contenu Facebook entre Meta et Sama avait déjà suscité des critiques et des recours d’anciens employés, certains affirmant avoir été exposés à des contenus explicites et traumatisants
- Sama a ensuite déclaré regretter d’avoir pris en charge ce travail
- Naftali Wambalo, de l’Africa Tech Workers Movement, dit avoir également été en contact avec des travailleurs du contrat lié aux lunettes connectées, et estime que Meta ne voulait pas que soit rendu public le fait que des contenus de lunettes étaient examinés par des travailleurs humains
- Wambalo a déclaré que les standards évoqués par Meta ressemblaient davantage à des « standards de confidentialité »
- Meta avait auparavant indiqué que ses conditions d’utilisation permettaient aux utilisateurs d’être informés de la possibilité d’un examen humain
- Mercy Mutemi, de l’Oversight Lab, estime que la déclaration de Meta devrait servir d’avertissement au gouvernement kényan et que les bases présentées comme une voie d’entrée dans l’écosystème de l’IA sont extrêmement fragiles
Aucun commentaire pour le moment.