13 points par GN⁺ 24 일 전 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Les « salaires de surveillance » désignent un système où des algorithmes fixent la rémunération à partir des données personnelles des employés, et non de leurs performances ou de leur ancienneté, souvent sur la base d’informations collectées à leur insu
  • Des signaux suggérant une fragilité financière — historique de prêts sur salaire, solde de carte de crédit, publications sur les réseaux sociaux — sont injectés dans les algorithmes pour estimer le salaire minimum qu’un candidat serait prêt à accepter
  • Un rapport d’audit de 500 entreprises d’IA de gestion du travail, dirigé par la professeure Veena Dubal de la faculté de droit de l’UC Irvine, a confirmé que de grands employeurs des secteurs de la santé, du service client, de la logistique et du commerce de détail figuraient parmi les clients des fournisseurs de ces outils
  • Les travailleurs de plateforme comme les infirmiers en gig work ou les chauffeurs de VTC sont particulièrement touchés, avec des cas signalés de rémunérations différentes pour un même établissement et un même travail selon les personnes
  • Dans le Colorado, une proposition de loi interdisant la fixation des prix et des salaires à partir de données personnelles est en cours d’examen, mais le débat réglementaire avance bien plus lentement sur les salaires que sur les prix à la consommation

Que sont les salaires de surveillance ?

  • Dans le prolongement du surveillance pricing, où compagnies aériennes et centres commerciaux adaptent les prix à chaque consommateur à partir de ses données personnelles, les employeurs appliquent le même principe pour fixer les salaires
  • Les spécialistes définissent cela comme des « salaires de surveillance » : au lieu de la performance ou de l’ancienneté, ce sont des algorithmes alimentés par des données personnelles qui décident de la rémunération, le plus souvent sans que la personne concernée en soit informée
  • Selon Nina DiSalvo, directrice des politiques publiques de l’organisation de défense des droits des travailleurs Towards Justice, certains systèmes exploitent des signaux de vulnérabilité financière, comme l’historique de recours à des prêts sur salaire ou un solde élevé de carte de crédit, pour estimer le salaire le plus bas qu’un candidat acceptera
  • Le scraping de publications publiques sur les réseaux sociaux peut aussi servir à déterminer la probabilité d’une syndicalisation ou une grossesse, avec un impact possible ensuite sur les décisions d’augmentation salariale
  • Lindsay Owens, de Groundwork Collaborative : « Si cela fonctionne sur les consommateurs, cela fonctionne aussi sur les travailleurs. C’est la même psychologie. »

Principaux points du rapport d’audit sur 500 entreprises

  • La professeure Veena Dubal, de la faculté de droit de l’UC Irvine, et la stratège technologique Wilneida Negrón ont publié en août 2025, via le Washington Center for Equitable Growth, un premier audit de 500 entreprises d’IA de gestion du travail
  • Des employeurs des secteurs de la santé, du service client, de la logistique et du commerce de détail ont été identifiés comme clients de fournisseurs proposant des outils rendant cette pratique possible
  • Le rapport cite parmi les clients de grandes entreprises américaines : Intuit, Salesforce, Colgate-Palmolive, Amwell, Healthcare Services Group
  • Le rapport n’affirme pas que tous les employeurs utilisant ces outils pratiquent une surveillance algorithmique des salaires, mais avertit que la hausse de l’usage d’outils algorithmiques d’analyse de données personnelles peut favoriser des pratiques salariales privilégiant la réduction des coûts au détriment de la transparence et de l’équité
  • Colgate-Palmolive a nié utiliser des outils algorithmiques de fixation des salaires / Intuit a déclaré ne pas participer à de telles pratiques

Une surveillance qui continue après l’embauche

  • Les salaires de surveillance ne se limitent pas à l’étape de recrutement : ils servent aussi à déterminer les bonus et les rémunérations incitatives pendant l’exécution du travail
  • Les fournisseurs proposent également des outils de suivi de la productivité, de la relation client et des comportements en temps réel (avec, pour certains, surveillance audio et vidéo)
  • Selon une enquête de l’IDC menée en 2022, environ 70 % des entreprises de plus de 500 salariés utilisaient déjà des systèmes de surveillance des employés
  • Nina DiSalvo : « Les données vous concernant peuvent permettre à un système de décision algorithmique d’estimer l’ampleur de l’incitation nécessaire pour provoquer une réponse comportementale donnée. »

Cas des travailleurs de la santé en gig work : des salaires décidés par un « indice de détresse »

  • Selon un rapport du Roosevelt Institute fondé sur 29 entretiens avec des infirmiers en gig work, des plateformes de staffing médical comme CareRev, Clipboard Health, ShiftKey, ShiftMed fixent algorithmiquement la rémunération des différentes vacations
  • Au lieu d’un salaire fixe, la plateforme ajuste la rémunération de chacun en fonction de la fréquence d’acceptation des missions, de la rapidité de réponse aux annonces et des niveaux de salaire antérieurement acceptés
  • Il en résulte que, pour le même travail dans le même établissement, les infirmiers peuvent percevoir des rémunérations différentes
  • Les critiques estiment que ce système récompense non pas les compétences ou l’expérience, mais des comportements révélant une vulnérabilité financière
  • ShiftKey a nié participer à la fixation de salaires de surveillance : « Nous n’utilisons pas de services de data brokers et nous ne participons pas à la fixation de salaires de surveillance. »
  • Nicole Moore, présidente de Rideshare Drivers United : « Ils sont en train d’évaluer notre indice de détresse. »

Le cas des chauffeurs de VTC

  • Selon Rideshare Drivers United, les salaires algorithmiques influencent depuis des années la rémunération des travailleurs du secteur du VTC
  • Ben Valdez, chauffeur de VTC basé à Los Angeles, affirme que depuis l’introduction par Uber et Lyft de nouveaux algorithmes de rémunération il y a plusieurs années, ses revenus ont baissé malgré le rebond de la demande après la pandémie
  • Des cas ont été observés où, pour le même trajet au même moment, des chauffeurs se voyaient proposer des tarifs de base différents
  • Au départ, seul un tarif à accepter ou refuser est proposé, puis le montant n’augmente que si un nombre suffisant de chauffeurs le refuse
  • Zephyr Teachout, de la faculté de droit de Fordham University (rapport 2023), estime qu’Uber utilise des profils de chauffeurs riches en données pour ajuster la rémunération selon les incitations propres à chaque conducteur et les besoins de la plateforme
  • Réponse d’Uber : « Les tarifs payés à l’avance reposent sur le temps, la distance et les conditions de demande ; nous n’utilisons pas les caractéristiques individuelles des chauffeurs ni leurs comportements passés pour fixer leur rémunération. »

Craintes de discrimination et « plafond de fer »

  • Les critiques des salaires de surveillance soulignent que les algorithmes peuvent cibler de manière disproportionnée les travailleurs les plus financièrement vulnérables à partir de leur historique financier et d’autres facteurs, en contournant les logiques salariales traditionnelles fondées sur la performance
  • Des difficultés économiques passées ou des choix personnels peuvent ainsi servir à justifier un salaire plus bas aujourd’hui, sans même que la personne sache quelles données ont été utilisées
  • Joe Hudicka, auteur de The AI Ecosystems Revolution : « Au moins, on peut voir un plafond de verre. Le plafond des salaires de surveillance est en fer et en béton. On ne peut pas le percer. »

État de la législation et débat réglementaire

  • État de New York : adoption d’une obligation de divulgation aux consommateurs lorsque des algorithmes utilisent des données personnelles pour fixer les prix — mais la plupart des lois ne s’étendent pas aux salaires
  • Colorado : dépôt du Prohibit Surveillance Data to Set Prices and Wages Act
    • Le texte interdirait l’utilisation, dans des décisions salariales algorithmiques, de données personnelles intimes comme l’historique de prêts sur salaire, les données de localisation ou les comportements de recherche Google
    • En revanche, la rémunération fondée sur la performance resterait autorisée
  • Javier Mabrey, représentant démocrate à l’origine du texte : « Notre loi vise la tarification personnalisée, ce qui est différent de la tarification dynamique. Cela requiert des données personnelles très sensibles, et non l’offre et la demande. »
  • Bien qu’Uber et Lyft aient tous deux nié utiliser les caractéristiques individuelles des chauffeurs pour fixer les salaires, Javier Mabrey affirme que les deux entreprises font du lobbying contre ce texte

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.