13 points par GN⁺ 2026-03-08 | 1 commentaires | Partager sur WhatsApp
  • Ce que l’IA menace le plus, ce ne sont pas les emplois à bas revenus, mais les postes hautement qualifiés et bien rémunérés : l’impact de l’IA frappe d’abord non pas les « emplois faciles », mais les « bons emplois »
  • Les programmeurs sont la profession la plus exposée. Avec une couverture de 75 %, ils arrivent en tête de l’ensemble des métiers ; paradoxe, ceux qui utilisent le plus les agents de codage sont justement les développeurs eux-mêmes
  • Personne n’est encore licencié à cause de l’IA, mais la porte de l’embauche des juniors se referme discrètement : l’IA remplace les humains non pas en supprimant les employés actuels, mais en réduisant les nouveaux recrutements
  • La plupart des tâches que l’IA pourrait théoriquement remplacer ne le sont pas encore en pratique : pour les métiers de l’informatique et des mathématiques, la couverture théorique est de 94 %, mais la couverture réelle n’est que de 33 %. Un avertissement sur l’ampleur du terrain encore à couvrir
  • Les femmes et les diplômés du supérieur sont davantage exposés au risque de substitution par l’IA, avec une proportion de femmes supérieure de 16 points. On pense souvent que l’IA menace surtout les « emplois masculins de cols bleus », mais les données montrent l’inverse

Principales conclusions (Key Findings)

  • L’« exposition observée » (observed exposure) est un indicateur qui combine les capacités théoriques des LLM et les données d’usage réelles pour mesurer le niveau d’utilisation des tâches orientée vers l’automatisation
    • Un poids plus élevé est attribué aux usages automatisés et aux usages liés au travail
  • L’usage réel de l’IA ne représente qu’une partie de son potentiel théorique, et la part des tâches que l’IA peut effectuer effectivement utilisées reste faible
  • Plus une profession a un niveau d’exposition élevé, plus les prévisions de croissance de l’emploi d’ici 2034 du Bureau of Labor Statistics (BLS) américain sont faibles
  • Les travailleurs des professions très exposées ont en moyenne une part plus élevée de femmes, un niveau d’études plus élevé, des salaires plus élevés et un âge plus avancé
  • Depuis fin 2022, aucune preuve d’une hausse systématique du chômage n’a été observée, mais un ralentissement des embauches de jeunes actifs a été constaté

Contexte et objectif de l’étude

  • Les recherches visant à mesurer et prévoir l’impact de l’IA sur le marché du travail se multiplient, mais la précision prédictive des approches passées avait ses limites
    • Exemple typique : environ 25 % des emplois classés comme vulnérables à l’offshoring affichaient encore une solide croissance de l’emploi dix ans plus tard
    • Les études sur l’impact des robots industriels sur l’emploi aboutissent à des conclusions contradictoires, et l’ampleur des pertes d’emplois liées au choc commercial chinois reste débattue
  • L’objectif de cette étude est d’établir une approche pour mesurer l’impact de l’IA sur l’emploi et d’actualiser régulièrement l’analyse à mesure que de nouvelles données apparaissent
  • En mettant en place un cadre d’analyse avant que l’impact de l’IA ne devienne évident, il devient possible d’identifier les perturbations économiques de manière plus fiable qu’avec une analyse a posteriori

Inférence causale et contrefactuels (Counterfactuals)

  • Quand les effets sont massifs et soudains, comme avec le COVID-19, l’inférence causale est plus simple ; mais l’impact de l’IA pourrait, comme la diffusion d’Internet ou le choc commercial chinois, ne pas apparaître immédiatement dans les données agrégées
  • L’approche générale consiste à comparer les résultats de professions fortement exposées à l’IA avec ceux de professions peu exposées afin d’isoler l’effet de l’IA des variables confondantes
  • Cette étude suit elle aussi une approche fondée sur les tâches, en combinant une mesure des capacités théoriques de l’IA et des données d’usage réelles, agrégées au niveau des professions

Méthode de mesure de l’exposition

  • Combinaison de trois sources de données :
    • Base de données O*NET : liste des tâches associées à environ 800 professions aux États-Unis
    • Données réelles d’usage de Claude issues de l’Anthropic Economic Index
    • Estimations de l’exposition théorique par tâche (β) d’Eloundou et al. (2023) : si un LLM peut accélérer une tâche d’au moins 2x, la valeur est 1 ; si des outils supplémentaires sont nécessaires, 0,5 ; si ce n’est pas possible, 0
  • Parmi les raisons pour lesquelles des tâches théoriquement possibles n’apparaissent pas dans l’usage réel : limites du modèle, contraintes juridiques, exigences logicielles, étapes de validation humaine, etc.
    • Exemple : « transmettre des informations de prescription à la pharmacie et approuver un renouvellement de médicament » a une exposition théorique β=1, mais n’apparaît pas dans l’usage réel de Claude
  • L’exposition théorique et l’usage réel sont fortement corrélés, et 97 % des tâches observées dans les quatre précédents rapports de l’Economic Index relevaient des catégories β=0,5 ou β=1

Indicateur d’exposition observée (Observed Exposure)

  • L’exposition observée quantifie, parmi les tâches que les LLM peuvent théoriquement accélérer, la proportion effectivement utilisée sous forme automatisée dans un contexte de travail réel
  • Conditions qui augmentent l’exposition d’une profession :
    • la tâche est théoriquement réalisable par l’IA et présente une fréquence d’usage significative dans l’Anthropic Economic Index
    • l’usage se produit dans un contexte lié au travail
    • le taux d’automatisation est élevé ou l’implémentation se fait via API (automatisation pondérée à plein, usage d’assistance pondéré à moitié)
    • les tâches impactées par l’IA représentent une part importante de l’ensemble du métier
  • L’écart entre la couverture théorique (bleu) et l’exposition observée réelle (rouge) est important : l’IA reste très en deçà de ses capacités théoriques
    • Professions de l’informatique et des mathématiques : couverture théorique 94 %, couverture réelle 33 %
    • Professions de bureau et d’administration : couverture théorique 90 %

Professions les plus exposées

  • Top 3 des 10 professions les plus exposées selon l’exposition observée :
    • Computer Programmers : couverture de 75 % (Claude est largement utilisé pour le codage)
    • Customer Service Representatives : les tâches principales progressent dans le trafic API first-party
    • Data Entry Keyers : l’automatisation est particulièrement marquée dans les tâches principales de lecture de documents source et de saisie de données, avec une couverture de 67 %
  • 30 % de l’ensemble des travailleurs ont une couverture de 0, leurs tâches n’atteignant pas le seuil minimal
    • Exemples de ce groupe : cuisiniers, mécaniciens moto, sauveteurs, barmen, plongeurs, employés de vestiaire

Relation entre exposition et prévisions d’emploi du BLS

  • En comparant les prévisions de croissance de l’emploi par profession du BLS pour 2024-2034 avec l’exposition observée, on constate que plus l’exposition est élevée, plus les perspectives de croissance sont faibles
  • Une hausse de 10 points de pourcentage de la couverture s’accompagne d’une baisse de 0,6 point des prévisions de croissance du BLS (selon une régression pondérée par niveau d’emploi)
  • Cette corrélation n’apparaît pas avec le seul indicateur théorique β d’Eloundou et al. → ce qui suggère que l’exposition observée est un indicateur prédictif plus pertinent de manière indépendante

Caractéristiques démographiques des travailleurs très exposés

  • Comparaison entre le quartile supérieur d’exposition et le groupe à 0 % d’exposition juste avant le lancement de ChatGPT (août-octobre 2022) :
    • le groupe très exposé a une probabilité supérieure de 16 points d’être féminin
    • une probabilité supérieure de 11 points d’être blanc, et une probabilité environ deux fois plus élevée d’être asiatique
    • un salaire moyen 47 % plus élevé
    • part des diplômés de troisième cycle : 4,5 % dans le groupe non exposé contre 17,4 % dans le groupe très exposé (près de 4x plus)

Résultats de l’analyse du chômage

  • Le taux de chômage a été choisi comme indicateur prioritaire de l’analyse car il capte le plus directement les personnes souhaitant travailler mais ne trouvant pas d’emploi
  • L’évolution du chômage depuis 2016 montre que pendant la période COVID-19, le chômage a beaucoup plus augmenté dans le groupe non exposé (plus concentré dans les métiers en présentiel)
  • Depuis le lancement de ChatGPT, l’évolution du chômage dans le groupe très exposé n’est pas statistiquement significative (légère hausse, mais indiscernable de zéro)
  • Exemples de scénarios détectables par ce cadre d’analyse :
    • si les 10 % les plus exposés étaient tous licenciés, le chômage de ce groupe passerait de 3 % à 43 %, et le chômage global de 4 % à 13 %
    • un scénario de « grande récession des cols blancs » (doublement du chômage du quartile supérieur, de 3 % à 6 %) pourrait lui aussi être détecté

Signes d’un ralentissement des embauches chez les jeunes

  • Brynjolfsson et al. (2025) estiment que l’emploi des 22-25 ans dans les professions très exposées a baissé de 6 à 16 %, principalement en raison d’une baisse des embauches plutôt que d’une hausse des licenciements
  • Dans cette étude, le taux de chômage des jeunes dans les professions très exposées reste lui-même stable
    • Une baisse des embauches peut ne pas apparaître dans le chômage : beaucoup de nouveaux entrants jeunes peuvent ne pas enregistrer de profession dans le CPS ou sortir du marché du travail
  • Les données de panel CPS servent à suivre séparément le taux de nouvelle embauche des 22-25 ans dans les professions à forte et faible exposition
    • à partir de 2024, le taux d’entrée dans les professions très exposées commence visuellement à reculer
    • le taux mensuel d’emploi dans les professions peu exposées reste stable à 2 %, tandis que le taux d’entrée dans les professions très exposées recule d’environ 0,5 point
    • estimation moyenne pour la période post-ChatGPT : baisse de 14 % du taux d’embauche dans les professions très exposées par rapport à 2022 (niveau à peine statistiquement significatif)
    • aucune baisse comparable n’est observée chez les travailleurs de plus de 25 ans
  • Une interprétation alternative reste possible : les jeunes non recrutés ont pu rester dans leur emploi précédent, choisir un autre métier ou reprendre des études

Limites de l’étude et plans à venir

  • L’indicateur d’Eloundou et al. actuellement utilisé doit être mis à jour, car il repose sur les capacités des LLM du début 2023
  • Anthropic prévoit de continuer à intégrer les données d’usage de Claude pour actualiser l’évolution de la couverture par tâche et par profession
  • Suivre la manière dont les jeunes diplômés récents titulaires de diplômes dans des domaines très exposés s’adaptent sur le marché du travail constitue une priorité majeure pour la suite
  • Ce cadre peut être étendu à d’autres données d’usage et aux contextes d’autres pays

1 commentaires

 
GN⁺ 2026-03-08
Avis sur Hacker News
  • J’ai travaillé dans la Big Tech pendant les dix dernières années, puis j’ai démissionné il y a un mois
    En travaillant hors de l’entreprise, j’ai l’impression que ma productivité a été multipliée par 50
    Quand on regarde l’impact de l’IA sur la productivité, les LLM sont forts pour (1) écrire du code boilerplate, (2) convertir du code d’un langage à un autre, (3) apprendre de nouveaux concepts et les résumer, (4) faire de la documentation
    Mais dans les grandes entreprises, ce genre de travail n’arrive pas si souvent. La plupart du temps est consacré aux réunions et à l’intégration des systèmes
    La seule fois où l’IA m’a vraiment aidé, c’était pendant des hackathons. Le reste du temps, elle m’a plutôt créé plus de travail
    En revanche, quand on travaille de manière indépendante, on ressent un gros gain de productivité sur les quatre points. On s’inquiète aussi moins des problèmes juridiques ou des bugs de déploiement
    Au final, selon « qui l’utilise », l’IA peut être ou non un game changer

    • Dans notre entreprise, on utilise l’IA pour presque tout le travail interne
      Mais si on donne à l’IA le root access sur sa vie, il ne reste que de la déception. L’IA a toujours besoin du contrôle de l’architecte
      Je laisse l’IA rédiger des e-mails, mais c’est moi qui les envoie. Je lui autorise l’accès aux données, mais je prends moi-même la décision finale
      Grâce aux leçons apprises à l’époque de MongoDB, j’aborde les nouvelles technologies avec prudence. En ce moment, je construis moi-même un wrapper en Elixir, et j’ai mis en place de l’automatisation avec Ash framework et Phoenix
      J’utilise plusieurs modèles en parallèle pour qu’aucune entreprise ne puisse tout savoir de mes données. Le vrai défi, c’est la vie privée
    • Pour avoir travaillé comme fondateur de startup et membre des débuts, je pense que les personnes qui n’ont connu que des parcours FAANG comprennent mal la productivité fondée sur l’ownership dans les petites équipes
    • Moi aussi, je m’appuie surtout sur (1) et (3). Les LLM ressemblent à une sorte de Stack Overflow amélioré
      Mais dans les grandes entreprises, l’écriture de code ne représente qu’environ 20 % du travail, donc les 80 % restants restent le véritable goulot d’étranglement
    • Au final, plus l’organisation grossit, plus le goulot d’étranglement vient du coût de coordination
    • C’est intéressant, mais je me demande si ça génère des revenus. Si ce n’est pas le cas, ce n’est que de la productivité de loisir, et il est difficile d’appeler ça la productivité du marché du travail
  • J’aimerais demander à ceux qui disent ne pas ressentir de gain de productivité avec l’IA : où ça bloque exactement ?
    J’ai décrit mon workflow dans un commentaire précédent, et même sur une base de code legacy, j’ai réduit de moitié le nombre d’étapes
    Maintenant, je n’écris presque plus de code moi-même, je me contente de relire les modifications proposées par le LLM. Les résultats sont terriblement bons

    • Les entreprises qui licencient n’ont aucune vision. Notre organisation à but non lucratif est au contraire en train de recruter
      Si le travail va plus vite, il suffit d’en faire plus. On réinjecte les revenus dans la communauté et on crée de la valeur réelle
    • Les LLM sont utiles pour le code boilerplate ou pour trouver un point de départ dans une base de code inconnue
      Mais sur du code complexe, ils finissent plutôt par provoquer une baisse de qualité. Si l’on veut du code maintenable, mieux vaut le faire soi-même
    • Sur cette release, j’ai implémenté des fonctionnalités avec Claude Code et Codex, et cela a conduit à une explosion de bugs
      L’implémentation initiale a été rapide, mais la phase de débogage risque d’être bien plus longue
    • J’ai confié à l’IA le nettoyage des feature flags, et elle a terminé en 15 minutes un travail qu’un humain fait en 3 minutes
      Elle a ignoré les consignes et a mis le bazar dans le nettoyage du code, ce qui a au final multiplié le coût par 5
      Cela dit, on m’a dit qu’il y avait eu des améliorations depuis décembre, donc je vais retenter
    • Le taux d’échec est beaucoup trop élevé. Dès qu’on dépasse le simple niveau CRUD, les hallucinations et la surproduction de code deviennent sévères
      Ça reste au niveau d’un remplaçant de Stack Overflow
  • Je m’occupe davantage de l’exploitation et de la maintenance que de l’écriture de code
    Jusqu’à présent, l’IA n’a quasiment eu aucun effet sur mon travail. Docker a au contraire apporté un changement bien plus important

    • L’IA, c’est au niveau des bons moteurs de recherche d’autrefois. Dans le développement de jeux, c’est presque inutile
      Elle se trompe même sur des fonctions de base et commet souvent des erreurs de logique
    • C’est similaire côté ops aussi. L’IA rédige les e-mails, mais l’ensemble du processus reste identique
      Des technologies comme le cloud, Terraform ou Ansible ont apporté des changements bien plus profonds
    • Cela ressemble au Productivity Paradox des années 80
      Comme dans l’article Wikipédia, on voit la technologie, mais elle n’apparaît pas encore dans les statistiques
    • Dans notre entreprise, avec l’adoption de l’IA, on en est à boucler une roadmap de six mois en quelques semaines
      On envisage désormais même une réduction des PM et engineering managers. C’est le plus grand changement de mes 35 ans de carrière
    • Moi aussi, ma productivité a augmenté, mais ma fatigue aussi
      Comme c’est une petite ONG, l’IA nous permet de traiter plus de travail avec les mêmes financements. Grâce à elle, la vitesse d’apprentissage et la qualité se sont aussi améliorées
      Mais la quantité de travail ne baisse pas. Au contraire, on en fait encore plus
  • En tant que développeur, ma productivité a doublé, mais la charge de travail reste la même
    Les attentes ont augmenté en même temps, donc au final seul le calendrier s’est compressé

    • Cela me rappelle la citation des cyclistes : « Ça ne devient jamais plus facile, ça va juste plus vite »
    • L’IA ne réduit pas le travail, elle remplace simplement un collègue
    • Le développement n’a jamais pris le dessus sur le backlog et la dette technique
    • Voir aussi le paradoxe de Jevons
    • L’objectif a toujours été d’en accomplir le plus possible dans le temps imparti
  • Le projet sur lequel je travaille actuellement est d’une ampleur que je n’aurais même pas tenté sans IA
    Mais je ne fais toujours pas totalement confiance aux sorties des LLM. J’ai même peur de lancer SwiftLint
    Malgré cela, la vitesse du projet a énormément augmenté. Ce qui prenait autrefois deux ans est maintenant achevé à plus de moitié en un mois

    • Je suis un vibe-coder, et j’ai déjà lancé plusieurs applis que j’utilise seul. Quand on est seul, c’est tout à fait faisable
    • Moi non plus, je ne fais pas totalement confiance aux LLM. C’est pourquoi je préfère des UX comme Cursor, où l’on peut relire soi-même les diff
    • Je me demande pourquoi vous n’utilisez pas une automatisation par hook pour que le code passe le linter
  • Je pense que l’impact réel de l’IA reste limité
    Ceux qui savent bien l’utiliser sont un peu plus productifs, mais s’ils le montrent, leur charge de travail est multipliée par 10
    Le vrai changement concerne surtout les développeurs indés ou freelances

    • Les entreprises arrêtent de recruter et augmentent seulement le budget tokens, sans que l’effet soit clair
    • Si tout le monde était 10 fois plus productif, on devrait voir des apps natives plutôt qu’Electron. Or ce n’est pas la réalité
    • J’aimerais observer l’évolution des chiffres après décembre 2025
  • Je ne fais pas confiance à ce que disent les entreprises qui vendent des produits d’IA

    • C’est ridicule qu’elles aient inventé de nouveaux indicateurs qui gonflent les perspectives à long terme de leur propre produit
    • Elles visent une IPO
    • Au final, ce genre de technologie finit comme un outil pour la prise de décision en entreprise, pas pour le grand public
  • Une collègue du marketing ne fait que du faux travail avec le LLM approuvé par l’entreprise (Gemini),
    et traite le vrai travail avec son compte personnel Claude
    parce qu’elle a peur que l’entreprise collecte ses prompts pour entraîner un modèle qui la remplacera

    • Mais en réalité, il est plus probable qu’un compte personnel soit utilisé pour l’entraînement. À moins d’avoir un compte entièrement payant, il n’y a pas d’option d’exclusion de l’apprentissage sur les prompts
  • L’entreprise a cessé de recruter des juniors
    Désormais, il est plus efficace de confier à l’IA les tâches qu’ils faisaient
    Cela dit, ce n’est qu’une phase d’ajustement temporaire. À l’avenir, quand la forme de l’expertise évoluera, les recrutements reprendront

    • Au contraire, il serait plus rationnel d’embaucher davantage de juniors peu coûteux qui savent bien manier l’IA
      Le problème, ce n’est pas l’IA, mais des facteurs macroéconomiques comme la structure des revenus
  • Je me demande s’ils n’ont pas estimé l’impact uniquement à partir de la fréquence d’exposition dans les logs de Claude
    Ce serait comme si un vendeur d’huile de serpent interrogeait ses propres clients pour conclure que « les médecins ne sont pas nécessaires »
    L’interprétation des données repose sur des prémisses totalement biaisées