- Ce que l’IA menace le plus, ce ne sont pas les emplois à bas revenus, mais les postes hautement qualifiés et bien rémunérés : l’impact de l’IA frappe d’abord non pas les « emplois faciles », mais les « bons emplois »
- Les programmeurs sont la profession la plus exposée. Avec une couverture de 75 %, ils arrivent en tête de l’ensemble des métiers ; paradoxe, ceux qui utilisent le plus les agents de codage sont justement les développeurs eux-mêmes
- Personne n’est encore licencié à cause de l’IA, mais la porte de l’embauche des juniors se referme discrètement : l’IA remplace les humains non pas en supprimant les employés actuels, mais en réduisant les nouveaux recrutements
- La plupart des tâches que l’IA pourrait théoriquement remplacer ne le sont pas encore en pratique : pour les métiers de l’informatique et des mathématiques, la couverture théorique est de 94 %, mais la couverture réelle n’est que de 33 %. Un avertissement sur l’ampleur du terrain encore à couvrir
- Les femmes et les diplômés du supérieur sont davantage exposés au risque de substitution par l’IA, avec une proportion de femmes supérieure de 16 points. On pense souvent que l’IA menace surtout les « emplois masculins de cols bleus », mais les données montrent l’inverse
Principales conclusions (Key Findings)
- L’« exposition observée » (observed exposure) est un indicateur qui combine les capacités théoriques des LLM et les données d’usage réelles pour mesurer le niveau d’utilisation des tâches orientée vers l’automatisation
- Un poids plus élevé est attribué aux usages automatisés et aux usages liés au travail
- L’usage réel de l’IA ne représente qu’une partie de son potentiel théorique, et la part des tâches que l’IA peut effectuer effectivement utilisées reste faible
- Plus une profession a un niveau d’exposition élevé, plus les prévisions de croissance de l’emploi d’ici 2034 du Bureau of Labor Statistics (BLS) américain sont faibles
- Les travailleurs des professions très exposées ont en moyenne une part plus élevée de femmes, un niveau d’études plus élevé, des salaires plus élevés et un âge plus avancé
- Depuis fin 2022, aucune preuve d’une hausse systématique du chômage n’a été observée, mais un ralentissement des embauches de jeunes actifs a été constaté
Contexte et objectif de l’étude
- Les recherches visant à mesurer et prévoir l’impact de l’IA sur le marché du travail se multiplient, mais la précision prédictive des approches passées avait ses limites
- Exemple typique : environ 25 % des emplois classés comme vulnérables à l’offshoring affichaient encore une solide croissance de l’emploi dix ans plus tard
- Les études sur l’impact des robots industriels sur l’emploi aboutissent à des conclusions contradictoires, et l’ampleur des pertes d’emplois liées au choc commercial chinois reste débattue
- L’objectif de cette étude est d’établir une approche pour mesurer l’impact de l’IA sur l’emploi et d’actualiser régulièrement l’analyse à mesure que de nouvelles données apparaissent
- En mettant en place un cadre d’analyse avant que l’impact de l’IA ne devienne évident, il devient possible d’identifier les perturbations économiques de manière plus fiable qu’avec une analyse a posteriori
Inférence causale et contrefactuels (Counterfactuals)
- Quand les effets sont massifs et soudains, comme avec le COVID-19, l’inférence causale est plus simple ; mais l’impact de l’IA pourrait, comme la diffusion d’Internet ou le choc commercial chinois, ne pas apparaître immédiatement dans les données agrégées
- L’approche générale consiste à comparer les résultats de professions fortement exposées à l’IA avec ceux de professions peu exposées afin d’isoler l’effet de l’IA des variables confondantes
- Cette étude suit elle aussi une approche fondée sur les tâches, en combinant une mesure des capacités théoriques de l’IA et des données d’usage réelles, agrégées au niveau des professions
Méthode de mesure de l’exposition
- Combinaison de trois sources de données :
- Base de données O*NET : liste des tâches associées à environ 800 professions aux États-Unis
- Données réelles d’usage de Claude issues de l’Anthropic Economic Index
- Estimations de l’exposition théorique par tâche (β) d’Eloundou et al. (2023) : si un LLM peut accélérer une tâche d’au moins 2x, la valeur est 1 ; si des outils supplémentaires sont nécessaires, 0,5 ; si ce n’est pas possible, 0
- Parmi les raisons pour lesquelles des tâches théoriquement possibles n’apparaissent pas dans l’usage réel : limites du modèle, contraintes juridiques, exigences logicielles, étapes de validation humaine, etc.
- Exemple : « transmettre des informations de prescription à la pharmacie et approuver un renouvellement de médicament » a une exposition théorique β=1, mais n’apparaît pas dans l’usage réel de Claude
- L’exposition théorique et l’usage réel sont fortement corrélés, et 97 % des tâches observées dans les quatre précédents rapports de l’Economic Index relevaient des catégories β=0,5 ou β=1
Indicateur d’exposition observée (Observed Exposure)
- L’exposition observée quantifie, parmi les tâches que les LLM peuvent théoriquement accélérer, la proportion effectivement utilisée sous forme automatisée dans un contexte de travail réel
- Conditions qui augmentent l’exposition d’une profession :
- la tâche est théoriquement réalisable par l’IA et présente une fréquence d’usage significative dans l’Anthropic Economic Index
- l’usage se produit dans un contexte lié au travail
- le taux d’automatisation est élevé ou l’implémentation se fait via API (automatisation pondérée à plein, usage d’assistance pondéré à moitié)
- les tâches impactées par l’IA représentent une part importante de l’ensemble du métier
- L’écart entre la couverture théorique (bleu) et l’exposition observée réelle (rouge) est important : l’IA reste très en deçà de ses capacités théoriques
- Professions de l’informatique et des mathématiques : couverture théorique 94 %, couverture réelle 33 %
- Professions de bureau et d’administration : couverture théorique 90 %
Professions les plus exposées
- Top 3 des 10 professions les plus exposées selon l’exposition observée :
- Computer Programmers : couverture de 75 % (Claude est largement utilisé pour le codage)
- Customer Service Representatives : les tâches principales progressent dans le trafic API first-party
- Data Entry Keyers : l’automatisation est particulièrement marquée dans les tâches principales de lecture de documents source et de saisie de données, avec une couverture de 67 %
- 30 % de l’ensemble des travailleurs ont une couverture de 0, leurs tâches n’atteignant pas le seuil minimal
- Exemples de ce groupe : cuisiniers, mécaniciens moto, sauveteurs, barmen, plongeurs, employés de vestiaire
Relation entre exposition et prévisions d’emploi du BLS
- En comparant les prévisions de croissance de l’emploi par profession du BLS pour 2024-2034 avec l’exposition observée, on constate que plus l’exposition est élevée, plus les perspectives de croissance sont faibles
- Une hausse de 10 points de pourcentage de la couverture s’accompagne d’une baisse de 0,6 point des prévisions de croissance du BLS (selon une régression pondérée par niveau d’emploi)
- Cette corrélation n’apparaît pas avec le seul indicateur théorique β d’Eloundou et al. → ce qui suggère que l’exposition observée est un indicateur prédictif plus pertinent de manière indépendante
Caractéristiques démographiques des travailleurs très exposés
- Comparaison entre le quartile supérieur d’exposition et le groupe à 0 % d’exposition juste avant le lancement de ChatGPT (août-octobre 2022) :
- le groupe très exposé a une probabilité supérieure de 16 points d’être féminin
- une probabilité supérieure de 11 points d’être blanc, et une probabilité environ deux fois plus élevée d’être asiatique
- un salaire moyen 47 % plus élevé
- part des diplômés de troisième cycle : 4,5 % dans le groupe non exposé contre 17,4 % dans le groupe très exposé (près de 4x plus)
Résultats de l’analyse du chômage
- Le taux de chômage a été choisi comme indicateur prioritaire de l’analyse car il capte le plus directement les personnes souhaitant travailler mais ne trouvant pas d’emploi
- L’évolution du chômage depuis 2016 montre que pendant la période COVID-19, le chômage a beaucoup plus augmenté dans le groupe non exposé (plus concentré dans les métiers en présentiel)
- Depuis le lancement de ChatGPT, l’évolution du chômage dans le groupe très exposé n’est pas statistiquement significative (légère hausse, mais indiscernable de zéro)
- Exemples de scénarios détectables par ce cadre d’analyse :
- si les 10 % les plus exposés étaient tous licenciés, le chômage de ce groupe passerait de 3 % à 43 %, et le chômage global de 4 % à 13 %
- un scénario de « grande récession des cols blancs » (doublement du chômage du quartile supérieur, de 3 % à 6 %) pourrait lui aussi être détecté
Signes d’un ralentissement des embauches chez les jeunes
- Brynjolfsson et al. (2025) estiment que l’emploi des 22-25 ans dans les professions très exposées a baissé de 6 à 16 %, principalement en raison d’une baisse des embauches plutôt que d’une hausse des licenciements
- Dans cette étude, le taux de chômage des jeunes dans les professions très exposées reste lui-même stable
- Une baisse des embauches peut ne pas apparaître dans le chômage : beaucoup de nouveaux entrants jeunes peuvent ne pas enregistrer de profession dans le CPS ou sortir du marché du travail
- Les données de panel CPS servent à suivre séparément le taux de nouvelle embauche des 22-25 ans dans les professions à forte et faible exposition
- à partir de 2024, le taux d’entrée dans les professions très exposées commence visuellement à reculer
- le taux mensuel d’emploi dans les professions peu exposées reste stable à 2 %, tandis que le taux d’entrée dans les professions très exposées recule d’environ 0,5 point
- estimation moyenne pour la période post-ChatGPT : baisse de 14 % du taux d’embauche dans les professions très exposées par rapport à 2022 (niveau à peine statistiquement significatif)
- aucune baisse comparable n’est observée chez les travailleurs de plus de 25 ans
- Une interprétation alternative reste possible : les jeunes non recrutés ont pu rester dans leur emploi précédent, choisir un autre métier ou reprendre des études
Limites de l’étude et plans à venir
- L’indicateur d’Eloundou et al. actuellement utilisé doit être mis à jour, car il repose sur les capacités des LLM du début 2023
- Anthropic prévoit de continuer à intégrer les données d’usage de Claude pour actualiser l’évolution de la couverture par tâche et par profession
- Suivre la manière dont les jeunes diplômés récents titulaires de diplômes dans des domaines très exposés s’adaptent sur le marché du travail constitue une priorité majeure pour la suite
- Ce cadre peut être étendu à d’autres données d’usage et aux contextes d’autres pays
1 commentaires
Avis sur Hacker News
J’ai travaillé dans la Big Tech pendant les dix dernières années, puis j’ai démissionné il y a un mois
En travaillant hors de l’entreprise, j’ai l’impression que ma productivité a été multipliée par 50
Quand on regarde l’impact de l’IA sur la productivité, les LLM sont forts pour (1) écrire du code boilerplate, (2) convertir du code d’un langage à un autre, (3) apprendre de nouveaux concepts et les résumer, (4) faire de la documentation
Mais dans les grandes entreprises, ce genre de travail n’arrive pas si souvent. La plupart du temps est consacré aux réunions et à l’intégration des systèmes
La seule fois où l’IA m’a vraiment aidé, c’était pendant des hackathons. Le reste du temps, elle m’a plutôt créé plus de travail
En revanche, quand on travaille de manière indépendante, on ressent un gros gain de productivité sur les quatre points. On s’inquiète aussi moins des problèmes juridiques ou des bugs de déploiement
Au final, selon « qui l’utilise », l’IA peut être ou non un game changer
Mais si on donne à l’IA le root access sur sa vie, il ne reste que de la déception. L’IA a toujours besoin du contrôle de l’architecte
Je laisse l’IA rédiger des e-mails, mais c’est moi qui les envoie. Je lui autorise l’accès aux données, mais je prends moi-même la décision finale
Grâce aux leçons apprises à l’époque de MongoDB, j’aborde les nouvelles technologies avec prudence. En ce moment, je construis moi-même un wrapper en Elixir, et j’ai mis en place de l’automatisation avec Ash framework et Phoenix
J’utilise plusieurs modèles en parallèle pour qu’aucune entreprise ne puisse tout savoir de mes données. Le vrai défi, c’est la vie privée
Mais dans les grandes entreprises, l’écriture de code ne représente qu’environ 20 % du travail, donc les 80 % restants restent le véritable goulot d’étranglement
J’aimerais demander à ceux qui disent ne pas ressentir de gain de productivité avec l’IA : où ça bloque exactement ?
J’ai décrit mon workflow dans un commentaire précédent, et même sur une base de code legacy, j’ai réduit de moitié le nombre d’étapes
Maintenant, je n’écris presque plus de code moi-même, je me contente de relire les modifications proposées par le LLM. Les résultats sont terriblement bons
Si le travail va plus vite, il suffit d’en faire plus. On réinjecte les revenus dans la communauté et on crée de la valeur réelle
Mais sur du code complexe, ils finissent plutôt par provoquer une baisse de qualité. Si l’on veut du code maintenable, mieux vaut le faire soi-même
L’implémentation initiale a été rapide, mais la phase de débogage risque d’être bien plus longue
Elle a ignoré les consignes et a mis le bazar dans le nettoyage du code, ce qui a au final multiplié le coût par 5
Cela dit, on m’a dit qu’il y avait eu des améliorations depuis décembre, donc je vais retenter
Ça reste au niveau d’un remplaçant de Stack Overflow
Je m’occupe davantage de l’exploitation et de la maintenance que de l’écriture de code
Jusqu’à présent, l’IA n’a quasiment eu aucun effet sur mon travail. Docker a au contraire apporté un changement bien plus important
Elle se trompe même sur des fonctions de base et commet souvent des erreurs de logique
Des technologies comme le cloud, Terraform ou Ansible ont apporté des changements bien plus profonds
Comme dans l’article Wikipédia, on voit la technologie, mais elle n’apparaît pas encore dans les statistiques
On envisage désormais même une réduction des PM et engineering managers. C’est le plus grand changement de mes 35 ans de carrière
Comme c’est une petite ONG, l’IA nous permet de traiter plus de travail avec les mêmes financements. Grâce à elle, la vitesse d’apprentissage et la qualité se sont aussi améliorées
Mais la quantité de travail ne baisse pas. Au contraire, on en fait encore plus
En tant que développeur, ma productivité a doublé, mais la charge de travail reste la même
Les attentes ont augmenté en même temps, donc au final seul le calendrier s’est compressé
Le projet sur lequel je travaille actuellement est d’une ampleur que je n’aurais même pas tenté sans IA
Mais je ne fais toujours pas totalement confiance aux sorties des LLM. J’ai même peur de lancer SwiftLint
Malgré cela, la vitesse du projet a énormément augmenté. Ce qui prenait autrefois deux ans est maintenant achevé à plus de moitié en un mois
Je pense que l’impact réel de l’IA reste limité
Ceux qui savent bien l’utiliser sont un peu plus productifs, mais s’ils le montrent, leur charge de travail est multipliée par 10
Le vrai changement concerne surtout les développeurs indés ou freelances
Je ne fais pas confiance à ce que disent les entreprises qui vendent des produits d’IA
Une collègue du marketing ne fait que du faux travail avec le LLM approuvé par l’entreprise (Gemini),
et traite le vrai travail avec son compte personnel Claude
parce qu’elle a peur que l’entreprise collecte ses prompts pour entraîner un modèle qui la remplacera
L’entreprise a cessé de recruter des juniors
Désormais, il est plus efficace de confier à l’IA les tâches qu’ils faisaient
Cela dit, ce n’est qu’une phase d’ajustement temporaire. À l’avenir, quand la forme de l’expertise évoluera, les recrutements reprendront
Le problème, ce n’est pas l’IA, mais des facteurs macroéconomiques comme la structure des revenus
Je me demande s’ils n’ont pas estimé l’impact uniquement à partir de la fréquence d’exposition dans les logs de Claude
Ce serait comme si un vendeur d’huile de serpent interrogeait ses propres clients pour conclure que « les médecins ne sont pas nécessaires »
L’interprétation des données repose sur des prémisses totalement biaisées