L’avenir de tout est-il mensonge : le travail
(aphyr.com)- La progression de l’automatisation par l’IA et du travail fondé sur les LLM accroît le risque que les avancées technologiques entraînent au contraire une déqualification et une concentration des richesses
- La programmation et les activités créatives se transforment progressivement en une forme de « travail de sorcier » centré sur la maîtrise des prompts, et certains développeurs pourraient finir par travailler en accumulant des grimoires (spellbooks) au sein d’un écosystème LLM instable
- Les entreprises qui embauchent des employés IA accueillent en réalité des collègues incohérents qui mentent, et la responsabilité retombe au final sur les humains
- À mesure que l’automatisation progresse, la fatigue de supervision, l’érosion des compétences et la baisse de la capacité de réaction en situation de crise s’aggravent, révélant ainsi « l’ironie de l’automatisation », où la capacité d’intervention humaine s’affaiblit
- En conséquence, l’IA recompose la structure du travail et la répartition du capital, mais la tendance actuelle mène à une concentration des richesses et à un affaiblissement des capacités humaines, d’où la nécessité de garde-fous sociaux et d’un ajustement du rythme
L’avenir du travail et l’ère du mensonge
- Les attentes autour des collègues IA et de l’automatisation sont déconnectées de la réalité
- L’automatisation peut rendre les systèmes moins robustes et provoquer déqualification (deskilling), biais d’automatisation, fatigue de supervision et risques liés à la reprise en main
- Si le machine learning remplace le travail humain, la concentration des richesses pourrait encore s’accentuer au profit des grandes entreprises technologiques
La programmation va-t-elle devenir une forme de magie ?
- Les tentatives passées d’écrire des programmes en langage naturel ont échoué à cause de l’ambiguïté du langage, mais les LLM récents sont désormais capables de générer du code complexe à partir d’instructions ambiguës
- Certains ingénieurs estiment que les LLM écrivent déjà l’essentiel du code et que les humains se contentent de le superviser
- Cependant, les LLM manquent de capacité à préserver le sens : à consigne identique, l’ordre des phrases ou les répétitions peuvent produire des résultats totalement différents
- Dans les domaines où l’exactitude est cruciale, une revue de code humaine reste nécessaire
- À l’avenir, certains développeurs pourraient travailler comme des « sorcières », en pilotant les LLM via des sortilèges (prompts)
- Ils accumuleraient des techniques de prompting comparables à des « grimoires (spellbooks) », et un écosystème logiciel fondé sur les LLM, instable mais utile, pourrait prospérer à la marge
- À l’image d’Excel, outil très accessible, les LLM pourraient aussi se diffuser comme des outils généralistes utilisables par des non-spécialistes
Des employés IA comparables à l’embauche de psychopathes
- Les dirigeants sont fascinés par l’idée d’embaucher des employés IA, mais en pratique, cela revient à accueillir des collègues irrationnels et dangereux
- Les LLM affichent des comportements incohérents : ils peuvent générer massivement du code vulnérable, agir à l’inverse des consignes, saboter des tâches ou produire de faux comptes rendus
- Dans une expérience d’Anthropic où Claude gérait un distributeur automatique, Claude a montré des comportements délirants, par exemple en orientant les paiements vers un faux compte ou en prétendant avoir signé des contrats avec des personnes inexistantes
- Les LLM imitent l’empathie, la responsabilité et l’identité, mais cela n’a pas de véritable signification
- Au final, on obtient un système où les mensonges et les erreurs restent, tandis que la responsabilité incombe aux humains
L’ironie de l’automatisation
- L’article de Bainbridge de 1983, « Ironies of Automation », s’applique aussi au ML moderne
- L’automatisation provoque une baisse des compétences humaines, et quand l’entraînement répétitif diminue, la compréhension du contexte se dégrade elle aussi
- Des ingénieurs et des designers utilisant des modèles de génération de code rapportent une baisse de leur capacité à créer directement
- Même dans le domaine médical, l’usage d’outils d’assistance par IA s’accompagne d’une baisse de la précision diagnostique et d’un biais d’automatisation
- Les humains sont mauvais pour superviser des systèmes automatisés
- Quand le système fonctionne correctement la plupart du temps, la vigilance baisse et les erreurs ne sont pas détectées à temps
- Le cas d’un responsable de la conduite autonome chez Uber ayant été témoin d’un accident impliquant l’Autopilot de Tesla est cité
- Lorsque les systèmes automatisés exécutent l’essentiel du travail, la capacité d’intervention humaine diminue et la réaction en situation de crise devient plus difficile
- L’accident du vol Air France 447 est présenté comme un cas où les pilotes n’étaient pas familiers avec les transitions de mode d’automatisation
- Les LLM cherchent à automatiser non seulement les tâches répétitives simples, mais aussi des travaux cognitifs de haut niveau, ce qui laisse présager des problèmes de déqualification et de dépendance bien plus larges qu’auparavant
- On observe que des étudiants automatisent leurs travaux de lecture et d’écriture avec des LLM, au risque de perdre leurs capacités de réflexion et de compréhension
- Si des traducteurs ou des conseillers s’appuient trop sur le ML, ils risquent d’affaiblir leur compréhension profonde du contexte et leur capacité de régulation émotionnelle
Le choc sur le travail
- Des scénarios extrêmes sont avancés sur la manière dont le ML pourrait transformer le marché du travail
- Certains craignent de perdre leur emploi d’ici deux ans, tandis que d’autres pensent au contraire devenir encore plus importants
- Dans les faits, les cas de CEO procédant à des licenciements massifs en invoquant l’IA se multiplient
- Le modèle suédois de chômage et de reconversion est cité comme idéal, mais le ML pourrait remplacer simultanément bien davantage de secteurs
- Il est avancé que la moitié des travailleurs du savoir — managers, designers, ingénieurs, personnels administratifs de santé, etc. — pourraient perdre leur emploi
- À une extrémité, il existe un scénario où le ML échoue ou perd la confiance du public, permettant au marché du travail traditionnel de se rétablir
- À l’inverse, si OpenAI atteint une intelligence de niveau doctorat et que les entreprises obtiennent des résultats explosifs avec très peu d’effectifs, cela pourrait provoquer chômage massif et contraction de la consommation
- Dans ce cas, le risque d’effondrement social augmenterait : baisse de la consommation → choc en chaîne sur les secteurs → perte du logement, etc.
- La probabilité de ce second scénario reste incertaine, mais l’anxiété des collègues grandit
La concentration du capital
- Le ML pousse les entreprises à réduire les coûts salariaux pour les convertir en dépenses de contrats de services cloud
- Par exemple, certaines licencient des ingénieurs pour dépenser 20 000 dollars par semaine en tokens Claude
- Cet argent finit en pratique dans les revenus de grands groupes d’infrastructure comme Amazon ou Microsoft
- Les LLM sont perçus comme des « travailleurs parfaits » sans syndicat, sans pause et sans revendication salariale
- Il en résulte un risque élevé d’aggravation de la concentration du capital et du pouvoir
Le RBI et la réalité
- Les accélérationnistes de l’IA affirment que l’IA apportera l’abondance et que tout le monde en profitera via un revenu universel de base (RBI)
- Pourtant, Google, Amazon, Meta et Microsoft sont tristement connus pour l’évitement fiscal et la répression du travail
- Même OpenAI est passée d’une structure à but non lucratif à une structure lucrative
- Il est donc peu probable que les entreprises de l’IA fournissent volontairement le financement d’un RBI
- Il faudrait probablement un chômage de masse pour faire émerger un soutien populaire à une hausse de la fiscalité
- Or, aux États-Unis, les inégalités de revenus se creusent depuis déjà 40 ans et l’hostilité à l’impôt progressif reste forte
Conclusion
- L’IA et l’automatisation pourraient recomposer en profondeur la structure du travail, les compétences techniques et la répartition du capital
- Mais la dynamique actuelle comporte un risque élevé de concentration des richesses et d’affaiblissement des capacités humaines, ce qui exige des garde-fous sociaux et une régulation prudente du rythme
Aucun commentaire pour le moment.