L’industrie de l’IA découvre que le public la déteste
(newrepublic.com)- L’hostilité envers l’IA et les data centers s’est accentuée au point de se traduire par une violence à motivation politique, avec à la fois une attaque au cocktail Molotov contre le domicile du CEO d’une entreprise d’IA et une fusillade au domicile d’un conseiller municipal favorable à un data center
- L’écart entre l’optimisme des experts et la perception du public s’est aussi fortement creusé, la proportion de personnes voyant positivement les effets de long terme de l’IA sur l’emploi et l’économie étant bien plus faible dans le grand public
- Les visions extrêmes de l’avenir et les demandes d’investissements massifs se combinent déjà avec la précarité de l’emploi, la hausse du coût de la vie et les craintes sur les factures d’électricité, donnant l’impression que l’IA est imposée à un public qui n’en veut pas
- Les promesses de productivité n’ont pas encore été clairement démontrées : de nombreuses entreprises n’ont pas constaté d’amélioration après l’adoption de l’IA, et beaucoup de programmes pilotes ne génèrent pas de revenus
- Pour rétablir la confiance, les actes vérifiables, la transparence sur les performances réelles, l’acceptation de la régulation et des responsabilités, ainsi que la participation locale dans l’expansion des data centers deviennent plus importants que les livres blancs ou la communication
Montée du rejet et signes de violence
- La maison de Sam Altman, CEO d’OpenAI, a fait l’objet d’une attaque au cocktail Molotov, et le suspect a laissé un manifeste avertissant de la menace existentielle que représente l’IA
- Le suspect a été arrêté le jour même, et les détails figurent dans un article du SF Standard
- Le manifeste contenait un appel à tuer les CEO d’entreprises d’IA et indiquait qu’il se désignait sur Instagram comme un « butlerian jihadist »
- À Indianapolis, le domicile du conseiller municipal démocrate Ron Gibson a essuyé 13 coups de feu, avec un mot « No Data Centers » laissé devant la porte
- Son fils de 8 ans se trouvait dans la maison au moment des faits, mais n’a pas été blessé
- Gibson soutenait un projet de data center susceptible de s’implanter dans sa circonscription, comme le résume PBS NewsHour
- Les deux affaires sont décrites comme des actes de violence à motivation politique, et les réseaux sociaux ont même montré des réactions semblant s’en réjouir
- Un exemple est donné dans ce post sur X
Écart de perception entre le public et le secteur
- Le rapport Artificial Intelligence Index 2026 de Stanford met en évidence un large fossé entre l’optimisme des experts et la perception du public
- Concernant l’impact à long terme sur l’emploi, 73 % des experts se déclaraient positifs, et 69 % l’étaient aussi sur l’effet économique
- Dans le grand public, seuls 23 % et 21 % respectivement avaient une opinion positive sur ces mêmes points, et près des deux tiers des Américains pensent que l’IA réduira les emplois au cours des 20 prochaines années
- Une enquête Gallup de mars 2026 montre une hausse du scepticisme envers l’IA chez la Gen Z
- La part de ceux qui disent être enthousiastes à propos de l’IA est tombée de 36 % à 22 %
- La part de ceux qui disent ressentir de la colère envers l’IA est montée de 22 % à 31 %
- Cette tendance alimente un rejet qui voit l’IA non comme une technologie ordinaire, mais comme un projet politique des élites
- Jasmine Sun résume cela comme une vision du monde où des milliardaires déconnectés imposent l’IA à un public qui n’en veut pas
Le discours du secteur et les coûts réels qui ont nourri le rejet
- Les principaux CEO du secteur de l’IA mettent en avant depuis longtemps, alternativement, des visions extrêmes de l’avenir
- D’un côté, ils présentent la menace d’une IA capable d’anéantir l’humanité au moyen de superarmes biologiques
- De l’autre, ils diffusent l’idée que l’IA pourrait remplacer massivement les emplois ou, au final, produire une économie qui pousse tout le monde vers la gig economy
- Ce discours entre en collision avec les conditions de vie déjà précaires du grand public
- Le marché de l’emploi, notamment pour les nouveaux diplômés, est présenté comme très instable
- Les gains économiques se concentrent entre les mains du top 0,1 %, tandis que les prix de l’alimentation, du logement et de l’essence continuent d’augmenter
- Dans ce contexte, le secteur réclame en même temps des investissements colossaux et une forte expansion des data centers
- Le rapport de Stanford décrit une dynamique où le secteur demande des flux continus d’investissements de plusieurs centaines de milliards de dollars
- L’expansion des data centers affecte aussi les factures d’électricité locales, comme l’explique Brookings
- En Virginie, épicentre du boom américain des data centers, les factures d’électricité des ménages pourraient augmenter jusqu’à 25 % d’ici 2030, selon la Georgetown Environmental Law Review
L’écart entre les promesses de productivité et les résultats réels
- Ces coûts ne peuvent être acceptés que si l’IA apporte un bénéfice public concret ou une amélioration nette du travail, mais les preuves restent encore faibles
- Selon un article du NBER de février 2026, 80 % des entreprises ayant commencé à adopter activement l’IA déclarent qu’elle n’a eu aucun effet sur la productivité de l’entreprise
- Ces chiffres sont cités via un résumé de Tom's Hardware
- Une étude du MIT de 2025 indique que 95 % des programmes pilotes d’IA en entreprise n’ont généré aucun revenu
- Ces données figurent dans le State of AI in Business 2025 Report
- Même dans des domaines où l’attente est forte, comme le code et les tâches techniques, la vérifiabilité des chiffres de productivité vacille
- Dans un billet GitHub, l’ingénieur machine learning Han-Chung Lee souligne que, même si des chiffres positifs apparaissent en interne, ils peuvent être produits pour atteindre des objectifs d’adoption et restent difficiles à auditer efficacement de l’extérieur
- Cela dit, étant donné que ChatGPT n’est apparu comme premier grand exemple de démonstration publique qu’en novembre 2022, il est naturel qu’une nouvelle technologie traverse une phase d’adoption chaotique
Les conditions nécessaires pour rétablir la confiance, et les limites actuelles
- Le fossé entre l’expérience technologique ressentie par le public et la manière dont le secteur parle de lui-même produit déjà des effets visibles
- Aux États-Unis, près de la moitié des data centers prévus pour 2026 auraient été annulés ou retardés, selon TechRadar
- Des sondages montrent même que l’industrie de l’IA est plus impopulaire que l’ICE ou Donald Trump
- Les Big Tech commencent elles aussi à reconnaître les problèmes susceptibles de toucher le grand public et à proposer certaines mesures d’atténuation
- En avril, OpenAI a publié un Industrial Policy White Paper, évoquant notamment un Public Wealth Fund, une refonte du filet de sécurité sociale et une mesure en temps réel de l’impact de l’IA sur le travail
- En janvier, Microsoft a présenté sa Community-First AI Infrastructure Initiative, promettant des aides sur les services publics dans les zones accueillant des data centers et une réduction au minimum de l’usage de l’eau
- Mais un écart subsiste encore entre les promesses des communiqués et la capacité d’exécution sur le terrain
- La Community-First Initiative de Microsoft ne comprend pas de mécanisme indépendant de suivi des responsabilités
- Le nouveau livre blanc d’OpenAI semble aller vers une politique technologique plus progressiste, mais Greg Brockman a envoyé des millions de dollars à un SuperPAC visant à bloquer des régulations étatiques sur l’IA, comme le rapporte Fortune
- OpenAI soutient aussi le Senate Bill 3444 dans l’Illinois, présenté comme protégeant les entreprises contre les dommages massifs causés par des modèles d’IA
- Le même article indique qu’Anthropic s’oppose à ce texte
- En lien avec l’article du New Yorker de Ronan Farrow sur Sam Altman, un schéma récurrent est également mis en avant : afficher un soutien public, puis changer rapidement de cap lorsque cela devient favorable à l’entreprise
- Pour restaurer la confiance, il faut désormais davantage que de nouveaux livres blancs : il faut des actions durables et vérifiables
- Une véritable transparence est nécessaire sur ce que les produits peuvent réellement faire
- Il faut accepter une régulation significative et une responsabilité réelle, même si cela a un coût financier
- L’expansion des data centers doit s’accompagner d’une participation démocratique réelle des communautés locales
- Faute de quoi, la montée d’un populisme anti-IA et le risque de violence qui l’accompagne pourraient eux aussi s’intensifier
1 commentaires
Réactions sur Hacker News
Je pense qu’il faut au minimum distinguer trois critiques de l’IA et les discuter séparément. Les solutions ne sont pas les mêmes.
La première, c’est la perte d’emplois, et c’est relativement simple. Il faut partager les gains de productivité de l’IA avec l’ensemble de la société, d’autant plus que l’IA a été entraînée sur le travail produit par cette même société. Le moyen le plus simple serait selon moi de lever une taxe sur l’usage de l’IA pour la redistribuer sous forme de UBI. Si le revenu reste garanti malgré la perte d’un emploi, le mécontentement serait bien moindre.
La deuxième, c’est le coût environnemental, et c’est plus compliqué. L’essentiel, c’est d’améliorer l’efficacité et d’élargir l’usage des énergies propres ; la fiscalité et des règles d’efficacité pourraient être un point de départ. Les technologies énergétiques durables existent déjà, mais elles sont coûteuses, et si l’IA doit continuer à consommer d’énormes quantités d’électricité, alors il ne devrait pas y avoir de compromis sur ce point.
Le dernier point est le plus difficile. On ne sait pas à quel point il faut confier le travail créatif à l’IA, ni comment traiter les créations produites par l’IA.
Il y a aussi un problème lié à cela : l’IA peut se faire passer pour un humain et mener à grande échelle des arnaques et tromperies. Les dispositifs actuels partent du principe que beaucoup d’escroqueries demandent du temps et des efforts, mais cette hypothèse est en train de s’effondrer.
Selon moi, les data centers IA devraient tous fonctionner avec une production d’énergie durable autonome. Après des décennies à améliorer l’efficacité de l’électricité et de l’eau, il n’y a aucune raison de laisser quelques entreprises cupides tout absorber.
Ça sonnera peut-être comme une blague, mais j’aimerais que l’IA fasse la vaisselle et range le linge à ma place pendant que j’écris des livres et compose de la musique. Je ne veux pas l’inverse.
Je ne pense pas qu’une simple taxation des entreprises d’IA puisse couvrir un tel montant, et ceux qui parlent de revenu de base doivent prendre les chiffres beaucoup plus au sérieux. Ça ne ressemble pas à une solution réaliste.
Si jamais 50 % de la main-d’œuvre est réellement remplacée par l’IA, leur influence dépassera tout ce qu’on peut imaginer.
La technologie est encore loin d’y être, mais on peut imaginer comme exemple de production de masse version IA quelque chose comme l’automatisation de l’adaptation de romans en films. De tels changements peuvent donner plus de pouvoir aux individus, dégrader ou améliorer la qualité artistique, diviser la société ou au contraire la rapprocher.
[1]: https://en.wikipedia.org/wiki/Art_Deco#Late_Art_Deco
Voilà des années que les CEO de l’IA répètent l’IA fait peur, elle va prendre votre emploi.
« Mythos est trop dangereux pour être rendu public »
« On offrira une récompense si vous arrivez à tirer de ChatGPT une méthode de bioterrorisme »
« Les IA agentiques vont faire disparaître des catégories entières de métiers »
Ces messages semblent moins destinés au grand public qu’aux gouvernements et grands clients entreprises qui ont de l’argent, des coûts à réduire et des frontières à défendre ou à étendre.
Il n’y a rien d’étonnant à ce que les gens détestent l’IA. Elle a rarement été présentée comme un produit conçu pour eux.
En dehors du secteur de l’IA, cette évolution paraissait totalement prévisible. Les dirigeants du secteur parlaient de suppression de millions d’emplois, de refonte massive d’autres métiers, voire d’automatisation létale de la force, tout en affirmant qu’ils allaient continuer le développement quoi qu’il arrive.
Même l’instabilité économique récente et les licenciements de masse ont été attribués à l’IA par les dirigeants qui les mettaient en œuvre, tandis que les grandes entreprises de l’IA ont entraîné leurs modèles sans scrupule sur de la propriété intellectuelle avant d’imposer l’IA à tout le monde.
Il n’y a rien d’étrange à ce que le public déteste l’IA, et le secteur n’a pratiquement fait aucun effort pour se rendre sympathique.
Au fond, on a l’impression que les CEO de ces sociétés veulent seulement faire grossir leur entreprise, quel qu’en soit le coût social.
Sur un marché où tout le monde utilise la même huile de serpent, ça ne ressemble pas à un avantage différenciant, mais plutôt à une manière coûteuse d’obtenir quelque chose de moyen.
Qu’il s’agisse des boosters sur X, des profils type manager intermédiaire, des influenceurs IA sur LinkedIn ou des fabricants de fausses vidéos sur Facebook, on a l’impression que tout cela attire exactement le même genre de personnes.
Je ne suis pas sûr que ce soit vrai. Vendredi, j’ai assisté au travail à une présentation pro-IA, et ils expliquaient qu’après avoir interrogé les participants à une conférence IA, 93 % se disaient enthousiastes vis-à-vis de l’IA.
Ils le disaient très sérieusement, avec une expression du genre « les gens aiment les chiots, non ? ».
Le manque de conscience de soi m’a semblé énorme.
Presque personne ne veut se traîner une telle réputation, et c’est justement ce qui nourrit cette atmosphère d’inévitabilité selon laquelle cette technologie s’imposera, qu’on le veuille ou non.
Dans le contexte actuel du marché, combien de personnes se sentiraient vraiment à l’aise pour dire à leur patron ou en public : « l’IA, ça me paraît être pas mal de foutaises » ?
Si même les chiffres internes de productivité sont construits pour correspondre aux objectifs d’adoption et restent impossibles à vérifier de l’extérieur, alors ce n’est au fond pas très différent de ce que fait une grande partie de la BI façon MBA.
D’après mon expérience, la BI ressemblait souvent à un château de cartes, plus proche d’un exercice consistant à embellir un récit, comme on le ferait sur un CV.
Au final, on a souvent l’impression que l’unité de base de l’entreprise américaine consiste à produire le récit politique le plus convaincant possible.
À une époque où beaucoup ont déjà le sentiment que l’emploi est précaire, il est absurde de s’attendre à gagner l’affection du public après avoir dit : « nous allons supprimer ton travail et te rendre inutile ».
C’est encore pire si on ne propose pas d’autre voie d’accumulation de richesse, qu’on ne résout pas les problèmes économiques comme le logement ou la santé, et qu’on aggrave en plus la cohésion sociale et le prix de l’énergie.
Si le secteur continue à ignorer avec enthousiasme le rejet populaire de l’impact social de l’IA, il pourrait faire face à un retour de bâton encore plus fort que le sentiment antinucléaire après Tchernobyl.
Quand on regarde le sondage évoqué dans cet article, il y a très peu de sujets appréciés de manière générale parmi les personnes interrogées. L’IA est certes impopulaire, mais cela fait aussi partie d’une ambiance de détestation généralisée.
Les responsables politiques trouvent de l’argent pour la guerre et la destruction, mais se montrent radins sur les programmes sociaux, et la montée d’Internet rend à la fois plus facile et plus difficile de remettre en cause les récits établis.
Dans ce climat de confusion et d’anxiété, il n’est pas surprenant que le désir de trouver quelqu’un à blâmer grandisse.
J’aimerais au moins que ce type d’article reconnaisse davantage l’adoption massive chez les programmeurs. On est très loin d’un simple outil qui rédige occasionnellement des e-mails ; l’impact est déjà considérable dans le développement logiciel.
Décrire cela comme un outil mineur encore en phase de test revient à passer à côté de la réalité.
En particulier, le taux d’adoption peut être un indicateur dénué de sens. Il peut y avoir adoption forcée même si l’outil n’aide pas vraiment, ou même s’il aide, si son usage rend les gens misérables.
En plus, on accumule aussi une expertise debt dont on ne sait pas quelles seront les conséquences à long terme.
Pendant ce temps, le secteur de l’IA travaille activement à supprimer jusqu’à leurs emplois eux-mêmes.
Pour beaucoup de gens, l’IA, c’est simplement la génération d’images et la génération de texte. Et si l’on se limite à ces usages, il est compréhensible de juger qu’ils ne valent ni le temps, ni l’argent, ni l’énergie investis.
Mais dans des domaines moins visibles du grand public, par exemple la médecine, l’IA aide réellement dans certains cas. C’est le cas pour la découverte de médicaments, la recherche sur le cancer et sa détection précoce, ou encore l’analyse des CT et des MRI ; ces usages sont bien plus importants, mais on en parle peu.
Si l’on considère l’IA comme une seule chose monolithique, on risque de jeter aussi les bons aspects.
Dire que les usages médicaux sont plus importants est aussi un peu à côté de la plaque. Bien sûr qu’aider à soigner quelqu’un est plus important que lui gâcher la vie, mais cela n’efface pas pour autant les autres nuisances de l’IA.
Être critique envers l’IA ne veut pas dire qu’on souhaite supprimer aussi ses aspects positifs.
L’IA est vendue ouvertement par les gens du secteur comme un outil destiné à remplacer votre travail. Dans ce cas, soit ils sont catastrophiques en marketing, soit les bénéfices dans les autres secteurs sont minimes ou incapables de créer de la valeur pour les actionnaires.
Si l’IA produit réellement des avancées significatives dans ces domaines, on pourra alors en parler sérieusement. Les plus grands candidats au titre d’innovation médicale du XXIe siècle, comme mRNA ou GLP-1, ne sont pas, à ma connaissance, des cas où les LLM ont joué un rôle central.
Tant que de tels résultats n’existent pas concrètement, cet argument relève davantage de la fanfiction ; et, pour le dire plus crûment, quand les gens perdent leur emploi, que la fiabilité de l’information s’effondre et que tout se remplit de slop, on peut aussi se demander à quoi bon vivre plus longtemps. Ce n’est pas une projection futuriste, c’est un dommage déjà bien réel.
C’est de là que vient tout le récit des milliers de milliards de dollars de revenus.
D’après les personnes non issues de la tech avec qui je parle, une grande partie du public déteste simplement l’IA. Au contraire, cela ressemble plutôt à un jugement de bon sens.
Personnellement, je trouve que l’abonnement à Gemini Ultra vaut son prix, et j’éprouve aussi un vrai plaisir et un intérêt intellectuel à manipuler des API puissantes chez AntiGravity, ou à utiliser les modèles Claude, l’app Gemini et NotebookLM.
Mais si la question est de savoir si cela justifie les coûts sociaux — le coût des data centers, ou la possibilité d’un sauvetage public des géants américains de l’IA — alors je ne peux pas le défendre.
En réalité, la Chine semble plutôt en train de nous dépasser. La stratégie gagnante a l’air d’être de produire une IA moins chère, et GLM-5.1 ainsi que Deepseek v4 sont remarquablement efficaces au regard de leur coût d’inférence bien plus faible.