3 points par GN⁺ 3 일 전 | 1 commentaires | Partager sur WhatsApp
  • L’hostilité envers l’IA et les data centers s’est accentuée au point de se traduire par une violence à motivation politique, avec à la fois une attaque au cocktail Molotov contre le domicile du CEO d’une entreprise d’IA et une fusillade au domicile d’un conseiller municipal favorable à un data center
  • L’écart entre l’optimisme des experts et la perception du public s’est aussi fortement creusé, la proportion de personnes voyant positivement les effets de long terme de l’IA sur l’emploi et l’économie étant bien plus faible dans le grand public
  • Les visions extrêmes de l’avenir et les demandes d’investissements massifs se combinent déjà avec la précarité de l’emploi, la hausse du coût de la vie et les craintes sur les factures d’électricité, donnant l’impression que l’IA est imposée à un public qui n’en veut pas
  • Les promesses de productivité n’ont pas encore été clairement démontrées : de nombreuses entreprises n’ont pas constaté d’amélioration après l’adoption de l’IA, et beaucoup de programmes pilotes ne génèrent pas de revenus
  • Pour rétablir la confiance, les actes vérifiables, la transparence sur les performances réelles, l’acceptation de la régulation et des responsabilités, ainsi que la participation locale dans l’expansion des data centers deviennent plus importants que les livres blancs ou la communication

Montée du rejet et signes de violence

  • La maison de Sam Altman, CEO d’OpenAI, a fait l’objet d’une attaque au cocktail Molotov, et le suspect a laissé un manifeste avertissant de la menace existentielle que représente l’IA
    • Le suspect a été arrêté le jour même, et les détails figurent dans un article du SF Standard
    • Le manifeste contenait un appel à tuer les CEO d’entreprises d’IA et indiquait qu’il se désignait sur Instagram comme un « butlerian jihadist »
  • À Indianapolis, le domicile du conseiller municipal démocrate Ron Gibson a essuyé 13 coups de feu, avec un mot « No Data Centers » laissé devant la porte
    • Son fils de 8 ans se trouvait dans la maison au moment des faits, mais n’a pas été blessé
    • Gibson soutenait un projet de data center susceptible de s’implanter dans sa circonscription, comme le résume PBS NewsHour
  • Les deux affaires sont décrites comme des actes de violence à motivation politique, et les réseaux sociaux ont même montré des réactions semblant s’en réjouir

Écart de perception entre le public et le secteur

  • Le rapport Artificial Intelligence Index 2026 de Stanford met en évidence un large fossé entre l’optimisme des experts et la perception du public
    • Concernant l’impact à long terme sur l’emploi, 73 % des experts se déclaraient positifs, et 69 % l’étaient aussi sur l’effet économique
    • Dans le grand public, seuls 23 % et 21 % respectivement avaient une opinion positive sur ces mêmes points, et près des deux tiers des Américains pensent que l’IA réduira les emplois au cours des 20 prochaines années
  • Une enquête Gallup de mars 2026 montre une hausse du scepticisme envers l’IA chez la Gen Z
    • La part de ceux qui disent être enthousiastes à propos de l’IA est tombée de 36 % à 22 %
    • La part de ceux qui disent ressentir de la colère envers l’IA est montée de 22 % à 31 %
  • Cette tendance alimente un rejet qui voit l’IA non comme une technologie ordinaire, mais comme un projet politique des élites
    • Jasmine Sun résume cela comme une vision du monde où des milliardaires déconnectés imposent l’IA à un public qui n’en veut pas

Le discours du secteur et les coûts réels qui ont nourri le rejet

  • Les principaux CEO du secteur de l’IA mettent en avant depuis longtemps, alternativement, des visions extrêmes de l’avenir
  • Ce discours entre en collision avec les conditions de vie déjà précaires du grand public
    • Le marché de l’emploi, notamment pour les nouveaux diplômés, est présenté comme très instable
    • Les gains économiques se concentrent entre les mains du top 0,1 %, tandis que les prix de l’alimentation, du logement et de l’essence continuent d’augmenter
  • Dans ce contexte, le secteur réclame en même temps des investissements colossaux et une forte expansion des data centers
    • Le rapport de Stanford décrit une dynamique où le secteur demande des flux continus d’investissements de plusieurs centaines de milliards de dollars
    • L’expansion des data centers affecte aussi les factures d’électricité locales, comme l’explique Brookings
    • En Virginie, épicentre du boom américain des data centers, les factures d’électricité des ménages pourraient augmenter jusqu’à 25 % d’ici 2030, selon la Georgetown Environmental Law Review

L’écart entre les promesses de productivité et les résultats réels

  • Ces coûts ne peuvent être acceptés que si l’IA apporte un bénéfice public concret ou une amélioration nette du travail, mais les preuves restent encore faibles
  • Selon un article du NBER de février 2026, 80 % des entreprises ayant commencé à adopter activement l’IA déclarent qu’elle n’a eu aucun effet sur la productivité de l’entreprise
  • Une étude du MIT de 2025 indique que 95 % des programmes pilotes d’IA en entreprise n’ont généré aucun revenu
  • Même dans des domaines où l’attente est forte, comme le code et les tâches techniques, la vérifiabilité des chiffres de productivité vacille
    • Dans un billet GitHub, l’ingénieur machine learning Han-Chung Lee souligne que, même si des chiffres positifs apparaissent en interne, ils peuvent être produits pour atteindre des objectifs d’adoption et restent difficiles à auditer efficacement de l’extérieur
  • Cela dit, étant donné que ChatGPT n’est apparu comme premier grand exemple de démonstration publique qu’en novembre 2022, il est naturel qu’une nouvelle technologie traverse une phase d’adoption chaotique

Les conditions nécessaires pour rétablir la confiance, et les limites actuelles

  • Le fossé entre l’expérience technologique ressentie par le public et la manière dont le secteur parle de lui-même produit déjà des effets visibles
  • Les Big Tech commencent elles aussi à reconnaître les problèmes susceptibles de toucher le grand public et à proposer certaines mesures d’atténuation
    • En avril, OpenAI a publié un Industrial Policy White Paper, évoquant notamment un Public Wealth Fund, une refonte du filet de sécurité sociale et une mesure en temps réel de l’impact de l’IA sur le travail
    • En janvier, Microsoft a présenté sa Community-First AI Infrastructure Initiative, promettant des aides sur les services publics dans les zones accueillant des data centers et une réduction au minimum de l’usage de l’eau
  • Mais un écart subsiste encore entre les promesses des communiqués et la capacité d’exécution sur le terrain
    • La Community-First Initiative de Microsoft ne comprend pas de mécanisme indépendant de suivi des responsabilités
    • Le nouveau livre blanc d’OpenAI semble aller vers une politique technologique plus progressiste, mais Greg Brockman a envoyé des millions de dollars à un SuperPAC visant à bloquer des régulations étatiques sur l’IA, comme le rapporte Fortune
    • OpenAI soutient aussi le Senate Bill 3444 dans l’Illinois, présenté comme protégeant les entreprises contre les dommages massifs causés par des modèles d’IA
    • Le même article indique qu’Anthropic s’oppose à ce texte
  • En lien avec l’article du New Yorker de Ronan Farrow sur Sam Altman, un schéma récurrent est également mis en avant : afficher un soutien public, puis changer rapidement de cap lorsque cela devient favorable à l’entreprise
  • Pour restaurer la confiance, il faut désormais davantage que de nouveaux livres blancs : il faut des actions durables et vérifiables
    • Une véritable transparence est nécessaire sur ce que les produits peuvent réellement faire
    • Il faut accepter une régulation significative et une responsabilité réelle, même si cela a un coût financier
    • L’expansion des data centers doit s’accompagner d’une participation démocratique réelle des communautés locales
    • Faute de quoi, la montée d’un populisme anti-IA et le risque de violence qui l’accompagne pourraient eux aussi s’intensifier

1 commentaires

 
GN⁺ 3 일 전
Réactions sur Hacker News
  • Je pense qu’il faut au minimum distinguer trois critiques de l’IA et les discuter séparément. Les solutions ne sont pas les mêmes.
    La première, c’est la perte d’emplois, et c’est relativement simple. Il faut partager les gains de productivité de l’IA avec l’ensemble de la société, d’autant plus que l’IA a été entraînée sur le travail produit par cette même société. Le moyen le plus simple serait selon moi de lever une taxe sur l’usage de l’IA pour la redistribuer sous forme de UBI. Si le revenu reste garanti malgré la perte d’un emploi, le mécontentement serait bien moindre.
    La deuxième, c’est le coût environnemental, et c’est plus compliqué. L’essentiel, c’est d’améliorer l’efficacité et d’élargir l’usage des énergies propres ; la fiscalité et des règles d’efficacité pourraient être un point de départ. Les technologies énergétiques durables existent déjà, mais elles sont coûteuses, et si l’IA doit continuer à consommer d’énormes quantités d’électricité, alors il ne devrait pas y avoir de compromis sur ce point.
    Le dernier point est le plus difficile. On ne sait pas à quel point il faut confier le travail créatif à l’IA, ni comment traiter les créations produites par l’IA.
    Il y a aussi un problème lié à cela : l’IA peut se faire passer pour un humain et mener à grande échelle des arnaques et tromperies. Les dispositifs actuels partent du principe que beaucoup d’escroqueries demandent du temps et des efforts, mais cette hypothèse est en train de s’effondrer.

    • Cet argument existait déjà à l’époque de l’automatisation robotique, mais il ne s’est pas concrétisé. Il n’y a pas eu de taxation, et les gains de productivité n’ont pas été partagés. Au contraire, on a même vu le travail des entreprises être transféré aux clients, comme avec les caisses automatiques.
      Selon moi, les data centers IA devraient tous fonctionner avec une production d’énergie durable autonome. Après des décennies à améliorer l’efficacité de l’électricité et de l’eau, il n’y a aucune raison de laisser quelques entreprises cupides tout absorber.
      Ça sonnera peut-être comme une blague, mais j’aimerais que l’IA fasse la vaisselle et range le linge à ma place pendant que j’écris des livres et compose de la musique. Je ne veux pas l’inverse.
    • Quand on perd un emploi à 60 000 dollars par an, il est difficile de croire qu’un revenu de base financé par l’IA compensera cette perte. Rien que le UBI de 12 000 dollars par an évoqué aux États-Unis exigerait 3 000 milliards de dollars supplémentaires de budget.
      Je ne pense pas qu’une simple taxation des entreprises d’IA puisse couvrir un tel montant, et ceux qui parlent de revenu de base doivent prendre les chiffres beaucoup plus au sérieux. Ça ne ressemble pas à une solution réaliste.
    • Altman, et dans une certaine mesure Musk aussi, sont des figures profondément antipathiques du secteur de l’IA. Quand ces gens parlent publiquement de pertes d’emplois massives, voire d’extinction de l’humanité, il est inévitable que leurs entreprises deviennent détestées, indépendamment des risques réels.
    • Le quatrième point à examiner, c’est le contrôle de l’influence politique. Si on laisse les CEO des entreprises d’IA, avec leur puissance financière colossale, peser sur la régulation, les élections, la protection sociale et même la politique étrangère, alors la démocratie elle-même peut s’effondrer.
      Si jamais 50 % de la main-d’œuvre est réellement remplacée par l’IA, leur influence dépassera tout ce qu’on peut imaginer.
    • À l’époque de l’Art déco, il y avait déjà des débats similaires sur l’impact de la production de masse sur l’art. Les avis divergeaient sur la question de savoir si des œuvres produites par de nouvelles méthodes industrielles pouvaient avoir une qualité équivalente à celle de l’artisanat, et les jugements varieraient probablement encore aujourd’hui selon les personnes.
      La technologie est encore loin d’y être, mais on peut imaginer comme exemple de production de masse version IA quelque chose comme l’automatisation de l’adaptation de romans en films. De tels changements peuvent donner plus de pouvoir aux individus, dégrader ou améliorer la qualité artistique, diviser la société ou au contraire la rapprocher.
      [1]: https://en.wikipedia.org/wiki/Art_Deco#Late_Art_Deco
  • Voilà des années que les CEO de l’IA répètent l’IA fait peur, elle va prendre votre emploi.
    « Mythos est trop dangereux pour être rendu public »
    « On offrira une récompense si vous arrivez à tirer de ChatGPT une méthode de bioterrorisme »
    « Les IA agentiques vont faire disparaître des catégories entières de métiers »
    Ces messages semblent moins destinés au grand public qu’aux gouvernements et grands clients entreprises qui ont de l’argent, des coûts à réduire et des frontières à défendre ou à étendre.
    Il n’y a rien d’étonnant à ce que les gens détestent l’IA. Elle a rarement été présentée comme un produit conçu pour eux.

  • En dehors du secteur de l’IA, cette évolution paraissait totalement prévisible. Les dirigeants du secteur parlaient de suppression de millions d’emplois, de refonte massive d’autres métiers, voire d’automatisation létale de la force, tout en affirmant qu’ils allaient continuer le développement quoi qu’il arrive.
    Même l’instabilité économique récente et les licenciements de masse ont été attribués à l’IA par les dirigeants qui les mettaient en œuvre, tandis que les grandes entreprises de l’IA ont entraîné leurs modèles sans scrupule sur de la propriété intellectuelle avant d’imposer l’IA à tout le monde.
    Il n’y a rien d’étrange à ce que le public déteste l’IA, et le secteur n’a pratiquement fait aucun effort pour se rendre sympathique.

    • J’aimais bien le point de vue de Roy Sutherland. Les entreprises d’IA actuelles visent davantage la réduction des coûts que la création de valeur, et cette orientation est régressive tout en étant destructrice pour tout ce qu’elle touche.
      Au fond, on a l’impression que les CEO de ces sociétés veulent seulement faire grossir leur entreprise, quel qu’en soit le coût social.
    • Certains CEO de la tech se sont tellement emballés qu’on a eu l’impression de voir tomber le masque. Ils sont partis sur du « ça ne vous plaît pas ? et alors ? », puis dès qu’ils comprendront qu’ils sont allés trop vite, ils reculeront sans doute très vite aussi.
    • Les gains de productivité promis ne se matérialisent pas vraiment, pas plus que les baisses de coûts annoncées. Souvent, les plus enthousiastes ne sont pas les praticiens sur le terrain, mais les managers intermédiaires.
      Sur un marché où tout le monde utilise la même huile de serpent, ça ne ressemble pas à un avantage différenciant, mais plutôt à une manière coûteuse d’obtenir quelque chose de moyen.
    • Ce qui me surprend davantage, c’est que les gens du secteur soient surpris que le grand public les déteste. Cela fait des années qu’ils ne font que du marketing par la peur et de l’exagération, sans presque rien apporter qui améliore clairement la vie des gens ordinaires ; je ne sais pas ce qu’ils espéraient.
    • Les boosters de l’IA ont aussi presque tous un côté escroc et arrogant, ce qui les rend encore plus antipathiques.
      Qu’il s’agisse des boosters sur X, des profils type manager intermédiaire, des influenceurs IA sur LinkedIn ou des fabricants de fausses vidéos sur Facebook, on a l’impression que tout cela attire exactement le même genre de personnes.
  • Je ne suis pas sûr que ce soit vrai. Vendredi, j’ai assisté au travail à une présentation pro-IA, et ils expliquaient qu’après avoir interrogé les participants à une conférence IA, 93 % se disaient enthousiastes vis-à-vis de l’IA.
    Ils le disaient très sérieusement, avec une expression du genre « les gens aiment les chiots, non ? ».
    Le manque de conscience de soi m’a semblé énorme.

    • Dans les cabinets de conseil ou les grandes entreprises, il y a une ambiance où il faut faire semblant de s’intéresser à l’IA. C’est simplement la culture d’entreprise.
    • Il suffit de réfléchir à la position de quelqu’un qui répondrait non à ce type d’enquête. Dire à son supérieur « l’IA me semble mauvaise pour la société, donc je ne veux pas l’utiliser », c’est presque comme déclarer qu’on ne s’intéresse ni à l’amélioration de la productivité ni à l’augmentation des profits de l’entreprise.
      Presque personne ne veut se traîner une telle réputation, et c’est justement ce qui nourrit cette atmosphère d’inévitabilité selon laquelle cette technologie s’imposera, qu’on le veuille ou non.
    • Si on demande aux joueurs ce qu’ils pensent de l’IA, ils seront presque tous négatifs. Il suffit de voir RAMageddon.
    • Ça ressemble un peu à faire un sondage dans une exposition canine pour demander aux gens s’ils aiment les chiens.
      Dans le contexte actuel du marché, combien de personnes se sentiraient vraiment à l’aise pour dire à leur patron ou en public : « l’IA, ça me paraît être pas mal de foutaises » ?
    • Cela ressemble simplement à un biais d’échantillonnage non représentatif.
  • Si même les chiffres internes de productivité sont construits pour correspondre aux objectifs d’adoption et restent impossibles à vérifier de l’extérieur, alors ce n’est au fond pas très différent de ce que fait une grande partie de la BI façon MBA.
    D’après mon expérience, la BI ressemblait souvent à un château de cartes, plus proche d’un exercice consistant à embellir un récit, comme on le ferait sur un CV.
    Au final, on a souvent l’impression que l’unité de base de l’entreprise américaine consiste à produire le récit politique le plus convaincant possible.

  • À une époque où beaucoup ont déjà le sentiment que l’emploi est précaire, il est absurde de s’attendre à gagner l’affection du public après avoir dit : « nous allons supprimer ton travail et te rendre inutile ».
    C’est encore pire si on ne propose pas d’autre voie d’accumulation de richesse, qu’on ne résout pas les problèmes économiques comme le logement ou la santé, et qu’on aggrave en plus la cohésion sociale et le prix de l’énergie.
    Si le secteur continue à ignorer avec enthousiasme le rejet populaire de l’impact social de l’IA, il pourrait faire face à un retour de bâton encore plus fort que le sentiment antinucléaire après Tchernobyl.

  • Quand on regarde le sondage évoqué dans cet article, il y a très peu de sujets appréciés de manière générale parmi les personnes interrogées. L’IA est certes impopulaire, mais cela fait aussi partie d’une ambiance de détestation généralisée.

    • Cette détestation généralisée reflète à mon avis simplement le mécontentement et la peur face à l’état du monde. Les salaires stagnent pendant que les prix montent, et bien que les nouvelles sur la bonne santé des marchés boursiers abondent, la plupart des gens n’en ressentent pas les bénéfices.
      Les responsables politiques trouvent de l’argent pour la guerre et la destruction, mais se montrent radins sur les programmes sociaux, et la montée d’Internet rend à la fois plus facile et plus difficile de remettre en cause les récits établis.
      Dans ce climat de confusion et d’anxiété, il n’est pas surprenant que le désir de trouver quelqu’un à blâmer grandisse.
  • J’aimerais au moins que ce type d’article reconnaisse davantage l’adoption massive chez les programmeurs. On est très loin d’un simple outil qui rédige occasionnellement des e-mails ; l’impact est déjà considérable dans le développement logiciel.
    Décrire cela comme un outil mineur encore en phase de test revient à passer à côté de la réalité.

    • Dans le logiciel, l’impact est très difficile à mesurer. Il y a beaucoup de fluctuations et trop de variables.
      En particulier, le taux d’adoption peut être un indicateur dénué de sens. Il peut y avoir adoption forcée même si l’outil n’aide pas vraiment, ou même s’il aide, si son usage rend les gens misérables.
      En plus, on accumule aussi une expertise debt dont on ne sait pas quelles seront les conséquences à long terme.
    • Beaucoup de développeurs ont accepté ces outils non parce qu’ils le voulaient, mais pour continuer à toucher leur salaire.
      Pendant ce temps, le secteur de l’IA travaille activement à supprimer jusqu’à leurs emplois eux-mêmes.
  • Pour beaucoup de gens, l’IA, c’est simplement la génération d’images et la génération de texte. Et si l’on se limite à ces usages, il est compréhensible de juger qu’ils ne valent ni le temps, ni l’argent, ni l’énergie investis.
    Mais dans des domaines moins visibles du grand public, par exemple la médecine, l’IA aide réellement dans certains cas. C’est le cas pour la découverte de médicaments, la recherche sur le cancer et sa détection précoce, ou encore l’analyse des CT et des MRI ; ces usages sont bien plus importants, mais on en parle peu.
    Si l’on considère l’IA comme une seule chose monolithique, on risque de jeter aussi les bons aspects.

    • Les gens connaissent aussi ces usages médicaux. Il n’est simplement pas surprenant qu’ils se concentrent sur les usages négatifs largement dominants.
      Dire que les usages médicaux sont plus importants est aussi un peu à côté de la plaque. Bien sûr qu’aider à soigner quelqu’un est plus important que lui gâcher la vie, mais cela n’efface pas pour autant les autres nuisances de l’IA.
      Être critique envers l’IA ne veut pas dire qu’on souhaite supprimer aussi ses aspects positifs.
    • C’est une question de perspective. Ce n’est pas du tout la même chose de vendre un couteau comme outil pour couper des oignons ou de le promouvoir comme arme pour tuer son voisin.
      L’IA est vendue ouvertement par les gens du secteur comme un outil destiné à remplacer votre travail. Dans ce cas, soit ils sont catastrophiques en marketing, soit les bénéfices dans les autres secteurs sont minimes ou incapables de créer de la valeur pour les actionnaires.
    • On a souvent l’impression d’entendre une excuse du genre « pensez aux enfants ».
      Si l’IA produit réellement des avancées significatives dans ces domaines, on pourra alors en parler sérieusement. Les plus grands candidats au titre d’innovation médicale du XXIe siècle, comme mRNA ou GLP-1, ne sont pas, à ma connaissance, des cas où les LLM ont joué un rôle central.
      Tant que de tels résultats n’existent pas concrètement, cet argument relève davantage de la fanfiction ; et, pour le dire plus crûment, quand les gens perdent leur emploi, que la fiabilité de l’information s’effondre et que tout se remplit de slop, on peut aussi se demander à quoi bon vivre plus longtemps. Ce n’est pas une projection futuriste, c’est un dommage déjà bien réel.
    • À l’heure actuelle, l’IA n’est pas vendue comme un outil qui vous aide à mieux faire votre travail ou celui de vos subordonnés, mais comme un outil qui remplace vos subordonnés pour augmenter le bénéfice trimestriel.
      C’est de là que vient tout le récit des milliers de milliards de dollars de revenus.
  • D’après les personnes non issues de la tech avec qui je parle, une grande partie du public déteste simplement l’IA. Au contraire, cela ressemble plutôt à un jugement de bon sens.
    Personnellement, je trouve que l’abonnement à Gemini Ultra vaut son prix, et j’éprouve aussi un vrai plaisir et un intérêt intellectuel à manipuler des API puissantes chez AntiGravity, ou à utiliser les modèles Claude, l’app Gemini et NotebookLM.
    Mais si la question est de savoir si cela justifie les coûts sociaux — le coût des data centers, ou la possibilité d’un sauvetage public des géants américains de l’IA — alors je ne peux pas le défendre.
    En réalité, la Chine semble plutôt en train de nous dépasser. La stratégie gagnante a l’air d’être de produire une IA moins chère, et GLM-5.1 ainsi que Deepseek v4 sont remarquablement efficaces au regard de leur coût d’inférence bien plus faible.