18 points par GN⁺ 2025-12-04 | 3 commentaires | Partager sur WhatsApp
  • Parmi les ingénieurs des grandes entreprises tech de Seattle, une forte hostilité envers l’IA est en train de se répandre
  • Chez Microsoft, le recours forcé à des outils d’IA comme Copilot 365 et les licenciements liés à l’IA se succèdent, alimentant le mécontentement
  • Les équipes non classées comme projets IA sont reléguées en visibilité et en récompenses, et les ingénieurs sombrent dans l’impuissance et le cynisme
  • Dans cette atmosphère, présenter une startup IA ou un projet personnel déclenche immédiatement des réactions hostiles
  • La culture tech de Seattle semble enfermée dans une posture défensive plutôt que tournée vers l’innovation, ce qui devient un frein à la croissance pour les entreprises, les ingénieurs et les fondateurs

Le phénomène de rejet de l’IA à Seattle

  • Un phénomène où les ingénieurs de Seattle réagissent négativement au simple mot “IA”
    • Lorsqu’on a présenté Wanderfugl, un projet de cartographie basé sur l’IA, la plupart des ingénieurs de Seattle ont eu une réaction immédiate et critique
    • Quand le même produit a été présenté à Bali, Tokyo, Paris et San Francisco, il a suscité curiosité et intérêt
  • Un ancien collègue de Microsoft a exprimé moins un rejet du produit que sa frustration vis-à-vis des outils et de l’environnement IA dans l’entreprise
    • Le principal motif de plainte concerne l’inefficacité des outils d’IA imposés au travail, comme Copilot 365 ou Microsoft AI
    • L’adoption de l’IA conduit à du stress au travail et à l’angoisse des licenciements

Licenciements liés à l’IA et effondrement de la culture d’entreprise

  • Chez Microsoft, certains cas mentionnent le manque de maîtrise des usages de l’IA comme motif de licenciement
    • Pour un PM d’une équipe licencié, l’explication donnée a été qu’il n’avait pas « suffisamment utilisé Copilot 365 »
  • Autrefois, il existait un “growth mindset” et une culture qui encourageait l’innovation, mais tout cela s’est brutalement contracté après la restructuration centrée sur l’IA
    • Les projets transverses entre organisations ont disparu, et seuls les postes liés à l’IA sont considérés comme sûrs et prestigieux
  • Les ingénieurs qui ne sont pas rattachés à des projets IA sont étiquetés comme des “talents non IA”
    • Les salaires et stock-options stagnent, et les évaluations de performance se dégradent
    • Le recours forcé à des outils d’IA de faible qualité comme Copilot for Word, PowerPoint, Email ou Code renforce encore le ressentiment

Fatigue psychologique et cynisme chez les ingénieurs

  • Bien que les outils d’IA aient échoué à améliorer la productivité, toute critique ou tentative d’amélioration est interdite
    • Le sujet est considéré comme relevant exclusivement de l’organisation IA, ce qui empêche toute intervention des autres équipes
  • Les ingénieurs tombent dans une logique d’auto-limitation, persuadés que l’IA est inutile et qu’eux-mêmes ne sont pas faits pour ce domaine
    • Cela entraîne une baisse de la capacité d’innovation des entreprises, une stagnation des carrières individuelles et un affaiblissement de l’écosystème startup
  • L’expression « mentionner l’IA, c’est être traité comme quelqu’un qui défend l’amiante » illustre l’hostilité sociale autour du sujet

Amazon et l’écosystème tech de Seattle

  • Les employés d’Amazon sont relativement un peu plus protégés, mais le problème de fond reste le même
    • L’idée selon laquelle « Amazon traite mal ses employés mais les paie bien » ne fait que masquer la fatigue et le cynisme internes
  • La culture tech de Seattle a glissé de l’innovation vers une posture défensive
    • La défiance envers l’IA crée un cercle vicieux structurel qui décourage jusqu’aux nouvelles tentatives elles-mêmes

Le cercle vicieux des croyances auto-limitantes

  • Les croyances négatives autour de l’IA portent préjudice aux trois groupes
    • Entreprises : les meilleurs ingénieurs ne considèrent plus l’innovation comme faisant partie de leur rôle
    • Ingénieurs : leur carrière stagne dans la colère et le doute de soi
    • Fondateurs : le simple mot “IA” suffit à les faire percevoir comme une menace
  • Cette croyance s’installe dans un cycle manque d’initiatives → réduction de l’autonomie → mauvais produits → renforcement de la défiance envers l’IA
  • Seattle dispose toujours de talents tech de classe mondiale, mais a perdu, contrairement à San Francisco, la conviction qu’il est possible de changer le monde

3 commentaires

 
mhj5730 2025-12-05

L’IA de MS 365 a une qualité qui n’a absolument rien à voir avec la publicité...

 
realg 2025-12-04

Honnêtement, Copilot 365 est vraiment nul. Franchement, on est censé l’utiliser pour quoi ?

 
GN⁺ 2025-12-04
Avis sur Hacker News
  • Je suis un ancien de Google. Il y a beaucoup de gens, chez Google comme à l’extérieur, qui ressentent la même chose que le collègue dans l’article lié.
    Moi non plus, je n’ai pas complètement réussi à sortir de cet état d’esprit sceptique vis-à-vis de l’IA. Je pense qu’il n’y a que très peu de domaines où les LLM sont vraiment efficaces — par exemple la génération de données qui n’ont pas besoin d’être exactes mais seulement plausibles (concept art, animation de foules dans les films, etc.).
    En revanche, dans les domaines où l’apprentissage ou la précision sont importants, je pense qu’ils auront un effet négatif à long terme, et qu’on va aussi les imposer de force dans des domaines inefficaces dès le départ. Du coup, je suis excessivement sceptique envers les évangélistes de l’IA et tout le secteur concerné. Pour être honnête, j’ai parfois le sentiment de souhaiter que tous ceux qui gagnent de l’argent avec l’IA se plantent (comme à l’époque des cryptos)

    • La plupart de mes amis chez Google sont aussi pessimistes quant à la possibilité que l’IA améliore le développement logiciel. Je pensais que ce serait adopté en interne avant tout le monde, donc ça m’a surpris
    • D’après mon expérience, le gain de productivité est quasi nul, voire contre-productif. Le développement initial va plus vite, mais on perd davantage de temps en revue de code et en corrections. Au final, on a juste déplacé la charge de travail dans un autre panier
    • Le débat actuel sur l’IA ressemble à une guerre de religion technologique plus ontologique que “tabs vs spaces”. Je déteste généralement le battage médiatique, mais j’ai plusieurs fois constaté l’utilité de l’IA pour coder. Cela dit, on me dit souvent qu’en ligne j’ai l’air d’un prédicateur
    • Quand on apprend une nouvelle technologie, je me demande s’il est vrai que l’IA est mauvaise. Tant qu’on ne saute pas le processus d’apprentissage, je la trouve utile ; ce n’est pas acceptable de l’utiliser simplement pour poser des questions d’appoint ?
    • Moi aussi, à une époque, je souhaitais l’échec de l’IA. Au final, il ne restera que les vrais usages de valeur. Mais je m’inquiète du choc économique quand cette bulle éclatera. Les riches ne perdront rien, donc au bout du compte ce sont les consommateurs qui paieront la note via l’inflation, le chômage, la baisse de qualité des services, etc. Les LLM ne sont pas une solution universelle, et comme pour la blockchain, cette folie de vouloir les fourrer partout de force me fait peur
  • En tant qu’ingénieur logiciel à Seattle, la plupart de mes collègues détestent les adoptions d’IA qui font perdre du temps. Il y a bien quelques évangélistes de l’IA, mais je trouve souvent dans leur code des erreurs qu’on ne voyait pas avant.
    Il arrive que le code de test duplique des fonctionnalités du framework, ou qu’il mocke directement la fonction testée. Ces morceaux de code ont l’air élégants en surface, mais finissent par ne pas passer la revue. Dans une équipe où la culture de la revue de code est faible, j’ai l’impression que la maintenance deviendrait un cauchemar

    • Dans des équipes comme la nôtre, où les revues sont laxistes, le code généré par l’IA augmente au contraire le coût de reprise à long terme. Ça passe au début, mais quand les problèmes apparaissent plus tard, les corriger coûte bien plus cher. Le vrai problème, c’est d’utiliser du code IA sans comprendre le problème
    • L’IA n’est qu’un outil. Elle ne fonctionne qu’à hauteur de ce qu’on lui permet, donc un mauvais usage reste au final la responsabilité des humains
    • Après avoir découvert à plusieurs reprises des bugs subtils mais graves dans du code produit par l’IA, j’examine désormais de façon bien plus suspicieuse le code qui semble avoir été écrit par une IA. Ma confiance dans la qualité a baissé. Les gens qui codent avec l’IA donnent l’impression d’éviter le véritable processus de réflexion
    • À mon avis, les évangélistes de l’IA adoptent aussi cette posture par peur, au fond. Il faut travailler en dehors de la big tech pour vraiment ressentir la valeur de l’IA
    • Ça ressemble à l’ancienne vague JS/Node.js. Au final, mon intérêt est nul
  • Dire que « les ingénieurs n’essaient pas » est faux. Le problème, c’est cette façon de voir le monde avec l’IA au centre.
    Dans le logiciel, il y a les produits qui créent une vraie valeur client et les produits conçus pour exciter les investisseurs. Les LLM sont plus concrets que la blockchain, mais leur potentiel est exagéré.
    Moi, je veux consacrer mon temps à créer de la valeur pour les clients, pas à des shows pour investisseurs. Si les ingénieurs se tiennent à distance de l’IA, ce n’est pas parce qu’ils en sont incapables, mais parce qu’ils ne veulent pas être entraînés dans un travail inutile

    • La plupart des ingénieurs ont déjà essayé l’IA générative et ont perdu l’intérêt en constatant que ce n’était au fond que du “on entre du texte et on récupère du texte”.
      Quand les adorateurs de l’IA disent que « la prochaine version va changer le monde », ce n’est qu’un cycle médiatique impossible à exécuter.
      Au final, les nouveaux produits IA sont intrinsèquement peu intéressants parce qu’ils restent du « simple texte en entrée, simple texte en sortie »
    • Dans le conseil en Europe, il y a une tendance à forcer un volet IA dans chaque proposition. Ça enlève tout plaisir au travail
    • Il existe dans le monde le domaine de la persuasion et le domaine du réel. En tant qu’ingénieur, j’aime produire des résultats concrets, mais j’ai compris qu’une grande partie du travail appartient au domaine de la persuasion
    • Je me demande si Seattle a été plus durement touchée que SF lors de la dernière récession. Ça semble avoir nourri cette hostilité envers la bulle IA
    • Le hype et la réalité sont sur un continuum. Les ingénieurs sont souvent averses au risque, donc ils évitent le hype, mais dès qu’ils misent eux-mêmes, ils deviennent irrationnels comme n’importe quel investisseur
  • En tant qu’ancien habitant de Seattle, j’ai quelques pensées

    1. Son attitude négative venait du stress lié au licenciement
    2. Les FAANG, après avoir trop embauché, utilisent l’IA comme prétexte aux licenciements
    3. L’écosystème IA de Seattle est correct, mais reste lui aussi victime du battage médiatique autour de l’IA
    4. Les gens détestent moins l’IA en elle-même que le hype
      Malgré tout, votre app a l’air intéressante, donc je me suis inscrit
    • Certains détestent vraiment l’IA. Ce n’est pas seulement à cause des licenciements. Il y a aussi beaucoup de communautés anti-IA
    • J’ai fait partie des premiers employés d’une licorne, et quand l’entreprise a massivement recruté des profils issus de la big tech, une culture de manque d’autonomie s’est installée.
      Les injonctions à adopter l’IA sont une tentative d’imposer l’efficacité, mais en réalité c’est un effet pervers né d’un environnement sans retour du marché.
      Beaucoup d’ingénieurs de la big tech sont en colère parce qu’ils ne peuvent pas partir à cause de l’inflation de leur niveau de vie
    • J’aimerais que les entreprises soient honnêtes. Si elles ont vraiment une technologie d’IA puissante, se mettre les employés à dos est la pire stratégie.
      Des indemnités de départ généreuses et des licenciements menés avec empathie auraient été bien meilleurs
    • Ce n’est pas qu’un simple problème de hype. Il y a aussi des problèmes de fond : absence d’éthique, impact environnemental, dégradation de la qualité des produits, gaspillage énergétique
  • Je travaille dans l’infrastructure IA, mais pas à Seattle. En ce moment, je ressens une forte fatigue liée à l’IA
    Premièrement, les gens autour de moi s’excitent excessivement à chaque nouveau modèle, papier ou annonce open source.
    J’aimerais me concentrer sur 2 ou 3 sujets en profondeur, mais ce mouvement brownien permanent de l’information agit plutôt comme un frein
    Deuxièmement, l’ambiance selon laquelle il existerait une solution IA à tous les problèmes est épuisante. Avant d’utiliser un LLM, le processus consistant à réfléchir et expérimenter soi-même est bien plus productif
    Troisièmement, il y a cette pression qui dit qu’il faut suivre parce que « tout change vite », alors qu’en réalité les fondamentaux changent à peine. Une connaissance superficielle et trop large ne sert à rien
    Enfin, il y a aussi la pression d’anticiper la direction de la technologie. Mais moi, je crois davantage en la capacité d’adaptation qu’en la prévision stratégique.
    Les modèles eux-mêmes sont excellents ; ce qui fatigue, c’est le comportement humain autour

    • Quand un nouveau modèle sort, je l’essaie ; s’il est bon, je le mets par défaut, et voilà.
      Cette étrange culture de culte autour des modèles, je ne la comprends pas. Ce ne sont que de meilleurs outils
  • Pendant que tout le monde parle d’IA, moi j’ai envie de parler des apps de planification de voyage. Il y a eu des milliers de tentatives, mais aucune n’a réussi
    Il y a deux raisons.

    1. Impossible de rivaliser avec la qualité écrasante des données de Google Maps
    2. Absence de modèle économique — vols, hébergements, visites, tout est déjà saturé par la concurrence
      Au final, ce n’est pas un marché rentable
    • Pour planifier un voyage, c’est plus efficace d’utiliser quelques onglets de navigateur et un bloc-notes qu’une app.
      La friction liée à l’installation et à l’apprentissage de l’app est plus grande
    • J’utilise Wanderlog en version payante et j’en suis satisfait. Comme l’app intègre Google Maps, elle n’a pas le problème de couverture
    • Ce type de marché est déjà résolu par les grandes plateformes. Cela dit, il existe encore des niches non résolues, comme le geocaching
  • L’IA est réellement imposée aux employés, et le résultat, c’est qu’au sein de l’industrie elle est perçue comme une technologie surévaluée.
    Il n’y a pas de vrai changement ; au contraire, le problème, ce sont surtout les licenciements et le gaspillage de coûts causés par les investissements IA.
    Quelques entreprises seulement survivront, mais pour la plupart il ne restera que la douleur

    • Le fait que l’IA serve de prétexte aux licenciements est vraiment détestable. C’est une question de subsistance pour les gens
  • Si les employés des grandes entreprises détestent l’IA, c’est à cause de l’imposition ignorante par le leadership.
    Seattle compte une forte proportion de salariés de la big tech comme Microsoft ou Amazon, donc cette fatigue y est plus marquée.
    À l’inverse, SF est équilibrée par l’optimisme des startups centrées sur l’IA comme OpenAI, Anthropic ou Nvidia

    • Dans la startup de la région de Seattle où je travaille, il y a une perception positive de l’IA.
      Cela dit, la répétition des prétextes de licenciement crée de la fatigue.
      Personnellement, je trouve que des modèles comme Claude ou Gemini sont assez utiles comme assistants de revue de code
    • Oui, c’est bien ça, la différence
  • Quand on choisit un nom de produit, je veux absolument donner ce conseil : il faut le prononcer à voix haute. Si la prononciation est maladroite, la marque s’affaiblit

    • J’ai grandi en Norvège, et « wandervogel » signifie une personne libre dans la nature.
      En norvégien, la prononciation ressemble à « wander full », donc j’aime bien
    • Sauf que sur la moitié de la landing page, c’est écrit « Wanderfull ». On dirait que même le créateur n’a pas tranché sur le nom
    • Pour des utilisateurs qui parlent anglais comme deuxième langue, la prononciation peut sonner différemment. Il faut tenir compte de la diversité des contextes linguistiques
    • Prononcez le nom et demandez à la personne en face de l’écrire. Si elle n’y arrive pas, cela veut dire que même saisir l’URL sera difficile
    • La raison pour laquelle ils ont sans doute évité un nom anglais du type « Wanderfowl », c’est probablement à cause de la connotation négative de “foul”
  • Même à SF, beaucoup de gens de la tech détestent l’IA. En dehors du secteur, c’est encore plus vrai ; simplement, ceux qui ont misé leur avenir sur l’IA parlent plus fort

    • Du côté des collectivités locales où je travaille, au contraire, les non-techniciens sont plutôt favorables à l’IA
    • La plupart des gens détestent les contenus générés par l’IA, mais utilisent ChatGPT au quotidien.
      Moi aussi, en tant que consommateur, je n’aime pas ça, mais comme outil de travail, je trouve ça utile
    • L’hypothèse selon laquelle « l’avenir dépend de l’IA » n’a aucun fondement. Le rythme du progrès technologique est lent, et il n’y a pas de croissance exponentielle
    • La plupart de mes amis non techniciens ont une vision négative de l’IA. En revanche, les gens qui publient des images générées par IA font exception et sont plutôt positifs
    • Oui, SF, c’est pareil. Simplement, là-bas, il existe de vrais projets IA utiles