16 points par GN⁺ 2025-07-07 | 4 commentaires | Partager sur WhatsApp
  • Des fonctions d’IA sont automatiquement intégrées aux principaux logiciels et services sans le consentement du public
  • La plupart des utilisateurs ne veulent pas de l’IA ou s’en méfient, mais de grandes entreprises IT comme Microsoft et Google accélèrent son adoption via le bundling et l’imposition forcée
  • Les consommateurs perdent leur liberté de choix et paient en plus le coût, et des études montrent que plus un produit intègre des fonctions d’IA, plus sa popularité et la confiance qu’il inspire diminuent
  • Les entreprises dissimulent les coûts et les pertes liés à l’IA en les rattachant à des services existants afin de masquer comptablement les pertes
  • Le texte souligne la nécessité de régulations juridiques et institutionnelles (transparence, opt-in, responsabilité, propriété intellectuelle, etc.) et appelle à une réponse sociale face aux abus de l’IA

L’imposition forcée de l’IA à un public qui n’en veut pas

  • En ouvrant récemment Microsoft Outlook, un message m’a invité à utiliser le compagnon IA Copilot
  • Il est présenté comme un compagnon IA (Companion), mais il s’agit en réalité d’une fonction non désirée
  • Les destinataires aussi s’attendent à recevoir un e-mail écrit directement, pas un message rédigé par une IA
  • Microsoft a rendu la désactivation de Copilot difficile ; après avoir enfin trouvé comment le couper, d’autres programmes comme Excel ont rapidement commencé à imposer l’acceptation des conditions d’utilisation de l’IA
  • Le prix de l’abonnement MS 365 a également augmenté de 3 $ par mois, avec un lot de 60 utilisations de Copilot inclus d’office
  • Même sans s’en servir, on paie pour ces fonctions, tandis que l’IA est intégrée dans Word, Excel et l’ensemble des logiciels

Les raisons économiques et stratégiques du bundling et de l’usage forcé de l’IA

  • La plupart des utilisateurs ne paient pas volontairement pour l’IA (seuls 8 % des Américains seraient prêts à payer un supplément)
  • Il faut donc la regrouper avec des services essentiels et l’imposer pour qu’elle puisse s’installer sur le marché
  • Si l’IA était un produit payant autonome, ses pertes apparaîtraient clairement et les plaintes des investisseurs et actionnaires exploseraient
  • En cachant l’IA dans des services existants, les entreprises masquent les pertes comptables et donnent l’apparence d’une activité rentable
  • Exemple : dans un restaurant, si l’on vendait une pierre de granit comme dessert, personne ne l’achèterait ; mais en ajoutant 1 dollar au prix du repas complet et en l’imposant à tous, on pourrait prétendre que “tous les clients achètent des pierres”

La disparition du choix pour les utilisateurs et le mécontentement qui en résulte

  • En pratique, les utilisateurs n’ont aucun choix sur l’adoption de l’IA
  • Google, comme Microsoft, insère automatiquement de l’IA dans les résultats de recherche
  • Les plateformes ajoutent unilatéralement des fonctions d’IA sans l’accord des utilisateurs, qui ont l’impression qu’on leur dit de “se taire et accepter”
  • Toutes les fonctions d’IA suivantes sont imposées, indépendamment de la volonté des utilisateurs
    • Service client IA, résultats de recherche IA, IA intégrée aux logiciels, e-mails envoyés par l’IA, musique IA de Spotify, livres IA d’Amazon, etc.
  • Plus on ajoute de fonctions d’IA, plus l’attrait du produit baisse (enquête auprès de 4 000 personnes : seulement 18 % d’avis favorables à l’IA)
  • Des experts et les médias avertissent aussi qu’une adoption précipitée de l’IA peut nuire à la confiance des clients et aux ventes

Le mouvement de plus en plus offensif des Big Tech pour imposer l’IA

  • Autrefois, elles réagissaient avec sensibilité aux retours des clients, mais aujourd’hui les Big Tech exercent une influence monopolistique
  • La volonté et la liberté de choix des utilisateurs sont totalement écartées, et l’ajout unilatéral de fonctions se poursuit
  • Meta (Facebook) préparerait même une fonction où des chatbots IA envoient d’abord des messages, même si l’utilisateur n’en veut pas (et il serait pratiquement impossible de désactiver complètement Messenger)
  • Cette méthode s’apparente fortement à du spam, et le rejet des utilisateurs grandit

L’impossibilité réelle d’un boycott de l’IA

  • Même si l’on veut refuser l’IA, il faut en pratique renoncer à tout un ensemble de services essentiels : e-mail, recherche, Word·Excel, Amazon·Spotify, etc.
  • À l’avenir, même des services fondamentaux de la société comme la santé, le conseil, le droit, le recrutement ou les secours d’urgence devraient être recentrés sur l’IA
  • Les grandes entreprises IT effacent déjà rapidement toute trace de services humains, sans lien avec le consentement ou le choix des utilisateurs

Le paradoxe d’une diffusion forcée d’une IA encore peu fiable

  • Le plus frappant est que cette adoption forcée s’accélère alors même que l’IA n’en est pas encore à un stade suffisamment fiable
  • En réalité, les réponses d’IA restent souvent aberrantes et inexactes, mais les entreprises ne semblent pas décidées à corriger sérieusement le problème

La nécessité d’une réponse sociale et juridique

  • Des lois sur la transparence, l’opt-in (consentement préalable), la responsabilité, la protection de la propriété intellectuelle, etc. sont indispensables pour encadrer l’adoption de l’IA
  • Si le monde politique ne réagit pas, il faudra des actions sociales comme des initiatives citoyennes ou des recours collectifs
  • Les consommateurs (et jurés) finiront eux aussi par reconnaître cette réalité : on leur fait avaler l’IA de force

Des doutes sur le cadre de rivalité États-Unis–Chine

  • Le texte s’oppose à l’argument selon lequel les États-Unis devraient devancer la Chine dans la course à l’adoption de l’IA
  • Il affirme avec conviction que la destination visée par l’IA mènera plutôt à des résultats malheureux et à des regrets, et préfère observer ces conséquences dans un futur lointain

Conclusion

  • L’IA se diffuse déjà largement dans le quotidien et dans toute la société sous l’impulsion des Big Tech, sans le consentement du public
  • La cause profonde n’est pas une demande active des utilisateurs, mais la recherche de profit d’entreprises en position monopolistique et la distorsion des mécanismes de marché
  • Une adoption de l’IA sans liberté de choix devrait encore s’aggraver, avec un risque élevé de regrets collectifs

4 commentaires

 
secwind 2025-07-07

Ils ont déjà collé une traduction automatique pourrie au texte coréen, et voilà qu’ils ont encore évolué. Ils n’ont même pas réussi à bloquer la traduction automatique, alors on va aussi tous goûter à leur IA pourrie !

 
regentag 2025-07-07

Je déteste vraiment les fonctionnalités d’IA, surtout les services qui tournent en attente en arrière-plan en prétendant vouloir aider.
S’ils s’exécutent à distance, cela pose le problème de l’exposition de mes données ; s’ils s’exécutent en local, cela pose le problème de la consommation des ressources de mon ordinateur (CPU, mémoire, batterie, ...).

 
beoks 2025-07-07

Que penseriez-vous d’un service qui s’installe sur un serveur distant privé ?

 
GN⁺ 2025-07-07
Avis Hacker News
  • Moi aussi, je trouve ces intégrations IA agaçantes et inutiles, non pas parce que les LLM sont inutiles, mais parce que leur intégration aux produits existants n’a pas été pensée en profondeur ; cela ressemble à ces grandes entreprises qui adoptent un logiciel à la va-vite juste pour suivre une tendance. Comme l’a récemment fait remarquer petekoomen avec créativité, on assiste de nouveau au phénomène de la « voiture à cheval sans cheval de l’ère de l’IA ».

    • J’ai vu de mes propres yeux l’anxiété et la peur de product owners obsédés par l’idée d’ajouter de l’IA à tout prix dans leurs produits. Dans cet environnement confus, on agit d’abord sans vision claire : cela ressemble davantage à une mise en scène dictée par la crainte de perdre la confiance des investisseurs et d’être laissé derrière. Beaucoup de dirigeants veulent simplement « de l’IA » sans idée concrète, et dans certains endroits toute opposition est interdite. J’ai le pressentiment qu’après cette période, pas mal de gens se sentiront assez gênés.
    • En interne, on appelle cette tendance la « Clippification » : comme Clippy, une aide absurde surgit sans l’autorisation de l’utilisateur. Quand des pop-ups de chatbot IA apparaissent à répétition au mauvais moment, cela ne fait que gêner le travail. On a l’impression de se battre contre une armée de Clippy.
    • Je suis pourtant un fervent partisan de l’IA et je l’utilise activement pour coder, écrire et prendre des décisions, mais les fonctions IA ajoutées aux applications non conçues autour de l’IA sont le plus souvent des rustines maladroites, avec l’impression qu’on a réduit les coûts en choisissant des modèles médiocres. Si je veux l’utiliser correctement, il faut que des modèles frontier comme ChatGPT/Claude/Gemini aient un véritable accès aux données de mon application et à ses API.
    • Le problème plus grave encore que la technologie elle-même, ce sont les gens : les partisans acharnés qui nient les problèmes, les argumentaires quasi frauduleux de startups médiocres, et la manière hostile dont la communauté IA réagit à ceux qui soulèvent des critiques, ce qui finit par éroder la confiance envers la technologie. Dans un tel climat, je ne pense pas que beaucoup aient envie de collaborer.
    • La manière dont l’IA s’intègre réellement dans les projets rapporte en pratique moins d’argent et n’apporte pas le « hype » que recherchent les entreprises : c’est une réalité plus nuancée.
  • J’observe que des produits comme Cursor et Windsurf reposent sur des LLM massivement subventionnés. Ces outils servent en réalité presque de véhicules marketing pour les LLM, et la composition de leur actionnariat le rend encore plus évident. Je n’avais pas réalisé à quel point leurs coûts d’exploitation sont élevés ni à quel point ils ont besoin d’une adoption rapide à grande échelle ; cela me fait me demander à quelle vitesse ils veulent vraiment absorber le marché.

  • Les principaux gatekeepers de l’IA rencontrent déjà des goulets d’étranglement et des problèmes de scalabilité dans l’exploitation des grands modèles, et la situation ne devrait pas changer sans innovation technique fondamentale. Plus le monde se réorganise autour de l’IA, plus la dépendance envers ces gatekeepers et les ressources de calcul augmente. Je crains des hausses de prix sur l’accès prioritaire ou la priorité d’allocation des ressources, alors même qu’on n’est même pas encore au stade des wearables.
    Toutes les données des utilisateurs doivent être envoyées à ces gatekeepers, et même si le déplacement des données vers le cloud augmente depuis longtemps, autrefois il y avait moins d’intérêt économique à lire et réutiliser ces données, donc mes connaissances personnelles et mes informations privées étaient moins exposées. Mais avec la généralisation forcée de l’IA, il devient plus opaque de savoir qui exécute le modèle et où vont mes données. Le manque de précision des LLM pose problème, mais la concentration du pouvoir chez les gatekeepers et la centralisation des données m’inquiètent tout autant. Il y a cette angoisse de voir des structures d’exploitation bon marché, au prix d’une dégradation de la qualité, s’imposer au nom de la commodité.

    • Au bureau, dans une logique d’expérimentation autour de la vie privée et de la sécurité de l’information, nous faisons tourner depuis un mois notre propre serveur LLM. Avec un seul GPU RTX 5090, on couvre sans problème l’usage intermittent d’environ 50 personnes. Le modèle Qwen3 32b obtient des benchmarks comparables à GPT 4.1-mini ou Gemini 2.5 Flash, dans un environnement de 2 requêtes simultanées / contexte 32k. Je pensais qu’un seul GPU serait insuffisant, mais en réalité la plupart des gens n’utilisent pas un LLM 24h/24.
    • Le consommateur ordinaire reste au final le produit : au lieu de payer avec de l’argent, il paie avec ses données. Pour les créateurs (contenu / développeurs d’apps), tout dépendra de la durée de la concurrence sur le marché, mais si, à cause des barrières réglementaires ou autres, il ne reste qu’un petit nombre d’acteurs majeurs, je crains une explosion des coûts.
    • La véritable limite d’échelle n’est pas tant du côté des fournisseurs de modèles que du réseau électrique. L’humanité consomme environ 250 W par personne ; le corps humain fonctionne à 100 W et, si l’on tient compte du repos, le temps de travail réellement soutenable est bien plus court. Pour qu’une IA remplace un salarié d’aujourd’hui, elle doit être bien plus efficace énergétiquement qu’un humain. Avec l’efficacité énergétique actuelle de l’IA et le rythme de déploiement du photovoltaïque au Japon, je pense qu’un remplacement un pour un de l’humanité avant 2032 est difficile. Les modèles open weight actuels n’atteignent pas encore le SOTA, mais ils sont déjà utiles. Les mécanismes de consentement au partage des données, comme avec le RGPD, ont déjà fragilisé la protection de la vie privée, mais je pense que les risques liés à des systèmes de confiance fondés sur la centralisation des données restent bien réels.
  • Je suis globalement d’accord avec l’argument, mais le style un peu maladroit de l’auteur m’a fait me demander si le texte n’avait pas été écrit par une IA. Il existe des alternatives open source ou peu coûteuses à toutes les fonctions mentionnées par l’auteur. Cela dit, dans certains domaines comme l’assurance, la pression du marché ou le lock-in des services semble rendre l’usage de l’IA inévitable. On peut soutenir que les utilisateurs en veulent vraiment, en soulignant que ChatGPT figure parmi les sites les plus utilisés au monde, mais je pense qu’il y a deux objections valables. Premièrement, les exemples abondent où la popularité ne s’est jamais traduite en volonté de payer réelle (les réseaux sociaux payants ont-ils vraiment été populaires ?). Deuxièmement, parmi les sites très populaires, rares sont les utilisateurs qui souhaitent les voir empiéter sur d’autres domaines et dominer l’ensemble du quotidien.

  • Je viens de voir pour la première fois Gmail me résumer un e-mail reçu. Franchement, j’aimerais qu’il s’abstienne. Je vais lire mes e-mails moi-même, et un résumé inutile ne fait qu’ajouter encore plus de texte à lire. Bien sûr, cela peut être utile à ceux qui reçoivent de grandes quantités d’e-mails de collègues à l’importance ambiguë, mais sur mon compte personnel, tout ce que je reçois vient de mes amis, et le reste devrait aller directement à la corbeille plutôt qu’être résumé. En revanche, j’apprécie vraiment le filtrage anti-spam de Gmail.

    • Si le filtrage anti-spam passe lui aussi aux LLM, je soupçonne que le jour où les spammeurs ou hackers glisseront dans leurs e-mails des instructions destinées à exploiter les failles de l’IA n’est plus très loin.
  • Je partage entièrement le fond de ce texte. L’« IA » peut certes créer un petit marché pour des tricheurs de niveau intermédiaire, mais pour la plupart des utilisateurs c’est du spam, un peu comme Clippy que personne n’avait demandé. J’espère qu’un jour l’IA disparaîtra elle aussi comme Clippy.

  • Je ne suis pas d’accord avec l’idée que « tout le monde voulait Internet ». Beaucoup de gens n’y voyaient aucun intérêt avant l’arrivée du smartphone, et si celui-ci s’est imposé, c’est parce qu’il était plus pratique malgré le fait qu’il soit plus inconfortable qu’un ordinateur de bureau. Cette logique marketing du « c’est devenu moins confortable, mais plus pratique » est exactement celle de l’IA. J’en déduis que le grand public finira lui aussi par l’accepter.

    • Vers 1997, dans une interview de rue aux Pays-Bas, on demandait aux gens s’ils voulaient un téléphone portable (pas un smartphone), et l’écrasante majorité répondait « pas besoin ». La résistance face au changement de support est donc un phénomène tout à fait normal.
    • La question de départ est peut-être elle-même mal posée. Personne ne connaissait vraiment les conséquences à long terme d’Internet ou du mobile, donc c’est surtout l’optimisme vis-à-vis de l’avenir qui dominait. Les feuilles de coca aussi ont d’abord été vues comme un miracle. Le mobile a profondément transformé la société, et il est regrettable qu’on ne puisse plus revenir en arrière. Je suppose que je ne suis pas le seul à ressentir cela.
    • J’utilise Internet depuis mon enfance, au début des années 1990. Quand une technologie apparaît réellement, les gens la regardent avec fascination, comme si c’était un monde de geeks très éloigné de leur quotidien, puis s’y plongent pendant un temps.
    • Internet a bien été une transformation que tout le monde voulait. Le hype et la diffusion rapide en témoignent. Bien sûr, dire « tout le monde » est exagéré : comme à l’époque de l’électricité ou du téléphone, il y avait aussi des luddites et des sceptiques. Mais malgré cela, le boom dot-com reste le rêve de toute industrie naissante.
  • J’ai l’impression de parler dans le vide. Le problème de l’IA est trop subtil : la plupart des gens se contentent d’une « réponse plausible » et ne se rendent même pas compte à quel point c’est un outil créatif inédit, au niveau d’un nouveau langage de programmation en langage naturel. Pour obtenir des succès répétés, il est indispensable d’écrire des prompts efficaces, mais peu de gens font réellement cet effort. Même la discussion sur le prompt engineering est balayée d’un revers de main avec des remarques du type « écrire des prompts, c’est ça de l’ingénierie ? ». Pourtant, c’est précisément un processus technique sophistiqué que l’industrie devrait prendre au sérieux. Très peu de personnes comprennent réellement la puissance subtile des LLM, et dans les milieux institutionnels on a plutôt tendance à considérer cela comme une arnaque.

    • L’essence même de l’« ingénierie », c’est la prévisibilité et la répétabilité. Or les LLM sont imprévisibles : à chaque changement de modèle, la manière d’interpréter les entrées change aussi, ce qui vide le métier de prompt engineer de son sens. Pour l’utilisateur, il y a trop de facteurs opaques — méthode d’entraînement, jeu de données, biais, etc. Un excellent prompt pour Gemini 2.5 Pro peut devenir inutile avec la version suivante. Avec un modèle dynamique « auto-améliorant », c’est encore pire. Au fond, ce qu’on appelle le « vibe coding », n’est-ce pas simplement du « vibe prompting » ?
    • Si résoudre un problème avec l’IA demande davantage d’effort et d’énergie que de le faire moi-même, autant le résoudre directement. Si un prompt engineering fastidieux est indispensable, c’est qu’on a échoué à élever le niveau du software engineering. Je n’ai pas besoin d’autocomplétion ou d’aide à la saisie ; si cela exige davantage de travail intellectuel, la valeur diminue.
    • On en viendrait presque à plaisanter que si ce type de software engineering non déterministe était apparu avant, on aurait érigé une statue au développeur du langage C arrivé ensuite.
  • Pourquoi les CEO sont-ils obsédés par l’IA ? Parce qu’il suffit de dire « avec de l’IA » pour attirer immédiatement les investisseurs en actions. La demande des investisseurs est précisément ce qui empêche l’effondrement du « business model IA ». En fin de compte, c’est une bulle. Mais une bulle qui peut durer encore un moment.

    • Et ce n’est pas tout : les plateformes qui disposent déjà d’une base d’utilisateurs massive — Microsoft, Google, Meta, Apple, etc. — peuvent aussi collecter davantage de données d’interaction avec l’IA, en tirer leurs propres données d’entraînement, des insights, des tests A/B, et d’autres bénéfices. Elles ne veulent pas qu’un autre acteur récupère ces données et les concurrence (Anthropic, Deepseek, etc.).
    • L’IA améliore déjà la productivité dans de nombreux domaines, et si c’est bien une bulle à court terme, la réalité est que toute technologie connaît une bulle jusqu’à un point de saturation du marché ou de monopolisation.
  • ChatGPT figure parmi les 5 sites les plus populaires au monde et continue de croître rapidement. Un produit aussi populaire ne peut pas s’expliquer uniquement par une résistance du marché. Les utilisateurs d’Instagram aussi sont très peu nombreux à être réellement prêts à payer (autour de 8 % ?). Cela signifie-t-il pour autant qu’Instagram soit un produit imposé dont le public ne veut pas ?

    • Si l’on demandait aux gens s’ils veulent que Facebook, Twitter, ou même le fil Hacker News soient insérés aléatoirement dans une boutique en ligne ou dans leurs e-mails professionnels, la plupart répondraient probablement non. Même un site très populaire n’est pas forcément adapté à toutes les situations si on l’incruste partout sans discernement.
    • Mon père de 75 ans utilise pratiquement Claude à la place de Google pour toutes ses recherches. Autour de moi, ce sont surtout les trentenaires qui rejettent activement l’IA ; cette tranche d’âge semble s’être figée dans un environnement resté longtemps stable.
    • ChatGPT, je peux aller l’utiliser quand j’en ai envie ; il n’est pas nécessaire d’imposer partout, dans chaque app et sur chaque site, une interface de chat lente et mal fichue. Je n’ai pas besoin d’un nouveau chat lent, difficile à appréhender et peu précis, qui me fait perdre du temps.
    • J’ai téléchargé hier le jeu Quordle, et l’un des principaux avantages de l’option payante est une fonction de « chatbot IA dans le jeu ». L’IA me suffit très bien quand je peux l’utiliser quand je veux et dans l’environnement que je veux. Ce n’est pas parce que je l’utilise dans certains domaines que je souhaite qu’on l’intègre aveuglément partout.
    • En réalité, Facebook et Instagram me donnent eux aussi l’impression d’être des produits « imposés » au public, puisqu’ils sont devenus pratiquement indispensables pour maintenir des interactions sociales avec son entourage. Je ne participe pas à Facebook Marketplace ni aux Reels Instagram ; l’injection forcée de publicité et l’intégration forcée de l’IA relèvent d’un problème similaire.