- Des fonctions d’IA sont automatiquement intégrées aux principaux logiciels et services sans le consentement du public
- La plupart des utilisateurs ne veulent pas de l’IA ou s’en méfient, mais de grandes entreprises IT comme Microsoft et Google accélèrent son adoption via le bundling et l’imposition forcée
- Les consommateurs perdent leur liberté de choix et paient en plus le coût, et des études montrent que plus un produit intègre des fonctions d’IA, plus sa popularité et la confiance qu’il inspire diminuent
- Les entreprises dissimulent les coûts et les pertes liés à l’IA en les rattachant à des services existants afin de masquer comptablement les pertes
- Le texte souligne la nécessité de régulations juridiques et institutionnelles (transparence, opt-in, responsabilité, propriété intellectuelle, etc.) et appelle à une réponse sociale face aux abus de l’IA
L’imposition forcée de l’IA à un public qui n’en veut pas
- En ouvrant récemment Microsoft Outlook, un message m’a invité à utiliser le compagnon IA Copilot
- Il est présenté comme un compagnon IA (Companion), mais il s’agit en réalité d’une fonction non désirée
- Les destinataires aussi s’attendent à recevoir un e-mail écrit directement, pas un message rédigé par une IA
- Microsoft a rendu la désactivation de Copilot difficile ; après avoir enfin trouvé comment le couper, d’autres programmes comme Excel ont rapidement commencé à imposer l’acceptation des conditions d’utilisation de l’IA
- Le prix de l’abonnement MS 365 a également augmenté de 3 $ par mois, avec un lot de 60 utilisations de Copilot inclus d’office
- Même sans s’en servir, on paie pour ces fonctions, tandis que l’IA est intégrée dans Word, Excel et l’ensemble des logiciels
Les raisons économiques et stratégiques du bundling et de l’usage forcé de l’IA
- La plupart des utilisateurs ne paient pas volontairement pour l’IA (seuls 8 % des Américains seraient prêts à payer un supplément)
- Il faut donc la regrouper avec des services essentiels et l’imposer pour qu’elle puisse s’installer sur le marché
- Si l’IA était un produit payant autonome, ses pertes apparaîtraient clairement et les plaintes des investisseurs et actionnaires exploseraient
- En cachant l’IA dans des services existants, les entreprises masquent les pertes comptables et donnent l’apparence d’une activité rentable
- Exemple : dans un restaurant, si l’on vendait une pierre de granit comme dessert, personne ne l’achèterait ; mais en ajoutant 1 dollar au prix du repas complet et en l’imposant à tous, on pourrait prétendre que “tous les clients achètent des pierres”
La disparition du choix pour les utilisateurs et le mécontentement qui en résulte
- En pratique, les utilisateurs n’ont aucun choix sur l’adoption de l’IA
- Google, comme Microsoft, insère automatiquement de l’IA dans les résultats de recherche
- Les plateformes ajoutent unilatéralement des fonctions d’IA sans l’accord des utilisateurs, qui ont l’impression qu’on leur dit de “se taire et accepter”
- Toutes les fonctions d’IA suivantes sont imposées, indépendamment de la volonté des utilisateurs
- Service client IA, résultats de recherche IA, IA intégrée aux logiciels, e-mails envoyés par l’IA, musique IA de Spotify, livres IA d’Amazon, etc.
- Plus on ajoute de fonctions d’IA, plus l’attrait du produit baisse (enquête auprès de 4 000 personnes : seulement 18 % d’avis favorables à l’IA)
- Des experts et les médias avertissent aussi qu’une adoption précipitée de l’IA peut nuire à la confiance des clients et aux ventes
Le mouvement de plus en plus offensif des Big Tech pour imposer l’IA
- Autrefois, elles réagissaient avec sensibilité aux retours des clients, mais aujourd’hui les Big Tech exercent une influence monopolistique
- La volonté et la liberté de choix des utilisateurs sont totalement écartées, et l’ajout unilatéral de fonctions se poursuit
- Meta (Facebook) préparerait même une fonction où des chatbots IA envoient d’abord des messages, même si l’utilisateur n’en veut pas (et il serait pratiquement impossible de désactiver complètement Messenger)
- Cette méthode s’apparente fortement à du spam, et le rejet des utilisateurs grandit
L’impossibilité réelle d’un boycott de l’IA
- Même si l’on veut refuser l’IA, il faut en pratique renoncer à tout un ensemble de services essentiels : e-mail, recherche, Word·Excel, Amazon·Spotify, etc.
- À l’avenir, même des services fondamentaux de la société comme la santé, le conseil, le droit, le recrutement ou les secours d’urgence devraient être recentrés sur l’IA
- Les grandes entreprises IT effacent déjà rapidement toute trace de services humains, sans lien avec le consentement ou le choix des utilisateurs
Le paradoxe d’une diffusion forcée d’une IA encore peu fiable
- Le plus frappant est que cette adoption forcée s’accélère alors même que l’IA n’en est pas encore à un stade suffisamment fiable
- En réalité, les réponses d’IA restent souvent aberrantes et inexactes, mais les entreprises ne semblent pas décidées à corriger sérieusement le problème
La nécessité d’une réponse sociale et juridique
- Des lois sur la transparence, l’opt-in (consentement préalable), la responsabilité, la protection de la propriété intellectuelle, etc. sont indispensables pour encadrer l’adoption de l’IA
- Si le monde politique ne réagit pas, il faudra des actions sociales comme des initiatives citoyennes ou des recours collectifs
- Les consommateurs (et jurés) finiront eux aussi par reconnaître cette réalité : on leur fait avaler l’IA de force
Des doutes sur le cadre de rivalité États-Unis–Chine
- Le texte s’oppose à l’argument selon lequel les États-Unis devraient devancer la Chine dans la course à l’adoption de l’IA
- Il affirme avec conviction que la destination visée par l’IA mènera plutôt à des résultats malheureux et à des regrets, et préfère observer ces conséquences dans un futur lointain
Conclusion
- L’IA se diffuse déjà largement dans le quotidien et dans toute la société sous l’impulsion des Big Tech, sans le consentement du public
- La cause profonde n’est pas une demande active des utilisateurs, mais la recherche de profit d’entreprises en position monopolistique et la distorsion des mécanismes de marché
- Une adoption de l’IA sans liberté de choix devrait encore s’aggraver, avec un risque élevé de regrets collectifs
4 commentaires
Ils ont déjà collé une traduction automatique pourrie au texte coréen, et voilà qu’ils ont encore évolué. Ils n’ont même pas réussi à bloquer la traduction automatique, alors on va aussi tous goûter à leur IA pourrie !
Je déteste vraiment les fonctionnalités d’IA, surtout les services qui tournent en attente en arrière-plan en prétendant vouloir aider.
S’ils s’exécutent à distance, cela pose le problème de l’exposition de mes données ; s’ils s’exécutent en local, cela pose le problème de la consommation des ressources de mon ordinateur (CPU, mémoire, batterie, ...).
Que penseriez-vous d’un service qui s’installe sur un serveur distant privé ?
Avis Hacker News
Moi aussi, je trouve ces intégrations IA agaçantes et inutiles, non pas parce que les LLM sont inutiles, mais parce que leur intégration aux produits existants n’a pas été pensée en profondeur ; cela ressemble à ces grandes entreprises qui adoptent un logiciel à la va-vite juste pour suivre une tendance. Comme l’a récemment fait remarquer petekoomen avec créativité, on assiste de nouveau au phénomène de la « voiture à cheval sans cheval de l’ère de l’IA ».
J’observe que des produits comme Cursor et Windsurf reposent sur des LLM massivement subventionnés. Ces outils servent en réalité presque de véhicules marketing pour les LLM, et la composition de leur actionnariat le rend encore plus évident. Je n’avais pas réalisé à quel point leurs coûts d’exploitation sont élevés ni à quel point ils ont besoin d’une adoption rapide à grande échelle ; cela me fait me demander à quelle vitesse ils veulent vraiment absorber le marché.
Les principaux gatekeepers de l’IA rencontrent déjà des goulets d’étranglement et des problèmes de scalabilité dans l’exploitation des grands modèles, et la situation ne devrait pas changer sans innovation technique fondamentale. Plus le monde se réorganise autour de l’IA, plus la dépendance envers ces gatekeepers et les ressources de calcul augmente. Je crains des hausses de prix sur l’accès prioritaire ou la priorité d’allocation des ressources, alors même qu’on n’est même pas encore au stade des wearables.
Toutes les données des utilisateurs doivent être envoyées à ces gatekeepers, et même si le déplacement des données vers le cloud augmente depuis longtemps, autrefois il y avait moins d’intérêt économique à lire et réutiliser ces données, donc mes connaissances personnelles et mes informations privées étaient moins exposées. Mais avec la généralisation forcée de l’IA, il devient plus opaque de savoir qui exécute le modèle et où vont mes données. Le manque de précision des LLM pose problème, mais la concentration du pouvoir chez les gatekeepers et la centralisation des données m’inquiètent tout autant. Il y a cette angoisse de voir des structures d’exploitation bon marché, au prix d’une dégradation de la qualité, s’imposer au nom de la commodité.
Je suis globalement d’accord avec l’argument, mais le style un peu maladroit de l’auteur m’a fait me demander si le texte n’avait pas été écrit par une IA. Il existe des alternatives open source ou peu coûteuses à toutes les fonctions mentionnées par l’auteur. Cela dit, dans certains domaines comme l’assurance, la pression du marché ou le lock-in des services semble rendre l’usage de l’IA inévitable. On peut soutenir que les utilisateurs en veulent vraiment, en soulignant que ChatGPT figure parmi les sites les plus utilisés au monde, mais je pense qu’il y a deux objections valables. Premièrement, les exemples abondent où la popularité ne s’est jamais traduite en volonté de payer réelle (les réseaux sociaux payants ont-ils vraiment été populaires ?). Deuxièmement, parmi les sites très populaires, rares sont les utilisateurs qui souhaitent les voir empiéter sur d’autres domaines et dominer l’ensemble du quotidien.
Je viens de voir pour la première fois Gmail me résumer un e-mail reçu. Franchement, j’aimerais qu’il s’abstienne. Je vais lire mes e-mails moi-même, et un résumé inutile ne fait qu’ajouter encore plus de texte à lire. Bien sûr, cela peut être utile à ceux qui reçoivent de grandes quantités d’e-mails de collègues à l’importance ambiguë, mais sur mon compte personnel, tout ce que je reçois vient de mes amis, et le reste devrait aller directement à la corbeille plutôt qu’être résumé. En revanche, j’apprécie vraiment le filtrage anti-spam de Gmail.
Je partage entièrement le fond de ce texte. L’« IA » peut certes créer un petit marché pour des tricheurs de niveau intermédiaire, mais pour la plupart des utilisateurs c’est du spam, un peu comme Clippy que personne n’avait demandé. J’espère qu’un jour l’IA disparaîtra elle aussi comme Clippy.
Je ne suis pas d’accord avec l’idée que « tout le monde voulait Internet ». Beaucoup de gens n’y voyaient aucun intérêt avant l’arrivée du smartphone, et si celui-ci s’est imposé, c’est parce qu’il était plus pratique malgré le fait qu’il soit plus inconfortable qu’un ordinateur de bureau. Cette logique marketing du « c’est devenu moins confortable, mais plus pratique » est exactement celle de l’IA. J’en déduis que le grand public finira lui aussi par l’accepter.
J’ai l’impression de parler dans le vide. Le problème de l’IA est trop subtil : la plupart des gens se contentent d’une « réponse plausible » et ne se rendent même pas compte à quel point c’est un outil créatif inédit, au niveau d’un nouveau langage de programmation en langage naturel. Pour obtenir des succès répétés, il est indispensable d’écrire des prompts efficaces, mais peu de gens font réellement cet effort. Même la discussion sur le prompt engineering est balayée d’un revers de main avec des remarques du type « écrire des prompts, c’est ça de l’ingénierie ? ». Pourtant, c’est précisément un processus technique sophistiqué que l’industrie devrait prendre au sérieux. Très peu de personnes comprennent réellement la puissance subtile des LLM, et dans les milieux institutionnels on a plutôt tendance à considérer cela comme une arnaque.
Pourquoi les CEO sont-ils obsédés par l’IA ? Parce qu’il suffit de dire « avec de l’IA » pour attirer immédiatement les investisseurs en actions. La demande des investisseurs est précisément ce qui empêche l’effondrement du « business model IA ». En fin de compte, c’est une bulle. Mais une bulle qui peut durer encore un moment.
ChatGPT figure parmi les 5 sites les plus populaires au monde et continue de croître rapidement. Un produit aussi populaire ne peut pas s’expliquer uniquement par une résistance du marché. Les utilisateurs d’Instagram aussi sont très peu nombreux à être réellement prêts à payer (autour de 8 % ?). Cela signifie-t-il pour autant qu’Instagram soit un produit imposé dont le public ne veut pas ?