- Cela fait plus de deux ans que ChatGPT a été lancé, et les grands modèles de langage (LLM) sont passés d’un concept révolutionnaire à l’une des plus grandes arnaques du XXIe siècle
- Sam Altman, CEO d’OpenAI, a gonflé cette bulle pour vendre les LLM à une économie cherchant à exploiter ou remplacer le travail humain
- Les LLM ont des cas d’usage, comme le code ou la recherche, mais le fait que certaines personnes utilisent des logiciels fondés sur les LLM ne prouve pas que l’IA générative soit durable ni qu’il s’agisse d’une véritable industrie de plusieurs milliers de milliards de dollars
- Comme cette conversation est devenue trop lassante, voici quelques réfutations pour ne plus avoir à le répéter
- « Ed » désigne l’auteur lui-même, Edward Zitron
« Ed, il existe plusieurs types d’intelligence artificielle »
- « Je le sais déjà » Ici, je parle de l’« IA générative »
« Ed, ChatGPT a 300 millions d’utilisateurs. Ça ne prouve pas déjà suffisamment l’existence de l’industrie ? »
- « Avoir beaucoup d’utilisateurs ne garantit pas la viabilité réelle du marché » ChatGPT a été excessivement mis en avant par toutes sortes de médias, et il existe des zones d’ombre qui entrent en contradiction avec les statistiques réelles
- « 3 millions ou 300 millions, ce chiffre à lui seul ne prouve rien » 300 millions d’utilisateurs, c’est simplement ce qui peut arriver quand le produit le plus commenté est accessible gratuitement
- « Si l’on regarde des indicateurs concrets, comme le taux de conversion du mensuel vers le payant, la rentabilité potentielle semble au contraire faible » Il est donc difficile d’accorder une confiance absolue au seul nombre d’utilisateurs
« Ed, ChatGPT n’en est qu’à ses débuts. Il ne suffit pas d’attendre que ça s’améliore ? »
- « Cela fait déjà plus de deux ans que des investissements massifs et une attention énorme y sont consacrés » La recherche basée sur les Transformers remonte à 2017, et des milliards de dollars ont déjà été engloutis
- « Et malgré cela, il n’existe toujours pas de véritable “killer app” » Contrairement au cloud computing ou au smartphone, il n’y a toujours pas de cas d’usage immédiat et largement adopté
- « Alors même qu’il existe peu de startups ayant reçu un tel niveau d’attention du public, les résultats concrets restent maigres » Après plus de deux ans d’investissements et de promotion concentrés, on ne voit toujours pas de produit que tout le monde doive absolument utiliser
« Ed, ChatGPT, c’est le moment iPhone de l’IA générative. Ce n’est pas le plus grand lancement logiciel de l’histoire ? »
- « L’iPhone a bouleversé la notion même de téléphone et d’ordinateur, mais ChatGPT n’a pas eu cet effet » Contrairement aux vastes nouvelles industries créées par l’iPhone, aucun service indispensable né de l’IA générative ne se dessine
- « Si ChatGPT disparaissait demain, cela aurait-il un impact majeur sur le quotidien ? » L’auteur estime que l’effet serait minime pour « la grande majorité des gens »
- « Les “revenus IA” de Microsoft ne sont pas des profits réels, mais un agrégat large et flou » Les géants de la tech mettent l’IA en avant, mais cela ne se traduit pas réellement par des revenus nets clairs ni par une transformation de l’industrie dans son ensemble
« Ed, au fond, ce problème finira bien par être résolu un jour, non ? »
- « J’aimerais savoir quand, exactement » OpenAI comme Anthropic brûlent chacune des dizaines de milliards de dollars par an sans disposer d’un modèle clair de génération de revenus
- « Leurs affirmations (“les coûts vont bientôt baisser”, “nous serons rentables dans quelques années”) ne sont que des prévisions internes » En pratique, les solutions avancées restent peu concrètes
- « On peut douter de la capacité d’Anthropic ou d’OpenAI à continuer durablement à brûler de l’argent tout en hypothéquant l’avenir »
« Ed, qu’est-ce qu’on est censés faire, au juste ? »
- « OpenAI et Anthropic enregistrent toutes deux des pertes énormes tout en affirmant qu’elles seront rentables vers 2027 » Mais les fondements concrets de cette promesse sont faibles
- « Dario Amodei (Anthropic) affirme qu’en 2027 tout deviendra possible, mais le chemin précis pour y parvenir reste flou » L’auteur y voit surtout un optimisme excessif
- « D’après les documents des entreprises, des activités comme les revenus API seraient centrales, mais il est permis de douter qu’elles suffisent à combler des dizaines de milliards de dollars »
- En somme, cela pose une question fondamentale : « l’industrie de l’IA générative est-elle réellement durable et porteuse de sens ? »
« Ed, qu’est-ce que ces idiots sont en train de faire, concrètement ? »
- « Tout le monde s’acharne sur des modèles de “Reasoning”, le “Chain-of-thought” et autres fonctions avancées, mais on peut douter que cela débouche sur un changement réellement innovant » Avec l’arrivée de modèles open source comme DeepSeek, la concurrence devient encore plus féroce
- « La nouvelle fonctionnalité “Deep Research” d’OpenAI va chercher des sources sur le web et produit un rapport, mais la fiabilité des sources est faible et les citations sont répétitives, ce qui limite sa valeur d’usage réelle »
- « Ces produits d’IA générative sont globalement lourds et coûteux, et ne produisent au fond que des “résultats” longs et bien habillés » Il est difficile d’y voir un véritable travail de “recherche”
« Ed, j’ai l’impression de devenir fou »
- « D’innombrables médias et investisseurs parlent de l’IA générative comme si elle allait bientôt tout bouleverser, alors que les produits restent superficiels et les revenus dérisoires »
- « Les CEO d’entreprise font peur en affirmant que l’IA remplacera les emplois, mais les preuves concrètes restent faibles » Cela ressemble surtout à une exagération destinée à soutenir le cours des actions
- « Si cette bulle éclate, le choc pourrait dépasser celui de la bulle internet » L’auteur soutient qu’on ne fait qu’accroître les effets pervers : gaspillage massif d’investissements, de ressources environnementales et d’infrastructure, anxiété des travailleurs face à l’emploi
- « On peut se demander si c’est vraiment l’avenir, ou bien une gigantesque escroquerie »
- Aucune “killer app” réellement concrète et significative ne s’est encore imposée, tandis que les entreprises supportent des coûts énormes et accumulent les pertes
- Par rapport à la couverture médiatique et à la communication des entreprises, la valeur réellement perçue reste faible, et la soutenabilité à long terme suscite aussi des doutes
- Globalement, l’auteur estime qu’à ce stade, le marché de l’IA générative se rapproche davantage d’un « Con » que d’autre chose
12 commentaires
Quand on utilise correctement les modèles de raisonnement, c’est absolument énorme... Ils créent eux-mêmes des cas de test, les exécutent, proposent des techniques d’optimisation et les intègrent, c’est vraiment dingue.
Dans mon cas, cela a complètement bouleversé la manière dont je cherche et j'apprends ce que je ne connais pas, et je travaille aujourd'hui à une vitesse et selon des méthodes totalement différentes d'il y a six mois, non seulement pour coder, mais aussi dans la façon même de définir l'orientation technique d'un projet. Sans même parler du gain de productivité.
Il y a à peine un an, quand je voyais autour de moi des gens vouer un culte au code généré par l'IA, j'avais facilement 200 points d'interrogation dans la tête ; même pour moi, les changements récents sont vraiment bouleversants.
Autrement dit, à côté de l'IA, le smartphone n'est au fond qu'un téléphone auquel on a greffé un navigateur web, rien de bien spécial, non ?
Quand on l’utilise soi-même, on a parfois vraiment l’impression d’avoir affaire à une sorte de voyant.
Ceux qui obtiennent par hasard un bon résultat sont tellement surpris qu’ils en font la promotion partout, tandis que la majorité de ceux qui reçoivent des réponses peu satisfaisantes, voire carrément fausses, passent simplement à autre chose en se disant que ça n’en est encore qu’à ce stade...
Même en laissant de côté la lassitude face au battage médiatique et au FOMO, ainsi que les réactions émotionnelles que cela suscite, je pense qu’il y a largement matière à réfléchir à notre manière d’aborder les nouvelles technologies
Cela m’a rappelé un article qui documentait l’air du temps des années 1980~1990, lorsque les technologies d’automatisation du lavage ont été introduites, alors j’ajoute cette citation.
> À une époque comme aujourd’hui, où même les smartphones bourrés de fonctions entièrement automatiques ne sont plus qualifiés d’ordinateurs, on les aurait sans doute simplement appelés des lave-linge entièrement automatiques. Mais à l’époque, pour exprimer de façon parlante l’automatisation du lavage, il n’y avait en quelque sorte pas d’autre mot que « ordinateur ». Les propriétaires de laveries, les consommateurs, et même la publicité partageaient cette manière de voir.
> À propos de ce phénomène, une chronique du journal Hankyoreh du 27 novembre 1991, intitulée « Les malades de l’omnipotence de l’ordinateur », disait aussi : « Avec la vague de l’informatique dans notre pays, on en est même arrivé à une époque où, jusque dans les laveries, il faut afficher “lavage informatique” pour que le commerce marche. »
https://m.imaeil.com/page/view/2019101522053521827
Ah, c’est donc pour ça qu’il y avait des boutiques avec des noms comme « Computer Laundry Cleaning ». C’est amusant.
Je partage en partie certains points, et je pense aussi que certains passages sont exagérés, mais le ton du texte me paraît trop violent. On a l’impression qu’il déroule son argumentation avec une conclusion déjà décidée d’avance.
> Ed souligne parfois de bons points, mais il est très en colère contre les grandes entreprises technologiques, et sa colère brouille souvent son message
Gardez cette phrase en tête en lisant le commentaire Hacker News ci-dessous. haha
Quand je regarde les outils de développement actuels, du point de vue des développeurs, j’ai l’impression qu’il existe déjà suffisamment de killer apps, mais du point de vue des non-développeurs, je pense qu’on peut aussi le ressentir ainsi.
C’est regrettable de voir un texte qui demande en quoi cela vaut mieux qu’une lampe alors que le soleil se lève déjà et que l’aube pointe.
S’il y a un point sur lequel je suis d’accord avec l’auteur, c’est que je ne parierais ni sur la victoire d’OpenAI, ni sur celle d’Anthropic, ni sur celle de xAI, ni sur celle de Google ou de MS. Il est extrêmement incertain de savoir quelle entreprise gagnera de l’argent ou non.
Mais il est clair qu’on ne pourra pas empêcher, dans les années à venir, une hausse brutale de la productivité de tout le travail intellectuel. Je ne sais pas si cela tournera sur du matériel local ou sur des serveurs distants, ni si cela fonctionnera gratuitement ou de manière payante. Cependant, même si toutes les entreprises d’IA actuelles échouent à monétiser leurs activités et finissent perdantes, le fait que le monde ait changé grâce aux capitaux qu’elles ont investis ne disparaîtra pas. Qu’elles deviennent rentables en 2027 ou qu’elles fassent faillite, le monde change.
C’est un commentaire auquel je m’identifie beaucoup. Je suis devenu quelqu’un qui ne peut plus développer sans Cursor.
Mais je pense toujours que le problème de la rentabilité des coûts de l’IA reste important, donc moi non plus, je ne parie sur la victoire d’aucune entreprise.
Ouf, moi je suis déjà devenu quelqu’un qui ne peut plus développer sans IA....
Avis Hacker News
Si mon Android ou mon iPhone disparaissait, j’aurais l’impression d’avoir voyagé un siècle en arrière. Si Google Search disparaissait, je ne pourrais plus travailler. Si le cloud disparaissait, je ne pourrais plus créer d’apps. Il ne resterait plus que la bibliothèque comme solution.
Je suis un peu surpris par l’hostilité envers les LLM chez les développeurs. En tant que nouvel outil, cela demande de l’apprentissage et ce n’est pas toujours très bon, mais quiconque a utilisé un IDE avec une vraie assistance au code intégrée (par ex. le mode Copilot de VS Code — pas le mode Chat, avec Claude 3.5) sait que, honnêtement, ce n’est pas tellement pire qu’un développeur junior et c’est 100 fois plus rapide. Si le code est mauvais, on le jette et on réessaie 10 secondes plus tard. En tant que développeur très expérimenté, le gain de vitesse est énorme. Il y a encore 6 mois, c’était affreux. Je me demande à quel point ce sera meilleur dans 1 ou 2 ans. Il ne peut pas encore exécuter les tests unitaires, lire les erreurs de console ni accéder aux indices de l’IDE, mais il génère quand même la plupart du temps du code correct. Avec une intégration plus poussée, cela continuera de s’améliorer.
En mettant de côté la hype et les anecdotes, l’IA générative est restée au même point depuis des mois. La « grande chose » qu’ils ont pu faire, c’est utiliser le « raisonnement » pour faire « réfléchir » les grands modèles de langage.
La direction est la bonne.
/completionsn’est au fond qu’un simple +10 % ou un assistant saccadé.C’est l’un des textes les plus biaisés que j’aie lus. Depuis des mois, Ed prédit que la bulle de l’IA va éclater « d’un moment à l’autre », et il cite souvent les revenus des entreprises de l’IA comme signe que leurs produits ne sont pas viables. Or les valorisations reposent surtout sur les progrès en R&D, et non sur la théorie selon laquelle l’adoption massive des produits existants va augmenter. Je pense qu’il faut voir la situation actuelle comme une compétition de R&D entre acteurs privés.
La question est : qu’a réellement accompli l’IA générative, et où sont les produits ?
Ed soulève parfois de bons points, mais il est très en colère contre les Big Tech, et cette colère brouille souvent son message.
Une grande partie de notre problème vient du fait qu’il est possible de créer une « entreprise » avec un modèle économique déficitaire, tant qu’on peut laver le cerveau de tout le monde jusqu’à leur faire croire que le « produit » est bon. Dans un monde normal, ce genre d’entreprises échouerait, et l’IA continuerait à progresser au fil des années ou des décennies, avec de petits échecs et de petits succès. Mais à la place, comme quelques riches sont prêts à jouer, on voit déferler des absurdités.
Et il n’y a toujours pas de killer app ! Aucun produit que tout le monde adore, aucun moment iPhone.