10 points par GN⁺ 2025-02-19 | 12 commentaires | Partager sur WhatsApp
  • Cela fait plus de deux ans que ChatGPT a été lancé, et les grands modèles de langage (LLM) sont passés d’un concept révolutionnaire à l’une des plus grandes arnaques du XXIe siècle
  • Sam Altman, CEO d’OpenAI, a gonflé cette bulle pour vendre les LLM à une économie cherchant à exploiter ou remplacer le travail humain
  • Les LLM ont des cas d’usage, comme le code ou la recherche, mais le fait que certaines personnes utilisent des logiciels fondés sur les LLM ne prouve pas que l’IA générative soit durable ni qu’il s’agisse d’une véritable industrie de plusieurs milliers de milliards de dollars
  • Comme cette conversation est devenue trop lassante, voici quelques réfutations pour ne plus avoir à le répéter
  • « Ed » désigne l’auteur lui-même, Edward Zitron

« Ed, il existe plusieurs types d’intelligence artificielle »

  • « Je le sais déjà » Ici, je parle de l’« IA générative »

« Ed, ChatGPT a 300 millions d’utilisateurs. Ça ne prouve pas déjà suffisamment l’existence de l’industrie ? »

  • « Avoir beaucoup d’utilisateurs ne garantit pas la viabilité réelle du marché » ChatGPT a été excessivement mis en avant par toutes sortes de médias, et il existe des zones d’ombre qui entrent en contradiction avec les statistiques réelles
  • « 3 millions ou 300 millions, ce chiffre à lui seul ne prouve rien » 300 millions d’utilisateurs, c’est simplement ce qui peut arriver quand le produit le plus commenté est accessible gratuitement
  • « Si l’on regarde des indicateurs concrets, comme le taux de conversion du mensuel vers le payant, la rentabilité potentielle semble au contraire faible » Il est donc difficile d’accorder une confiance absolue au seul nombre d’utilisateurs

« Ed, ChatGPT n’en est qu’à ses débuts. Il ne suffit pas d’attendre que ça s’améliore ? »

  • « Cela fait déjà plus de deux ans que des investissements massifs et une attention énorme y sont consacrés » La recherche basée sur les Transformers remonte à 2017, et des milliards de dollars ont déjà été engloutis
  • « Et malgré cela, il n’existe toujours pas de véritable “killer app” » Contrairement au cloud computing ou au smartphone, il n’y a toujours pas de cas d’usage immédiat et largement adopté
  • « Alors même qu’il existe peu de startups ayant reçu un tel niveau d’attention du public, les résultats concrets restent maigres » Après plus de deux ans d’investissements et de promotion concentrés, on ne voit toujours pas de produit que tout le monde doive absolument utiliser

« Ed, ChatGPT, c’est le moment iPhone de l’IA générative. Ce n’est pas le plus grand lancement logiciel de l’histoire ? »

  • « L’iPhone a bouleversé la notion même de téléphone et d’ordinateur, mais ChatGPT n’a pas eu cet effet » Contrairement aux vastes nouvelles industries créées par l’iPhone, aucun service indispensable né de l’IA générative ne se dessine
  • « Si ChatGPT disparaissait demain, cela aurait-il un impact majeur sur le quotidien ? » L’auteur estime que l’effet serait minime pour « la grande majorité des gens »
  • « Les “revenus IA” de Microsoft ne sont pas des profits réels, mais un agrégat large et flou » Les géants de la tech mettent l’IA en avant, mais cela ne se traduit pas réellement par des revenus nets clairs ni par une transformation de l’industrie dans son ensemble

« Ed, au fond, ce problème finira bien par être résolu un jour, non ? »

  • « J’aimerais savoir quand, exactement » OpenAI comme Anthropic brûlent chacune des dizaines de milliards de dollars par an sans disposer d’un modèle clair de génération de revenus
  • « Leurs affirmations (“les coûts vont bientôt baisser”, “nous serons rentables dans quelques années”) ne sont que des prévisions internes » En pratique, les solutions avancées restent peu concrètes
  • « On peut douter de la capacité d’Anthropic ou d’OpenAI à continuer durablement à brûler de l’argent tout en hypothéquant l’avenir »

« Ed, qu’est-ce qu’on est censés faire, au juste ? »

  • « OpenAI et Anthropic enregistrent toutes deux des pertes énormes tout en affirmant qu’elles seront rentables vers 2027 » Mais les fondements concrets de cette promesse sont faibles
  • « Dario Amodei (Anthropic) affirme qu’en 2027 tout deviendra possible, mais le chemin précis pour y parvenir reste flou » L’auteur y voit surtout un optimisme excessif
  • « D’après les documents des entreprises, des activités comme les revenus API seraient centrales, mais il est permis de douter qu’elles suffisent à combler des dizaines de milliards de dollars »
  • En somme, cela pose une question fondamentale : « l’industrie de l’IA générative est-elle réellement durable et porteuse de sens ? »

« Ed, qu’est-ce que ces idiots sont en train de faire, concrètement ? »

  • « Tout le monde s’acharne sur des modèles de “Reasoning”, le “Chain-of-thought” et autres fonctions avancées, mais on peut douter que cela débouche sur un changement réellement innovant » Avec l’arrivée de modèles open source comme DeepSeek, la concurrence devient encore plus féroce
  • « La nouvelle fonctionnalité “Deep Research” d’OpenAI va chercher des sources sur le web et produit un rapport, mais la fiabilité des sources est faible et les citations sont répétitives, ce qui limite sa valeur d’usage réelle »
  • « Ces produits d’IA générative sont globalement lourds et coûteux, et ne produisent au fond que des “résultats” longs et bien habillés » Il est difficile d’y voir un véritable travail de “recherche”

« Ed, j’ai l’impression de devenir fou »

  • « D’innombrables médias et investisseurs parlent de l’IA générative comme si elle allait bientôt tout bouleverser, alors que les produits restent superficiels et les revenus dérisoires »
  • « Les CEO d’entreprise font peur en affirmant que l’IA remplacera les emplois, mais les preuves concrètes restent faibles » Cela ressemble surtout à une exagération destinée à soutenir le cours des actions
  • « Si cette bulle éclate, le choc pourrait dépasser celui de la bulle internet » L’auteur soutient qu’on ne fait qu’accroître les effets pervers : gaspillage massif d’investissements, de ressources environnementales et d’infrastructure, anxiété des travailleurs face à l’emploi
  • « On peut se demander si c’est vraiment l’avenir, ou bien une gigantesque escroquerie »
    • Aucune “killer app” réellement concrète et significative ne s’est encore imposée, tandis que les entreprises supportent des coûts énormes et accumulent les pertes
    • Par rapport à la couverture médiatique et à la communication des entreprises, la valeur réellement perçue reste faible, et la soutenabilité à long terme suscite aussi des doutes
    • Globalement, l’auteur estime qu’à ce stade, le marché de l’IA générative se rapproche davantage d’un « Con » que d’autre chose

12 commentaires

 
ifmkl 2025-02-20

Quand on utilise correctement les modèles de raisonnement, c’est absolument énorme... Ils créent eux-mêmes des cas de test, les exécutent, proposent des techniques d’optimisation et les intègrent, c’est vraiment dingue.

 
dicebattle 2025-02-20

Dans mon cas, cela a complètement bouleversé la manière dont je cherche et j'apprends ce que je ne connais pas, et je travaille aujourd'hui à une vitesse et selon des méthodes totalement différentes d'il y a six mois, non seulement pour coder, mais aussi dans la façon même de définir l'orientation technique d'un projet. Sans même parler du gain de productivité.

Il y a à peine un an, quand je voyais autour de moi des gens vouer un culte au code généré par l'IA, j'avais facilement 200 points d'interrogation dans la tête ; même pour moi, les changements récents sont vraiment bouleversants.
Autrement dit, à côté de l'IA, le smartphone n'est au fond qu'un téléphone auquel on a greffé un navigateur web, rien de bien spécial, non ?

 
hhcrux 2025-02-20

Quand on l’utilise soi-même, on a parfois vraiment l’impression d’avoir affaire à une sorte de voyant.
Ceux qui obtiennent par hasard un bon résultat sont tellement surpris qu’ils en font la promotion partout, tandis que la majorité de ceux qui reçoivent des réponses peu satisfaisantes, voire carrément fausses, passent simplement à autre chose en se disant que ça n’en est encore qu’à ce stade...

 
savvykang 2025-02-19

Même en laissant de côté la lassitude face au battage médiatique et au FOMO, ainsi que les réactions émotionnelles que cela suscite, je pense qu’il y a largement matière à réfléchir à notre manière d’aborder les nouvelles technologies

  1. Distinguer les différentes formes d’IA : algorithmes/logique, apprentissage automatique, analyse du langage naturel, génération de texte/d’images/de vidéo/de voix
  2. La pérennité du secteur de l’IA
  3. Du point de vue des utilisateurs de l’IA, le rapport coût-efficacité et l’utilité attendue
 
savvykang 2025-02-19

Cela m’a rappelé un article qui documentait l’air du temps des années 1980~1990, lorsque les technologies d’automatisation du lavage ont été introduites, alors j’ajoute cette citation.

> À une époque comme aujourd’hui, où même les smartphones bourrés de fonctions entièrement automatiques ne sont plus qualifiés d’ordinateurs, on les aurait sans doute simplement appelés des lave-linge entièrement automatiques. Mais à l’époque, pour exprimer de façon parlante l’automatisation du lavage, il n’y avait en quelque sorte pas d’autre mot que « ordinateur ». Les propriétaires de laveries, les consommateurs, et même la publicité partageaient cette manière de voir.

> À propos de ce phénomène, une chronique du journal Hankyoreh du 27 novembre 1991, intitulée « Les malades de l’omnipotence de l’ordinateur », disait aussi : « Avec la vague de l’informatique dans notre pays, on en est même arrivé à une époque où, jusque dans les laveries, il faut afficher “lavage informatique” pour que le commerce marche. »

https://m.imaeil.com/page/view/2019101522053521827

 
gooksangom6394 2025-02-19

Ah, c’est donc pour ça qu’il y avait des boutiques avec des noms comme « Computer Laundry Cleaning ». C’est amusant.

 
dbs0829 2025-02-19

Je partage en partie certains points, et je pense aussi que certains passages sont exagérés, mais le ton du texte me paraît trop violent. On a l’impression qu’il déroule son argumentation avec une conclusion déjà décidée d’avance.

 
xguru 2025-02-19

> Ed souligne parfois de bons points, mais il est très en colère contre les grandes entreprises technologiques, et sa colère brouille souvent son message

Gardez cette phrase en tête en lisant le commentaire Hacker News ci-dessous. haha
Quand je regarde les outils de développement actuels, du point de vue des développeurs, j’ai l’impression qu’il existe déjà suffisamment de killer apps, mais du point de vue des non-développeurs, je pense qu’on peut aussi le ressentir ainsi.

 
youknowone 2025-02-19

C’est regrettable de voir un texte qui demande en quoi cela vaut mieux qu’une lampe alors que le soleil se lève déjà et que l’aube pointe.

S’il y a un point sur lequel je suis d’accord avec l’auteur, c’est que je ne parierais ni sur la victoire d’OpenAI, ni sur celle d’Anthropic, ni sur celle de xAI, ni sur celle de Google ou de MS. Il est extrêmement incertain de savoir quelle entreprise gagnera de l’argent ou non.

Mais il est clair qu’on ne pourra pas empêcher, dans les années à venir, une hausse brutale de la productivité de tout le travail intellectuel. Je ne sais pas si cela tournera sur du matériel local ou sur des serveurs distants, ni si cela fonctionnera gratuitement ou de manière payante. Cependant, même si toutes les entreprises d’IA actuelles échouent à monétiser leurs activités et finissent perdantes, le fait que le monde ait changé grâce aux capitaux qu’elles ont investis ne disparaîtra pas. Qu’elles deviennent rentables en 2027 ou qu’elles fassent faillite, le monde change.

 
ethanhur 2025-02-19

C’est un commentaire auquel je m’identifie beaucoup. Je suis devenu quelqu’un qui ne peut plus développer sans Cursor.

Mais je pense toujours que le problème de la rentabilité des coûts de l’IA reste important, donc moi non plus, je ne parie sur la victoire d’aucune entreprise.

 
huiya 2025-02-19

Ouf, moi je suis déjà devenu quelqu’un qui ne peut plus développer sans IA....

 
GN⁺ 2025-02-19
Avis Hacker News
  • Si mon Android ou mon iPhone disparaissait, j’aurais l’impression d’avoir voyagé un siècle en arrière. Si Google Search disparaissait, je ne pourrais plus travailler. Si le cloud disparaissait, je ne pourrais plus créer d’apps. Il ne resterait plus que la bibliothèque comme solution.

    • Si des dérivés comme ChatGPT ou Copilot disparaissaient, ce serait légèrement gênant. Je lirais la documentation, j’écrirais du code un peu plus lentement, et je continuerais. En fait, je l’ai déjà fait plusieurs fois (Copilot with GPT-3.5, Cursor, Copilot with GPT-4, Zed with Claude, etc.)
    • Si vous êtes dans la Silicon Valley depuis longtemps, vous avez vu passer plusieurs cycles de hype. L’IA est le dernier en date. Cela ne veut pas dire que l’IA est une arnaque, mais il y a une tendance à l’exagération et aux promesses excessives pour vendre.
    • L’IA sert principalement à écrire du texte et du code. L’intégrer réellement dans les workflows à l’échelle du marché prendra du temps.
    • Un excellent article, ni trop pessimiste ni trop optimiste, est The AI Summer de Benedict Evans. Il soutient que les grandes entreprises sont très enthousiastes, mais que l’adoption réelle reste faible.
    • « Les LLM ne sont pas un produit en eux-mêmes — ce sont une technologie qui permet des outils ou des fonctionnalités, et ils doivent être dissociés ou recomposés avec de nouveaux frameworks, UX et outils pour devenir utiles. Cela prendra plus de temps. »
  • Je suis un peu surpris par l’hostilité envers les LLM chez les développeurs. En tant que nouvel outil, cela demande de l’apprentissage et ce n’est pas toujours très bon, mais quiconque a utilisé un IDE avec une vraie assistance au code intégrée (par ex. le mode Copilot de VS Code — pas le mode Chat, avec Claude 3.5) sait que, honnêtement, ce n’est pas tellement pire qu’un développeur junior et c’est 100 fois plus rapide. Si le code est mauvais, on le jette et on réessaie 10 secondes plus tard. En tant que développeur très expérimenté, le gain de vitesse est énorme. Il y a encore 6 mois, c’était affreux. Je me demande à quel point ce sera meilleur dans 1 ou 2 ans. Il ne peut pas encore exécuter les tests unitaires, lire les erreurs de console ni accéder aux indices de l’IDE, mais il génère quand même la plupart du temps du code correct. Avec une intégration plus poussée, cela continuera de s’améliorer.

  • En mettant de côté la hype et les anecdotes, l’IA générative est restée au même point depuis des mois. La « grande chose » qu’ils ont pu faire, c’est utiliser le « raisonnement » pour faire « réfléchir » les grands modèles de langage.

    • Il manque les évolutions les plus intéressantes de l’IA générative sur les 18 derniers mois.
    • Multimodalité : les LLM peuvent désormais ingérer des images, de l’audio et (dans une certaine mesure) de la vidéo. C’est une énorme amélioration par rapport aux modèles uniquement textuels de 2023, et cela ouvre beaucoup de nouvelles applications pour cette technologie. J’utilise tous les jours des modèles d’image et d’audio (ChatGPT Advanced Voice).
    • Longueur de contexte. GPT-4 pouvait traiter 8 000 tokens. Aujourd’hui, presque tous les modèles de pointe sont à plus de 100 000, et les plus gros traitent 1 ou 2 millions de tokens. Cela les rend beaucoup plus utiles.
    • Coût. Les bons modèles actuels sont 100 fois moins chers que les modèles de l’époque GPT-3, tout en étant bien plus performants.
  • La direction est la bonne.

    • À mon avis, la GenAI est un assistant. Copilot produit efficacement du code modèle.
    • Avec ChatGPT, on peut lire des e-mails et vérifier le ton.
    • Claude peut commenter du matériel photo.
    • Claude est très bon en reconnaissance d’images sur des choses rares.
    • Ce dont je suis arrivé à être convaincu, c’est que l’API /completions n’est au fond qu’un simple +10 % ou un assistant saccadé.
    • Je n’ai pas besoin d’un agent moins intelligent qu’un stagiaire qui s’agite à toute vitesse dans ma base de code, ce qui correspond grosso modo à ce que font les outils de génération de code.
    • J’ai vu une startup de voitures autonomes utiliser des réseaux neuronaux GPT pour reconnaître des images pendant la conduite. J’estimerais ce cas d’usage très prometteur.
    • J’oserais dire que l’essai de Shirky sur les bullshit jobs est en train d’être confirmé, parce que si une IA qui hallucine peut faire ça...
    • Bref.
    • Je ne pense pas que les usages de base justifient les dépenses. Il y a beaucoup trop de fiel, mais aussi beaucoup trop de hype.
  • C’est l’un des textes les plus biaisés que j’aie lus. Depuis des mois, Ed prédit que la bulle de l’IA va éclater « d’un moment à l’autre », et il cite souvent les revenus des entreprises de l’IA comme signe que leurs produits ne sont pas viables. Or les valorisations reposent surtout sur les progrès en R&D, et non sur la théorie selon laquelle l’adoption massive des produits existants va augmenter. Je pense qu’il faut voir la situation actuelle comme une compétition de R&D entre acteurs privés.

  • La question est : qu’a réellement accompli l’IA générative, et où sont les produits ?

    • Le produit, en réalité, c’est ChatGPT.
    • Si les LLM étaient une bulle, on devrait s’attendre à ce que l’essentiel des revenus d’OpenAI vienne de l’API (celle qu’utilisent les startups financées pour faire de la « magie IA », et la bulle éclaterait lorsque les investisseurs cesseraient de les financer). Mais selon https://futuresearch.ai/openai-revenue-report, l’API ne représente que 15 % des revenus, et les 85 % restants viennent de diverses offres d’abonnement, notamment l’abonnement ChatGTP Plus qui représente 55 % — autrement dit, directement des consommateurs.
    • Cela ne prouve pas que ce n’est pas une bulle (les consommateurs peuvent se rendre compte plus tard que c’est inutile et partir), mais cela réduit cette probabilité.
  • Ed soulève parfois de bons points, mais il est très en colère contre les Big Tech, et cette colère brouille souvent son message.

    • Lire ses dernières sorties me rappelle l’époque de l’IPO de Google, quand Karl Denninger critiquait Google en affirmant qu’il ne gagnerait jamais assez d’argent pour justifier un cours à 85 $ (si vous aviez investi 1 000 $ à l’époque, cela vaudrait environ 375 000 $ aujourd’hui).
  • Une grande partie de notre problème vient du fait qu’il est possible de créer une « entreprise » avec un modèle économique déficitaire, tant qu’on peut laver le cerveau de tout le monde jusqu’à leur faire croire que le « produit » est bon. Dans un monde normal, ce genre d’entreprises échouerait, et l’IA continuerait à progresser au fil des années ou des décennies, avec de petits échecs et de petits succès. Mais à la place, comme quelques riches sont prêts à jouer, on voit déferler des absurdités.

  • Et il n’y a toujours pas de killer app ! Aucun produit que tout le monde adore, aucun moment iPhone.

    • Je soutiendrais fermement que les assistants de codage sont la première killer app de l’IA. Copilot, Cursor, Windsurf, etc.