9 points par GN⁺ 2026-02-27 | 1 commentaires | Partager sur WhatsApp
  • OpenAI a acquis une très large base d’utilisateurs sans avantage technologique propriétaire, mais l’engagement et la rétention restent faibles, dans une structure dépourvue d’effets de réseau
  • Aujourd’hui, plus de 6 organisations ont lancé des modèles de frontière de niveau comparable, se dépassant mutuellement à quelques semaines d’intervalle, sans qu’aucune n’ait établi un avantage structurel impossible à rattraper
  • Google et Meta exploitent l’avantage de leurs produits existants et de leurs canaux de distribution pour gagner rapidement des parts de marché, tandis que l’avance initiale de ChatGPT dans un produit peu différencié est difficile à maintenir
  • OpenAI propose une stratégie de plateforme full stack, des puces et de l’infrastructure jusqu’aux applications grand public, mais sans effets de réseau ni verrouillage d’écosystème comparables à Windows ou iOS
  • Le véritable enjeu stratégique est de savoir qui créera les expériences IA et cas d’usage de nouvelle génération qui n’existent pas encore, dans un contexte où personne ne peut tout inventer seul
  • En fin de compte, la compétitivité d’OpenAI dépend de sa capacité d’exécution continue et de sa vitesse d’adaptation au marché, ce qui ressemble moins à une stratégie qu’à une compétition d’exécution au quotidien

Les quatre défis fondamentaux d’OpenAI

  • 1. OpenAI ne dispose ni d’un avantage technologique ni d’un avantage produit propriétaire ; sa base d’utilisateurs est vaste mais l’engagement, la rétention et les effets de réseau sont faibles
    • Les modèles eux-mêmes sont d’un niveau similaire à ceux des concurrents, et les produits grand public manquent de product-market fit
  • 2. La structure de captation de valeur et l’expérience produit sur le marché de l’IA évoluent rapidement. Les acteurs établis comme des milliers de fondateurs créent de nouvelles fonctionnalités, expériences et business models, avec le risque que les foundation models deviennent une infrastructure générique à faible marge
  • 3. OpenAI et Anthropic doivent entrer dans une industrie capitalistique sans base de distribution ni flux de trésorerie issus de produits existants (Cross the Chasm)
    • Les entreprises disposant déjà de produits doivent elles aussi se cannibaliser, mais l’époque où l’on disait que Google ne savait pas faire d’IA est depuis longtemps révolue
  • 4. En raison d’une structure organisationnelle centrée sur la recherche, le contrôle de la feuille de route produit et de la stratégie reste limité. On ouvre ses e-mails le matin, le labo a résolu quelque chose, et le travail consiste ensuite à en faire un bouton

> « Jakub et Mark ont défini l’orientation de recherche à long terme. Puis, après plusieurs mois de travail, des résultats étonnants sont arrivés, et un chercheur m’a contactée pour me dire : “J’ai découvert quelque chose de vraiment génial. Comment allez-vous l’utiliser dans le chat ? Comment allez-vous l’appliquer à nos produits d’entreprise ?” »
> Fidji Simo, responsable produit d’OpenAI (2026)

> « Il faut partir de l’expérience client puis remonter vers la technologie. Il ne faut pas partir de la technologie puis se demander à qui on va la vendre. »
> Steve Jobs (1997)

  • OpenAI dispose d’une technologie remarquable et de talents ambitieux, mais contrairement à Google dans les années 2000 ou Apple dans les années 2010, l’entreprise ne possède pas quelque chose qui fonctionne clairement et que personne d’autre ne peut faire
  • Les activités récentes de Sam Altman peuvent être interprétées comme une tentative d’échanger une valeur surtout inscrite sur le papier contre une position stratégique plus durable avant que la musique ne s’arrête

Compétitivité des modèles : l’absence d’avantage technologique propriétaire fragilise la durabilité du leadership

  • Environ plus de 6 organisations publient aujourd’hui des modèles de frontière presque équivalents, se dépassant les unes les autres à quelques semaines d’intervalle
  • Les benchmarks diffèrent, mais dessinent globalement la même image
  • Meta est actuellement sortie de la courbe, Apple·Amazon·Microsoft n’ont pas encore atteint la frontière, et la Chine accuse environ 6 mois de retard tout en dépendant fortement des recherches d’autrui
  • L’effet de réseau auto-renforçant des parts de marché, visible avec Windows, la recherche Google, iOS ou Instagram, n’existe pas aujourd’hui dans la compétition entre modèles
  • Une percée comme le continuous learning pourrait rendre possibles des effets de réseau, mais ce n’est pas quelque chose sur lequel on peut planifier à ce stade
  • Un accès propriétaire aux données pourrait aussi créer de véritables effets d’échelle, mais on ne sait pas encore à quoi ressembleraient ces effets dans les données utilisateurs ou verticales (SAP, Salesforce, feuilles de calcul de banques d’investissement, etc.), et les grandes plateformes existantes disposent déjà de beaucoup de données

Base d’utilisateurs : large mais peu profonde, avec des habitudes d’usage encore faibles

  • OpenAI compte 800 à 900 millions d’utilisateurs, mais il s’agit d’« utilisateurs actifs hebdomadaires » ; le fait de publier un chiffre de WAU et non de DAU mérite l’attention
    • Le choix de mettre en avant une métrique hebdomadaire suggère que la majorité des utilisateurs n’en a pas fait une habitude quotidienne, donc que l’engagement / la stickiness reste faible
  • Parmi les utilisateurs de ChatGPT, seuls environ 5 % sont abonnés payants
  • Même chez les adolescents américains, la proportion de ceux qui l’utilisent quelques fois par semaine ou moins est bien plus élevée que celle de ceux qui l’utilisent plusieurs fois par jour
  • Selon les données promotionnelles « 2025 Wrapped », 80 % des utilisateurs ont envoyé moins de 1 000 messages en 2025, soit en moyenne moins de 3 prompts par jour
  • La plupart des utilisateurs ne perçoivent pas les différences de personnalité ou d’accent entre les modèles, et des fonctions destinées à renforcer la rétention comme la « mémoire » ne créent pas d’effets de réseau réels, seulement de l’adhérence
  • L’entreprise parle de « transformer la manière d’utiliser l’informatique », mais un usage de quelques fois par semaine suffit difficilement à dire que cela a changé la vie
  • OpenAI reconnaît elle-même l’existence d’un « capability gap » entre les capacités du modèle et l’usage réel, ce qui revient indirectement à dire qu’il n’existe pas encore de product-market fit clair

Stratégie publicitaire et tentative d’approfondissement de l’engagement

  • Le projet publicitaire d’OpenAI vise à couvrir, côté coûts, le service fourni à plus de 90 % d’utilisateurs gratuits, ainsi qu’à prendre de l’avance et à apprendre auprès des annonceurs
  • D’un point de vue stratégique, il s’agit aussi de fournir aux utilisateurs gratuits les modèles les plus récents et les plus puissants (donc les plus coûteux) afin d’approfondir l’engagement
  • Fidji Simo a déclaré que « la diffusion et l’échelle sont ce qui compte le plus »
  • Mais rien ne garantit qu’offrir un meilleur modèle augmentera l’engagement des utilisateurs qui, aujourd’hui, ne savent même pas quoi faire avec ChatGPT
  • Il est tout aussi possible que les utilisateurs soient bloqués par le blank screen problem, ou que le format même du chatbot ne soit pas adapté à ces cas d’usage

Montée de Gemini et Meta AI, et parallèle avec Netscape : des chatbots peu différenciés

  • Dans les produits peu différenciés, l’avantage de l’adoption initiale tient rarement dans la durée, et la concurrence tend à se déplacer vers la marque et les canaux de distribution
  • La progression rapide de Gemini et Meta AI en parts de marché le montre bien : pour le grand public, les produits paraissent presque identiques
    • Dans la communauté technique, Llama 4 a été considéré comme un échec, mais les chiffres de Meta semblent malgré tout corrects
  • Claude d’Anthropic est en haut des benchmarks, mais n’a ni stratégie ni produit grand public, et sa notoriété côté consommateurs est presque nulle
    • Claude Cowork exige carrément l’installation de Git
  • Certains comparent ChatGPT à Netscape : Microsoft était entré sur un marché où il était difficile de différencier le produit, mais avec une immense puissance de distribution
  • La difficulté de différencier les navigateurs web et celle de différencier les chatbots relèvent du même problème structurel : dans les deux cas, ce ne sont guère plus qu’une zone de saisie et une zone de sortie
    • La dernière grande innovation produit réussie dans le navigateur a été les onglets et la fusion de la barre de recherche avec la barre d’URL
  • Microsoft a fini par dominer le marché des navigateurs, mais cela n’a finalement pas eu tant d’importance : la vraie captation de valeur se fait ailleurs
  • L’application ChatGPT n’est qu’un “thin wrapper”, et l’ajout de fonctionnalités ne suffit pas à créer une vraie différenciation
  • L’innovation dans l’expérience utilisateur est la clé de l’étape suivante, mais on ne sait pas qui la mènera. Rien ne dit pourquoi ce devrait être OpenAI
  • Alors que tous les fondateurs de la Silicon Valley essaient d’inventer la « phase 2 de l’expérience IA générative », la question devient : « Peut-on décider à l’avance que ce sera moi ? »

La stratégie de plateforme d’OpenAI et ses limites

  • L’an dernier, la réponse d’OpenAI a ressemblé à « tout, en même temps, tout de suite » : plateforme d’apps, navigateur, app vidéo sociale, collaboration avec Jony Ive, recherche médicale, publicité, annonces de capex de plusieurs milliers de milliards de dollars, etc.
  • Il y a eu une tendance à reproduire la forme de plateformes autrefois victorieuses sans en comprendre le fonctionnement : « une plateforme a un app store, donc il nous faut aussi un app store »
  • Sam Altman a présenté sa stratégie globale via un diagramme à la fin de l’an dernier, en reprenant une citation célèbre de Bill Gates : « la définition d’une plateforme, c’est qu’elle crée plus de valeur pour ses partenaires que pour elle-même »
  • La structure stratégique consiste à bâtir une entreprise de plateforme full stack, empilée depuis les puces et l’infrastructure, où chaque couche renforce les autres, avec cloud, puces et modèles réunis dans une même offre pour obtenir écosystème et effets de réseau
  • Mais c’est ainsi que Windows ou iOS fonctionnaient, et OpenAI ne dispose pas aujourd’hui de ces dynamiques de plateforme et d’écosystème
  • Même le diagramme reliant capex et chiffre d’affaires présenté par le CFO ne constitue pas un véritable flywheel

La course au capex : la condition pour avoir une place à table

  • Les quatre grands acteurs du cloud ont dépensé environ 400 milliards de dollars dans l’infrastructure l’an dernier, et prévoient au moins 650 milliards cette année
  • OpenAI a évoqué pour l’avenir une promesse de 1 400 milliards de dollars et de 30 gigawatts de calcul, sans calendrier précis, tandis que l’usage réel fin 2025 n’était que de 1,9 gigawatt
  • Faute de flux de trésorerie massifs issus d’activités existantes, l’entreprise finance cela par levées de fonds (dont une partie n’est pas encore finalisée) et via le bilan d’autres entreprises, avec une part de « circular revenue »
  • À long terme, les coûts de l’infrastructure IA pourraient évoluer vers une structure proche de la construction aéronautique ou de la fabrication des semi-conducteurs : pas d’effets de réseau, mais des générations toujours plus difficiles et plus coûteuses, si bien que seules quelques entreprises peuvent continuer à investir, dans une forme d’oligopole
    • D’où l’analogie entre la Moore’s Law (doublement du nombre de transistors tous les deux ans) et la Rock’s Law (doublement du coût des fabs de pointe tous les quatre ans)
  • Quand Sam Altman laisse entendre un capex annuel de 1 000 milliards de dollars, il cherche à produire une prophétie autoréalisatrice : une entreprise qui n’avait aucun revenu il y a trois ans tente de s’asseoir à la table par la seule force de volonté
  • Mais avoir une place à table donne-t-il un avantage au-delà de cela ? Rien n’est moins sûr : TSMC détient un quasi-monopole sur les puces de pointe, sans pour autant capter beaucoup de levier ni de valeur dans les couches supérieures de la stack

API, standards et effets de réseau : possibilités et limites

  • Même lorsque des développeurs construisent des produits sur un foundation model donné, les utilisateurs ne savent pas quel modèle est utilisé et s’en soucient peu
  • Exploiter un cloud ne donne pas de levier sur les produits et services tiers situés plus haut dans la stack
  • Une nouveauté existe toutefois : l’émergence d’une soupe d’acronymes de standards et de protocoles permettant aux modèles et aux sites web de communiquer entre eux (la vague OpenClaw en reflète une partie)
    • Un site web peut exposer ses propres fonctions pour que ChatGPT affiche directement une recherche immobilière ou un panier
    • On peut demander à un agent de voir une recette sur Instagram puis de commander les ingrédients sur Instacart
  • OpenAI propose que le compte ChatGPT serve de colle reliant tout cela, en laissant entendre que cela pourrait devenir un effet de réseau
  • Mais il y a le problème du « widget fallacy » : cette erreur récurrente qui consiste à croire qu’un produit complexe peut être abstrait derrière une interface standard simple
    • C’est la même idée qu’il y a dix ans avec « API is the new BD », et cela a le plus souvent échoué
    • Il existe un grand écart entre ce qui paraît convaincant en démo et le modèle d’interaction réel dans les workflows
    • Aucune entreprise ne veut devenir un simple appel API d’une autre : il existe une tension fondamentale entre la distribution et le contrôle de la relation client
  • Si ces systèmes sont reliés via des API abstraites, on ne voit pas clairement pourquoi utilisateurs ou développeurs se retrouveraient captifs d’un seul acteur
    • Même si OpenAI et Gemini utilisent des standards différents, rien n’empêche en principe les développeurs de prendre en charge les deux, avec bien moins de code que pour développer à la fois sur iOS et Android
    • On peut aussi se demander s’il est vraiment logique de se connecter à Tinder, Zillow et Workday avec un même compte

La vraie question : l’absence de « pouvoir »

  • Les termes plateforme, écosystème, levier, effets de réseau, etc., sont omniprésents dans l’industrie tech, mais leur signification réelle reste floue
  • Le concept central est celui de « pouvoir » : la capacité à faire utiliser un système donné même lorsque l’utilisateur ne le souhaite pas vraiment
    • Microsoft, Apple, Facebook et Amazon possèdent ce type de pouvoir
  • Ce qu’une plateforme réussie accomplit réellement, c’est mobiliser l’énergie créative de toute l’industrie technologique pour construire à grande échelle sans devoir tout inventer elle-même, tout en faisant en sorte que tout se déroule sur son propre système
  • Les foundation models ont bien un effet multiplicateur, mais si les concurrents peuvent proposer la même chose, il n’existe aucune raison pour que tout le monde doive utiliser celui d’une entreprise en particulier
  • S’il n’existe aucune raison structurelle permettant de rester meilleur quoi que dépensent et fassent les concurrents, alors il ne reste que l’exécution au quotidien
  • L’excellence d’exécution peut être une ambition, et certaines entreprises l’ont maintenue très longtemps, mais ce n’est pas une stratégie

Conclusion

  • OpenAI se trouve dans une situation sans avantage monopolistique clair sur les plans technologique, produit ou écosystème
  • Malgré une énorme base d’utilisateurs et une grande puissance financière, la construction d’un avantage concurrentiel durable reste inachevée
  • L’absence d’effets de réseau de plateforme, les limites de la différenciation produit et les incertitudes sur les investissements d’infrastructure constituent les principaux risques
  • Au final, la compétitivité d’OpenAI dépend de son exécution quotidienne et de sa rapidité d’adaptation au marché

Notes

  • Comparaison avec les stratégies de l’ère du ZIRP, où l’on utilisait « le capital comme arme » : en période de taux bas, des entreprises ont cherché à acquérir de l’échelle grâce à un capital bon marché puis à se défendre via des effets de réseau ; cela a fonctionné pour Uber, mais a échoué pour WeWork, qui n’avait pas d’effets de réseau — OpenAI présente une similitude sur ce point
  • Un résultat totalement différent reste possible : des modèles de tailles et de formes variées pourraient exister en masse, certains tournant gratuitement à la périphérie, au point que l’oligopole de l’infrastructure IA devienne aussi peu significatif que celui de l’infrastructure SQL
  • Microsoft, Google, Apple et Meta n’ont jamais considéré avoir définitivement gagné, même dans des contextes de winner-takes-all, et regardent toujours derrière eux
    • Le « Only the paranoid survive » d’Andy Grove symbolise cette psychologie
    • Intel a possédé à la fois des effets de réseau et un avantage technologique, puis a fini par perdre les deux

1 commentaires

 
GN⁺ 2026-02-27
Réactions sur Hacker News
  • Les gens sous-estiment la rétention (stickiness) d’OpenAI
    Avoir près d’un milliard d’utilisateurs constitue une vraie barrière à l’entrée
    Même ma femme utilise ChatGPT tous les jours sans ressentir le besoin d’essayer autre chose
    L’historique des conversations rend le changement difficile, et une monétisation par la publicité semble être un choix naturel
    Sur le marché grand public, OpenAI est dans une position plus favorable que les autres concurrents

    • Au final, si la valorisation de 285 milliards de dollars d’OpenAI repose sur le fait que « les gens sont trop paresseux pour installer une autre appli », c’est beaucoup trop optimiste
      Il n’y a presque pas d’effet réseau ni d’effet d’apprentissage de l’interface, et un simple historique de conversation suffit mal à justifier cette valeur
      En plus, comme les fonctions d’IA seront bientôt intégrées par défaut dans la plupart des appareils et applications, cela risque au bout du compte de devenir une commodité au niveau de l’API back-end
    • Même pas 5 % des « presque un milliard d’utilisateurs » ne paient
      Les utilisateurs gratuits partiront probablement vers un autre service gratuit dès qu’il y aura trop de publicité
      D’ailleurs, ma compagne est passée sur DeepSeek lors d’une panne récente et n’est jamais revenue
      Un article de The Register dit la même chose
    • Un historique de conversation, à lui seul, ne crée pas une vraie rétention
      Google pourrait au contraire être mieux placé — si ses données personnelles comme les e-mails, les photos ou l’historique de localisation sont intégrées à l’IA, une personnalisation bien plus puissante devient possible
      Côté entreprise aussi, l’intégration avec Google Docs et GCP est naturelle
      À long terme, on peut même imaginer un modèle où « l’IA + quelques ingénieurs Google » remplace une équipe entière
    • Il existe bien une certaine rétention, mais si la mode culturelle change, OpenAI pourrait paraître dépassé du jour au lendemain
      En essayant de viser trop de cibles à la fois, l’entreprise risque de se retrouver dans une position « moyennement adaptée à tout le monde »
      Le fait de ne pas posséder directement son infrastructure est aussi un facteur d’inquiétude
    • Les consommateurs sont plus émotionnels et volatils qu’on ne le pense
      Si la mode change, OpenAI peut se faire dépasser par Grok ou Perplexity
      Article lié : MIT Technology Review
  • Je me demande combien de temps il faudra avant que les modèles locaux couvrent la majorité des cas d’usage
    Dans cinq ans, l’OpenAI d’aujourd’hui ressemblera peut-être aux systèmes VAX des années 1970

    • Après avoir essayé Gemini, j’ai l’impression que la plupart de ses capacités viennent de la recherche web, et qu’en local la qualité chute brutalement
      Au final, pour que les LLM locaux deviennent vraiment assez bons, il faudrait un accès autorisé à l’API de Google
    • À l’inverse, je pense qu’il est difficile de couvrir 99 % des cas d’usage avec des modèles de moins de 100B
      Vu le rythme de croissance de la VRAM des GPU grand public, il semble peu probable de pouvoir faire tourner de bons modèles locaux avant 2035
    • Cinq ans, c’est trop optimiste
      Des modèles plus rapides, c’est bien, mais il faudra toujours des puces coûteuses, et leur arrivée dans des produits grand public prendra encore du temps
    • Comme pour l’e-mail ou les sites web, il existe au final une tendance où la dépendance aux services cloud reste plus pratique
    • La plupart des gens choisissent ce qui est moins cher et meilleur, plutôt que simplement « assez bon »
      Les datacenters étant bien plus efficaces que les serveurs à domicile, les modèles locaux risquent de rester un choix de niche
  • Je préfère les services de chat IA centrés sur la confidentialité
    J’ai comparé Lumo+ de Proton et Duck.ai de DuckDuckGo, puis j’ai choisi Lumo+
    L’historique des conversations est intégré aux données Proton et accessible sur tous les appareils
    Pour le travail technique, j’utilise Gemini Plus ou Anthropic, mais pour les échanges personnels, j’utilise une IA privée
    Dans des situations sensibles comme les problèmes de santé dans la famille, la protection de la vie privée devrait être la norme

    • J’ai organisé les antécédents médicaux de ma famille avec Claude code, et cela m’a énormément aidé à comprendre le système de santé et à y réagir
      Les risques pour la vie privée sont surtout théoriques ; dans la pratique, l’utilité est bien plus grande
    • Il existe aussi des chatbots IA chiffrés de bout en bout comme Tinfoil ou Confer
      Pour les tâches sensibles, j’utilise Kimi-k2 sur Tinfoil
    • Si l’on regarde la politique de confidentialité de Duck.ai, l’adresse IP n’est pas exposée au fournisseur du modèle et les données sont supprimées sous 30 jours
      Ce n’est pas très différent de BigLabs, mais des services comme privatemode.ai ou confer.to visent aussi une confidentialité au niveau d’Apple AI
  • Je pense que c’est l’article qui analyse le mieux la défensibilité économique d’OpenAI
    OpenAI semble suivre une stratégie visant à amener le marché à le considérer comme « impossible à faire tomber »
    Le fait que la concurrence dans l’IA glisse vers une rivalité politique entre États semble aussi faire partie de cette stratégie

    • Mais je pense qu’il est peu probable qu’OpenAI devienne « too big to fail »
      Le scepticisme du grand public envers l’IA reste important, et même en cas d’échec, l’impact social ne serait pas si grand
    • Altman a déjà évoqué en interview que l’État pourrait venir au secours d’OpenAI
  • Google Gemini est le meilleur en matière d’intégration (Android, WearOS, Google Home, reconnaissance vocale, etc.)
    Anthropic Claude se distingue par sa forte intégration pour le code
    Meta conserve une présence grâce à l’open source, mais ne domine pas le marché

    • En utilisant GPT-5.3 Codex, on voit qu’il est meilleur pour résoudre des problèmes que Claude
      L’UX front-end est meilleure chez Claude, mais Codex offre le meilleur rapport qualité-prix
    • Malgré cela, OpenAI garde encore une forte puissance de marque — pour beaucoup, c’est « cette IA-là »
    • La valeur du code réside moins dans le modèle que dans l’orchestration (harness)
      Comme la communauté open source peut accéder à cette structure, la différenciation de ClaudeCode reste limitée
    • Codex est un choix très rentable à 20 dollars par mois
    • Je pense aussi que l’intégration pour le code de Codex est à peu près au même niveau que celle de Claude
  • Depuis qu’OpenAI a affiché le message publicitaire « la mémoire est presque pleine », j’utilise plusieurs IA en parallèle
    Je répartis mon usage entre Grok, Alexa+, Gemini Plus, Copilot, Claude Code, Opencode, etc.
    J’aime le fait de ne dépendre d’aucune d’entre elles
    Si besoin, je peux passer à un autre service à tout moment

  • Les opportunités de vertical integration sont sous-estimées
    Comme Anthropic, qui disait ne pas vouloir créer son propre IDE avant de changer de direction avec Claude Code, il existe un fort potentiel d’extension dans chaque secteur (droit, santé, etc.)
    Les modèles open source ont 6 à 12 mois de retard, donc l’écart peut se creuser

    • Mais si ce cycle se maintient, on verra probablement apparaître vers 2026 des modèles ouverts au niveau de GPT-5.2
      Rien que pour la génération de code, on atteindra déjà sans doute un niveau largement utilisable
    • Si on arrive à un plateau de performance, les modèles ouverts finiront par rattraper leur retard
      Si l’AGI se concrétise, toutes les entreprises fondées sur la connaissance pourraient perdre leur sens
    • Les secteurs juridique et médical sont déjà difficiles à pénétrer technologiquement depuis des décennies
      Il sera probablement difficile pour de nouvelles entreprises d’IA d’y entrer facilement
    • Pour réussir une intégration verticale, il faut montrer une valeur ajoutée claire
      Si un produit comme « Claude for Accountants » coûte plus cher que Claude classique, ce sera difficile à justifier
    • Après avoir essayé Pi ou OpenCode, je ne trouve pas que l’intégration verticale de Claude Code soit particulièrement remarquable
  • Si le développement de l’IA continue, la philosophie centrée utilisateur à la Steve Jobs pourrait ne pas correspondre à la direction prise par l’IA
    ChatGPT n’a pas été conçu pour résoudre un problème utilisateur précis, c’était plutôt un produit devenu commercialement viable par accident
    Apple ne semble toujours pas savoir comment aborder l’IA, mais devrait apprendre des approches centrées sur l’outil comme Anthropic ou OpenClaw
    OpenAI a aussi des choses à apprendre, mais n’est pas dans une position aussi favorable qu’Apple ou Google
    Au final, le marché de l’IA évoluera vers un écosystème beaucoup plus diversifié

  • En tant qu’anglophone natif en visite au Costa Rica, j’ai souvent vu des habitants utiliser ChatGPT pour traduire quand il y avait une barrière linguistique

    • La fonction vocale de ChatGPT marche plutôt bien comme interprète en temps réel
    • Mais je trouvais étrange qu’ils utilisent ChatGPT alors que Google Translate est plus rapide et plus simple
    • Dès qu’il y aura une offre payante ou de la publicité, les gens reviendront probablement à Google Translate
    • En réalité, ce type de traduction relève davantage des traducteurs classiques que des LLM
    • Google Translate propose cette fonction depuis plus de dix ans, et pourtant il est intéressant de voir que les gens préfèrent davantage ChatGPT
  • La plupart de ces articles catastrophistes sur la fin de l’IA parlent surtout du point de vue de la valorisation des entreprises
    Mais du point de vue de l’humanité, ils sont au contraire plutôt optimistes
    Dans cette génération de l’informatique, il se pourrait qu’aucune entreprise particulière n’ait le pouvoir de pousser les gens dans une direction qu’ils ne veulent pas prendre
    Et c’est une bonne chose