4 points par GN⁺ 2 일 전 | 1 commentaires | Partager sur WhatsApp
  • La vente des produits d’OpenAI n’est plus liée à un partenaire cloud unique, et le droit de distribution exclusif de Microsoft disparaît
  • OpenAI peut désormais chercher à conclure des accords avec des clouds concurrents comme Amazon, et élargir davantage ses canaux de distribution
  • Microsoft n’aura plus à verser de part des revenus sur les produits OpenAI qu’il revend sur son propre cloud
  • Cet ajustement ne prend pas la forme d’une rupture entre les deux entreprises, mais d’une modification conjointe des clauses d’exclusivité et de répartition des revenus du contrat existant
  • Alors que cette structure avait contribué à l’essor des revenus cloud de Microsoft au début du boom de l’IA, son évolution pourrait aussi modifier l’équilibre concurrentiel du marché des infrastructures IA

Principaux changements du contrat

  • Microsoft et OpenAI suppriment le droit de distribution exclusif de Microsoft, ce qui permet à OpenAI de rechercher des accords avec des concurrents du cloud comme Amazon.com
  • En contrepartie, Microsoft n’aura plus à verser de part des revenus sur les produits OpenAI qu’il revend sur son propre cloud
  • Les deux entreprises ont annoncé cette modification contractuelle dans un communiqué commun

Évolution de la structure commerciale

  • L’exclusivité existante avait contribué à l’augmentation des revenus cloud de Microsoft au début du boom de l’IA
  • Avec ce changement, OpenAI obtient une marge de manœuvre commerciale avec d’autres fournisseurs cloud que Microsoft
  • Dans le même temps, Microsoft réduit la charge liée au partage des revenus dans la revente des produits OpenAI

Un nouvel équilibre du partenariat

  • OpenAI ne lie plus les canaux de vente de ses modèles d’IA à un partenaire unique
  • Microsoft renonce à sa position exclusive dans la distribution des produits OpenAI, en échange de la fin du partage des revenus de revente
  • La relation entre les deux entreprises n’est pas une séparation complète, mais un ajustement des clauses d’exclusivité et de répartition des revenus dans le contrat existant

Effets directs sur le marché

  • Comme OpenAI, créateur de ChatGPT, peut désormais traiter avec des clouds concurrents comme Amazon.com, les canaux de distribution des modèles d’IA pourraient s’élargir davantage
  • La structure exclusive qui avait contribué à l’avantage initial de Microsoft évolue, ouvrant la voie à un possible changement de l’équilibre concurrentiel sur le marché des infrastructures IA

Contenu du communiqué d’OpenAI

  • Microsoft reste le principal partenaire cloud d’OpenAI, et les produits OpenAI continueront d’être lancés en priorité sur Azure, sauf si Microsoft ne peut pas fournir les capacités nécessaires ou choisit de ne pas les fournir
    • Désormais, OpenAI peut proposer tous ses produits à ses clients via l’ensemble des fournisseurs cloud
  • Microsoft conservera jusqu’en 2032 une licence de propriété intellectuelle sur les modèles et produits d’OpenAI
    • La licence de Microsoft devient désormais non exclusive
  • Microsoft ne versera plus de paiements de partage des revenus à OpenAI
  • Indépendamment des avancées technologiques d’OpenAI, Microsoft continuera de verser à OpenAI sa part des revenus au même taux jusqu’en 2030, mais avec un plafond sur le montant total
  • En tant qu’actionnaire majeur, Microsoft participe directement à la croissance d’OpenAI

1 commentaires

 
GN⁺ 2 일 전
Commentaires Hacker News
  • Google est peut-être le plus grand bénéficiaire de cette affaire
    Presque tous les labos d’IA de pointe utilisent des TPU, et OpenAI, avec son accord d’exclusivité avec Microsoft, était quasiment l’exception
    Comme les TPU Gen 8 sont sortis ce mois-ci, il semble de plus en plus probable qu’OpenAI envisage sérieusement d’utiliser des TPU

    • Beaucoup de labos utilisent des TPU, mais pas exclusivement
      La plupart manquent en permanence de capacité de calcul, donc s’il y a de la capacité TPU disponible, ils adaptent une partie de leurs systèmes pour tourner dessus
    • D’une certaine manière, Apple semble aussi en profiter
      Sa plateforme pour l’inférence est assez solide, et Siri n’a pas englouti de coûts particulièrement élevés
      Le deal Apple/Gemini est aussi intéressant, et Google semble continuellement montrer qu’il serait même prêt à dégrader volontairement son expérience sur Apple pour pousser les utilisateurs à changer
    • J’ai entendu beaucoup de rumeurs selon lesquelles Google préparerait quelque chose d’important, et je pense qu’au final c’est ça qui décidera de l’issue du jeu de l’IA
    • Personne ne vous connaît
      On peut très bien se passer de formules du style "opinions are my own"
    • OpenAI utilise GCP
      Je ne sais pas s’ils utilisent aussi des TPU, mais ils ont au minimum déjà un lien avec Google Cloud
      https://www.reuters.com/business/retail-consumer/openai-taps...
  • Cet accord semble excessivement favorable à OpenAI, au point qu’il n’est pas évident de comprendre pourquoi Microsoft l’a accepté
    L’ancien accord freinait peut-être trop OpenAI, au point de mettre l’investissement lui-même en danger, surtout avec l’émergence d’un concurrent sérieux comme Anthropic, ce qui a pu pousser Microsoft à assouplir les conditions

    • Microsoft est le principal actionnaire d’OpenAI, donc il ne veut pas voir son investissement réduit à zéro
      Il ne va pas simplement laisser partir en fumée un investissement de plusieurs milliards de dollars
    • Plus simplement, cela tient probablement aux contraintes de calcul
      Dans le dernier article de Ben Thompson, il est dit que Microsoft a écarté des clients externes pour réserver sa propre infrastructure à OpenAI, donc cet ajustement ressemble davantage à une tentative de récupérer de la marge de capacité
    • Le simple fait de pouvoir proposer les modèles OpenAI sur Azure sans frais de licence est déjà plutôt avantageux
      Et comme Microsoft détient environ 15 à 27 % d’OpenAI, si le contrat nuisait davantage à OpenAI qu’à Microsoft, il est logique d’en modifier les termes
    • Je serais curieux de savoir quelles clauses, concrètement, vous jugez comme ayant le plus entravé OpenAI
    • Microsoft will no longer pay a revenue share to OpenAI semble être une condition plutôt correcte
      Microsoft conserve toujours son statut de principal fournisseur cloud, donc si la qualité d’Azure s’améliore, cela peut devenir une machine à cash tant qu’OpenAI continue de sortir de bons modèles
  • Avec cette évolution, OpenAI sort de l’exclusivité Azure et pourra aussi aller vers AWS
    Du coup, Azure peut vraiment sembler dans une position très fragile
    https://news.ycombinator.com/item?id=47616242

    • Andy Jassy vient justement de le confirmer lui-même
      https://www.linkedin.com/posts/andy-jassy-8b1615_very-intere...
    • Azure ne prend toujours pas en charge IPv6
      Il suffit de regarder les discussions GitHub pour voir où ça en est
      [1] https://github.com/orgs/community/discussions/10539
    • La soif de calcul d’OpenAI dépasse peut-être, dès le départ, ce qu’un seul fournisseur cloud peut absorber
      Et comme OpenAI a dit se tourner vers le B2B et l’entreprise, il est naturel de proposer ses modèles sur plusieurs clouds
    • Si les modèles d’OpenAI doivent arriver sur AWS GovCloud, alors vu tout le contexte autour d’Anthropic / Hegseth, ce développement n’a rien de très surprenant
    • Cela dit, je pensais quand même qu’Azure pourrait continuer à tenir grâce à SharePoint / Office / Active Directory, qui restent de vraies machines à cash
  • La formule no moat issue de la note interne de Google semble toujours juste
    Deepseek v4 est franchement assez bon, surtout vu le prix, et vraiment impressionnant
    Mais qu’il s’agisse de modèles chers ou bon marché, ils restent peu fiables, font des erreurs stupides, et il faut impérativement relire leur sortie de code
    Au fond, Deepseek v4 reste, comme d’autres modèles tels que Claude Opus, un générateur qui suit des distributions de tokens sans véritable processus de raisonnement

    • Je ne pense toujours pas que les LLM soient très bons en création
      Je dois encore rester au volant et comprendre l’ensemble, et le simple fait de réduire la frappe ne procure pas un énorme levier
      En revanche, pour la revue, j’ai besoin du modèle le plus intelligent possible
      Je veux qu’il aille vraiment au fond de mes modifications et les examine jusqu’au bout
      J’ai récemment passé deux semaines sur un problème de SQLite query plan, et ni plusieurs agents ni GPT-Pro ne l’ont soupçonné
      Le problème n’était pas trivial à reproduire, mais je me dis que les soucis de planner SQL sont peut-être un angle mort des données d’entraînement
      Peut-être que Mythos pourrait voir ce genre de chose
    • Réduire les LLM à de simples générateurs de tokens aléatoires est trop simpliste à mon avis
      Même si cela bouleverse les fondations du secteur, on voit clairement émerger ici une nouvelle forme d’intelligence
    • Deepseek v4, Qwen 3.6 Plus/Max et GLM 5+ sont déjà suffisamment solides pour la plupart des tâches
    • Je suis d’accord moi aussi
      Le vrai fossé défensif reste les données et la base d’utilisateurs
      Même quand de nouveaux modèles ou de nouvelles techniques apparaissent, ils finissent avec le temps par se diffuser sous forme de bibliothèques gratuites que tout le monde peut reprendre
    • En déboguant un script, j’ai donné le même prompt à Deepseek 4 Pro et à Claude, et tous deux sont arrivés exactement au même jugement, qui était faux dans les deux cas
      Même après que j’ai ajouté du contexte et répété plus de douze fois que ça ne marchait toujours pas, ils ont tous les deux continué à reproduire quasiment le même raisonnement, seulement formulé différemment
      La seule différence, c’était le prix, et Deepseek l’a fait à 1/40 du prix via l’API
      Deepseek V4 Pro est bien à -75 % en ce moment, mais on parle quand même d’environ 3 dollars contre 20 dollars
  • Au début, Nadella tenait OpenAI d’une main de fer, mais depuis quelques années on a surtout l’impression qu’il ne fait que céder à ses demandes
    Je me demande pourquoi il se montre aussi peu ferme et n’exerce pas davantage de contrôle
    Microsoft détenait un temps 49 % d’OpenAI, et le fait que ce soit maintenant descendu à 27 % m’étonne aussi

    • C’est peut-être une question de tempérament, mais ayant grandi dans la pauvreté, j’ai tendance à être plus conservateur financièrement
      Si je possédais 49 % d’une entreprise dont le hype dépasse son produit et qui n’a pas encore trouvé son marché, tout en étant valorisée à des milliers de milliards, je vendrais une partie de cette participation pour constituer des actifs qui contribuent à un vrai résultat net
      Au niveau de valorisation actuel, OpenAI doit pratiquement écraser toute la concurrence pour que cela soit justifié, donc ne pas se couvrir me semblerait plutôt irresponsable
      Sur mon propre projet, lorsque les bitcoins reçus en dons ont atteint un plus haut historique, j’en ai vendu la moitié, puis j’ai gardé le reste quand ils ont atteint un nouveau sommet
      Je ne cherchais pas le gain maximal, mais c’était largement suffisant pour mon objectif, et j’ai obtenu un rendement raisonnablement bon
      Cela dit, je ne considère pas la crypto comme un investissement, c’est simplement ainsi que les dons m’étaient parvenus
    • J’ai plutôt l’impression qu’il réalise lentement que c’est désormais Nadella qui est coincé
      C’est un peu comme la différence entre devoir 100 dollars à une banque et lui devoir 100 millions
    • Il aurait fallu négocier la disparition de la structure à but non lucratif d’OpenAI
      Sam s’en est servi comme outil marketing et de recrutement, mais cela a fini par devenir un obstacle
      Pour faire d’OpenAI une entreprise pleinement capitaliste, il fallait démonter cette structure, et comme le non lucratif détenait le contrôle, il fallait offrir quelque chose en échange du transfert de pouvoir
      Au terme de cette longue négociation, Microsoft a obtenu 27 % du capital, et désormais le conseil éthique a moins de chances de paralyser l’entreprise
      En pratique, toutefois, la composition des conseils côté non lucratif et côté lucratif est presque la même, et depuis le coup d’État raté, les deux semblent de fait subordonnés à Sam
    • Si Sam continue à faire du Sam, alors si Satya s’accroche à l’ancien contrat, Microsoft pourrait très bien finir avec 0 % d’OpenAI
      Il suffirait de fermer OpenAI et de rouvrir une structure juridique similaire, ou Microsoft pourrait aussi la détruire de fait par voie judiciaire
      Au final, du point de vue de Microsoft, mieux vaut sans doute sécuriser 27 % que ne rien obtenir du tout
    • Je ne vois toujours pas pourquoi il faudrait acheter davantage de parts dans une entreprise qui ne dégage même pas encore de bénéfices
      Cela pourrait simplement revenir à porter un sac plus gros
  • En voyant le communiqué de presse tout à l’heure, j’ai eu l’impression qu’il avait été entièrement réécrit en dix minutes
    La version actuelle fait à peu près la moitié de la longueur de l’ancienne, et au départ le texte donnait l’impression d’un partenariat bien plus profond, pas seulement d’une question de "simplification" ou de "flexibility"
    Il y avait aussi un salmigondis autour de l’AGI, ainsi qu’une formulation disant qu’Azure gardait l’exclusivité sur les produits API mais pas sur les autres produits, alors que la nouvelle version semble contredire cela
    Je ne sais vraiment pas ce que j’ai vu

    • J’ai vu exactement la même chose
      Je l’ai lue une première fois, puis quand je suis revenu la voir, le contenu avait complètement changé
    • Si quelqu’un a encore la version originale du communiqué, j’aimerais bien qu’elle soit mise quelque part
    • À chaque actualisation, on a presque l’impression que le texte change selon l’humeur et le profil du lecteur
      Bien sûr je plaisante, mais l’idée d’un futur comme ça ne paraît pas si lointaine
    • On dirait qu’une équipe interne ou marketing est intervenue en urgence au dernier moment pour tout reprendre
    • Dès le premier paragraphe, la formulation paraissait tellement bâclée que je n’ai pas pu continuer à lire
  • Microsoft a gagné la manche 1, mais aujourd’hui il est très loin derrière
    Ce n’est pas donné à tout le monde de gâcher à ce point une aussi bonne main, et on pourrait presque dire que le CEO devrait partir

    • En y repensant, c’est aussi un poste familier pour Microsoft
    • Je ne vois pas bien ce que le CEO aurait concrètement pu faire de plus
  • Un effet secondaire intéressant de cette évolution, c’est que Google Cloud pourrait devenir presque le seul hyperscaler à pouvoir revendre les modèles des trois labos
    Je me trompe peut-être dans ma lecture, mais si c’est vrai, c’est un changement assez important
    Je vois mal pourquoi Google autoriserait d’autres fournisseurs cloud à revendre Gemini
    Dans ce cas, l’utilité pratique des crédits GCP pourrait nettement augmenter

    • Du point de vue des entreprises, si Anthropic et OpenAI sont disponibles sur tous les clouds mais que Gemini est réservé à GCP, cela pourrait à long terme désavantager Gemini
    • L’expression hype scaler est excellente
    • Si c’est bien le cas, cela pourrait au final être assez fatal aux modèles Gemini
  • Ce mouvement ressemble à un recul de Microsoft
    En le replaçant avec d’autres nouvelles récentes autour de Microsoft, on dirait qu’ils veulent surtout intégrer une IA suffisamment bonne à leurs propres produits
    Microsoft semble savoir qu’avec le simple bundle Office 365, il peut déjà capter beaucoup de clients entreprises

    • Ils pourraient aussi bien aller chercher plutôt un deal avec Anthropic
  • On a l’impression que les hyperscalers en arrivent désormais à reconnaître que les nouvelles entreprises de modèles fondamentaux peuvent valoir plus qu’eux-mêmes
    Anthropic semble avoir de fortes chances de dépasser le chiffre d’affaires d’AWS l’an prochain, et quelque chose de similaire pourrait aussi arriver avec OpenAI face à Azure
    Il y a trois ans, les modèles fondamentaux ressemblaient à une simple fonctionnalité des hyperscalers, alors qu’aujourd’hui ce sont presque les hyperscalers qui commencent à ressembler à une partie de leur chaîne d’approvisionnement

    • On dirait que les deux ont sous-estimé la situation
      Jusqu’à l’an dernier encore, on entendait souvent que l’IA était une bulle, que la demande était faible et que même les projets pilotes échouaient
      Les entreprises de modèles y croyaient, mais semblaient penser qu’elles auraient le temps de construire lentement leurs propres datacenters
      Puis quelque chose a changé à la fin de l’automne et en hiver : les performances des modèles ont franchi un seuil, la demande a explosé, puis a continué d’exploser
      Aujourd’hui, les entreprises de modèles courent partout pour obtenir de la capacité de calcul, et elles signeront n’importe quel accord avec les hyperscalers pour en avoir
      Au fond, la question centrale est de savoir si les entreprises de modèles peuvent obtenir le calcul dont elles ont besoin sans, en pratique, se vendre aux hyperscalers