Microsoft et OpenAI mettent fin à leur accord d’exclusivité et de partage des revenus
(bloomberg.com)- La vente des produits d’OpenAI n’est plus liée à un partenaire cloud unique, et le droit de distribution exclusif de Microsoft disparaît
- OpenAI peut désormais chercher à conclure des accords avec des clouds concurrents comme Amazon, et élargir davantage ses canaux de distribution
- Microsoft n’aura plus à verser de part des revenus sur les produits OpenAI qu’il revend sur son propre cloud
- Cet ajustement ne prend pas la forme d’une rupture entre les deux entreprises, mais d’une modification conjointe des clauses d’exclusivité et de répartition des revenus du contrat existant
- Alors que cette structure avait contribué à l’essor des revenus cloud de Microsoft au début du boom de l’IA, son évolution pourrait aussi modifier l’équilibre concurrentiel du marché des infrastructures IA
Principaux changements du contrat
- Microsoft et OpenAI suppriment le droit de distribution exclusif de Microsoft, ce qui permet à OpenAI de rechercher des accords avec des concurrents du cloud comme Amazon.com
- En contrepartie, Microsoft n’aura plus à verser de part des revenus sur les produits OpenAI qu’il revend sur son propre cloud
- Les deux entreprises ont annoncé cette modification contractuelle dans un communiqué commun
Évolution de la structure commerciale
- L’exclusivité existante avait contribué à l’augmentation des revenus cloud de Microsoft au début du boom de l’IA
- Avec ce changement, OpenAI obtient une marge de manœuvre commerciale avec d’autres fournisseurs cloud que Microsoft
- Dans le même temps, Microsoft réduit la charge liée au partage des revenus dans la revente des produits OpenAI
Un nouvel équilibre du partenariat
- OpenAI ne lie plus les canaux de vente de ses modèles d’IA à un partenaire unique
- Microsoft renonce à sa position exclusive dans la distribution des produits OpenAI, en échange de la fin du partage des revenus de revente
- La relation entre les deux entreprises n’est pas une séparation complète, mais un ajustement des clauses d’exclusivité et de répartition des revenus dans le contrat existant
Effets directs sur le marché
- Comme OpenAI, créateur de ChatGPT, peut désormais traiter avec des clouds concurrents comme Amazon.com, les canaux de distribution des modèles d’IA pourraient s’élargir davantage
- La structure exclusive qui avait contribué à l’avantage initial de Microsoft évolue, ouvrant la voie à un possible changement de l’équilibre concurrentiel sur le marché des infrastructures IA
Contenu du communiqué d’OpenAI
- Microsoft reste le principal partenaire cloud d’OpenAI, et les produits OpenAI continueront d’être lancés en priorité sur Azure, sauf si Microsoft ne peut pas fournir les capacités nécessaires ou choisit de ne pas les fournir
- Désormais, OpenAI peut proposer tous ses produits à ses clients via l’ensemble des fournisseurs cloud
- Microsoft conservera jusqu’en 2032 une licence de propriété intellectuelle sur les modèles et produits d’OpenAI
- La licence de Microsoft devient désormais non exclusive
- Microsoft ne versera plus de paiements de partage des revenus à OpenAI
- Indépendamment des avancées technologiques d’OpenAI, Microsoft continuera de verser à OpenAI sa part des revenus au même taux jusqu’en 2030, mais avec un plafond sur le montant total
- En tant qu’actionnaire majeur, Microsoft participe directement à la croissance d’OpenAI
1 commentaires
Commentaires Hacker News
Google est peut-être le plus grand bénéficiaire de cette affaire
Presque tous les labos d’IA de pointe utilisent des TPU, et OpenAI, avec son accord d’exclusivité avec Microsoft, était quasiment l’exception
Comme les TPU Gen 8 sont sortis ce mois-ci, il semble de plus en plus probable qu’OpenAI envisage sérieusement d’utiliser des TPU
La plupart manquent en permanence de capacité de calcul, donc s’il y a de la capacité TPU disponible, ils adaptent une partie de leurs systèmes pour tourner dessus
Sa plateforme pour l’inférence est assez solide, et Siri n’a pas englouti de coûts particulièrement élevés
Le deal Apple/Gemini est aussi intéressant, et Google semble continuellement montrer qu’il serait même prêt à dégrader volontairement son expérience sur Apple pour pousser les utilisateurs à changer
On peut très bien se passer de formules du style "opinions are my own"
Je ne sais pas s’ils utilisent aussi des TPU, mais ils ont au minimum déjà un lien avec Google Cloud
https://www.reuters.com/business/retail-consumer/openai-taps...
Cet accord semble excessivement favorable à OpenAI, au point qu’il n’est pas évident de comprendre pourquoi Microsoft l’a accepté
L’ancien accord freinait peut-être trop OpenAI, au point de mettre l’investissement lui-même en danger, surtout avec l’émergence d’un concurrent sérieux comme Anthropic, ce qui a pu pousser Microsoft à assouplir les conditions
Il ne va pas simplement laisser partir en fumée un investissement de plusieurs milliards de dollars
Dans le dernier article de Ben Thompson, il est dit que Microsoft a écarté des clients externes pour réserver sa propre infrastructure à OpenAI, donc cet ajustement ressemble davantage à une tentative de récupérer de la marge de capacité
Et comme Microsoft détient environ 15 à 27 % d’OpenAI, si le contrat nuisait davantage à OpenAI qu’à Microsoft, il est logique d’en modifier les termes
Microsoft will no longer pay a revenue share to OpenAIsemble être une condition plutôt correcteMicrosoft conserve toujours son statut de principal fournisseur cloud, donc si la qualité d’Azure s’améliore, cela peut devenir une machine à cash tant qu’OpenAI continue de sortir de bons modèles
Avec cette évolution, OpenAI sort de l’exclusivité Azure et pourra aussi aller vers AWS
Du coup, Azure peut vraiment sembler dans une position très fragile
https://news.ycombinator.com/item?id=47616242
https://www.linkedin.com/posts/andy-jassy-8b1615_very-intere...
Il suffit de regarder les discussions GitHub pour voir où ça en est
[1] https://github.com/orgs/community/discussions/10539
Et comme OpenAI a dit se tourner vers le B2B et l’entreprise, il est naturel de proposer ses modèles sur plusieurs clouds
La formule no moat issue de la note interne de Google semble toujours juste
Deepseek v4 est franchement assez bon, surtout vu le prix, et vraiment impressionnant
Mais qu’il s’agisse de modèles chers ou bon marché, ils restent peu fiables, font des erreurs stupides, et il faut impérativement relire leur sortie de code
Au fond, Deepseek v4 reste, comme d’autres modèles tels que Claude Opus, un générateur qui suit des distributions de tokens sans véritable processus de raisonnement
Je dois encore rester au volant et comprendre l’ensemble, et le simple fait de réduire la frappe ne procure pas un énorme levier
En revanche, pour la revue, j’ai besoin du modèle le plus intelligent possible
Je veux qu’il aille vraiment au fond de mes modifications et les examine jusqu’au bout
J’ai récemment passé deux semaines sur un problème de SQLite query plan, et ni plusieurs agents ni GPT-Pro ne l’ont soupçonné
Le problème n’était pas trivial à reproduire, mais je me dis que les soucis de planner SQL sont peut-être un angle mort des données d’entraînement
Peut-être que Mythos pourrait voir ce genre de chose
Même si cela bouleverse les fondations du secteur, on voit clairement émerger ici une nouvelle forme d’intelligence
Le vrai fossé défensif reste les données et la base d’utilisateurs
Même quand de nouveaux modèles ou de nouvelles techniques apparaissent, ils finissent avec le temps par se diffuser sous forme de bibliothèques gratuites que tout le monde peut reprendre
Même après que j’ai ajouté du contexte et répété plus de douze fois que ça ne marchait toujours pas, ils ont tous les deux continué à reproduire quasiment le même raisonnement, seulement formulé différemment
La seule différence, c’était le prix, et Deepseek l’a fait à 1/40 du prix via l’API
Deepseek V4 Pro est bien à -75 % en ce moment, mais on parle quand même d’environ 3 dollars contre 20 dollars
Au début, Nadella tenait OpenAI d’une main de fer, mais depuis quelques années on a surtout l’impression qu’il ne fait que céder à ses demandes
Je me demande pourquoi il se montre aussi peu ferme et n’exerce pas davantage de contrôle
Microsoft détenait un temps 49 % d’OpenAI, et le fait que ce soit maintenant descendu à 27 % m’étonne aussi
Si je possédais 49 % d’une entreprise dont le hype dépasse son produit et qui n’a pas encore trouvé son marché, tout en étant valorisée à des milliers de milliards, je vendrais une partie de cette participation pour constituer des actifs qui contribuent à un vrai résultat net
Au niveau de valorisation actuel, OpenAI doit pratiquement écraser toute la concurrence pour que cela soit justifié, donc ne pas se couvrir me semblerait plutôt irresponsable
Sur mon propre projet, lorsque les bitcoins reçus en dons ont atteint un plus haut historique, j’en ai vendu la moitié, puis j’ai gardé le reste quand ils ont atteint un nouveau sommet
Je ne cherchais pas le gain maximal, mais c’était largement suffisant pour mon objectif, et j’ai obtenu un rendement raisonnablement bon
Cela dit, je ne considère pas la crypto comme un investissement, c’est simplement ainsi que les dons m’étaient parvenus
C’est un peu comme la différence entre devoir 100 dollars à une banque et lui devoir 100 millions
Sam s’en est servi comme outil marketing et de recrutement, mais cela a fini par devenir un obstacle
Pour faire d’OpenAI une entreprise pleinement capitaliste, il fallait démonter cette structure, et comme le non lucratif détenait le contrôle, il fallait offrir quelque chose en échange du transfert de pouvoir
Au terme de cette longue négociation, Microsoft a obtenu 27 % du capital, et désormais le conseil éthique a moins de chances de paralyser l’entreprise
En pratique, toutefois, la composition des conseils côté non lucratif et côté lucratif est presque la même, et depuis le coup d’État raté, les deux semblent de fait subordonnés à Sam
Il suffirait de fermer OpenAI et de rouvrir une structure juridique similaire, ou Microsoft pourrait aussi la détruire de fait par voie judiciaire
Au final, du point de vue de Microsoft, mieux vaut sans doute sécuriser 27 % que ne rien obtenir du tout
Cela pourrait simplement revenir à porter un sac plus gros
En voyant le communiqué de presse tout à l’heure, j’ai eu l’impression qu’il avait été entièrement réécrit en dix minutes
La version actuelle fait à peu près la moitié de la longueur de l’ancienne, et au départ le texte donnait l’impression d’un partenariat bien plus profond, pas seulement d’une question de "simplification" ou de "flexibility"
Il y avait aussi un salmigondis autour de l’AGI, ainsi qu’une formulation disant qu’Azure gardait l’exclusivité sur les produits API mais pas sur les autres produits, alors que la nouvelle version semble contredire cela
Je ne sais vraiment pas ce que j’ai vu
Je l’ai lue une première fois, puis quand je suis revenu la voir, le contenu avait complètement changé
Bien sûr je plaisante, mais l’idée d’un futur comme ça ne paraît pas si lointaine
Microsoft a gagné la manche 1, mais aujourd’hui il est très loin derrière
Ce n’est pas donné à tout le monde de gâcher à ce point une aussi bonne main, et on pourrait presque dire que le CEO devrait partir
Un effet secondaire intéressant de cette évolution, c’est que Google Cloud pourrait devenir presque le seul hyperscaler à pouvoir revendre les modèles des trois labos
Je me trompe peut-être dans ma lecture, mais si c’est vrai, c’est un changement assez important
Je vois mal pourquoi Google autoriserait d’autres fournisseurs cloud à revendre Gemini
Dans ce cas, l’utilité pratique des crédits GCP pourrait nettement augmenter
Ce mouvement ressemble à un recul de Microsoft
En le replaçant avec d’autres nouvelles récentes autour de Microsoft, on dirait qu’ils veulent surtout intégrer une IA suffisamment bonne à leurs propres produits
Microsoft semble savoir qu’avec le simple bundle Office 365, il peut déjà capter beaucoup de clients entreprises
On a l’impression que les hyperscalers en arrivent désormais à reconnaître que les nouvelles entreprises de modèles fondamentaux peuvent valoir plus qu’eux-mêmes
Anthropic semble avoir de fortes chances de dépasser le chiffre d’affaires d’AWS l’an prochain, et quelque chose de similaire pourrait aussi arriver avec OpenAI face à Azure
Il y a trois ans, les modèles fondamentaux ressemblaient à une simple fonctionnalité des hyperscalers, alors qu’aujourd’hui ce sont presque les hyperscalers qui commencent à ressembler à une partie de leur chaîne d’approvisionnement
Jusqu’à l’an dernier encore, on entendait souvent que l’IA était une bulle, que la demande était faible et que même les projets pilotes échouaient
Les entreprises de modèles y croyaient, mais semblaient penser qu’elles auraient le temps de construire lentement leurs propres datacenters
Puis quelque chose a changé à la fin de l’automne et en hiver : les performances des modèles ont franchi un seuil, la demande a explosé, puis a continué d’exploser
Aujourd’hui, les entreprises de modèles courent partout pour obtenir de la capacité de calcul, et elles signeront n’importe quel accord avec les hyperscalers pour en avoir
Au fond, la question centrale est de savoir si les entreprises de modèles peuvent obtenir le calcul dont elles ont besoin sans, en pratique, se vendre aux hyperscalers