Elon Musk prévoit de « renforcer l’entraînement de Grok V9 avec les données de Cursor » après l’accord de rachat de Cursor
(x.com/elonmusk)- Elon Musk a lui-même dévoilé sur X (Twitter), du 15 au 17 mai, l’état d’avancement de l’entraînement d’un nouveau modèle Grok
- La version actuellement publique (v4.3) repose sur le modèle de fondation V8 de 0,5T paramètres, et continue d’être améliorée tous les quelques jours
- Le V9 en cours de développement en interne compte 1,5T paramètres et, selon ses mots, « vient tout juste de terminer son entraînement »
- Musk appelle souvent cette étape « pre-training », mais souligne que c’est un « terme incorrect »
- Par rapport à V8, la curation des données, la recette d’entraînement et l’échelle du modèle ont toutes été fortement améliorées
- Contrairement à V8, entraîné sur Hopper, V9 est optimisé pour l’architecture Blackwell
- À l’étape suivante, un entraînement de renforcement (
supplemental training, étape souvent appelée « mid-training ») doit intégrer les données de Cursor - Musk a ajouté que « V9 affiche déjà d’excellentes performances même avant l’ajout des données de Cursor »
▍Contexte : l’accord SpaceX-Cursor
- En avril 2026, SpaceX (fusionné avec xAI en février de l’année précédente) a conclu un accord optionnel lui donnant le droit de racheter Cursor dans l’année pour 60 milliards de dollars, ou de verser 10 milliards de dollars en contrepartie de leur collaboration
- Juste avant cet accord, les ingénieurs seniors de Cursor Andrew Milich et Jason Ginsberg ont rejoint xAI, dans une organisation où ils reportent directement à Musk
- Le schéma consiste à combiner le supercalculateur xAI Colossus (puissance de calcul équivalente à 1 million de H100) avec les produits développeurs et le réseau de distribution de Cursor
- Cursor louait déjà des dizaines de milliers de puces xAI pour entraîner son propre modèle (Composer), et cet accord formalise désormais cette dynamique
- Autrement dit, la déclaration sur le « renforcement de l’entraînement avec les données de Cursor » pour Grok V9 signifie non pas une simple collaboration, mais que la synergie de données prévue par l’accord d’option de rachat commence effectivement à entrer dans le pipeline réel d’entraînement du modèle
▍À lire
- Il est intéressant de voir Musk rejeter publiquement le terme standard du secteur « pre-training » et insister sur une distinction d’étapes entre « supplemental training » et « mid-training »
- Ce que possède Cursor, ce n’est pas seulement du code, mais des « données de comportement de codage » telles que l’édition en temps réel de millions de développeurs, les résultats de tests, les logs et les captures d’écran → l’actif le plus coûteux pour l’entraînement d’agents de codage
- Alors qu’Anthropic Claude et OpenAI Codex dominent le marché du codage, cela est interprété comme la carte la plus directe de xAI pour combler l’écart
Source :
- https://x.com/elonmusk (réponse du 15 mai et du 17 mai)
- https://cnbc.com/2026/04/…
- https://techcrunch.com/2026/04/…
Aucun commentaire pour le moment.