1 points par princox 1 시간 전 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Elon Musk a lui-même dévoilé sur X (Twitter), du 15 au 17 mai, l’état d’avancement de l’entraînement d’un nouveau modèle Grok
  • La version actuellement publique (v4.3) repose sur le modèle de fondation V8 de 0,5T paramètres, et continue d’être améliorée tous les quelques jours
  • Le V9 en cours de développement en interne compte 1,5T paramètres et, selon ses mots, « vient tout juste de terminer son entraînement »
    • Musk appelle souvent cette étape « pre-training », mais souligne que c’est un « terme incorrect »
    • Par rapport à V8, la curation des données, la recette d’entraînement et l’échelle du modèle ont toutes été fortement améliorées
    • Contrairement à V8, entraîné sur Hopper, V9 est optimisé pour l’architecture Blackwell
  • À l’étape suivante, un entraînement de renforcement (supplemental training, étape souvent appelée « mid-training ») doit intégrer les données de Cursor
  • Musk a ajouté que « V9 affiche déjà d’excellentes performances même avant l’ajout des données de Cursor »

▍Contexte : l’accord SpaceX-Cursor

  • En avril 2026, SpaceX (fusionné avec xAI en février de l’année précédente) a conclu un accord optionnel lui donnant le droit de racheter Cursor dans l’année pour 60 milliards de dollars, ou de verser 10 milliards de dollars en contrepartie de leur collaboration
  • Juste avant cet accord, les ingénieurs seniors de Cursor Andrew Milich et Jason Ginsberg ont rejoint xAI, dans une organisation où ils reportent directement à Musk
  • Le schéma consiste à combiner le supercalculateur xAI Colossus (puissance de calcul équivalente à 1 million de H100) avec les produits développeurs et le réseau de distribution de Cursor
  • Cursor louait déjà des dizaines de milliers de puces xAI pour entraîner son propre modèle (Composer), et cet accord formalise désormais cette dynamique
  • Autrement dit, la déclaration sur le « renforcement de l’entraînement avec les données de Cursor » pour Grok V9 signifie non pas une simple collaboration, mais que la synergie de données prévue par l’accord d’option de rachat commence effectivement à entrer dans le pipeline réel d’entraînement du modèle

▍À lire

  • Il est intéressant de voir Musk rejeter publiquement le terme standard du secteur « pre-training » et insister sur une distinction d’étapes entre « supplemental training » et « mid-training »
  • Ce que possède Cursor, ce n’est pas seulement du code, mais des « données de comportement de codage » telles que l’édition en temps réel de millions de développeurs, les résultats de tests, les logs et les captures d’écran → l’actif le plus coûteux pour l’entraînement d’agents de codage
  • Alors qu’Anthropic Claude et OpenAI Codex dominent le marché du codage, cela est interprété comme la carte la plus directe de xAI pour combler l’écart

Source :

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.