5 points par GN⁺ 2025-06-30 | 2 commentaires | Partager sur WhatsApp
  • L’investissement de Meta de 14 Md$ (14 milliards de dollars, soit environ 20 000 milliards de wons), présenté comme une acquisition de Scale AI, visait en réalité non pas un rachat complet mais l’obtention de 49 % du capital et le recrutement du CEO Alexander Wang
  • Les employés de Scale AI conservent leurs actions tout en recevant un dividende en numéraire, et Alexander Wang rejoint Meta tout en restant au conseil d’administration
  • L’objectif de Meta est centré non pas sur l’activité de Scale AI, mais sur le recrutement d’Alexander Wang en tant qu’individu
  • Meta a récemment pris du retard dans la course à l’IA et souffre de faibles résultats en raison de problèmes de politique interne et de leadership, notamment d’une culture de recherche conservatrice centrée sur Yann LeCun
  • L’auteur juge qu’un investissement à 11 chiffres sur une personne précise est irrationnel, tout en soulignant que Meta devrait se concentrer sur l’amélioration de sa culture d’entreprise et de sa structure de talents

Mise à jour : structure de détention des employés de Scale AI

  • Les employés de Scale AI reçoivent en une seule fois un dividende correspondant à la prime sur l’ensemble des actions, tout en conservant les actions qu’ils détiennent
  • Contrairement à une acquisition classique, cette structure présente l’avantage de permettre aux employés de continuer à profiter des gains supplémentaires liés à la croissance de l’entreprise
  • Il est rapporté que le CEO Alexander Wang a lui-même demandé cette structure, ce qui est évalué positivement du point de vue de la protection des employés
  • La majeure partie des montants n’est pas allée uniquement au CEO, mais a été répartie entre l’ensemble des employés
  • En pratique, Meta n’a pas acquis l’intégralité de Scale AI ; il s’agit plutôt d’un investissement apportant une nouvelle rémunération en numéraire aux actionnaires et aux employés

La véritable signification de la « acquisition » de 14 milliards de dollars par Meta

  • En investissant 14 milliards de dollars dans Scale AI, Meta n’a obtenu que 49 % du capital, tandis que le contrôle de gestion reste entre les mains du conseil d’administration de Scale AI
  • Juridiquement, il ne s’agit pas d’une « acquisition », mais en pratique, la somme des participations de Meta et d’Alexander Wang dépasse la majorité, ce qui revient à détenir le pouvoir décisionnel de l’entreprise
  • Le CEO Alexander Wang rejoint Meta, mais reste au conseil d’administration de Scale AI, où il continue d’exercer une influence sur la gestion de l’entreprise
  • Une telle structure de transaction est rare dans le secteur et montre que l’objectif principal de Meta n’est pas l’entreprise elle-même, mais l’acquisition d’un talent précis (Alexander Wang)
  • Contrairement à une acquisition classique, toutes les participations n’ont pas été converties en cash ; la structure a été conçue pour permettre une prise de contrôle tout en ne cédant qu’une partie du capital

La nature de Scale AI et ce que veut Meta

  • Scale AI développe une activité de type « Mechanical Turk as a Service », centrée sur le data labeling B2B et l’externalisation de ressources humaines à grande échelle
  • L’avantage concurrentiel de l’entreprise ne réside pas dans des algorithmes de pointe ou dans sa propriété intellectuelle, mais dans l’efficacité de l’utilisation de la main-d’œuvre et la production massive de datasets
  • Les grandes entreprises d’IA disposent déjà de plusieurs partenaires de data labeling et de leurs propres équipes internes, et ne dépendent donc pas de façon absolue des données de Scale AI
  • En pratique, les principaux clients de Scale AI sont Toyota, Etsy, GM, des organismes publics et d’autres acteurs tardifs ou organisations peu spécialisées de l’écosystème IA
  • Cela renforce l’idée que Meta n’accorde pas une grande valeur à l’activité de Scale AI elle-même et se concentre surtout sur le recrutement de talents clés

L’affaiblissement de la compétitivité IA de Meta et ses problèmes internes

  • Depuis Llama 2, Meta est à la traîne face à OpenAI, Google, Anthropic et d’autres dans la compétition IA
  • Au départ, grâce à une stratégie open source, l’entreprise avait construit une image de « Linux de l’IA » en créant un écosystème porté par la communauté, mais elle a perdu en compétitivité après l’émergence de nouveaux modèles comme Deepseek
  • L’organisation de recherche IA de Meta, FAIR (Foundational AI Research), est freinée dans son innovation par une culture conservatrice et peu orientée marché centrée sur Yann LeCun
  • LeCun a retardé l’adoption de nouvelles technologies par son attachement passé à Lua et Torch, son scepticisme envers les transformers et les LLM ; il existe même une anecdote selon laquelle l’équipe initiale de Llama aurait développé un prototype à son insu avant de le montrer directement à Zuckerberg
  • La stagnation interne, les conflits de leadership et la fuite des talents clés se poursuivent, alimentant un cercle vicieux qui ralentit l’innovation IA dans son ensemble

La stratégie audacieuse de recrutement de Zuckerberg

  • Zuckerberg attribue les difficultés de la division IA de Meta à la bureaucratie interne et à la rigidité organisationnelle, et s’est lancé dans un recrutement spectaculaire pour y remédier
  • Il a tenté de recruter directement des talents de tout premier plan en leur proposant des rémunérations à 8 ou 9 chiffres, une équipe rattachée directement au CEO et un environnement de recherche autonome
  • Il a été rapporté que des offres ont été faites à de nombreuses figures de l’IA, dont Nat Friedman, David Gross et Ilya Sutskever
  • Grâce à sa proximité avec Zuckerberg et à son rôle de conseiller IA officieux, Alexander Wang constitue le premier cas de recrutement réussi de cette stratégie
  • Mais il existe aussi un regard sceptique sur l’efficacité réelle d’une stratégie de concentration sur des talents “superstars” via des investissements colossaux pour réformer l’organisation et renforcer les capacités IA

Conclusion et évaluation de l’auteur

  • L’auteur souligne que l’innovation en IA naît non d’un seul individu “génial”, mais d’un environnement d’expérimentation collective et de collaboration
  • Il cite l’exemple de Google pour montrer qu’un environnement offrant liberté de recherche, forte collaboration et ressources illimitées peut favoriser l’innovation à long terme
  • Il estime que l’amélioration de la marque employeur et de la culture interne de Meta est la clé pour restaurer sa compétitivité en IA, et juge risquée une approche consistant à concentrer des investissements massifs sur une seule personne
  • Il place des espoirs dans la capacité d’exécution de Zuckerberg et sa volonté de changement, mais il reste incertain que la stratégie consistant à “recruter une seule personne” avec un salaire à 11 chiffres puisse être la solution aux défis IA de Meta

2 commentaires

 
eajrezz 2025-06-30

Le fondateur aurait peut-être pu être le seul à faire son exit, mais dans ce cas, il serait devenu plus difficile pour le reste des employés et dirigeants de faire le leur.
On dirait que la participation obtenue par Meta ne concernait pas seulement la part du fondateur, mais aussi celle réservée aux employés et dirigeants.
Alexander Wang, quel personnage impressionnant...

 
GN⁺ 2025-06-30
Avis Hacker News
  • Je pense qu’on est passé à côté de la vraie raison pour laquelle Meta n’a investi que 49 % dans Scale. Par cette voie, Meta évite un examen réglementaire mondial. S’il s’était agi d’une acquisition complète, il aurait fallu l’approbation des autorités de chaque pays, alors qu’une prise de participation minoritaire n’est pas soumise au même niveau de contrôle. Les actionnaires obtiennent un rendement proche de celui d’un rachat tout en évitant l’incertitude réglementaire. Et comme le reste de Scale conserve encore un potentiel de succès, il reste aussi une possibilité de gains supplémentaires pour les actionnaires, Meta comprise. Au final, c’est une structure gagnant-gagnant

    • Une prise de participation minoritaire ne permet pas pour autant d’ignorer les enquêtes antitrust. Aux États-Unis, des textes comme 15 U.S.C. §18 peuvent aussi couvrir les acquisitions partielles ou les participations minoritaires. C’est pareil en Europe

    • L’idée que Meta a choisi cette voie plutôt qu’une opération de M&A pour aller vite me paraît crédible. Dans mon texte aussi, je disais qu’une acquisition directement liée à son cœur de métier n’avait pas beaucoup de sens pour Meta, même si ça reste possible. En revanche, je ne vois pas ça comme un gagnant-gagnant. Les actions Scale restent peu liquides et, avec le départ des membres clés, leur valeur a plutôt baissé du point de vue de ceux qui les détiennent

    • Microsoft et Google ont fait quelque chose de similaire eux aussi, par exemple avec l’investissement dans Character AI. Scale n’est pas un labo d’IA, c’est fondamentalement une plateforme d’outsourcing du type Fiverr. Je vois mal en quoi recruter des talents là-bas renforcerait l’attractivité de Meta pour la recherche en IA

    • D’après ce qui a été rapporté, la structure de cet investissement aurait en réalité été demandée par Wang (CEO de Scale). L’objectif était donc surtout de redistribuer des gains aux investisseurs et aux employés. Côté Meta, je ne pense pas qu’il y ait eu une réelle envie de posséder Scale. Meta utilisait déjà bien les données de Scale, et détenir l’entreprise n’était pas directement nécessaire

  • OpenAI semble avoir fait une bonne affaire en récupérant Jony Ive pour 6,5 milliards de dollars. Mais contrairement aux rumeurs selon lesquelles Llama 4 paraissait bon sur les benchmarks, l’expérience réelle est tellement décevante qu’on a aussi entendu dire que Meta avait manipulé les chiffres. Moi-même, je ne sais pas très bien ce que mesurent vraiment ces benchmarks et, à l’usage, je n’ai pas ressenti le grand saut promis par la réputation de « l’IA incroyable ». Je continue surtout à tomber de manière répétée sur des réponses à côté de la plaque

    • Il existe plusieurs types de benchmarks. Il y a ceux qui sont quantifiables à partir de données réelles, et il y a aussi la réaction du public. Les benchmarks réels peuvent être des indicateurs avancés, mais ils ne sont pas forcément justes, et au bout du compte, ce qui compte le plus, c’est l’évaluation du public. Rien qu’en regardant les réactions sur Reddit, on pouvait voir que Gemini 2.5 était jugé meilleur que Claude 3.7

    • Je n’ai pas une haute opinion du bilan de Jony Ive chez Apple : des ordinateurs portables trop fins, des conceptions impossibles à réparer, des claviers pénibles, une souris inutilisable pendant la charge, des designs de boîtier qui dégradent les performances, une UI abstraite sans nécessité, etc. Il y a encore beaucoup d’éléments décevants, dont le fait absurde qu’on ne puisse pas utiliser la souris pendant qu’elle charge

    • Ce qui m’étonne, c’est que Jony Ive ait bâti une carrière de superstar en copiant presque le style de Dieter Rams. J’ai du mal à imaginer quelle valeur il pourrait apporter à OpenAI. C’est la personne qui a plombé les laptops Apple pendant cinq ans

    • En réalité, OpenAI n’a pas directement recruté Jony Ive. L’entreprise a racheté une coentreprise existante, donc Ive a déjà monétisé sa position, et il ne reste désormais qu’un contrat avec sa société de design. Jony Ive s’en sort très bien, mais pour OpenAI, je ne suis pas sûr que ce soit une si bonne opération

    • Les benchmarks de Llama 4 publiés par Meta ont été immédiatement démontrés comme faux

  • Je conteste l’idée que les données de Scale AI seraient secondaires pour Wang. Le data labeling ne consiste plus simplement à confier des tâches à des travailleurs ; cela mène maintenant à des démonstrations par des experts et à la conception de workflows. C’est une donnée de haut niveau qui permet d’inférer comment les frontier labs construisent leurs environnements de RL. Je pense que c’est ça, la vraie motivation.
    En outre, je ne suis pas d’accord avec l’idée que n’importe qui peut construire un LLM. Il n’y a probablement que quelques centaines de personnes dans le monde capables d’entraîner à grande échelle un LLM compétitif, et cela exige énormément de savoir-faire technique et d’astuces. C’est aussi pour ça que tant de gens ont été surpris dès la publication des rapports sur DeepSeek.
    Je ne suis pas non plus d’accord avec l’idée que les avancées en ML relèvent surtout de la chance et que seules les organisations distribuées seraient rationnelles. Beaucoup de chercheurs comme Schmidhuber, Shazeer ou Alec Radford mènent depuis longtemps un travail de fond, et il faut aussi reconnaître qu’OpenAI a fait grandir ce secteur par des investissements concentrés plutôt que par des expérimentations distribuées. On peut dire la même chose de DeepMind

    • Il est possible que je me trompe sur Scale. Ma compréhension vient surtout de discussions avec des clients et des gens en interne chez Scale
      L’entraînement des LLM est difficile, mais pas impossible à apprendre au point d’être inaccessible. D’après les trois mois d’expérience que j’en ai eus après mon diplôme, je n’ai pas vu de grande différence de difficulté entre entraîner de petits et de grands modèles. Des bibliothèques comme torch ou megatron aident aussi beaucoup
      Tous les chercheurs sont impressionnants et je n’ai pas l’intention de rabaisser qui que ce soit. Mais je crois tout de même que les principaux changements en ML et les nouvelles idées émergent réellement d’un grand nombre d’endroits et de personnes qui communiquent de manière décentralisée entre elles. C’est mon avis personnel
  • Les conflits internes et problèmes culturels dans l’organisation IA de Meta sont graves. Les trois principales organisations « IA » actuelles sont GenAI, FAIR et RL-R
    FAIR, après avoir été ballotté entre plusieurs organisations, a perdu son rôle de powerhouse et beaucoup de ses talents sont partis
    GenAI était au départ une petite équipe, mais ses effectifs n’ont cessé d’augmenter, ses produits deviennent flous, et son leadership manque d’expérience concrète en productisation et en ML appliqué. Ils passent leur temps à faire des A/B tests chaque semaine
    RL-R est enlisé dans l’organisation Avatar, et son dirigeant semble plus proche du perfectionnisme que de l’exécution, donc j’ai l’impression que ça finira par échouer. Des systèmes simples font mieux que des systèmes entièrement basés sur le ML, et malgré cela 15 milliards de dollars ont été gaspillés
    Il existe aussi une équipe hand interaction dépendante d’un bracelet au poignet, mais il n’y a même pas de prototype sérieux à grande échelle, et c’est beaucoup trop inconfortable
    L’équipe display, à force de promesses excessives, a échoué à faire d’Orion un véritable produit grand public
    L’équipe mapping ne produit que des research glasses qui collectent trop de données personnelles
    RL-R comptait beaucoup de talents, mais avec une culture du « hiring to fire », il est presque impossible de mener des recherches qui prennent des risques

  • Si on regarde cela comme une entreprise de data labeling, la situation devient presque comique. C’est à peine plus sophistiqué qu’un système de type « classification hot-dog ou pas hot-dog », donc le fait d’y avoir mis 14 milliards de dollars est en soi choquant

    • On pourrait toujours reprendre Hotdog or Not pour le transformer en classificateur de dick pics, mais dans les faits, investir 14 milliards de dollars dans une plateforme de micro-tâches mécanisée est vraiment absurde. Entre ça, l’acquisition de Jony Ive à 6 milliards de dollars et la valorisation à 5 milliards de dollars d’Abridge, un wrapper médical basé sur ChatGPT, j’ai le sentiment que la bulle IA devient excessive
  • Meta gagne tellement d’argent avec la publicité que même des projets qui perdent des milliards de dollars n’empêchent pas l’action de monter. Et malgré cela, le PER n’est même pas si élevé. C’est assez stupéfiant

    • On disait déjà ça autrefois de Google/Alphabet
  • J’estime que l’avis de l’auteur sur l’AGI ne suit pas une méthode scientifique. Mon intuition, c’est que Meta cherche surtout à recruter beaucoup de personnalités influentes pour pouvoir redéfinir l’objectif à chaque fois que la définition de l’AGI change. L’enjeu serait donc moins la compétence que la capacité à imposer un paradigme

  • Les deux derniers paragraphes m’ont laissé confus et perplexe même après lecture.
    Je ne vois pas très bien sur quoi repose l’idée que Zuck serait un CEO particulièrement compétent. En dehors des acquisitions, Facebook n’a pas eu de succès de nouveaux produits depuis plus de dix ans
    Quand on voit qu’un nouveau service comme TikTok a battu Instagram, c’est quand même assez humiliant. Meta Quest reste une activité annexe déficitaire, et je me demande si cela valait vraiment la peine de renommer toute l’entreprise pour ça
    Par rapport à Microsoft, Google ou Amazon, Meta est très loin en termes de confiance client. Cet écart de confiance complique toujours ses nouveaux projets. Même quand il s’agit de LinkedIn, Gmail ou Search, Microsoft et Google inspirent bien davantage confiance
    Personnellement, j’ai l’impression que Meta, avec ses 14 milliards de dollars, cherche simplement à investir dans une autre entreprise parce qu’elle n’arrive pas à réussir seule sur de nouveaux produits
    (Référence : https://allaboutcookies.org/big-tech-trust)

    • Son activité principale est tellement rentable et massive qu’elle n’a même pas besoin de « nouvelle technologie ». L’innovation n’est pas indispensable. En pratique, quand la concurrence est faible, on peut croître à grande échelle sans innover, comme les valeurs du tabac autrefois ou Walmart
      Pour TikTok et Instagram, il n’y a rien de honteux non plus : les deux fonctionnent très bien. Elles peuvent coexister, comme Pepsi et Coca-Cola

    • Je suis plutôt fan de Zuck, donc je peux aussi construire une défense de son bilan, mais cela ne veut pas dire que j’adhère à tout ; je trouve aussi les critiques recevables

    • Évaluer les compétences d’un CEO uniquement à travers le succès de nouveaux produits est un mauvais critère. Ray Ban Meta est aussi un succès régulier, souvent en rupture de stock

    • Je me demande si vous avez vu ce qui se passe avec $META (le cours de l’action)

  • Ces chiffres sont vraiment complètement délirants

  • Il y a des éléments inexacts, et l’auteur s’en rend compte maintenant. Il a même ajouté une mise à jour disant que « les 14 milliards de dollars ne sont pas tous allés à Alexandr », donc il vaudrait peut-être mieux changer aussi le titre

    • Le point du titre, c’est que « Meta a dépensé 14 milliards de dollars », pas que « quelqu’un a gagné 14 milliards de dollars ». Il ne faut pas se tromper sur le sens