5 points par GN⁺ 2026-03-11 | 1 commentaires | Partager sur WhatsApp
  • La startup Advanced Machine Intelligence (AMI), cofondée par l’ancien chief scientist IA de Meta Yann LeCun, a bouclé une levée de fonds de plus de 1 milliard de dollars
  • AMI vise à développer un world model pour comprendre le monde physique et construire une nouvelle forme de système d’IA doté de capacités de raisonnement, de planification et de mémoire
  • LeCun critique l’idée que les grands modèles de langage (LLM) puissent atteindre une intelligence de niveau humain, affirmant que l’apprentissage ancré dans le monde physique est au cœur de la véritable intelligence
  • Parmi les investisseurs figurent des personnalités majeures comme Bezos Expeditions, Eric Schmidt, Mark Cuban, et LeCun a également évoqué une possible collaboration avec Meta
  • AMI veut développer des technologies open source et prévoit, à terme, de bâtir un world model universel applicable à l’ensemble de l’industrie

Création d’AMI et levée de fonds

  • Advanced Machine Intelligence (AMI) est une startup basée à Paris, cofondée par Yann LeCun après son départ de Meta
    • LeCun dirigeait le laboratoire Fundamental AI Research (FAIR) de Meta et a quitté l’entreprise en novembre 2025
  • Lors de ce tour de table, l’entreprise a levé plus de 1 milliard de dollars et a été valorisée à 3,5 milliards de dollars
    • Parmi les principaux investisseurs : Cathay Innovation, Greycroft, Hiro Capital, HV Capital, Bezos Expeditions
    • Mark Cuban, Eric Schmidt, Xavier Niel ont également participé
  • AMI prévoit une opération mondiale avec des bureaux à Paris mais aussi à Montréal, Singapour et New York

La philosophie IA de LeCun et sa critique des LLM

  • LeCun souligne que le raisonnement humain repose sur l’expérience du monde physique plus que sur le langage
    • Il a déclaré que « l’idée qu’on puisse atteindre une intelligence de niveau humain simplement en faisant grossir les LLM est une illusion totale »
  • Il reconnaît les capacités de génération de code des LLM, mais estime qu’elles ne mènent pas à une intelligence de niveau humain
  • Chez Meta, LeCun menait des recherches sur les world models, notamment Joint-Embedding Predictive Architecture (JEPA), mais
    a décidé de prendre son indépendance lorsque Meta a réorienté sa stratégie vers les LLM
    • Il a expliqué qu’« en dehors de l’entreprise, on peut développer cela plus vite, à moindre coût et plus efficacement »

Les objectifs technologiques d’AMI et leurs applications industrielles

  • AMI vise à développer des systèmes d’IA dotés de mémoire persistante, de raisonnement et de capacités de planification
    • Avec l’ambition d’une « IA contrôlable et sûre »
  • Toyota et Samsung sont mentionnés parmi les premiers partenaires potentiels
    • Exemple cité : construire le world model d’un moteur d’avion afin d’en améliorer l’efficacité et la fiabilité
  • À long terme, l’entreprise prévoit de développer un world model universel applicable à l’ensemble des secteurs industriels

Composition de l’équipe fondatrice

  • Outre LeCun, les cofondateurs comptent plusieurs anciens de Meta
    • Michael Rabbat (ancien directeur de la recherche scientifique), Laurent Solly (ancien vice-président Europe), Pascale Fung (ancienne directrice de la recherche en IA)
    • Alexandre LeBrun (ancien CEO de Nabla) devient CEO d’AMI, tandis que Saining Xie (ancien chercheur chez Google DeepMind) rejoint l’entreprise comme chief science officer (CSO)

Open source et débat sur le contrôle de l’IA

  • LeCun insiste sur le fait que l’IA ne doit pas être monopolisée par certaines entreprises et met en avant une stratégie de développement open source
    • Il a mentionné le récent épisode où le département de la Défense des États-Unis a placé Anthropic sur liste noire, soulignant les controverses autour du contrôle de l’IA
  • Selon lui, « ce n’est pas à un individu de décider du bien ou du mal de l’IA, mais à des processus démocratiques »
    • Il a rappelé que les réseaux neuronaux convolutifs (CNN), auxquels il a contribué, ont été utilisés dans certains systèmes de surveillance étatiques
  • Concernant l’usage militaire de l’IA, il a expliqué qu’il existait autrefois un mouvement pour l’interdiction des armes autonomes, mais qu’aujourd’hui la technologie évolue aussi vers des usages défensifs, comme les drones autonomes en Ukraine

Prochaines étapes

  • AMI prévoit de dévoiler rapidement son premier modèle d’IA, sans s’attendre dans un premier temps à une forte attention du grand public
  • L’entreprise veut étendre le champ d’application de sa technologie via des collaborations avec des partenaires industriels, avec pour objectif à long terme d’évoluer vers un système d’intelligence générale
  • LeCun a conclu avec le sourire en qualifiant le projet de « très ambitieux »

1 commentaires

 
GN⁺ 2026-03-11
Commentaires sur Hacker News
  • Il existe bien plus de degrés de liberté dans les world models.
    Les LLM apprennent fondamentalement à partir de texte statique, c’est-à-dire uniquement de données linguistiques où les humains décrivent le monde, et n’apprennent donc pas du monde réel lui-même.
    Ils peuvent donc recombiner des idées existantes, mais il leur est presque impossible de produire de véritables découvertes créatives ou des inventions.
    Si une startup apparaissait pour apprendre une compréhension spatio-temporelle fondée sur le monde physique, ce serait une tentative de résoudre le vrai goulot d’étranglement sur la voie vers l’AGI.
    Même en cas de succès partiel, je pense que cela pourrait ouvrir une généralisation et une créativité structurellement hors de portée des LLM actuels.

    • Je ne comprends pas ce point de vue.
      À mes yeux, le goulot d’étranglement de l’AGI, c’est plutôt l’apprentissage continu et la rétropropagation (backpropagation).
      Le cerveau humain n’apprend pas par rétropropagation, et les world models ne sont au fond pas si différents des architectures de deep learning auxquelles nous sommes habitués.
      Si le goulot d’étranglement est vraiment le fait « d’apprendre à partir du monde », il suffit alors de faire tourner des LLM vision-action dans une boucle de reinforcement learning avec des robots ou dans un environnement simulé.
    • Je pense qu’avec le savoir accumulé par l’humanité, on peut déjà produire des idées véritablement innovantes.
      Tous les domaines n’interagissent pas directement avec le monde physique, et avec les seules informations déjà consignées dans l’histoire, on peut créer des simulations virtuelles où s’appliquent des lois physiques 3D.
      Ce qui manque aujourd’hui aux LLM, c’est une motivation intrinsèque — la capacité de penser par eux-mêmes, de réfléchir et de s’auto-corriger.
      Moi aussi, je crée avec une mémoire et une attention limitées, mais discuter avec une IA me donne de nouvelles idées.
      Au final, la pensée humaine n’est elle aussi qu’une combinaison de choses apprises, et l’IA s’inscrit dans ce prolongement.
    • Les LLM opèrent dans le domaine du langage et des symboles, mais les humains apprennent aussi énormément à partir d’expériences directes qui ne sont pas verbalisées.
      D’après une conférence de Yann LeCun que j’ai entendue, un bébé humain reçoit, au cours de ses premières années, bien plus de données sensorielles que tout ce sur quoi un LLM est entraîné.
      Je pense que c’est là une limite fondamentale des modèles fondés sur le langage.
    • D’un point de vue cynique, cela ressemble surtout à un cas où l’argent attire l’argent.
      LeCun est un excellent vendeur, mais même s’il échoue, la société le protégera.
      Donc honnêtement, je n’ai pas spécialement de respect pour ça.
    • Après avoir tourné Gary Marcus en dérision pendant dix ans, LeCun semble maintenant revenir à sa position.
      Tenenbaum travaille depuis longtemps déjà sur les world models, mais les gens de l’écosystème venture connaissent mal ces tendances de recherche.
      C’est donc facile d’en faire un objet d’investissement.
  • Quand j’ai déjeuné avec Yann en août dernier, il m’a dit qu’il réfléchissait à quitter Meta.
    Je lui ai conseillé de créer sa propre entreprise au lieu d’aider à réaliser les rêves des autres.
    Je suis d’accord avec lui sur le fait que les LLM ne mèneront pas à une intelligence de niveau humain, mais je ne suis pas certain que la stratégie des world models soit la bonne.

    • J’aimerais entendre plus précisément quelle stratégie tu considères comme une meilleure voie.
  • Donc cela prend finalement la forme d’une startup.
    Personnellement, je pensais qu’un modèle d’institut de recherche à la Mila serait plus adapté.
    Cela dit, la carrière de LeCun et sa réponse sur X parlent d’elles-mêmes.
    Je me demande comment cela va générer des revenus, mais je lui souhaite de réussir.
    Historiquement, la recherche la plus marquante est toujours sortie de grands laboratoires industriels stables — Bell Labs, IBM Research, Xerox PARC, MSR, etc.

  • L’influence de Yann ne fait aucun doute, mais malgré les ressources massives de Meta, il n’y a pas eu de résultats particulièrement marquants.
    L’approche consistant à comprendre le monde via la vidéo est déjà poursuivie par des modèles vidéo comme Seedance, Kling, Sora.
    Du coup, je ne vois pas très bien en quoi cette tentative est si différente.

    • Dire que « rien n’est sorti de Meta » est injuste.
      Meta a publié beaucoup de recherches de niveau mondial et a aussi fortement contribué à l’open source.
      Par exemple, l’article Beyond Language Modeling: An Exploration of Multimodal Pretraining contient des enseignements tirés d’expériences à grande échelle.
      Je pense que LeCun a très bien rempli son rôle en tant que leader de la recherche, pas comme responsable produit.
    • La plupart des scientifiques ne produisent pas des recherches qui bouleversent le monde, donc ignorer leur avis pour cette raison n’est pas juste.
      La science n’est pas un marché concurrentiel.
      Et le mot « comprendre » recouvre trop de sens — les modèles continuent encore à répéter les mêmes erreurs.
    • Avoir beaucoup de ressources ne garantit pas toujours les meilleurs résultats.
      Parfois, la passion et la liberté sont des moteurs plus importants.
    • Une des raisons pour lesquelles LeCun a quitté Meta serait que l’entreprise avançait uniquement autour des LLM.
      Il pense que les LLM ne sont pas la voie vers l’AGI.
    • C’est peut-être tout simplement un problème trop difficile.
  • Yann LeCun aurait fondé la startup de world models AMI (Amilabs) avec l’objectif d’atteindre une valorisation de plus de 5 milliards de dollars.
    Il aurait recruté LeBrun comme CEO, LeFunde comme CFO et LeTune pour diriger le post-traitement.
    Voir l’article de TechCrunch.

    • LeFunde pour les fonds et LeTune pour le fine-tuning, les noms sont vraiment trop parfaits.
    • Ils auraient peut-être simplement dû l’appeler LeLabs.
    • On dirait que le monde est désormais gouverné par les déterministes nominaux.
    • La politique de recrutement est d’une cohérence presque comique.
  • Le moment semble bien choisi.
    Le monde est trop focalisé sur les LLM, donc il faut continuer à explorer d’autres types de modèles.
    J’espère aussi que cela aidera l’Europe à se doter d’un environnement de recherche IA attractif.

  • Qu’on soit d’accord ou non avec les vues de LeCun, je pense que c’est une bonne chose pour l’Europe.
    Il faut un laboratoire doté de capitaux suffisants pour faire contrepoids à l’écosystème IA centré sur les États-Unis et la Chine.
    Mistral s’est réorientée vers l’intégration et le conseil, donc la frontière de la recherche est laissée vacante.

    • L’approche technique d’AMI sera probablement fondée sur JEPA.
      Si l’on se réfère au document de vision de LeCun, A Path Towards Autonomous Machine Intelligence, on voit bien sa direction.
      JEPA est une architecture qu’une startup peut tout à fait tenter, et notre startup de trois personnes a elle aussi entraîné un JEPA sur des données médicales de séries temporelles.
      L’Europe a besoin de ce type de ligne de recherche indépendante.
    • Selon certains articles, le siège devrait être établi à Singapour.
      Article du Straits Times
    • Personnellement, j’aime toujours Mistral.
      Son rapport qualité-prix est excellent, et c’est ce qu’il y a de mieux pour les tâches liées à l’apprentissage des langues.
    • En tant qu’investisseur, j’y ai mis une petite somme, mais je pense que LeCun restera probablement fidèle à sa philosophie.
      Si sa vision est juste, cela aidera beaucoup l’Europe ; si elle est fausse, ce ne sera qu’un investissement à somme nulle.
      Cela dit, il reste beaucoup de données vidéo encore inexploitées, donc j’en attends de bons résultats.
    • Croire ou non que LeCun a raison détermine directement si cette initiative est une bonne chose pour l’Europe.
      Si l’on pense que les LLM suffisent déjà et que la RSI (Recursive Self-Improvement) est imminente, alors cette initiative n’est au contraire qu’une distraction.
  • Lien vers l’article du FT

    • Le lien ne fonctionne pas. L’URL d’origine est dupliquée, ce qui crée une boucle de redirection.
  • Honnêtement, je ne comprends toujours pas le boom des world models.
    Cela fait des décennies que la théorie existe, alors que les LLM ont réellement transformé l’industrie.
    Et pourtant, les gens continuent à dire : « ce ne sont pas les LLM, le vrai sujet, ce sont les world models ».

    • Au final, je pense que les LLM et les world models vont fusionner.
      Les world models prédisent le futur, et les LLM peuvent aussi être entraînés à prédire des tokens d’image.
      Cela peut constituer un signal supervisé très puissant.
    • Le terme « world model » est utilisé dans des sens trop variés.
      Les représentations internes qu’un LLM forme pendant l’entraînement peuvent aussi être vues comme une sorte de world model.
      Mais les LLM relèvent davantage d’une technologie de réplication, et manquent de véritable apprentissage ou de créativité.
      À l’inverse, l’approche par l’intelligence animale cherche à prédire les changements du monde réel et à se corriger d’elle-même via le feedback.
      Autrement dit, c’est une structure d’apprentissage ancrée dans la réalité, qui peut réduire les hallucinations et planifier des actions pour atteindre des objectifs.
      En ce sens, le « world model » n’est pas une simple représentation interne, mais un modèle comportemental qui apprend en interagissant avec le monde.
  • Dans une compétition IA centrée sur les États-Unis, cette nouvelle initiative européenne paraît rafraîchissante.
    Les modèles existants se contentaient surtout de se copier les uns les autres dans la concurrence, sans vraie innovation.