- La startup Advanced Machine Intelligence (AMI), cofondée par l’ancien chief scientist IA de Meta Yann LeCun, a bouclé une levée de fonds de plus de 1 milliard de dollars
- AMI vise à développer un world model pour comprendre le monde physique et construire une nouvelle forme de système d’IA doté de capacités de raisonnement, de planification et de mémoire
- LeCun critique l’idée que les grands modèles de langage (LLM) puissent atteindre une intelligence de niveau humain, affirmant que l’apprentissage ancré dans le monde physique est au cœur de la véritable intelligence
- Parmi les investisseurs figurent des personnalités majeures comme Bezos Expeditions, Eric Schmidt, Mark Cuban, et LeCun a également évoqué une possible collaboration avec Meta
- AMI veut développer des technologies open source et prévoit, à terme, de bâtir un world model universel applicable à l’ensemble de l’industrie
Création d’AMI et levée de fonds
- Advanced Machine Intelligence (AMI) est une startup basée à Paris, cofondée par Yann LeCun après son départ de Meta
- LeCun dirigeait le laboratoire Fundamental AI Research (FAIR) de Meta et a quitté l’entreprise en novembre 2025
- Lors de ce tour de table, l’entreprise a levé plus de 1 milliard de dollars et a été valorisée à 3,5 milliards de dollars
- Parmi les principaux investisseurs : Cathay Innovation, Greycroft, Hiro Capital, HV Capital, Bezos Expeditions
- Mark Cuban, Eric Schmidt, Xavier Niel ont également participé
- AMI prévoit une opération mondiale avec des bureaux à Paris mais aussi à Montréal, Singapour et New York
La philosophie IA de LeCun et sa critique des LLM
- LeCun souligne que le raisonnement humain repose sur l’expérience du monde physique plus que sur le langage
- Il a déclaré que « l’idée qu’on puisse atteindre une intelligence de niveau humain simplement en faisant grossir les LLM est une illusion totale »
- Il reconnaît les capacités de génération de code des LLM, mais estime qu’elles ne mènent pas à une intelligence de niveau humain
- Chez Meta, LeCun menait des recherches sur les world models, notamment Joint-Embedding Predictive Architecture (JEPA), mais
a décidé de prendre son indépendance lorsque Meta a réorienté sa stratégie vers les LLM
- Il a expliqué qu’« en dehors de l’entreprise, on peut développer cela plus vite, à moindre coût et plus efficacement »
Les objectifs technologiques d’AMI et leurs applications industrielles
- AMI vise à développer des systèmes d’IA dotés de mémoire persistante, de raisonnement et de capacités de planification
- Avec l’ambition d’une « IA contrôlable et sûre »
- Toyota et Samsung sont mentionnés parmi les premiers partenaires potentiels
- Exemple cité : construire le world model d’un moteur d’avion afin d’en améliorer l’efficacité et la fiabilité
- À long terme, l’entreprise prévoit de développer un world model universel applicable à l’ensemble des secteurs industriels
Composition de l’équipe fondatrice
- Outre LeCun, les cofondateurs comptent plusieurs anciens de Meta
- Michael Rabbat (ancien directeur de la recherche scientifique), Laurent Solly (ancien vice-président Europe), Pascale Fung (ancienne directrice de la recherche en IA)
- Alexandre LeBrun (ancien CEO de Nabla) devient CEO d’AMI, tandis que Saining Xie (ancien chercheur chez Google DeepMind) rejoint l’entreprise comme chief science officer (CSO)
Open source et débat sur le contrôle de l’IA
- LeCun insiste sur le fait que l’IA ne doit pas être monopolisée par certaines entreprises et met en avant une stratégie de développement open source
- Il a mentionné le récent épisode où le département de la Défense des États-Unis a placé Anthropic sur liste noire, soulignant les controverses autour du contrôle de l’IA
- Selon lui, « ce n’est pas à un individu de décider du bien ou du mal de l’IA, mais à des processus démocratiques »
- Il a rappelé que les réseaux neuronaux convolutifs (CNN), auxquels il a contribué, ont été utilisés dans certains systèmes de surveillance étatiques
- Concernant l’usage militaire de l’IA, il a expliqué qu’il existait autrefois un mouvement pour l’interdiction des armes autonomes, mais qu’aujourd’hui la technologie évolue aussi vers des usages défensifs, comme les drones autonomes en Ukraine
Prochaines étapes
- AMI prévoit de dévoiler rapidement son premier modèle d’IA, sans s’attendre dans un premier temps à une forte attention du grand public
- L’entreprise veut étendre le champ d’application de sa technologie via des collaborations avec des partenaires industriels, avec pour objectif à long terme d’évoluer vers un système d’intelligence générale
- LeCun a conclu avec le sourire en qualifiant le projet de « très ambitieux »
1 commentaires
Commentaires sur Hacker News
Il existe bien plus de degrés de liberté dans les world models.
Les LLM apprennent fondamentalement à partir de texte statique, c’est-à-dire uniquement de données linguistiques où les humains décrivent le monde, et n’apprennent donc pas du monde réel lui-même.
Ils peuvent donc recombiner des idées existantes, mais il leur est presque impossible de produire de véritables découvertes créatives ou des inventions.
Si une startup apparaissait pour apprendre une compréhension spatio-temporelle fondée sur le monde physique, ce serait une tentative de résoudre le vrai goulot d’étranglement sur la voie vers l’AGI.
Même en cas de succès partiel, je pense que cela pourrait ouvrir une généralisation et une créativité structurellement hors de portée des LLM actuels.
À mes yeux, le goulot d’étranglement de l’AGI, c’est plutôt l’apprentissage continu et la rétropropagation (backpropagation).
Le cerveau humain n’apprend pas par rétropropagation, et les world models ne sont au fond pas si différents des architectures de deep learning auxquelles nous sommes habitués.
Si le goulot d’étranglement est vraiment le fait « d’apprendre à partir du monde », il suffit alors de faire tourner des LLM vision-action dans une boucle de reinforcement learning avec des robots ou dans un environnement simulé.
Tous les domaines n’interagissent pas directement avec le monde physique, et avec les seules informations déjà consignées dans l’histoire, on peut créer des simulations virtuelles où s’appliquent des lois physiques 3D.
Ce qui manque aujourd’hui aux LLM, c’est une motivation intrinsèque — la capacité de penser par eux-mêmes, de réfléchir et de s’auto-corriger.
Moi aussi, je crée avec une mémoire et une attention limitées, mais discuter avec une IA me donne de nouvelles idées.
Au final, la pensée humaine n’est elle aussi qu’une combinaison de choses apprises, et l’IA s’inscrit dans ce prolongement.
D’après une conférence de Yann LeCun que j’ai entendue, un bébé humain reçoit, au cours de ses premières années, bien plus de données sensorielles que tout ce sur quoi un LLM est entraîné.
Je pense que c’est là une limite fondamentale des modèles fondés sur le langage.
LeCun est un excellent vendeur, mais même s’il échoue, la société le protégera.
Donc honnêtement, je n’ai pas spécialement de respect pour ça.
Tenenbaum travaille depuis longtemps déjà sur les world models, mais les gens de l’écosystème venture connaissent mal ces tendances de recherche.
C’est donc facile d’en faire un objet d’investissement.
Quand j’ai déjeuné avec Yann en août dernier, il m’a dit qu’il réfléchissait à quitter Meta.
Je lui ai conseillé de créer sa propre entreprise au lieu d’aider à réaliser les rêves des autres.
Je suis d’accord avec lui sur le fait que les LLM ne mèneront pas à une intelligence de niveau humain, mais je ne suis pas certain que la stratégie des world models soit la bonne.
Donc cela prend finalement la forme d’une startup.
Personnellement, je pensais qu’un modèle d’institut de recherche à la Mila serait plus adapté.
Cela dit, la carrière de LeCun et sa réponse sur X parlent d’elles-mêmes.
Je me demande comment cela va générer des revenus, mais je lui souhaite de réussir.
Historiquement, la recherche la plus marquante est toujours sortie de grands laboratoires industriels stables — Bell Labs, IBM Research, Xerox PARC, MSR, etc.
L’influence de Yann ne fait aucun doute, mais malgré les ressources massives de Meta, il n’y a pas eu de résultats particulièrement marquants.
L’approche consistant à comprendre le monde via la vidéo est déjà poursuivie par des modèles vidéo comme Seedance, Kling, Sora.
Du coup, je ne vois pas très bien en quoi cette tentative est si différente.
Meta a publié beaucoup de recherches de niveau mondial et a aussi fortement contribué à l’open source.
Par exemple, l’article Beyond Language Modeling: An Exploration of Multimodal Pretraining contient des enseignements tirés d’expériences à grande échelle.
Je pense que LeCun a très bien rempli son rôle en tant que leader de la recherche, pas comme responsable produit.
La science n’est pas un marché concurrentiel.
Et le mot « comprendre » recouvre trop de sens — les modèles continuent encore à répéter les mêmes erreurs.
Parfois, la passion et la liberté sont des moteurs plus importants.
Il pense que les LLM ne sont pas la voie vers l’AGI.
Yann LeCun aurait fondé la startup de world models AMI (Amilabs) avec l’objectif d’atteindre une valorisation de plus de 5 milliards de dollars.
Il aurait recruté LeBrun comme CEO, LeFunde comme CFO et LeTune pour diriger le post-traitement.
Voir l’article de TechCrunch.
Le moment semble bien choisi.
Le monde est trop focalisé sur les LLM, donc il faut continuer à explorer d’autres types de modèles.
J’espère aussi que cela aidera l’Europe à se doter d’un environnement de recherche IA attractif.
Qu’on soit d’accord ou non avec les vues de LeCun, je pense que c’est une bonne chose pour l’Europe.
Il faut un laboratoire doté de capitaux suffisants pour faire contrepoids à l’écosystème IA centré sur les États-Unis et la Chine.
Mistral s’est réorientée vers l’intégration et le conseil, donc la frontière de la recherche est laissée vacante.
Si l’on se réfère au document de vision de LeCun, A Path Towards Autonomous Machine Intelligence, on voit bien sa direction.
JEPA est une architecture qu’une startup peut tout à fait tenter, et notre startup de trois personnes a elle aussi entraîné un JEPA sur des données médicales de séries temporelles.
L’Europe a besoin de ce type de ligne de recherche indépendante.
Article du Straits Times
Son rapport qualité-prix est excellent, et c’est ce qu’il y a de mieux pour les tâches liées à l’apprentissage des langues.
Si sa vision est juste, cela aidera beaucoup l’Europe ; si elle est fausse, ce ne sera qu’un investissement à somme nulle.
Cela dit, il reste beaucoup de données vidéo encore inexploitées, donc j’en attends de bons résultats.
Si l’on pense que les LLM suffisent déjà et que la RSI (Recursive Self-Improvement) est imminente, alors cette initiative n’est au contraire qu’une distraction.
Lien vers l’article du FT
Honnêtement, je ne comprends toujours pas le boom des world models.
Cela fait des décennies que la théorie existe, alors que les LLM ont réellement transformé l’industrie.
Et pourtant, les gens continuent à dire : « ce ne sont pas les LLM, le vrai sujet, ce sont les world models ».
Les world models prédisent le futur, et les LLM peuvent aussi être entraînés à prédire des tokens d’image.
Cela peut constituer un signal supervisé très puissant.
Les représentations internes qu’un LLM forme pendant l’entraînement peuvent aussi être vues comme une sorte de world model.
Mais les LLM relèvent davantage d’une technologie de réplication, et manquent de véritable apprentissage ou de créativité.
À l’inverse, l’approche par l’intelligence animale cherche à prédire les changements du monde réel et à se corriger d’elle-même via le feedback.
Autrement dit, c’est une structure d’apprentissage ancrée dans la réalité, qui peut réduire les hallucinations et planifier des actions pour atteindre des objectifs.
En ce sens, le « world model » n’est pas une simple représentation interne, mais un modèle comportemental qui apprend en interagissant avec le monde.
Dans une compétition IA centrée sur les États-Unis, cette nouvelle initiative européenne paraît rafraîchissante.
Les modèles existants se contentaient surtout de se copier les uns les autres dans la concurrence, sans vraie innovation.