- L’auteur estime que l’AGI (intelligence artificielle générale) n’apparaîtra pas dans un avenir proche
- Les LLM (grands modèles de langage) montrent des capacités remarquables, mais manquent de la faculté d’apprendre en continu et de s’améliorer progressivement comme les humains
- Les LLM actuels ont des limites pour se personnaliser via le feedback utilisateur ou accumuler du contexte, ce qui constitue un obstacle majeur à l’automatisation réelle du travail de bureau
- Des défis concrets comme l’usage de l’ordinateur et les données multimodales devraient progresser lentement en raison du manque de données, de la durée des tâches et de la difficulté technique
- À long terme, l’auteur s’attend à des changements très brusques lorsque l’apprentissage en ligne deviendra possible, mais ne pense pas que cela sera facile à réaliser dans les dix prochaines années
Introduction et discussion sur le calendrier de l’AGI
- L’auteur présente son point de vue à partir de discussions menées avec divers experts sur le moment où l’AGI pourrait être atteinte
- Certains prédisent l’arrivée de l’AGI dans 2 ans, d’autres dans 20 ans, mais en date de juin 2025, l’auteur ne pense pas que son arrivée soit imminente
Les limites de l’apprentissage continu (Continual Learning)
- Beaucoup estiment que la technologie IA actuelle est déjà plus transformatrice économiquement qu’Internet, mais l’auteur n’est pas d’accord
- Si les entreprises du Fortune 500 n’utilisent pas les LLM pour transformer en profondeur le travail, ce n’est pas à cause du conservatisme des dirigeants, mais du manque d’apprentissage continu de l’IA actuelle
- En construisant et en utilisant lui-même divers outils fondés sur des LLM, l’auteur a constaté que les LLM obtiennent un résultat d’environ 5/10 sur les tâches répétitives, mais qu’ils manquent de capacité d’amélioration progressive
- Les humains gagnent en productivité grâce à la construction du contexte, à l’analyse de leurs propres échecs et à l’acquisition de petites améliorations par la répétition, tandis que les LLM ne disposent pas de voie de transmission de feedback de haut niveau et qu’un simple ajustement de prompt ne permet pas un « apprentissage » à la manière humaine
- Il existe bien du fine-tuning RL (RLHF), mais cela reste loin d’un apprentissage adaptatif et organique comparable à celui des humains, ce qui constitue une contrainte décisive pour l’automatisation des tâches réelles
- Il n’existe pas encore de solution satisfaisante permettant à un modèle d’IA de construire, mémoriser et enrichir un contexte de travail comme le ferait un employé humain
- Un certain apprentissage contextuel peut avoir lieu au sein d’une session, mais tout le contexte appris est perdu une fois la session terminée
- Des approches comme la mémoire à long terme (
rolling context window) sont explorées, mais le résumé de connaissances empiriques riches reste brittle (fragile), et cela fonctionne encore moins efficacement hors des domaines textuels
- Même si les progrès de l’IA stagnaient à leur niveau actuel, il resterait difficile de remplacer de nombreux métiers de bureau avec cette technologie, car la capacité humaine à apprendre le contexte demeure un avantage concurrentiel
- Autrement dit, c’est au moment où la technologie d’apprentissage continu sera réellement mise en œuvre que la valeur de l’IA augmentera de manière discontinue; et si cette technologie devient possible, le partage de l’apprentissage entre plusieurs instances pourrait mener à une superintelligence plus rapide que chez l’humain
- Toutefois, comme les laboratoires ont aussi intérêt à publier d’abord des versions imparfaites avant d’avoir totalement achevé une innovation, l’auteur s’attend à voir des signes avant-coureurs avant un véritable saut de l’apprentissage continu
Les difficultés concrètes de l’usage de l’ordinateur et de l’automatisation
- Lors d’échanges avec des chercheurs d’Anthropic, l’auteur a entendu la prédiction selon laquelle des agents d’usage informatique vraiment fiables apparaîtraient d’ici fin 2026, mais il reste sceptique
- Des agents d’usage informatique existent déjà aujourd’hui, mais leur efficacité reste faible en pratique
- Pour automatiser une tâche réelle comme une déclaration fiscale, il faut plusieurs systèmes, une exécution prolongée de l’agent et le traitement de données multimodales variées, ce qui ralentit fortement les processus d’apprentissage et de validation
- Contrairement aux données de préentraînement textuelles existantes (par exemple les vastes corpus web utilisés pour les modèles de langage), les jeux de données multimodaux pour l’usage informatique sont insuffisants, ce qui laisse penser que le développement d’agents fiables prendra du temps
- Même les nouveaux algorithmes prometteurs nécessitent des années d’ajustements d’ingénierie avant un déploiement réel, de sorte que les progrès sur les tâches d’usage informatique devraient rester assez lents
Le perfectionnement du raisonnement et ses limites
- Les modèles récents comme Gemini 2.5 montrent effectivement des capacités de raisonnement, notamment dans l’interprétation de l’intention du locuteur, l’auto-vérification logique et la réaction au contexte
- Claude Code, par exemple, peut rapidement générer du code fonctionnel à partir d’une simple spécification, ce qui laisse clairement entrevoir des signes encore rudimentaires d’« intelligence générale » dans un large éventail de domaines
- Dans les domaines où les meilleurs LLM manifestent leurs capacités, ils peuvent produire des résultats assez impressionnants
Prévisions à court et long terme sur l’IA et l’AGI
- L’auteur insiste sur le fait qu’il garde une vision probabiliste de ses prévisions et souligne qu’il reste donc pertinent de se préparer malgré tout
- Il serait prêt à parier avec une probabilité de 50 % sur les points suivants
- D’ici 2028 : l’IA pourrait atteindre un niveau lui permettant de gérer de bout en bout la déclaration fiscale d’une petite entreprise
- Les capacités actuelles d’usage informatique en sont encore au niveau de GPT-2, et la rareté des données ainsi que la longueur de l’horizon temporel rendent l’optimisation difficile
- De belles démos apparaîtront sans doute en 2026–2027, mais l’auteur juge peu probable un niveau d’autonomie totale sur des tâches complexes et longues
- D’ici 2032 : l’IA pourrait apprendre au travail de manière naturelle et progressive comme un humain, au point d’intégrer après quelques mois d’adaptation autant de contexte, de préférences et de savoir-faire qu’un employé humain
- Même si l’implémentation d’un apprentissage continu en ligne ne paraît pas imminente, une percée fondamentale pourrait survenir sur une période de 7 ans
Les facteurs limitants du progrès de l’IA et les perspectives futures
- Le moment d’arrivée de l’AGI suit une distribution probabiliste très étalée (log-normale), et les progrès de l’IA ont été étroitement liés, au cours des 10 dernières années, à l’augmentation de la puissance de calcul (training compute)
- Cette hausse de la puissance de calcul devrait atteindre une limite après 2030, et l’innovation algorithmique deviendra alors le principal goulet d’étranglement
- En l’absence de changement de paradigme majeur, la probabilité annuelle d’apparition de l’AGI pourrait diminuer avec le temps
- Si le pari sur un horizon « long » s’avère juste, le monde quotidien pourrait ne pas être profondément transformé d’ici 2030–2040; à l’inverse, si les limites actuelles de l’IA sont surmontées, des changements extrêmement radicaux pourraient se produire
4 commentaires
Je pense que l’AGI ne se réalisera pas à cause de limites physiques en matière de persistance et d’apprentissage.
Ce sont littéralement des limites physiques, pas un manque de capacités technologiques.
Je pense que si l’on franchissait une étape de plus vers l’AGI en supprimant ces limites, il serait alors difficile de revenir en arrière, et comme les développeurs d’IA le savent eux aussi, ils se contentent de faire évoluer les systèmes pour des services spécifiques au lieu d’essayer de lever ces limitations.
Je suis tout à fait d'accord avec vous !
Avis Hacker News
Toujours la même rengaine jusqu’ici.