- Dans sa Charte de 2018, OpenAI a explicitement inscrit une « clause d’auto-sacrifice » stipulant que, si un autre projet centré sur la sécurité s’approche de l’AGI, l’entreprise arrêterait de rivaliser pour coopérer
- D’après un tableau récapitulant les déclarations de Sam Altman, l’échéance prévue pour atteindre l’AGI s’est brutalement raccourcie, passant de 2033 à 2025, et des propos affirmant qu’« ils ont déjà créé l’AGI » sont même apparus récemment
- Dans le classement des modèles d’Arena.ai, Claude d’Anthropic et Gemini de Google occupent le haut du tableau, tandis que GPT-5.4 d’OpenAI recule à la 6e place
- L’article estime que cette situation remplit la condition énoncée dans la charte, à savoir coopérer si un concurrent a plus d’une chance sur deux de réussir dans les deux ans
- En conséquence, OpenAI devrait, selon sa charte, cesser de rivaliser et coopérer, mais le cas illustre surtout en pratique le conflit entre idéalisme et incitations économiques
La clause d’auto-sacrifice de la charte d’OpenAI
- La charte d’OpenAI de 2018 exprime la crainte qu’une course au développement de l’AGI nuise à la sécurité
- Elle inclut une formule indiquant que l’entreprise cesserait de rivaliser et apporterait son soutien si un projet proche de l’AGI accordait une forte priorité à l’alignement des valeurs et à la sécurité
- La condition de déclenchement typique est présentée comme le cas où la probabilité de succès dans les deux ans dépasse 50 %
- Cette clause est toujours publiée sur le site officiel(openai.com/charter) et reste la politique officielle de l’entreprise
L’évolution des prévisions de Sam Altman sur l’AGI
- Selon le tableau, Altman a continuellement avancé l’échéance d’arrivée de l’AGI de 2023 à 2026
- En mai 2023, il disait encore qu’un système dépassant le niveau d’un expert arriverait « dans les dix ans »,
- mais en 2024~2025, il en est venu à évoquer « l’AGI en 2025 », puis même à déclarer qu’« ils ont déjà créé l’AGI »
- Pour les prévisions postérieures à 2025, la médiane se situe à environ moins de deux ans, ce qui correspond à la condition d’activation de la charte
- Dans certaines interviews, il est aussi question d’aller au-delà de l’AGI vers l’ASI (superintelligence)
Comparaison du classement des modèles sur Arena.ai
- Parmi les 10 premiers modèles du leaderboard Arena.ai, Claude-opus-4-6 d’Anthropic est 1er et Gemini 3.1 de Google 3e
- GPT-5.4-high d’OpenAI est 6e, avec une évaluation inférieure à celle des modèles concurrents
- L’article décrit les modèles d’Anthropic et de Google comme « centrés sur la sécurité et alignés sur les valeurs », et les considère comme des substituts compatibles à GPT
Les conditions d’un arrêt de la concurrence sont-elles réunies ?
- Alors que l’échéance de développement de l’AGI se resserre à moins de deux ans et que les modèles concurrents sont devant, les conditions de la charte pour “cesser la concurrence et coopérer” sont considérées comme remplies
- La pertinence d’Arena.ai pour mesurer l’AGI fait débat, mais l’esprit de la charte est d’éviter une course aux armements
- L’article en conclut donc qu’OpenAI devrait coopérer avec Anthropic et Google
Le décalage entre idéalisme et réalité
- L’article affirme clairement qu’il est en pratique peu probable qu’OpenAI cesse réellement la concurrence
- Ce cas montre comment des principes idéalistes sont neutralisés face aux incitations économiques
- Il souligne aussi le déplacement constant de la définition de l’AGI et de l’échéance visée, ainsi que le glissement récent du débat vers l’ASI
1 commentaires
Réactions sur Hacker News
Dans ce fil, tout le monde se dispute uniquement sur les définitions.
Le vrai point important, c’est le calendrier économique : à quel moment l’IA passe-t-elle de l’automatisation assistée par l’humain à une production pleinement autonome ?
Quand on regarde les environnements de production IA actuels, les humains restent encore chargés de la relecture, des corrections et de la supervision. L’IA traite le volume, les humains assurent le jugement. Au final, c’est le jugement qui constitue le goulot d’étranglement.
Le travail n’a pas été remplacé, il a seulement été déplacé. La rémunération du travail à l’échelle mondiale représente environ 50 billions de dollars par an, et les marchés de capitaux parient sur la capacité réelle de l’IA à en capter une partie. Le terme AGI n’a pas d’importance — le capital ne s’intéresse pas aux définitions, mais à la séparation entre travail et production.
Chaque fois que je vois des mots comme « AGI » ou « ASI », je les remplace mentalement par « quelque chose que personne ne sait définir correctement ».
Autrement dit, ce sont des concepts dont la définition est trop incomplète pour permettre une conclusion. Alors je les remplace simplement par un son absurde du genre « skiptiboof ».
Si on définit l’AGI comme une « IA générale plutôt que spécialisée », alors elle existe déjà.
Si on la définit comme une « intelligence au niveau humain dans toutes les tâches », alors certains humains ne sont pas de l’AGI.
Si on la définit comme un « algorithme magique qui accomplit parfaitement tout », alors ça n’existe probablement pas.
Quand le terme AGI est apparu au départ, il désignait sans doute quelque chose comme HAL 9000, mais aujourd’hui c’est devenu un jeu où la cible ne cesse de bouger.
À partir du moment où ils ont tout misé sur la commercialisation de la technologie, l’issue était déjà écrite.
Les LLM actuels sont déjà utilisés de manière dangereuse, et si ce genre de nouvelles continue à attirer l’attention, OpenAI supprimera discrètement sa charte de son site web.
Les modèles actuels sont encore loin de l’AGI.
La prédiction du token suivant a progressé de façon impressionnante, mais il n’y a toujours ni véritable modèle du monde réel ni réelle capacité d’apprentissage.
Sans supervision humaine, les limites sont évidentes.
On a parlé de « l’impuissance de l’idéalisme naïf », mais pour ma part j’y vois plutôt l’appropriation d’un langage idéaliste à des fins marketing.
En réalité, c’était une organisation de plus en plus centrée sur le profit qui révélait progressivement sa vraie nature.
L’AGI n’arrivera pas dans les 30 prochaines années.
C’est aussi ce que disent des chercheurs.
Une vraie AGI exigerait un apprentissage continu et une mémoire profonde, ce que les LLM ne savent pas faire.
La « mémoire » actuelle n’est en réalité qu’une fonction de recherche et de résumé — comme si une personne assistait à un cours de physique, notait tout sur des Post-it, puis qu’une autre parcourait ces notes avant de rédiger la réponse.
Il faut du RL et du réentraînement, mais c’est trop coûteux, trop lent et trop complexe.
Les LLM écrivent parfois du code impressionnant, mais même si on leur dit « ne supprime pas les fichiers du dossier X », ils finissent quand même par les supprimer.
Ils suivent aussi sans broncher des instructions insérées par un attaquant dans un document.
Sans vraie mémoire ni RL en temps réel, ces problèmes ne seront pas résolus.
Le tweet de Daniel Kokotajlo, la prise de position de Karpathy, ainsi que cette enquête auprès de chercheurs en IA donnent souvent des prévisions bien plus proches.
Ils paraissent intelligents pendant la conversation, mais une fois la session terminée, ils oublient tout.
Même au cours de la session, leurs performances se dégradent — un contexte long devient au contraire un handicap.
Au final, l’absence d’une structure de mémoire constitue leur limite. Les humains ont résolu cela grâce à la mémoire à long terme et au sommeil, mais pas les LLM.
Aussi intelligent soit-il, un génie sans mémoire ne reste qu’un savant de court terme.
Un LLM peut copier et reconstruire instantanément des milliers de pages.
On voit déjà du RL au moment du test et de l’apprentissage continu fondé sur LoRA, et selon certaines définitions, l’AGI serait donc déjà atteinte.
Le vrai problème, c’est simplement la faible viabilité économique.
Et plutôt que de faire disparaître les emplois de programmeurs, cela augmentera au contraire le besoin de personnes dotées de capacités de pensée computationnelle.
D’après mon expérience personnelle, GPT 5.4 était récemment meilleur qu’Opus 4.6.
Mais je trouve intéressant qu’il soit classé plus bas dans le tableau de Chatbot Arena.
Le classement repose sur les votes d’utilisateurs lambda, donc la vérification de l’expertise est insuffisante, et les grandes entreprises manipulent aussi les classements.
Cela n’a pas beaucoup de sens pour comparer les derniers modèles entre eux.
Avec les mêmes prompts, GPT 5.4 a introduit des refactorings inutiles et des bugs, tandis qu’Opus 4.6 a reconnu les fonctionnalités déjà implémentées et proposé des tests ainsi que des mises à jour de documentation.
Je pense que Opus 4.6 reste le meilleur agent de code.
La prévision « en septembre 2026, un stagiaire de recherche IA automatisé ; en mars 2028, un chercheur IA complet » est intéressante.
Cela coïncide aussi avec le moment où le projet Autoresearch de Karpathy est monté en haut de HN.
Il est probable que les grands laboratoires expérimentent déjà des versions bien plus massives.
Je rejoins l’idée de « l’impuissance de l’idéalisme naïf » et celle d’une ligne d’arrivée de l’AGI qui se déplace sans cesse.
Aujourd’hui, beaucoup parlent davantage d’ASI que d’AGI, ce qui suggère qu’on a peut-être déjà atteint l’AGI.
Ça sonne comme une plaisanterie, mais personne n’est réellement proche de la vraie AGI.
Altman lui-même reconnaît qu’atteindre l’AGI exigera plusieurs percées intermédiaires.
Il a prédit qu’aux alentours de 2026, l’IA dépasserait la simple recombinaison d’informations existantes pour générer de nouvelles intuitions, et j’y vois le seuil critique de l’AGI.
Je pense que les LLM actuels sont en moyenne plus compétents qu’un être humain moyen.