- Dans sa Charte de 2018, OpenAI a explicitement inscrit une « clause d’auto-sacrifice » stipulant que, si un autre projet centré sur la sécurité s’approche de l’AGI, l’entreprise arrêterait de rivaliser pour coopérer
- D’après un tableau récapitulant les déclarations de Sam Altman, l’échéance prévue pour atteindre l’AGI s’est brutalement raccourcie, passant de 2033 à 2025, et des propos affirmant qu’« ils ont déjà créé l’AGI » sont même apparus récemment
- Dans le classement des modèles d’Arena.ai, Claude d’Anthropic et Gemini de Google occupent le haut du tableau, tandis que GPT-5.4 d’OpenAI recule à la 6e place
- L’article estime que cette situation remplit la condition énoncée dans la charte, à savoir coopérer si un concurrent a plus d’une chance sur deux de réussir dans les deux ans
- En conséquence, OpenAI devrait, selon sa charte, cesser de rivaliser et coopérer, mais le cas illustre surtout en pratique le conflit entre idéalisme et incitations économiques
La clause d’auto-sacrifice de la charte d’OpenAI
- La charte d’OpenAI de 2018 exprime la crainte qu’une course au développement de l’AGI nuise à la sécurité
- Elle inclut une formule indiquant que l’entreprise cesserait de rivaliser et apporterait son soutien si un projet proche de l’AGI accordait une forte priorité à l’alignement des valeurs et à la sécurité
- La condition de déclenchement typique est présentée comme le cas où la probabilité de succès dans les deux ans dépasse 50 %
- Cette clause est toujours publiée sur le site officiel(openai.com/charter) et reste la politique officielle de l’entreprise
L’évolution des prévisions de Sam Altman sur l’AGI
- Selon le tableau, Altman a continuellement avancé l’échéance d’arrivée de l’AGI de 2023 à 2026
- En mai 2023, il disait encore qu’un système dépassant le niveau d’un expert arriverait « dans les dix ans »,
- mais en 2024~2025, il en est venu à évoquer « l’AGI en 2025 », puis même à déclarer qu’« ils ont déjà créé l’AGI »
- Pour les prévisions postérieures à 2025, la médiane se situe à environ moins de deux ans, ce qui correspond à la condition d’activation de la charte
- Dans certaines interviews, il est aussi question d’aller au-delà de l’AGI vers l’ASI (superintelligence)
Comparaison du classement des modèles sur Arena.ai
- Parmi les 10 premiers modèles du leaderboard Arena.ai, Claude-opus-4-6 d’Anthropic est 1er et Gemini 3.1 de Google 3e
- GPT-5.4-high d’OpenAI est 6e, avec une évaluation inférieure à celle des modèles concurrents
- L’article décrit les modèles d’Anthropic et de Google comme « centrés sur la sécurité et alignés sur les valeurs », et les considère comme des substituts compatibles à GPT
Les conditions d’un arrêt de la concurrence sont-elles réunies ?
- Alors que l’échéance de développement de l’AGI se resserre à moins de deux ans et que les modèles concurrents sont devant, les conditions de la charte pour “cesser la concurrence et coopérer” sont considérées comme remplies
- La pertinence d’Arena.ai pour mesurer l’AGI fait débat, mais l’esprit de la charte est d’éviter une course aux armements
- L’article en conclut donc qu’OpenAI devrait coopérer avec Anthropic et Google
Le décalage entre idéalisme et réalité
- L’article affirme clairement qu’il est en pratique peu probable qu’OpenAI cesse réellement la concurrence
- Ce cas montre comment des principes idéalistes sont neutralisés face aux incitations économiques
- Il souligne aussi le déplacement constant de la définition de l’AGI et de l’échéance visée, ainsi que le glissement récent du débat vers l’ASI
Aucun commentaire pour le moment.