1 points par GN⁺ 2026-03-09 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Dans sa Charte de 2018, OpenAI a explicitement inscrit une « clause d’auto-sacrifice » stipulant que, si un autre projet centré sur la sécurité s’approche de l’AGI, l’entreprise arrêterait de rivaliser pour coopérer
  • D’après un tableau récapitulant les déclarations de Sam Altman, l’échéance prévue pour atteindre l’AGI s’est brutalement raccourcie, passant de 2033 à 2025, et des propos affirmant qu’« ils ont déjà créé l’AGI » sont même apparus récemment
  • Dans le classement des modèles d’Arena.ai, Claude d’Anthropic et Gemini de Google occupent le haut du tableau, tandis que GPT-5.4 d’OpenAI recule à la 6e place
  • L’article estime que cette situation remplit la condition énoncée dans la charte, à savoir coopérer si un concurrent a plus d’une chance sur deux de réussir dans les deux ans
  • En conséquence, OpenAI devrait, selon sa charte, cesser de rivaliser et coopérer, mais le cas illustre surtout en pratique le conflit entre idéalisme et incitations économiques

La clause d’auto-sacrifice de la charte d’OpenAI

  • La charte d’OpenAI de 2018 exprime la crainte qu’une course au développement de l’AGI nuise à la sécurité
    • Elle inclut une formule indiquant que l’entreprise cesserait de rivaliser et apporterait son soutien si un projet proche de l’AGI accordait une forte priorité à l’alignement des valeurs et à la sécurité
    • La condition de déclenchement typique est présentée comme le cas où la probabilité de succès dans les deux ans dépasse 50 %
  • Cette clause est toujours publiée sur le site officiel(openai.com/charter) et reste la politique officielle de l’entreprise

L’évolution des prévisions de Sam Altman sur l’AGI

  • Selon le tableau, Altman a continuellement avancé l’échéance d’arrivée de l’AGI de 2023 à 2026
    • En mai 2023, il disait encore qu’un système dépassant le niveau d’un expert arriverait « dans les dix ans »,
    • mais en 2024~2025, il en est venu à évoquer « l’AGI en 2025 », puis même à déclarer qu’« ils ont déjà créé l’AGI »
  • Pour les prévisions postérieures à 2025, la médiane se situe à environ moins de deux ans, ce qui correspond à la condition d’activation de la charte
  • Dans certaines interviews, il est aussi question d’aller au-delà de l’AGI vers l’ASI (superintelligence)

Comparaison du classement des modèles sur Arena.ai

  • Parmi les 10 premiers modèles du leaderboard Arena.ai, Claude-opus-4-6 d’Anthropic est 1er et Gemini 3.1 de Google 3e
  • GPT-5.4-high d’OpenAI est 6e, avec une évaluation inférieure à celle des modèles concurrents
  • L’article décrit les modèles d’Anthropic et de Google comme « centrés sur la sécurité et alignés sur les valeurs », et les considère comme des substituts compatibles à GPT

Les conditions d’un arrêt de la concurrence sont-elles réunies ?

  • Alors que l’échéance de développement de l’AGI se resserre à moins de deux ans et que les modèles concurrents sont devant, les conditions de la charte pour “cesser la concurrence et coopérer” sont considérées comme remplies
  • La pertinence d’Arena.ai pour mesurer l’AGI fait débat, mais l’esprit de la charte est d’éviter une course aux armements
  • L’article en conclut donc qu’OpenAI devrait coopérer avec Anthropic et Google

Le décalage entre idéalisme et réalité

  • L’article affirme clairement qu’il est en pratique peu probable qu’OpenAI cesse réellement la concurrence
  • Ce cas montre comment des principes idéalistes sont neutralisés face aux incitations économiques
  • Il souligne aussi le déplacement constant de la définition de l’AGI et de l’échéance visée, ainsi que le glissement récent du débat vers l’ASI

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.