1 points par GN⁺ 2026-03-09 | 1 commentaires | Partager sur WhatsApp
  • Dans sa Charte de 2018, OpenAI a explicitement inscrit une « clause d’auto-sacrifice » stipulant que, si un autre projet centré sur la sécurité s’approche de l’AGI, l’entreprise arrêterait de rivaliser pour coopérer
  • D’après un tableau récapitulant les déclarations de Sam Altman, l’échéance prévue pour atteindre l’AGI s’est brutalement raccourcie, passant de 2033 à 2025, et des propos affirmant qu’« ils ont déjà créé l’AGI » sont même apparus récemment
  • Dans le classement des modèles d’Arena.ai, Claude d’Anthropic et Gemini de Google occupent le haut du tableau, tandis que GPT-5.4 d’OpenAI recule à la 6e place
  • L’article estime que cette situation remplit la condition énoncée dans la charte, à savoir coopérer si un concurrent a plus d’une chance sur deux de réussir dans les deux ans
  • En conséquence, OpenAI devrait, selon sa charte, cesser de rivaliser et coopérer, mais le cas illustre surtout en pratique le conflit entre idéalisme et incitations économiques

La clause d’auto-sacrifice de la charte d’OpenAI

  • La charte d’OpenAI de 2018 exprime la crainte qu’une course au développement de l’AGI nuise à la sécurité
    • Elle inclut une formule indiquant que l’entreprise cesserait de rivaliser et apporterait son soutien si un projet proche de l’AGI accordait une forte priorité à l’alignement des valeurs et à la sécurité
    • La condition de déclenchement typique est présentée comme le cas où la probabilité de succès dans les deux ans dépasse 50 %
  • Cette clause est toujours publiée sur le site officiel(openai.com/charter) et reste la politique officielle de l’entreprise

L’évolution des prévisions de Sam Altman sur l’AGI

  • Selon le tableau, Altman a continuellement avancé l’échéance d’arrivée de l’AGI de 2023 à 2026
    • En mai 2023, il disait encore qu’un système dépassant le niveau d’un expert arriverait « dans les dix ans »,
    • mais en 2024~2025, il en est venu à évoquer « l’AGI en 2025 », puis même à déclarer qu’« ils ont déjà créé l’AGI »
  • Pour les prévisions postérieures à 2025, la médiane se situe à environ moins de deux ans, ce qui correspond à la condition d’activation de la charte
  • Dans certaines interviews, il est aussi question d’aller au-delà de l’AGI vers l’ASI (superintelligence)

Comparaison du classement des modèles sur Arena.ai

  • Parmi les 10 premiers modèles du leaderboard Arena.ai, Claude-opus-4-6 d’Anthropic est 1er et Gemini 3.1 de Google 3e
  • GPT-5.4-high d’OpenAI est 6e, avec une évaluation inférieure à celle des modèles concurrents
  • L’article décrit les modèles d’Anthropic et de Google comme « centrés sur la sécurité et alignés sur les valeurs », et les considère comme des substituts compatibles à GPT

Les conditions d’un arrêt de la concurrence sont-elles réunies ?

  • Alors que l’échéance de développement de l’AGI se resserre à moins de deux ans et que les modèles concurrents sont devant, les conditions de la charte pour “cesser la concurrence et coopérer” sont considérées comme remplies
  • La pertinence d’Arena.ai pour mesurer l’AGI fait débat, mais l’esprit de la charte est d’éviter une course aux armements
  • L’article en conclut donc qu’OpenAI devrait coopérer avec Anthropic et Google

Le décalage entre idéalisme et réalité

  • L’article affirme clairement qu’il est en pratique peu probable qu’OpenAI cesse réellement la concurrence
  • Ce cas montre comment des principes idéalistes sont neutralisés face aux incitations économiques
  • Il souligne aussi le déplacement constant de la définition de l’AGI et de l’échéance visée, ainsi que le glissement récent du débat vers l’ASI

1 commentaires

 
GN⁺ 2026-03-09
Réactions sur Hacker News
  • Dans ce fil, tout le monde se dispute uniquement sur les définitions.
    Le vrai point important, c’est le calendrier économique : à quel moment l’IA passe-t-elle de l’automatisation assistée par l’humain à une production pleinement autonome ?
    Quand on regarde les environnements de production IA actuels, les humains restent encore chargés de la relecture, des corrections et de la supervision. L’IA traite le volume, les humains assurent le jugement. Au final, c’est le jugement qui constitue le goulot d’étranglement.
    Le travail n’a pas été remplacé, il a seulement été déplacé. La rémunération du travail à l’échelle mondiale représente environ 50 billions de dollars par an, et les marchés de capitaux parient sur la capacité réelle de l’IA à en capter une partie. Le terme AGI n’a pas d’importance — le capital ne s’intéresse pas aux définitions, mais à la séparation entre travail et production.

  • Chaque fois que je vois des mots comme « AGI » ou « ASI », je les remplace mentalement par « quelque chose que personne ne sait définir correctement ».
    Autrement dit, ce sont des concepts dont la définition est trop incomplète pour permettre une conclusion. Alors je les remplace simplement par un son absurde du genre « skiptiboof ».

    • En ce moment, j’utilise à peine le mot « IA » lui-même. Appeler ainsi les LLM ou les technologies génératives actuelles me semble être une formule trop vague qui masque le vrai problème.
    • Dans la charte d’OpenAI, l’AGI est définie comme « un système hautement autonome qui surpasse les humains dans la plupart des tâches ayant une valeur économique ».
    • Le problème, c’est que personne ne définit les termes.
      Si on définit l’AGI comme une « IA générale plutôt que spécialisée », alors elle existe déjà.
      Si on la définit comme une « intelligence au niveau humain dans toutes les tâches », alors certains humains ne sont pas de l’AGI.
      Si on la définit comme un « algorithme magique qui accomplit parfaitement tout », alors ça n’existe probablement pas.
      Quand le terme AGI est apparu au départ, il désignait sans doute quelque chose comme HAL 9000, mais aujourd’hui c’est devenu un jeu où la cible ne cesse de bouger.
    • J’appelle ça une « définition romantique » ou un « concept gestuel ». C’est acceptable pour un usage personnel ou interne à une équipe, mais au fond ce n’est qu’une formulation provisoire destinée à affiner le vocabulaire.
    • On pourrait aussi résumer ça par « l’enskibidification de l’IA » — autrement dit, le concept devient de plus en plus caricatural.
  • À partir du moment où ils ont tout misé sur la commercialisation de la technologie, l’issue était déjà écrite.
    Les LLM actuels sont déjà utilisés de manière dangereuse, et si ce genre de nouvelles continue à attirer l’attention, OpenAI supprimera discrètement sa charte de son site web.

  • Les modèles actuels sont encore loin de l’AGI.
    La prédiction du token suivant a progressé de façon impressionnante, mais il n’y a toujours ni véritable modèle du monde réel ni réelle capacité d’apprentissage.
    Sans supervision humaine, les limites sont évidentes.

    • Je ne me souviens même plus depuis combien de mois on entend dire que « les ingénieurs logiciel auront disparu dans 12 mois ».
    • Vu les résultats des recherches en mechanistic interpretability, je trouve que l’idée selon laquelle « il n’y a pas de modèle du réel » est désormais moins convaincante.
  • On a parlé de « l’impuissance de l’idéalisme naïf », mais pour ma part j’y vois plutôt l’appropriation d’un langage idéaliste à des fins marketing.
    En réalité, c’était une organisation de plus en plus centrée sur le profit qui révélait progressivement sa vraie nature.

    • Au début, je pense qu’ils étaient sincères. Mais j’estime qu’Altman a trahi cet idéal en se laissant emporter par la cupidité.
  • L’AGI n’arrivera pas dans les 30 prochaines années.
    C’est aussi ce que disent des chercheurs.
    Une vraie AGI exigerait un apprentissage continu et une mémoire profonde, ce que les LLM ne savent pas faire.
    La « mémoire » actuelle n’est en réalité qu’une fonction de recherche et de résumé — comme si une personne assistait à un cours de physique, notait tout sur des Post-it, puis qu’une autre parcourait ces notes avant de rédiger la réponse.
    Il faut du RL et du réentraînement, mais c’est trop coûteux, trop lent et trop complexe.
    Les LLM écrivent parfois du code impressionnant, mais même si on leur dit « ne supprime pas les fichiers du dossier X », ils finissent quand même par les supprimer.
    Ils suivent aussi sans broncher des instructions insérées par un attaquant dans un document.
    Sans vraie mémoire ni RL en temps réel, ces problèmes ne seront pas résolus.

    • Cette analogie des Post-it décrit selon moi le mieux la nature des LLM. Même si la deuxième personne reçoit d’excellentes notes, il lui manque toujours une compréhension profonde.
    • Concernant l’affirmation « impossible dans les 30 prochaines années », j’aimerais savoir sur quels chercheurs cela s’appuie.
      Le tweet de Daniel Kokotajlo, la prise de position de Karpathy, ainsi que cette enquête auprès de chercheurs en IA donnent souvent des prévisions bien plus proches.
    • En tant que psychiatre, je compare les LLM à des patients atteints d’amnésie antérograde.
      Ils paraissent intelligents pendant la conversation, mais une fois la session terminée, ils oublient tout.
      Même au cours de la session, leurs performances se dégradent — un contexte long devient au contraire un handicap.
      Au final, l’absence d’une structure de mémoire constitue leur limite. Les humains ont résolu cela grâce à la mémoire à long terme et au sommeil, mais pas les LLM.
      Aussi intelligent soit-il, un génie sans mémoire ne reste qu’un savant de court terme.
    • Je pense que « l’analogie des Post-it » est fausse.
      Un LLM peut copier et reconstruire instantanément des milliers de pages.
      On voit déjà du RL au moment du test et de l’apprentissage continu fondé sur LoRA, et selon certaines définitions, l’AGI serait donc déjà atteinte.
      Le vrai problème, c’est simplement la faible viabilité économique.
      Et plutôt que de faire disparaître les emplois de programmeurs, cela augmentera au contraire le besoin de personnes dotées de capacités de pensée computationnelle.
    • Je suis d’accord avec l’idée que ce sera impossible dans les 30 prochaines années, mais j’aimerais en entendre davantage sur les raisons.
  • D’après mon expérience personnelle, GPT 5.4 était récemment meilleur qu’Opus 4.6.
    Mais je trouve intéressant qu’il soit classé plus bas dans le tableau de Chatbot Arena.

    • Chatbot Arena est difficile à considérer comme fiable.
      Le classement repose sur les votes d’utilisateurs lambda, donc la vérification de l’expertise est insuffisante, et les grandes entreprises manipulent aussi les classements.
      Cela n’a pas beaucoup de sens pour comparer les derniers modèles entre eux.
    • Mon expérience est inverse.
      Avec les mêmes prompts, GPT 5.4 a introduit des refactorings inutiles et des bugs, tandis qu’Opus 4.6 a reconnu les fonctionnalités déjà implémentées et proposé des tests ainsi que des mises à jour de documentation.
      Je pense que Opus 4.6 reste le meilleur agent de code.
  • La prévision « en septembre 2026, un stagiaire de recherche IA automatisé ; en mars 2028, un chercheur IA complet » est intéressante.
    Cela coïncide aussi avec le moment où le projet Autoresearch de Karpathy est monté en haut de HN.
    Il est probable que les grands laboratoires expérimentent déjà des versions bien plus massives.

  • Je rejoins l’idée de « l’impuissance de l’idéalisme naïf » et celle d’une ligne d’arrivée de l’AGI qui se déplace sans cesse.
    Aujourd’hui, beaucoup parlent davantage d’ASI que d’AGI, ce qui suggère qu’on a peut-être déjà atteint l’AGI.

  • Ça sonne comme une plaisanterie, mais personne n’est réellement proche de la vraie AGI.
    Altman lui-même reconnaît qu’atteindre l’AGI exigera plusieurs percées intermédiaires.
    Il a prédit qu’aux alentours de 2026, l’IA dépasserait la simple recombinaison d’informations existantes pour générer de nouvelles intuitions, et j’y vois le seuil critique de l’AGI.

    • Pourtant, j’ai l’impression qu’on a déjà dépassé l’AGI.
      Je pense que les LLM actuels sont en moyenne plus compétents qu’un être humain moyen.