4 points par GN⁺ 2026-02-14 | 1 commentaires | Partager sur WhatsApp
  • OpenAI a récemment supprimé le terme « safely » de l’énoncé de sa mission et a défini un nouvel objectif visant à faire en sorte que l’intelligence artificielle profite à l’ensemble de l’humanité
  • Ce changement est intervenu en même temps que la transition d’une structure à but non lucratif vers une structure davantage centrée sur le profit, avec d’importants investissements de Microsoft, SoftBank et d’autres
  • La nouvelle structure est scindée entre une fondation à but non lucratif (OpenAI Foundation) et une entreprise d’intérêt public à but lucratif (OpenAI Group), la première détenant environ 26 % du capital de la seconde
  • Cependant, la mission ne mentionne plus la sécurité, et aucune des deux organisations n’a de responsabilité explicite en matière de sécurité, ce qui alimente des inquiétudes sur un affaiblissement de la responsabilité du conseil d’administration
  • Cette évolution est présentée comme un test pour savoir si l’IA privilégiera l’intérêt de l’ensemble de la société ou celui des actionnaires

Changement de mission et restructuration d’OpenAI

  • Jusqu’en 2023, OpenAI affichait comme objectif le « développement d’une IA bénéfique pour l’humanité en toute sécurité », mais dans sa déclaration fiscale 2024 à l’IRS, la formule a été modifiée en « garantir une intelligence artificielle bénéfique à l’ensemble de l’humanité »
    • Les formulations « safely » et « sans être contrainte par la nécessité de générer un rendement financier (unconstrained by a need to generate financial return) » ont toutes deux été supprimées
    • Selon Platformer, l’équipe de mission alignment aurait également été dissoute
  • OpenAI continue de mentionner sur son site web le développement simultané de la sécurité, des capacités et de l’impact positif, mais sa mission officielle ne contient plus de formulation liée à la sécurité

Passage du non lucratif au lucratif

  • OpenAI a été fondée en 2015 comme laboratoire de recherche à but non lucratif, avec publication ouverte des résultats de recherche et mise à disposition sans royalties
  • En 2019, sous l’impulsion de Sam Altman, une filiale à but lucratif a été créée, avec un investissement initial de 1 milliard de dollars de Microsoft
    • D’ici 2024, le montant cumulé investi par Microsoft a atteint 13,8 milliards de dollars
  • Lors d’une levée de fonds supplémentaire de 6,6 milliards de dollars fin 2024, une clause prévoyait une conversion en dette en l’absence de transformation en entreprise à but lucratif classique

Nouvelle structure juridique et intérêts en présence

  • En octobre 2025, à la suite d’un accord avec les procureurs généraux de Californie et du Delaware, OpenAI a été réorganisée sous la forme d’une public benefit corporation
    • Séparation entre OpenAI Foundation (non lucratif) et OpenAI Group (lucratif)
    • La Foundation détient environ un quart du Group, Microsoft en détient 27 %
  • Une public benefit corporation doit prendre en compte les intérêts sociaux et environnementaux, mais l’équilibre entre profit et intérêt public relève du pouvoir discrétionnaire du conseil d’administration
  • SoftBank a finalisé fin 2025 un investissement de 41 milliards de dollars et négocie ensuite un investissement supplémentaire de 30 milliards de dollars

Clauses liées à la sécurité et limites

  • L’accord de restructuration comprend la mise en place d’un comité sécurité et sûreté, le pouvoir de suspendre des lancements de produits et le contrôle de la composition du conseil d’administration
    • Le conseil d’administration d’OpenAI Group doit, sur les questions liées à la sécurité, faire passer la mission avant les intérêts financiers
  • Toutefois, comme la mission ne mentionne plus explicitement la sécurité, le fondement juridique permettant au conseil de la faire réellement primer s’en trouve affaibli
  • Les membres des conseils des deux organisations étant en grande partie les mêmes, il existe un problème de chevauchement réel de la fonction de supervision

Modèles alternatifs et débat réglementaire

  • En 1992, lors du passage au lucratif de Health Net, la régulation a imposé le transfert de 80 % des actifs à une fondation à but non lucratif
  • Le Philadelphia Inquirer s’est transformé en 2016 en entreprise d’intérêt public détenue par le Lenfest Institute, une organisation à but non lucratif, afin de préserver sa mission de journalisme local
  • Certaines associations californiennes à but non lucratif estiment qu’OpenAI devrait transférer l’ensemble de ses actifs à une organisation non lucrative indépendante
  • L’article affirme que le conseil d’administration d’OpenAI a abandonné sa mission de sécurité et que les autorités des États l’ont permis, y voyant un échec de gouvernance

Expansion des investissements et valorisation du marché

  • Début 2026, OpenAI pourrait lever jusqu’à 60 milliards de dollars auprès d’acteurs comme Amazon, Nvidia et Microsoft
  • Sa valorisation est passée de 300 milliards de dollars en mars 2025 à plus de 500 milliards de dollars en octobre 2025
  • L’hypothèse d’une IPO (introduction en Bourse) est également évoquée, ce qui devrait renforcer la pression en faveur d’une maximisation du rendement pour les actionnaires
  • Les fonds de l’OpenAI Foundation sont estimés à environ 130 milliards de dollars, mais il s’agit d’une estimation fondée sur la valorisation de marché d’une entreprise non cotée

Portée sociétale

  • Le changement de mission et la restructuration d’OpenAI sont présentés comme un cas test pour savoir si les entreprises d’IA privilégieront l’intérêt public ou la rentabilité
  • La suppression de la référence à la sécurité peut être interprétée comme un recul de la responsabilité sociale et de la gestion des risques liés à l’IA
  • À l’avenir, l’efficacité réelle du modèle d’entreprise d’intérêt public et le rôle de supervision des pouvoirs publics devraient devenir des enjeux centraux

1 commentaires

 
GN⁺ 2026-02-14
Avis sur Hacker News
  • Les déclarations de mission officielles de chaque année sont consultables dans les documents IRS 990 de ProPublica
    Je les ai rassemblées dans une page de révisions Gist afin de pouvoir voir d’un coup d’œil les changements d’une année à l’autre
    J’ai aussi détaillé le sujet dans mon article de blog

    • C’est beaucoup trop drôle. Ça rappelle la scène de modification des commandements dans Animal Farm — le genre de satire où « Tous les animaux sont égaux » devient « Tous les animaux sont égaux, mais certains animaux sont plus égaux que d’autres »
    • Merci d’avoir extrait l’historique réel des changements de mission. En particulier, en 2021 c’était « ...that benefits humanity », puis en 2022 « safely » a été ajouté, ce qui a donné « ...that safely benefits humanity ». Mais dans la version la plus récente, « safely » a complètement disparu et la phrase a été fortement raccourcie
      Parmi les mots supprimés, il y a responsibly, safe, technology et world
    • Le fait d’avoir extrait les formulations de 2016 à 2024 puis d’avoir manipulé les dates de commit avec Claude Code pour en faire un faux dépôt git est vraiment génial. C’est un bon exemple d’archivage automatisé
    • J’ai l’impression qu’il manque pas mal de ponctuation dans le Gist
    • Vraiment intéressant. Je me demande s’il existe aussi des archives de l’évolution de la mission d’Anthropic présentées de cette façon
  • Le retrait de la catégorie persuasion/manipulation du suivi, dans la mise à jour du Preparedness Framework d’avril 2025, était déjà un signal fort
    D’après un article de Fortune, OpenAI n’évalue désormais plus les risques de persuasion et de manipulation avant la sortie des modèles, et les limite à la place via les conditions d’utilisation
    Cela revient à définir de manière très précise ce que signifie « sécurité de l’IA » — une IA manipulatrice capable de faire perdre aux gens leur perception du réel peut aussi représenter une menace pour l’humanité, tout autant que la conception d’armes de destruction massive

    • « Des systèmes qui font perdre la perception du réel », ce n’est pas exactement ce que sont déjà les réseaux sociaux et les technologies publicitaires ?
      L’humanité est déjà désensibilisée aux technologies de manipulation depuis des décennies, et désormais seule leur échelle et leur efficacité vont augmenter. Au final, une minorité deviendra plus riche et la majorité souffrira davantage
    • C’est précisément le véritable but de l’IA. Un censeur humain ressentira des scrupules, alors que l’IA exécutera une censure ordonnée à la perfection.
      Plus inquiétant encore, le profilage façon Cambridge Analytica peut être hyperpersonnalisé pour fournir à chacun un contenu de manipulation sur mesure
    • Je pense que « perdre le sens du réel » relève au final de la responsabilité individuelle. Si quelqu’un se fait tromper à répétition sans jamais chercher à apprendre par lui-même, c’est le résultat de sa paresse
  • Le changement décisif, dans la version 2024, a été la suppression de la formule « unconstrained by a need to generate financial return ». Une fois cela abandonné, que reste-t-il ?

    • Il ne reste que le profit
    • Et en plus, pour une organisation à but non lucratif 501(c)(3), ce genre de changement pourrait même être juridiquement problématique
  • Retirer le mot « safely » me paraît presque plus honnête. Un peu comme quand Google a abandonné « Don’t be evil », c’est une façon d’enlever le masque de l’hypocrisie

    • Je ne suis pas d’accord. Les gens peuvent très bien être en colère aussi contre des entreprises ouvertement malveillantes comme Palantir ou Broadcom
    • Même avec des intérêts complexes, il existe des organisations qui travaillent de manière sûre. Avec des talents de tout premier plan, on est au minimum en droit d’attendre cela
    • J’ai travaillé dix ans sur la recherche en IA chez Google, et c’est bien Sundar qui a pris la décision de ne pas publier au monde entier la technologie proto-LLM. Il estimait que le monde n’était pas prêt
  • Cela donne la même impression de cynisme et de déjà-vu que lorsque Google a abandonné « Don’t be evil »

    • À la place, c’est devenu « Do the right thing (for the shareholders) »
  • La vraie question, au fond, est la suivante — allons-nous d’abord profiter des filles-chats robots, ou passerons-nous directement à Terminator ?

    • L’étymologie de « robot » vient du slave « rabu (esclave) ». Ce genre de blague reflète une mentalité esclavagiste. Il faut corriger cet état d’esprit ou disparaître
  • La mission d’OpenAI a toujours été dès le départ une déclaration quasi grotesque. Ils disaient en substance que « si nos recherches contribuent à l’atteinte de l’AGI par d’autres, alors la mission est accomplie », puis ils sont allés se plaindre devant le Congrès parce que des modèles open source ont servi à entraîner les leurs

  • Je ne comprends pas pourquoi les entreprises rédigent ce genre de formules de mission. Supprimer une phrase comme « nous ne serons pas mauvais » ne les rend pas plus mauvaises, mais au final cela ne fait qu’exposer leur hypocrisie

  • La nouvelle mission a en pratique été remplacée par « profitably »
    Autrefois, un patron nous avait enfermés toute une journée dans une salle de réunion pour rédiger une formule de mission, puis elle a été encadrée au mur et plus personne ne l’a jamais relue. Au final, ce ne sont que des objets décoratifs de marketing

  • En juin 2024, l’ancien directeur de la NSA Paul Nakasone a rejoint le conseil d’administration d’OpenAI, et en octobre 2025 l’entreprise a annoncé autoriser la génération de contenu pour adultes

    • C’est vraiment une entreprise sinistre. On dirait une fusion entre cupidité et surveillance
    • Lien vers la vidéo correspondante
    • Ces entreprises ont utilisé sans autorisation le travail de dix ans de ma vie pour l’entraînement. Si elles allaient jusqu’à prendre aussi mes photos nues pour en faire du porno, je préfère ne même pas imaginer ma colère