27 points par GN⁺ 2025-07-16 | 2 commentaires | Partager sur WhatsApp
  • L’auteur a rejoint OpenAI en mai 2024, y a travaillé un peu plus d’un an avant de partir, et livre un récit franc sur la culture interne et l’ambiance de travail réelle
  • Dans un contexte de croissance fulgurante (1 000 → 3 000 personnes), les processus internes, l’organisation, la culture et les méthodes de travail évoluent très rapidement
  • Une culture bottom-up et méritocratique, une collaboration singulière centrée sur Slack, une forte capacité d’exécution, une direction très visible et des changements de cap rapides, ainsi qu’un état d’esprit où « le code fait foi », imprègnent toute l’organisation
  • L’entreprise se distingue par des cultures d’équipe variées, un rythme de travail élevé et une grande flexibilité organisationnelle ; les chercheurs disposent d’une autonomie de « mini-dirigeants », et les projets en doublon comme les expérimentations d’idées internes sont fréquents
  • OpenAI est décrit comme une organisation ambitieuse et sérieuse, soumise à la fois à une forte surveillance médiatique et externe, à une sécurité/confidentialité très concrète, et à une tension nourrie par sa mission autour de l’AGI et des services grand public

Introduction et contexte personnel

  • L’auteur a rejoint l’entreprise en mai 2024 et a récemment quitté OpenAI
  • Il souhaite partager, à travers ce texte, la culture réelle qu’il a ressentie chez OpenAI ainsi que son point de vue personnel
  • Il n’y révèle aucun secret interne, mais décrit l’état actuel d’une organisation historiquement intéressante à travers l’expérience modeste d’un employé
  • La décision de partir s’est accompagnée de conflits personnels, mais il existait aussi chez lui un désir de nouveauté après le passage du rôle de fondateur de startup à celui d’employé dans une grande organisation
  • Le fait d’avoir participé à la construction de l’AGI et contribué directement au lancement de Codex a eu pour lui une grande importance

Culture d’organisation

  • À son arrivée, OpenAI comptait 1 000 personnes ; un an plus tard, l’entreprise avait dépassé les 3 000, soit une croissance anormalement rapide
  • Cette expansion accélérée a provoqué divers problèmes en matière de communication, de chaîne de reporting, de lancement produit et de gestion organisationnelle
  • Toute la communication et le travail passent essentiellement par Slack, l’e-mail étant presque absent
  • Chaque équipe a sa propre culture et son propre rythme, et la temporalité diffère aussi entre recherche, déploiement et GTM (Go-To-Market)
  • Une véritable culture bottom-up et méritocratique y est forte, les chercheurs et développeurs menant eux-mêmes expérimentations et décisions
  • Dans cette culture orientée résultats et compétence, la capacité d’exécution et les idées comptent davantage que les habiletés politiques
  • Sans roadmap formelle, les équipes ont tendance à se former naturellement autour des bonnes idées et à changer rapidement de direction
  • La direction valorise la capacité à faire ce qu’il faut et l’agilité face au changement
  • En interne, on trouve beaucoup de développements en doublon et d’expérimentations parallèles ; de multiples prototypes émergent de façon organique, dans une organisation où le code est moteur
  • Les dirigeants accordent plus d’importance à la capacité réelle à exécuter des idées qu’aux compétences politiques
  • Les chercheurs se comportent comme des « mini-dirigeants », chacun se consacrant de façon autonome à la résolution de problèmes
  • L’influence des bons managers de recherche et des PM y est très forte
  • Les EM de ChatGPT sont jugés très fiables et savent recruter de bons profils auxquels ils donnent de l’autonomie
  • La vitesse des changements de cap est extrêmement élevée, avec une mise en œuvre immédiate après décision

Façon de travailler et ambiance

  • La structure des canaux et des permissions dans Slack est complexe, et toute la communication s’y déroule
  • Les rôles — équipe de recherche, PM, EM (engineering manager), etc. — fonctionnent chacun différemment, et la mobilité entre équipes comme la collaboration sont très flexibles
  • OpenAI est très sensible à la sécurité externe et à l’exposition médiatique, et les informations internes comme les performances ou le chiffre d’affaires sont strictement contrôlées
  • Les membres de l’organisation sont réellement motivés par l’idée de faire ce qui est juste et sont moins cyniques que ce que l’on imagine depuis l’extérieur
  • OpenAI est comparé à une organisation hybride mêlant Los Alamos (laboratoire nucléaire) et service grand public massif
  • L’entreprise attache de l’importance à une diffusion large des bénéfices de l’IA et ne réserve pas ses modèles les plus avancés aux seules entreprises : ils sont accessibles à tous via l’API ou ChatGPT

Sécurité et politiques internes

  • Les enjeux de sécurité de l’IA mobilisent réellement beaucoup de personnel et de ressources en interne
  • En pratique, l’entreprise traite surtout des risques concrets : discours haineux, abus, biais politiques, prompt injection, auto-préjudice, etc.
  • Les risques théoriques (explosion d’intelligence, power-seeking) sont pris en charge par une partie du personnel, mais ne constituent pas le courant principal
  • Une part importante de la recherche et des systèmes liés à la sécurité n’est pas rendue publique

Environnement de développement et technologies

  • L’entreprise s’appuie sur un énorme mono-repo, principalement en Python, avec un peu de Rust et de Golang, et presque aucune application stricte d’un guide de style
    • On y trouve côte à côte de grands systèmes conçus par des vétérans passés par Google et des notebooks Jupyter écrits par de nouveaux docteurs
    • Les API reposent largement sur FastAPI, avec un usage marqué de Pydantic pour la validation des données
  • Toute l’infrastructure tourne sur Azure
    • Les services vraiment jugés fiables se limitent essentiellement à Azure Kubernetes Service, CosmosDB et BlobStore
    • Le niveau IAM et certains services sont jugés en retrait par rapport à AWS, ce qui pousse à développer beaucoup d’outils en interne
  • De nombreux ingénieurs venus de Meta (ex-Facebook) ont rejoint l’entreprise
    • La sensibilité infrastructure et la codebase rappellent les débuts de Meta/Instagram
    • Exemples : réimplémentation de TAO, unification des systèmes d’authentification, etc.
  • L’auteur y a constaté les problèmes classiques d’une organisation en hypercroissance : code dupliqué, bibliothèques internes pour outils/gestion de files, gestion d’un gros backend monolithique, avec des soucis de vitesse et de stabilité du CI
  • La structure des messages et conversations de chat est profondément intégrée dans le code, et réutilisée dans produit après produit
  • « Code wins » : sans comité central de planification, c’est le code des équipes qui exécutent réellement le travail qui devient le standard
    • Le pouvoir de décision appartient aux équipes qui font effectivement le travail, dans une logique de compétence et d’exécution démontrées par le code

Marque grand public et perspective business

  • L’ampleur de la marque Consumer : les indicateurs clés sont pilotés non pas à l’échelle des équipes mais sur la base des abonnements d’utilisateurs individuels
    • La croissance produit et le trafic sont mesurés à l’échelle du grand public, par exemple via le nombre d’abonnés Pro, ce qui a été un choc rafraîchissant pour l’auteur issu d’organisations B2B
  • L’entraînement des modèles et les expérimentations commencent à petite échelle, puis, en cas de succès, s’étendent vers de grands systèmes distribués
  • Le coût des GPU représente une part écrasante, au point que même de petites fonctionnalités nécessitent d’énormes ressources GPU
    • L’estimation de l’usage GPU et le benchmarking se font en remontant à partir des exigences d’expérience utilisateur, comme la latence cible ou le nombre de tokens
  • L’exploitation d’une vaste codebase Python exige, à mesure que le nombre de développeurs augmente, divers garde-fous : fonctionnement de base, tests, prévention des mauvais usages, etc.

Fonctionnement des équipes et leadership

  • Le leadership est très visible et directement impliqué, tous les dirigeants participant régulièrement aux discussions sur Slack
  • Les mouvements entre équipes et la collaboration sont très rapides : au moindre besoin d’une autre équipe, des renforts arrivent immédiatement, sans attente ni procédure
  • Le swag interne est rare et n’est proposé qu’en quantités limitées, sous une forme proche de ventes restreintes

Expérience du lancement de Codex

  • Sur les trois derniers mois, le lancement de Codex a constitué le point culminant de sa carrière
  • En novembre 2024, l’objectif de lancer un agent de codage en 2025 a été fixé ; vers février 2025, un outil interne était prêt, et la pression de la vitesse concurrentielle du marché s’est faite sentir
  • Pour lancer Codex, les équipes se sont regroupées et ont conçu puis lancé en 7 semaines un produit fini (agent de codage), démontrant la capacité à livrer très vite un produit à fort impact dans un délai extrêmement court
    • En pratique, cela s’est traduit par des nuits blanches, du travail le week-end et la gestion d’un nouveau-né en parallèle, recréant pour lui l’ambiance de l’époque YC
    • Runtime de conteneurs, optimisation de repo, fine-tuning de modèles custom, intégration Git, accès à Internet : de nombreuses fonctionnalités ont été développées à grande vitesse
    • L’équipe comprenait 8 ingénieurs seniors, 4 chercheurs, 2 designers, 2 GTM et 1 PM, soit une petite équipe d’élite principalement composée de profils expérimentés
  • La veille du lancement, l’accent a été mis sur les dernières opérations, y compris le déploiement direct
  • Le jour du lancement, l’explosion du trafic a provoqué un afflux massif immédiat, simplement grâce à son apparition dans la barre latérale de ChatGPT
  • Codex adopte un mode d’agent asynchrone (message utilisateur → travail de l’agent → retour du résultat sous forme de PR)
    • Le système traite la demande de l’utilisateur dans un environnement d’exécution indépendant et renvoie un résultat de type PR comme le ferait un collaborateur
    • La confiance dans les performances du modèle reste encore mêlée à certaines limites
    • L’exécution de tâches multiples et la compréhension de grandes codebases font partie des éléments différenciants de Codex
  • En seulement 53 jours après le lancement, 630 000 PR avaient été générées, soit plus de 78 000 PR par ingénieur, pour un impact écrasant

Conclusion et enseignements

  • Il appréhendait de travailler dans une grande organisation, mais avec le recul, cela a été l’une de ses meilleures décisions en matière d’apprentissage et de progression
  • Il a atteint tous ses objectifs : développer une intuition sur l’entraînement des modèles, collaborer avec d’excellents collègues et lancer un produit à fort impact
  • Il y a acquis un vrai savoir-faire dans la gestion d’une grande codebase Python, ainsi qu’une expérience concrète du benchmarking GPU et du dimensionnement des capacités
  • Pour les fondateurs de startup ou ceux qui réfléchissent à leur trajectoire, c’est peut-être le moment d’oser plus franchement ou d’envisager de rejoindre un grand laboratoire de recherche
  • La course vers l’AGI se joue entre trois chevaux — OpenAI, Anthropic et Google — chacun poursuivant une approche différente ; travailler dans l’un de ces environnements élargit la perspective
  • L’expérience OpenAI est évaluée comme l’un des meilleurs choix de sa vie d’entrepreneur et d’ingénieur

2 commentaires

 
brainer 2025-07-17

https://fr.news.hada.io/topic?id=21081 Cet article m’a marqué.

 
GN⁺ 2025-07-16
Avis Hacker News
  • Il est rare qu’un ancien employé décrive son expérience de travail de manière positive, mais cela ne signifie pas forcément qu’OpenAI est spéciale ; cela montre plutôt que la plupart des billets expliquant « pourquoi j’ai quitté l’entreprise » cherchent en réalité à faire porter à l’organisation la responsabilité d’une incompatibilité plus personnelle, et derrière l’expression « incroyablement bottom-up » dans cet article, on peut aussi voir l’absence de feuille de route claire et le risque que certains perdent leur cap faute de projets réellement possédés ; de même, « culture orientée action » et « changements de direction immédiats » peuvent aussi vouloir dire environnement chaotique et leadership exécutif incohérent ; quant à l’idée que « chez OpenAI, il y a vraiment beaucoup de gens de bonne volonté », cela s’applique à la plupart des entreprises qui prennent des décisions moralement complexes : tout le monde se voit comme quelqu’un de bien et rationalise cela au nom d’un grand objectif

    • Je ne critique jamais un employeur en public, car cela ne peut que nuire à ma carrière ; avec en plus la rumeur qu’Altman serait revanchard, il faut être deux fois plus prudent avec OpenAI ; ce texte dit même qu’OpenAI surveille aussi les réseaux sociaux ; cet ancien employé semble peut-être aussi vouloir gérer sa réputation en présentant sous un jour positif ses 14 mois assez courts dans l’entreprise, et ce type d’attitude semble justement bien perçu par de futurs employeurs
    • Il y avait cette phrase : « Dans une entreprise, il n’y a pas de méchants. Juste des gens bien qui se rationalisent eux-mêmes. » Pourtant, j’ai déjà travaillé dans une société de logiciels pour casinos, et là, la direction comptait vraiment des gens ouvertement malveillants
    • Chez OpenAI, si l’on parle négativement après son départ, on peut perdre l’intégralité des parts déjà attribuées ; il est donc structurellement bien plus courant d’entendre des récits positifs
    • À mon avis, Altman s’est à la fois concentré sur l’idée de convaincre le public que l’AGI arrive bientôt, tout en déployant beaucoup d’efforts pour faire d’OpenAI une entreprise produit puissante, et il semble y être effectivement parvenu ; dans ce contexte de forte fierté interne et de concurrence, il est possible que l’ancien employé ait été blessé par quelques défaites politiques ou parce que son prototype Codex n’a pas été retenu ; ou peut-être qu’ayant déjà accumulé assez d’argent et d’expérience de vie, il n’avait plus l’élan nécessaire pour rivaliser avec de plus jeunes talents
    • Les anciens employés ne parlent pas seulement de leur expérience en termes négatifs ; très souvent, ils l’embellissent au contraire de façon excessive ; dans une entreprise où j’ai travaillé, l’environnement était devenu profondément toxique sous un CEO autoritaire, et malgré cela beaucoup ont publié sur leur blog ou sur LinkedIn des textes élogieux pour favoriser leur futur emploi ; sur HN, les billets qui deviennent viraux sont souvent plutôt écrits par des salariés attachés à leur entreprise et peinés de voir leur société ou leur département décliner
  • Voici ce qui m’a marqué dans cet article

    • Les progrès sont itératifs, avec une culture bottom-up et méritocratique ; ce n’est pas le « master plan » du management qui prévaut, mais le fait que l’idée de n’importe qui puisse devenir réalité, et que les leaders soient promus pour leur capacité d’exécution et leurs idées concrètes
    • Les membres des équipes peuvent lancer des projets de façon proactive sans attendre d’autorisation, ce qui fait naturellement émerger plusieurs projets en parallèle, puis concentre les ressources sur ceux qui semblent avoir le plus de chances de réussir
    • Les gens d’OpenAI ont une forte conscience de travailler avec de bonnes intentions et, malgré les critiques publiques, semblent sincèrement essayer de faire ce qu’ils estiment juste avec un vrai sens des responsabilités
    • Les produits de l’entreprise paraissent très influencés par l’humeur du public, au point de donner l’impression que la société suit « l’ambiance de Twitter »
    • Le coût des GPU est écrasant, à un point où les autres coûts d’infrastructure deviennent presque négligeables ; sécuriser de la puissance de calcul est la priorité absolue, à la fois financièrement et techniquement
    • Il était intéressant de voir la route vers l’AGI décrite comme un affrontement à trois entre OpenAI (ADN produit grand public), Anthropic (ADN entreprise) et Google (ADN infrastructure/data)
    • Meta est aussi un concurrent important avec un ADN centré grand public, et a historiquement joué un rôle emblématique dans l’art de transformer les consommateurs en véritable « produit »
  • Le passage disant que le marathon de développement de Codex a été le travail le plus dur des dix dernières années m’a frappé : travailler la plupart du temps jusqu’à 23 h ou minuit, s’occuper d’un nourrisson à 5 h 30 du matin, puis repartir au bureau à 7 h ; dans un secteur où de gros projets sont bouclés en quelques semaines ou quelques mois, on peut se demander si ce mode de travail est soutenable à long terme pour les salariés

    • Si quelqu’un m’obligeait à travailler ainsi, je refuserais catégoriquement ; en revanche, si le projet me paraissait vraiment passionnant et important, cela me conviendrait de m’y consacrer entièrement pendant quelques semaines ou quelques mois ; je sais qu’après ce type de projet je serais vidé, donc je planifierais cela à l’avance ; j’y trouve aussi une motivation durable grâce à une communauté qui partage à peu près la même culture que moi
    • Le fait qu’une personne déjà financièrement à l’aise ait choisi de travailler 16 à 17 heures par jour, 7 jours sur 7, au lieu de s’occuper de son nourrisson, est impressionnant ; la phrase adressée à son partenaire marié, « merci d’avoir pris en charge la garde de l’enfant », en dit déjà long
    • Cette manière de travailler n’est absolument pas soutenable, mais si cela n’arrive que quelques fois dans une carrière, cela peut valoir le coup ; je connais même des gens qui disent en avoir retiré de l’énergie
    • J’ai du mal à imaginer transférer presque entièrement la charge de l’enfant à son conjoint ; la femme de l’auteur est remarquable, et c’est bien qu’il l’ait mentionnée à la fin, mais cela reste franchement surprenant
    • Le fait que l’auteur ait quitté OpenAI après 14 mois laisse penser que ce rythme de travail a conduit au burn-out
  • Ce que je voulais vraiment savoir, c’était si OpenAI ou d’autres laboratoires d’IA utilisent réellement les LLM comme pierre angulaire de leur fonctionnement interne, de façon active et concrète, pour le développement de code, la personnalisation de modèles internes, la synthèse d’informations récentes et autres usages opérationnels ; j’aurais aimé savoir s’ils y investissent réellement de l’argent et des compétences, mais l’article n’en parle pas, ce qui m’a laissé sur ma faim

  • Faire en sorte que les ingénieurs aient l’impression qu’ils construisent « Dieu », c’est un niveau suprême de stratégie marketing ; personnellement je n’y crois pas vraiment, mais cette idée est construite de manière à résister presque à toute critique : on peut toujours répondre « et si c’était vrai ? », et comme le gain potentiel serait infini, même une probabilité infime devient impossible à ignorer ; même avec une probabilité de 0,00001 %, multipliée par une récompense infinie, la valeur attendue devient infinie ; c’est du marketing de très haut niveau

    • La question « Oui, mais et si c’était vrai ? » participe justement au récit des entreprises qui développent des LLM, en y injectant une part de mystère
  • Ce que je voulais le plus savoir, c’est dans quelle mesure et de quelle façon les LLM sont réellement utilisés chez OpenAI pour construire des produits

    • L’explication selon laquelle il y aurait 78 000 pull requests publics par ingénieur en 53 jours sonnait presque comme une blague suggérant que 99,99 % auraient été écrits par des LLM ; j’ai été surpris par la quantité d’informations sur les processus de travail révélées dans le texte, je me demandais même si ce genre de choses ne devrait pas rester confidentiel ; à noter que la statistique des 78 000 PR concerne l’ensemble des utilisateurs, pas les ingénieurs de Codex
  • Même pour une entreprise qui a grandi aussi vite, le manque de technical writers chez OpenAI continue de m’étonner ; l’auteur se contente de dire que la documentation pourrait être meilleure, mais en comparaison du niveau de documentation d’Anthropic, OpenAI semble manquer de collègues technical writers ; pour créer de bons developer tools, une excellente documentation est indispensable, et il faut absolument une équipe dédiée pour l’entretenir et la faire progresser

    • Le problème, c’est que la direction ne perçoit pas la valeur de la documentation ; autrefois chez DigitalOcean, il y avait l’une des meilleures équipes de documentation technique du secteur, mais c’est aussi l’une des premières qui a été supprimée lors des licenciements ; j’ai l’impression que beaucoup ne voient cela que comme un coût
  • Cet article contenait vraiment énormément d’informations intéressantes que je n’avais jamais entendues auparavant ; cela vaut la peine d’y consacrer du temps

  • À propos de l’opinion de l’auteur selon laquelle « la sécurité est plus importante qu’on ne le pense », cela me semble déconnecté de la réalité, voire volontairement trompeur, quand on considère que plusieurs responsables des équipes sécurité d’OpenAI sont partis ou ont été licenciés, que le projet Superalignment a échoué, et que d’autres employés ont évoqué un manque de soutien sur les enjeux de sécurité

  • J’ai trouvé intéressante l’idée selon laquelle « la plupart des recherches commencent parce qu’un chercheur devient obsédé par un problème précis » ; si ce diagnostic est juste, cela pourrait être le talon d’Achille de l’entreprise

    • Mais ce n’est pas un problème propre à une entreprise particulière ; c’est plutôt un trait fondamentalement humain : les chercheurs d’élite ont tendance à se passionner au point de consacrer volontiers un temps immense au domaine qu’ils aiment réellement