11 points par GN⁺ 24 일 전 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Dès ses débuts, OpenAI a présenté l’IA comme la technologie la plus puissante et potentiellement la plus dangereuse de l’histoire de l’humanité, en se lançant comme organisation à but non lucratif avec une structure faisant passer la sécurité de l’humanité avant la survie de l’entreprise ; mais ce principe s’est vidé de sa substance avec la transition ultérieure vers une entité à but lucratif
  • En novembre 2023, l’épisode dit du « Blip », au cours duquel le conseil d’administration, mené par le cofondateur Ilya Sutskever, a brutalement limogé Altman avant de le réintégrer cinq jours plus tard, illustre comment des doutes fondamentaux sur la fiabilité et la transparence d’Altman ont explosé en véritable lutte de pouvoir au sein de l’organisation
  • Les centaines de pages de documents laissés par d’anciens collègues contiennent des accusations précises selon lesquelles Altman a, à plusieurs reprises, dissimulé des faits ou tenu des propos différents au conseil d’administration, aux dirigeants et aux investisseurs ; un membre du conseil l’a décrit comme « quelqu’un qui n’est pas tenu par la vérité »
  • OpenAI prépare actuellement une IPO valorisée à 1 000 milliards de dollars, et Altman joue le rôle de courtier central dans la course à l’hégémonie de l’IA, en poussant la construction d’une infrastructure IA à très grande échelle avec des capitaux du Golfe et en cherchant à obtenir des contrats avec l’armée américaine
  • Alors que les équipes de recherche sur la sécurité de l’IA ont été dissoutes les unes après les autres et qu’une culture privilégiant les produits et les revenus à la sécurité s’est installée, le dispositif de sécurité existentielle d’OpenAI s’éloigne de plus en plus des promesses fondatrices

Déclenchement du licenciement — la note d’Ilya et la décision du conseil

  • À l’automne 2023, le directeur scientifique d’OpenAI, Ilya Sutskever, envoie aux trois autres administrateurs une note confidentielle de 70 pages mettant en cause la capacité du CEO Sam Altman et du président Greg Brockman à occuper leurs fonctions
    • Le document, monté à partir de messages Slack et de documents RH, incluait des images prises avec des appareils personnels pour éviter la détection
    • Il a été envoyé sous forme de messages éphémères pour empêcher toute fuite externe
  • La note soutient qu’Altman a déformé les faits auprès des dirigeants et du conseil et qu’il a trompé sur les protocoles internes de sécurité
    • Titre du premier point de la note : "Sam exhibits a consistent pattern of… Lying"
  • Les administratrices Helen Toner, spécialiste des politiques de l’IA, et Tasha McCauley, entrepreneuse, ont reçu cette note comme une « confirmation de ce qu’elles croyaient déjà »
  • Alors qu’Altman assistait au Grand Prix de F1 à Las Vegas, Sutskever lui a annoncé son licenciement par visioconférence
    • Le communiqué public indiquait seulement qu’il « n’avait pas été systématiquement franc dans ses communications »

Le « Blip » — cinq jours de lutte de pouvoir après le licenciement

  • Microsoft n’a été prévenu qu’immédiatement avant le licenciement, et Satya Nadella a déclaré qu’il « ne savait absolument pas ce qui se passait »
  • Thrive Capital, qui préparait un investissement valorisant OpenAI à 8,6 milliards de dollars, a suspendu l’opération en conditionnant son investissement au retour d’Altman
  • Dès son retour chez lui, Altman a installé chez lui une cellule de gestion de crise
    • L’investisseur Ron Conway, le cofondateur d’Airbnb Brian Chesky et l’expert en gestion de crise Chris Lehane y ont participé
    • Des avocats occupaient un bureau à côté de sa chambre, et Altman circulait en pyjama
  • Selon certains témoignages, le camp Altman aurait averti qu’il « cherchait des informations pour nuire à la réputation » de figures du camp adverse comme Mira Murati (Altman dit ne pas s’en souvenir et le nie)
  • Microsoft a accru la pression en annonçant la création d’une équipe distincte pour accueillir Altman et les employés démissionnaires
  • La majorité des salariés d’OpenAI ont signé une lettre ouverte exigeant le retour d’Altman, et le conseil a annulé le licenciement
    • Sutskever a fini lui aussi par signer la lettre, et le conseil a décidé du retour sous la pression d’arguments selon lesquels « l’entreprise allait s’effondrer »

Après le retour — neutralisation de l’enquête et refonte de la gouvernance

  • Altman a exigé la démission des administrateurs qui l’avaient limogé ; Helen Toner, Tasha McCauley et Sutskever, qui avaient voté pour son départ, ont été évincés du conseil
    • En échange de leur départ, ils ont exigé une enquête externe indépendante ; pour les nouveaux administrateurs, ont été choisies des personnalités étroitement concertées avec Altman
    • Lawrence Summers et Bret Taylor ont rejoint le conseil
  • Le cabinet d’avocats WilmerHale a mené l’enquête, mais plus de six personnes ont affirmé qu’il s’agissait d’une enquête conçue pour limiter la transparence
    • Ont notamment été pointés l’absence d’entretiens avec des personnes clés et de faibles garanties d’anonymat
  • En mars 2024, OpenAI a conclu qu’Altman n’avait commis aucune faute, mais n’a tout simplement rédigé aucun rapport
    • Seuls des briefings oraux ont eu lieu, et la décision de ne pas produire de rapport aurait été prise sur le conseil des avocats personnels de Summers et Taylor
    • Selon un témoin, « l’absence de rapport a contribué à minimiser les accusations »
  • Summers a ensuite démissionné du conseil après la publication d’e-mails liés à Jeffrey Epstein
  • Depuis, OpenAI est devenue l’une des entreprises les plus valorisées au monde, tout en préparant une IPO à 1 000 milliards de dollars
    • Altman est également impliqué dans l’expansion des infrastructures IA, les contrats publics et la standardisation des systèmes de surveillance et d’armement
    • Mais en interne, les critiques sur les comportements trompeurs d’Altman persistent

Personnalité d’Altman et débuts de carrière — exagération, persuasion, soif de pouvoir

  • Originaire de Clayton, dans le Missouri, il a grandi dans une famille aisée et a été victime à l’adolescence d’une agression homophobe
  • Pendant ses études à Stanford, il a développé son sens des affaires grâce au poker, puis a quitté l’université pour rejoindre la première promotion de Y Combinator (YC) et fonder Loopt
    • Loopt était un réseau social géolocalisé, mais n’a pas réussi à croître avant d’être vendu en 2012
  • Dès l’époque de Loopt, son goût pour l’exagération était déjà relevé : il se vantait d’être champion de ping-pong alors qu’il figurait en réalité parmi les plus faibles du bureau
    • L’ancien salarié Mark Jacobstein a déclaré : « Quand la frontière entre ce que je pense et ce que j’ai réellement accompli devient floue dans sa pire forme, cela donne Theranos »
  • À deux reprises, un groupe d’employés a demandé au conseil de le licencier, sans succès
  • Loopt a été vendu en 2012 à une entreprise fintech, mais selon un témoin, il s’agissait d’un « accord surtout monté pour sauver la face d’Altman »
  • En 2014, Paul Graham a désigné Altman pour lui succéder à la tête de Y Combinator
    • Selon sa description, quand Graham le lui a annoncé, Altman a affiché un sourire incontrôlé en disant : « it worked »

Période Y Combinator — conflits d’intérêts et circonstances du départ

  • En tant que président de YC, il a été accusé d’empêcher la participation d’investisseurs et de réaliser lui-même des investissements personnels de manière sélective (ce qu’Altman nie)
  • Lors de l’investissement dans Stripe, il aurait demandé une part plus importante que celle prévue par l’accord avec Sequoia Capital, prenant ses partenaires de court
    • Investissement initial d’Altman : 15 000 dollars (2 %) → valorisation actuelle de Stripe : plus de 150 milliards de dollars
  • En 2018, plusieurs associés de YC se sont plaints du comportement d’Altman auprès de Graham
  • Selon plusieurs sources, Graham aurait déclaré en privé : « Sam had been lying to us all the time »
  • Altman affirme ne jamais avoir été licencié, et Graham l’a aussi nié dans les annonces officielles, mais des documents internes suggèrent que « ce n’était pas une séparation entièrement d’un commun accord »
  • Dans une déclaration à la SEC en 2021, Altman était mentionné comme président de YC, mais il a affirmé ne l’avoir « appris que plus tard »

Fondation d’OpenAI — double discours entre impératif de sécurité et levée de fonds

  • En 2015, il a contacté Elon Musk par e-mail en avançant que « l’IA pourrait être plus dangereuse que le nucléaire », et a proposé OpenAI comme un « projet Manhattan de l’IA »
    • Les deux ont cofondé OpenAI, et Musk a promis un financement d’un milliard de dollars
  • OpenAI affichait pour objectif le « développement d’une AGI au bénéfice de toute l’humanité », avec comme principe central la prévention d’une dictature de l’AGI
    • Principes fondateurs : « la sécurité est l’exigence prioritaire », « soutenir activement toute réglementation »
  • En 2017, Musk a demandé à transformer OpenAI en société à but lucratif afin d’en prendre le contrôle, ce qu’Altman a refusé
    • Musk est ensuite parti et a fondé le concurrent xAI en 2023, avant de déposer une plainte contre Altman et OpenAI pour fraude et violation de fiducie caritative (procédure en cours)
  • Il avait promis aux premiers employés que la structure resterait un pur organisme à but non lucratif, les amenant à accepter des baisses de salaire, mais des documents internes montrent que le passage au lucratif était déjà discuté dès 2017
  • Après avoir lu en 2017 l’article de Google sur l’architecture Transformer, Sutskever aurait lancé « c’est ça » et exhorté l’équipe à un changement de cap total, posant ensuite les bases de GPT
    • Certains ingénieurs ont alors mis en doute le leadership en se demandant : « Et si c’était nous, les méchants ? »

Dario Amodei et la création d’Anthropic — fissures dans les principes de sécurité

  • Amodei a rédigé pendant des années une note personnelle de plus de 200 pages intitulée « My Experience with OpenAI »
  • En 2018, Dario Amodei a critiqué chez OpenAI le flou de la mission et une gestion centrée sur le financement
    • Il a proposé une « clause Merge and Assist » : « si un autre projet crée d’abord une AGI sûre, alors on coopère »
  • Lors de l’accord d’investissement avec Microsoft en 2019, une disposition neutralisant cette clause aurait été discrètement ajoutée
    • Altman a d’abord nié l’existence de cette disposition, puis a cessé de la nier quand Amodei la lui a lue directement
    • Des formulations du type « Ce n’est pas lui qui l’a dit. C’est vous qui venez de le dire » se seraient répétées (Altman dit ne pas s’en souvenir)
  • Amodei affirme qu’Altman l’a accusé, lui et sa sœur Daniela, de préparer un « coup d’État » ; lorsque Daniela a appelé un dirigeant concerné pour vérifier, Altman aurait répondu : « Je n’ai jamais dit ça »
  • En 2020, les frère et sœur Amodei et leurs collègues ont quitté OpenAI pour fonder Anthropic

Dissolution de l’équipe sécurité et promesses de ressources non tenues

  • Lors de l’annonce en 2023 de la création de la « superalignment team », la promesse était de lui fournir « 20 % de la puissance de calcul obtenue »
    • D’après des témoignages internes, les ressources réellement allouées n’auraient représenté que 1 à 2 %, avec des clusters vieillissants et des puces peu performantes
    • Les chercheurs ont affirmé que « les puces les plus récentes n’étaient utilisées que pour les activités génératrices de revenus », ce qu’OpenAI a nié
    • Le responsable de l’équipe, Jan Leike, a indiqué que « cette promesse servait à retenir les talents »
      • Il dit avoir protesté auprès de Murati, qui lui aurait répondu qu’il s’agissait d’« une promesse irréaliste »
  • Jan Leike a envoyé un e-mail au conseil d’administration pour avertir qu’« OpenAI s’écarte de sa mission ; produit, revenus et capacités de l’IA passent d’abord, la sécurité arrive en troisième »
  • Carroll Wainwright : « Depuis le lancement de GPT-4, la priorité au produit et la négligence de la sécurité se sont poursuivies »
  • Lors du lancement de GPT-4 Turbo, Altman a invoqué la directrice juridique en affirmant qu’aucune validation sécurité n’était nécessaire, mais celle-ci a répondu sur Slack : « je ne sais pas pourquoi sam a eu cette impression »
  • À mesure que Sutskever se convainquait que l’AGI était proche, il serait devenu obsédé par les questions de sécurité, avertissant que « si tous les employés ne se concentrent pas sur la sécurité, nous sommes perdus »
    • Pourtant, l’équipe Superalignment a finalement été dissoute avant d’accomplir sa mission et n’a pas atteint son objectif
    • Sutskever et Leike ont démissionné en même temps
  • Dans les déclarations à l’IRS, la notion de « sécurité » a été supprimée de la rubrique « activités les plus importantes »
  • Dans la dernière évaluation de la sécurité existentielle des entreprises d’IA par le Future of Life Institute, OpenAI a reçu la note F
  • Altman a déclaré que certaines fonctionnalités de GPT-4 avaient reçu l’approbation du panel de sécurité, mais les fonctions « fine-tuning » et « personal assistant » n’avaient pas été approuvées
    • Le fait que Microsoft ait lancé en Inde une première version de ChatGPT sans revue de sécurité n’a pas non plus été signalé
  • Des chercheurs estiment qu’OpenAI a basculé vers une logique « le produit d’abord, la sécurité ensuite »

Passage au lucratif, structure des actifs et intérêts personnels

  • Structure initiale de type « capped profit » → conversion en entité entièrement lucrative en octobre 2024
    • La fondation à but non lucratif (OpenAI Foundation) ne détient plus que 26 % du capital, et la plupart des membres de son conseil siègent aussi au conseil de l’entité lucrative
  • Le membre du conseil Holden Karnofsky a voté contre une sous-évaluation de la valeur de l’entité non lucrative, mais le procès-verbal l’a enregistré comme abstention (dans des conditions laissant penser à une modification sans son accord)
  • Lors d’une audition au Congrès, il a déclaré qu’il « ne détenait pas de parts dans OpenAI » et qu’il faisait cela « par amour », sans mentionner sa participation indirecte via le fonds YC
  • La participation de Brockman est estimée à environ 20 milliards de dollars, et celle d’Altman devrait être encore plus importante
  • Témoignage d’un ancien employé : Altman aurait dit que ce qui l’intéressait davantage que l’argent, c’était le pouvoir

Levées de fonds au Moyen-Orient et risques géopolitiques

  • Première rencontre en 2016 avec le prince héritier saoudien Mohammed bin Salman, suivie d’échanges sur des investissements de plusieurs milliards de dollars
    • Une semaine après l’assassinat de Khashoggi, il a rejoint le conseil consultatif de Neom, la future ville saoudienne, avant de démissionner après les critiques
    • Mais même après son départ, un consultant en politiques publiques affirme qu’il réfléchissait encore à « obtenir d’une manière ou d’une autre des fonds saoudiens »
  • Il a entretenu une relation étroite avec le chef du renseignement émirati Sheikh Tahnoon bin Zayed, qu’il a qualifié sur son compte X de « proche ami personnel »
    • Il aurait reçu des Émirats une Koenigsegg Regera d’environ 2 millions de dollars et une McLaren F1 d’environ 20 millions de dollars (en affirmant que tout avait été déclaré conformément à la politique de l’entreprise)
    • En 2024, il a visité le yacht ultra-luxueux Maryah de Tahnoon, d’une valeur de 250 millions de dollars
  • Le projet ChipCo : construire, avec des financements des États du Golfe, d’immenses fonderies de semi-conducteurs et data centers, dont une partie au Moyen-Orient
    • Selon un membre du conseil, le projet aurait avancé sans notification préalable au conseil d’administration
    • Les autorités américaines de sécurité s’inquiètent notamment de la dépendance du réseau télécom des Émirats à Huawei, du risque de fuite vers la Chine de puces américaines de pointe et de la vulnérabilité à des attaques militaires
  • L’administration Biden a refusé l’autorisation en déclarant qu’elle « ne construirait pas de puces avancées aux Émirats arabes unis »
  • Un collaborateur de la RAND Corporation a fait part de ses inquiétudes lors de l’examen d’habilitation de sécurité, évoquant « quelqu’un en train de lever des dizaines de milliards de dollars auprès de gouvernements étrangers » ; Altman s’est retiré volontairement du processus
  • Deux jours après l’investiture de Trump, Altman a annoncé dans la Roosevelt Room Stargate, un projet commun d’infrastructure IA de 500 milliards de dollars
  • Ensuite, l’extension de Stargate à l’Arabie saoudite et aux Émirats a été annoncée, avec un projet de campus de data centers à Abou Dhabi d’une superficie sept fois supérieure à Central Park

Virage politique et lobbying réglementaire

  • Lors d’une audition au Sénat en 2023, il s’est attiré la sympathie en semblant demander lui-même une régulation de l’IA, tout en menant en coulisses un lobbying pour assouplir la réglementation européenne sur l’IA
  • Il s’est publiquement opposé au projet de loi californien sur la sécurité de l’IA (SB 1047) et a exercé en coulisses des pressions menaçantes
    • Ron Conway a fait du lobbying auprès de Pelosi et Newsom, et Newsom a opposé son veto à la loi pourtant adoptée par le Parlement
    • La position officielle d’OpenAI est de « ne pas faire de dons à des super PAC », mais Brockman a versé 50 millions de dollars au PAC Leading the Future (et 25 millions de dollars à MAGA Inc. la même année)
  • Une assignation a été adressée à Nathan Calvin, soutien du projet de loi sur la sécurité de l’IA, et la même mesure a visé des critiques du texte
    • Selon une personne proche du dossier, l’objectif était « en gros de leur faire fermer leur bouche »
  • Altman, qui qualifiait Trump en 2016 de « menace sans précédent », a donné 1 million de dollars au fonds d’investiture de Trump en 2024 et s’est rapproché de son entourage
    • Alors que Musk s’est éloigné de Trump, qu’il avait pourtant aidé à hauteur de 250 millions de dollars, Altman a accompagné Trump lors de sa visite en Arabie saoudite

Anthropic vs. le département de la Défense des États-Unis — l’opportunité saisie par OpenAI

  • Anthropic maintient son principe d’interdiction du soutien aux armes entièrement autonomes et de la surveillance de masse intérieure
    • Le secrétaire à la Défense Pete Hegseth a fixé une échéance et exigé le retrait de ce principe, ce qu’Anthropic a refusé
    • Hegseth a désigné Anthropic comme un « risque pour la chaîne d’approvisionnement » (une mesure de liste noire jusque-là appliquée à des entreprises chinoises comme Huawei)
  • Des employés d’OpenAI, Google et d’autres entreprises ont soutenu Anthropic via la lettre ouverte « We Will Not Be Divided »
  • Altman négociait déjà avec le département de la Défense avant même que le conflit entre Anthropic et le Pentagone ne devienne public
    • Emil Michael, sous-secrétaire adjoint à la Défense, a contacté Altman, déclarant : « il a aussitôt sauté dans l’arène, je pense que c’est un patriote »
    • Annonce d’un contrat d’intégration avec AWS d’une valeur de 50 milliards de dollars, avec début d’utilisation des modèles d’OpenAI par l’armée américaine
    • Le jour de l’annonce du contrat, la valorisation d’OpenAI a augmenté de 110 milliards de dollars, tandis qu’au moins deux employés seniors rejoignaient Anthropic
  • En réponse aux inquiétudes des employés, Altman : « que vous pensiez qu’une frappe contre l’Iran est une bonne chose ou qu’une invasion du Venezuela est une mauvaise chose, vous n’avez pas votre mot à dire »

Polémique sur la fiabilité d’Altman — témoignages variés

  • Altman est qualifié de meilleur vendeur de sa génération, comparé au champ de distorsion de la réalité de Steve Jobs
    • Des collègues pointent sa tendance à la tromperie et sa volonté de pouvoir comme problématiques
    • Certains le décrivent comme un « personnage sociopathe », et Aaron Swartz (de la première promotion de YC avec lui) l’aurait averti de son vivant en disant : « Il ne faut jamais faire confiance à Sam, c’est un sociopathe »
  • Altman a peu d’expertise en code ou en machine learning, mais a fait croître OpenAI grâce à sa capacité à fédérer la compétence technique et le capital des autres
    • Il agit en mettant en place des structures de contrainte puis en les neutralisant au besoin
    • Des personnes proches du dossier comparent son pouvoir de persuasion à un « Jedi mind trick »
  • Des dirigeants de Microsoft affirment qu’Altman a déformé puis rompu des accords
    • OpenAI a désigné Microsoft comme fournisseur cloud exclusif tout en signant un contrat de revente de 50 milliards de dollars avec Amazon
    • Microsoft a soulevé un conflit contractuel, mais OpenAI a soutenu qu’il n’y avait pas violation
    • Un dirigeant a estimé qu’Altman pourrait être retenu comme « un escroc du niveau de Sam Bankman-Fried »
  • Altman a participé à des discussions avec l’administration Biden sur la politique d’autorisation des exportations de technologies sensibles, mais certains responsables s’inquiétaient de ses ambitions au Moyen-Orient
    • Juste avant l’entrée en fonction de Trump, après un investissement de 500 millions de dollars de Tahnoon dans l’entreprise de la famille Trump, Altman s’est entretenu avec Trump
    • Ensuite, il a annoncé à la Maison-Blanche le projet d’infrastructure IA « Stargate » de 500 milliards de dollars
    • L’administration Trump a retiré les restrictions sur les exportations de technologies IA, et Altman ainsi que Trump ont rendu visite à la famille royale saoudienne
  • L’ancienne administratrice Yoon : « pas un méchant machiavélique, mais quelqu’un trop enfermé dans sa propre certitude, quelqu’un qui ne vit pas dans le monde réel »
  • Annie, la sœur d’Altman, a déposé une plainte pour agression sexuelle ; Altman a tout nié, et sa famille a également rétorqué que c’était « totalement faux » (impossible de vérifier le texte source)
  • Altman : « Les accusations sur la conduite dégoûtante d’un concurrent, une implication avec des mineurs, un meurtre, etc., sont entièrement fausses »

L’état actuel de la sécurité de l’IA — l’écart entre promesses et réalité

  • Anthropic, après avoir levé 30 milliards de dollars, a assoupli ses engagements de sécurité, ce qui a renforcé la course à la vitesse
    • Anthropic a collaboré avec Palantir pour intégrer les modèles Claude à des systèmes militaires, utilisés dans des opérations du Pentagone
    • L’entreprise a ensuite été désignée comme risque pour la chaîne d’approvisionnement et placée sur liste noire
  • OpenAI a négocié avec le département de la Défense et signé un contrat d’intégration d’infrastructures de défense basées sur AWS (50 milliards de dollars)
    • Le même jour, la valorisation d’OpenAI a augmenté de 110 milliards de dollars, et certains employés sont partis
  • Certains dirigeants estiment que la direction d’Altman pose de graves problèmes de gouvernance
    • Fidji Simo est évoquée comme candidate à sa succession
  • OpenAI a dissous l’équipe Superalignment et l’équipe de préparation à l’AGI
    • Sutskever et Leike sont partis en dénonçant le fait que les produits tape-à-l’œil passent avant la sécurité
    • Dans les déclarations à l’IRS, la rubrique « sécurité » a été supprimée, et l’organisation a reçu la note F dans l’évaluation de la sécurité existentielle du Future of Life Institute
  • La militarisation de l’IA et ses dommages sociaux deviennent une réalité
    • Lors de la guerre civile libyenne en 2020, des drones IA ont attaqué sans contrôle humain ; en 2022, une étude pharmaceutique a généré 40 000 candidats agents chimiques de combat
    • Des dommages sont aussi apparus via des voix deepfake utilisées pour perturber des élections, ainsi que des procès liés à des suicides et des meurtres
  • OpenAI fait face à 7 plaintes pour mort injustifiée, dont des allégations selon lesquelles ChatGPT aurait encouragé des violences commises par des victimes
  • Altman continue de mettre en avant « l’espoir pour l’avenir de l’humanité », affirmant vouloir « réaliser un futur de science-fiction complètement fou »
    • Des personnes de son entourage jugent que la frontière entre ses idéaux et sa soif de pouvoir est floue
    • Tout en mettant en garde contre le potentiel destructeur de l’AGI, il soutient qu’il doit la construire lui-même
  • Les problèmes de flagornerie (sycophancy) et d’hallucination (hallucination) des grands modèles de langage restent non résolus
    • Altman estime que certaines fausses affirmations rendent le modèle plus séduisant, privilégiant la satisfaction utilisateur plutôt qu’une factualité totale
  • Altman : « Mon intuition n’est pas alignée avec beaucoup de choses dans le domaine traditionnel de la sécurité de l’IA » — interrogé sur un plan de sécurité concret, il a répondu de façon vague qu’il continuerait les projets liés à la sécurité

Conclusion

  • Sam Altman est l’homme qui a fait d’OpenAI une entreprise mondiale, mais les polémiques sur ses mensonges, sa concentration du pouvoir et son mépris de la sécurité persistent
  • Lanceurs d’alerte et collègues le décrivent comme un « dirigeant non fiable », mettant en garde contre les risques liés à la concentration du contrôle de l’AGI
  • OpenAI reste une organisation qui contrôle une technologie susceptible de déterminer l’avenir de l’humanité, et la fiabilité comme la responsabilité d’Altman demeurent au cœur du débat

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.