10 points par kkumaeunsonyeon 2025-10-08 | Aucun commentaire pour le moment. | Partager sur WhatsApp

Abonnez-vous à la newsletter, https://maily.so/kkumaeunsonyeon

Résumé du keynote de Sam Altman

Le 6 octobre 2025, l’événement « OpenAI DevDay 2025 » s’est tenu. Cette édition a principalement porté sur les derniers résultats de recherche et les mises à jour produits d’OpenAI, avec des annonces couvrant de nombreux domaines afin d’amorcer de futurs changements stratégiques.

Dans son keynote, Sam Altman a évoqué l’avenir du développement de l’intelligence artificielle et présenté les nouveaux outils et plateformes proposés par OpenAI pour aider les développeurs à contribuer à transformer le monde grâce à l’IA. En ouverture, il a comparé le passé et le présent en s’appuyant sur des chiffres concrets illustrant la croissance de la plateforme OpenAI, ce qui a permis au public de mieux comprendre son évolution. (Le débit de l’API est passé de 300 millions de tokens par minute à plus de 6 milliards, ce qui montre que l’IA n’est plus un simple outil ludique, mais qu’elle s’est installée comme un outil du quotidien.) Sam Altman a également ajouté que nous n’en sommes encore qu’au début du voyage et qu’OpenAI continuera à se concentrer sur la facilitation de l’usage de l’IA par les développeurs.

À cette fin, OpenAI a annoncé des moyens de créer et de déployer des apps dans ChatGPT, de rendre la création d’agents plus rapide et plus efficace, de réduire les tâches de codage répétitives pour simplifier le développement logiciel, ainsi que des mises à jour de modèles et d’API destinées à soutenir l’ensemble de ces usages. OpenAI a promis de continuer à aider les développeurs à concrétiser de plus grandes possibilités grâce aux technologies d’IA.

À l’occasion de ce DevDay 2025, OpenAI a annoncé plusieurs changements stratégiques touchant notamment les partenariats matériels et d’infrastructure, l’extension des modèles multimodaux et l’ouverture de l’écosystème d’apps.
Passage d’une approche centrée sur le grand public à une expansion vers une activité de plateforme d’IA pour les entreprises
Gestion parallèle des risques externes et de la réponse réglementaire, notamment sur le copyright, la sécurité et les projets de modèles à poids ouverts

Principales annonces et tendances

  1. Apps In ChatGPT : lancement de l’App SDK

OpenAI a multiplié les initiatives pour ouvrir ChatGPT aux développeurs afin de permettre aux utilisateurs d’y gagner en productivité et en créativité. L’entreprise a adopté des standards comme GPT's et MCPs, et relié ChatGPT à davantage d’applications. Dans le prolongement de ces efforts, OpenAI a lancé l’App SDK afin de permettre aux développeurs de créer de véritables apps au sein de ChatGPT. Cet App SDK aide les développeurs à interagir avec les utilisateurs de ChatGPT et à créer des apps personnalisées. L’App SDK est construit sur MCP, et les développeurs peuvent contrôler entièrement la logique backend et l’interface frontend.

Les apps développées via l’App SDK peuvent atteindre des centaines de millions d’utilisateurs de ChatGPT, ce qui devrait grandement aider les développeurs à faire monter rapidement leurs produits à l’échelle. Si l’utilisateur est déjà abonné à un produit existant, il peut aussi se connecter directement dans la conversation. OpenAI prévoit également de prendre en charge différents moyens de monétisation avec paiement dans ChatGPT via un nouveau protocole Agent Commerce. Cela signifie que même si l’utilisateur ne demande pas une app en particulier, ChatGPT peut recommander des apps pertinentes en fonction du contenu de la conversation.

  1. AgentKit : simplification du développement d’agents et gains d’efficacité

OpenAI a expliqué que l’IA évolue d’un simple système de questions-réponses vers des systèmes capables d’exécuter diverses tâches pour l’utilisateur, et que les agents sont au cœur de cette évolution. (Les agents sont des logiciels qui accomplissent des tâches sur la base du contexte, des outils et de la confiance.) Pourtant, malgré les fortes attentes et le potentiel des agents, ceux réellement largement utilisés en production restent encore très peu nombreux. Cela s’explique par la difficulté de développer des agents, l’usage de frameworks complexes, l’orchestration, les boucles d’évaluation, la connexion aux outils, la construction d’interfaces utilisateur et d’autres facteurs qui se combinent. L’AgentKit d’OpenAI vise à rendre le passage de l’idée à l’agent rapide et simple.

AgentKit est un ensemble complet de briques de construction proposé sur la plateforme OpenAI, conçu pour permettre de créer, déployer et optimiser facilement des agents, du prototype jusqu’à la production. AgentKit fournit plusieurs fonctions clés, notamment Agent Builder, Chat Kit, Eval for Agents et l’accès des agents aux données.

Agent Builder : un canevas visuel pour construire des agents, qui aide à concevoir les étapes logiques, tester les flux et concrétiser rapidement des idées.
Chat Kit : fournit une interface de chat directement intégrable dans les applications afin d’améliorer l’expérience utilisateur.
Eval for Agents : une nouvelle fonctionnalité pour mesurer les performances des agents, qui aide à comprendre les décisions prises étape par étape, à évaluer des jeux de données, à automatiser l’optimisation des prompts et à effectuer des évaluations sur des modèles externes. En outre, le registre de connecteurs d’OpenAI permet de connecter en toute sécurité les agents à des outils internes et à des systèmes tiers.

  1. Codex : transformation de la manière de développer des logiciels

OpenAI a souligné que nous entrons dans une nouvelle ère où l’IA transforme la façon de développer des logiciels, et que Codex aide les développeurs à écrire du code plus rapidement et plus efficacement. Codex fonctionne partout où l’on écrit du code — IDE, terminal, GitHub et cloud — et relie le tout via un compte ChatGPT pour permettre de déplacer le travail de manière fluide entre les outils.

Codex repose sur le modèle GPT-5 Codex. Il est plus compétent sur des tâches comme le refactoring et la revue de code, et peut ajuster dynamiquement son temps de réflexion selon la complexité de la tâche. Les développeurs plébiscitent ce nouveau modèle et l’usage de Codex augmente rapidement. Codex est également largement utilisé en interne chez OpenAI : la majorité du nouveau code est écrite par des utilisateurs de Codex, et presque toutes les PR d’OpenAI passent par une revue Codex.

Codex est utile non seulement aux développeurs individuels mais aussi aux équipes d’ingénierie. Grâce à l’intégration Slack, au Codex SDK et aux outils d’administration, il peut améliorer le travail d’équipe et permettre de gérer l’usage de Codex. Par exemple, Cisco a déployé Codex dans l’ensemble de son organisation d’ingénierie, réduisant de 50 % le temps de revue de code et faisant passer la durée moyenne des projets de plusieurs semaines à quelques jours.

(Raman a montré comment utiliser Codex et l’API pour transformer tout ce qui l’entoure en logiciel exploitable. Il a créé une interface de panneau de contrôle de caméra avec Codex CLI, ajouté le branding Figma pour faire correspondre parfaitement le design, puis, sans écrire une seule ligne de code, il a demandé à Codex CLI comment contrôler une caméra Sony FR7, a scaffoldé une intégration via le protocole Visca et l’a reliée au panneau de contrôle.)

  1. GPT-5 Pro, GPT-Realtime-Mini, Sora2
    OpenAI a annoncé plusieurs mises à jour de modèles.

Lancé en août, GPT-5 est particulièrement performant pour l’agent steering et le codage end-to-end, et il est déjà utilisé par des startups du code comme Cursor, Windsurf et Percel pour transformer la manière de développer des logiciels et lancer des apps.

OpenAI a lancé GPT-5 Pro dans l’API afin que tous les développeurs puissent l’utiliser. GPT-5 Pro convient aux tâches difficiles qui exigent une grande précision et un raisonnement approfondi, comme dans la finance, le droit ou la santé. OpenAI a également lancé dans l’API un modèle plus petit et plus léger, GPT-Realtime-Mini. Ce modèle est 70 % moins cher que le modèle léger avancé sorti deux mois plus tôt, tout en offrant la même qualité de compaction et la même expressivité. OpenAI estime que les modèles légers deviendront l’un des principaux moyens d’interagir avec l’IA.

OpenAI a lancé Sora2 dans l’API comme nouvelle fonctionnalité destinée aux créateurs. Il est désormais possible d’accéder au même modèle qui alimente les impressionnantes sorties vidéo de Sora2. Sora2 offre un niveau de contrôle bien supérieur à celui du modèle précédent, suit des consignes détaillées et produit des résultats stylisés et composés avec précision.

Par exemple, on peut prendre une vue iPhone et demander à Sora de l’étendre en un large plan cinématographique. Le modèle sait aussi bien combiner éléments visuels et sonores, en fournissant non seulement des voix mais aussi des paysages sonores riches, de l’audio ambiant et des effets synchronisés.

En plus de cela

Mises à jour des modèles multimodaux et de raisonnement

Modèle GPT-4.5 : un modèle conversationnel centré sur le chat, avec amélioration de la reconnaissance de motifs, de la créativité et de la compréhension de l’intention utilisateur
o3-mini : un modèle de raisonnement rentable, annoncé comme plus performant que o1 en mathématiques, sciences et code
Les capacités d’interprétation des entrées image de GPT-4o (version multimodale) ont été renforcées

Partenariats matériels et d’infrastructure

OpenAI a signé avec AMD un accord d’approvisionnement en puces de plusieurs milliards de dollars, avec l’objectif de sécuriser à terme des ressources de calcul à l’échelle du XGW (gigawatt).
Partenariats avec des entreprises coréennes : en parallèle de discussions visant à attirer le projet Stargate en Corée via des partenariats avec Samsung Electronics et SK hynix notamment, des échanges sont en cours autour de l’approvisionnement en semi-conducteurs et de la construction de datacenters IA.

Réponse au copyright et modèles de génération vidéo

Modèle Sore2 : un modèle multimodal avancé capable de générer vidéo + audio à partir d’une entrée texte, avec des résultats plus réalistes et mieux contrôlables
Comme le modèle Sore2 peut générer des vidéos incluant des personnages populaires, des réactions de contestation sur des questions de copyright de la part des ayants droit ont été évoquées
OpenAI a annoncé vouloir fournir aux ayants droit des options de contrôle détaillées (par exemple, autorisation ou non de la génération vidéo et restrictions d’usage)

Renforcement de l’activité IA pour les entreprises et stratégie d’écosystème d’apps

OpenAI cherche à faire évoluer ChatGPT au-delà d’un simple modèle conversationnel vers un écosystème pouvant être utilisé comme une plateforme ou un système d’exploitation. (Par exemple, exécuter des apps dans ChatGPT.)
Avec l’objectif d’élargir les partenariats sectoriels, Samsung Electronics, SK hynix, Spotify, Zillow, Canva et Booking.com ont notamment été mentionnés
OpenAI prévoit d’introduire un processus de soumission et de revue des apps, ainsi que des fonctions de commerce avec paiement intégré dans les apps

Réinterprétation de la stratégie centrale d’OpenAI

Si l’on réinterprète la stratégie business centrale d’OpenAI à la lumière de DevDay 2025, on peut la résumer ainsi :

  1. Transition vers une plateforme et début de la conquête de l’écosystème

Volonté de transformer ChatGPT, non plus en simple chatbot IA, mais en hub où les utilisateurs peuvent interagir avec diverses apps
AgentKit, Connector, Registry et Apps SDK constituent la base technique de la transition « App -> AI Platform »
Stratégie visant à renforcer l’effet de lock-in de la plateforme face à des concurrents comme Google, MS et Meta

  1. Contrôle de l’infrastructure et gestion des coûts

La croissance des modèles d’IA, en particulier des grands modèles multimodaux et vidéo, a pour obstacle clé le coût de calcul et l’accès au matériel
L’accord stratégique avec AMD vise à réduire la dépendance à un matériel centré sur NVIDIA et à diversifier la supply chain
L’obtention d’options sur des parts d’AMD signifie un signal d’évolution au-delà d’une simple relation client-fournisseur vers une alliance stratégique

  1. Transformation de la structure de revenus

Constat réaliste qu’un chiffre d’affaires centré uniquement sur les services grand public gratuits et premium ne suffit pas à absorber les coûts d’infrastructure massifs engagés actuellement
Diversification du modèle de revenus via l’élargissement de la clientèle IA entreprise, la monétisation in-app et l’augmentation de l’usage de l’API

  1. Conscience des risques dans un paysage concurrentiel

Alors que la compétition entre plateformes IA s’intensifie, OpenAI tente d’accélérer sa transition vers une stratégie centrée sur sa propre plateforme. Mais des variables importantes demeurent : réussite ou non de l’expansion de l’écosystème, afflux de développeurs IA, capacité à sécuriser des partenaires, ainsi que différents risques réglementaires. La stratégie d’obtention d’une plus grande neutralité matérielle pourrait aussi entraîner des réactions des concurrents.

Implications et points à surveiller

  1. Transition de plateforme : ChatGPT → écosystème d’apps dans ChatGPT

La trajectoire de ChatGPT vers une évolution d’un simple modèle de langage à une plateforme d’apps s’est clarifiée.
Les développeurs peuvent désormais être directement reliés aux utilisateurs via l’interface de chat, avec un point d’entrée facilitant développement et déploiement.
Ce changement pourrait remettre en cause la structure actuelle du marché des apps centrée sur les apps mobiles et web.

  1. Extension de l’automatisation des workflows centrée sur les agents

AgentKit permet de développer rapidement des agents IA capables de gérer des automatisations complexes, des tâches personnalisées pour l’utilisateur et la coordination de processus.
À l’avenir, l’automatisation fondée sur les agents devrait s’étendre à de nombreux domaines, notamment les opérations internes des entreprises, le support client et le traitement autonome des données.
Le fait de pouvoir composer et mettre en œuvre des agents avec une approche de conception non-coder est particulièrement important, car cela abaisse la barrière d’entrée technique.

  1. Importance croissante du rapport performance/coût et des modèles légers

L’accent n’est plus uniquement mis sur les grands modèles, mais aussi sur des modèles légers (comme GPT‑Realtime‑Mini) ou optimisés pour des usages précis.
Pour les interactions en temps réel et le traitement voix/vidéo, l’équilibre entre performances et coût des modèles légers devient essentiel.
Pour les développeurs et les entreprises, cela accroît la possibilité d’« intégrer l’IA dans les activités quotidiennes sans charge de coût excessive ».

  1. Stratégie hardware/infrastructure comme levier d’avantage concurrentiel

Même si les modèles et les plateformes IA sont innovants, leur capacité d’extension reste limitée sans infrastructure solide.
Le partenariat avec AMD peut être vu comme une tentative d’OpenAI de mettre en place une structure plus flexible pour sécuriser des ressources de calcul.
En outre, l’échelle et l’efficacité de l’infrastructure constituent la base de la compétitivité coût et de la stabilité face aux concurrents.

  1. Évolution de la concurrence et guerre des écosystèmes

La possibilité d’un défi au modèle d’écosystème centré sur les App Store d’Apple et de Google a été soulevée.
Une structure où le fournisseur de modèles IA et le fournisseur de plateforme gèrent en même temps la distribution et la monétisation des apps se renforce.
D’autres acteurs devraient réagir dans une direction similaire, et la concurrence entre plateformes IA devrait devenir encore plus intense.

  1. Risques et points d’attention

Les enjeux juridiques et éthiques, comme la vie privée des utilisateurs, la sécurité des données, le risque de sanction et la responsabilité, prennent encore plus d’importance.
En particulier, la question du niveau d’autorisation accordé aux apps et agents basés sur le chat, ainsi que la stratégie de gouvernance, devient centrale.
Les risques liés à l’infrastructure physique demeurent également, notamment la dépendance hardware, la pression sur les coûts et les risques de supply chain.

Stratégie à venir du point de vue des entreprises et des développeurs

  1. Se préparer au développement d’apps dans ChatGPT

Étudier une stratégie de migration ou d’interconnexion des apps existantes et web apps vers un environnement centré sur ChatGPT
Créer des prototypes initiaux avec Apps SDK et MCP (Model Context Protocol)

  1. Identifier des cas d’usage pour l’automatisation basée sur les agents

Explorer les domaines prometteurs pour des services fondés sur des AI Agents : tâches répétitives, conseil et support, réservation et planification
Lancer des projets pilotes internes en s’appuyant sur AgentKit

  1. Établir une stratégie d’optimisation des coûts des modèles

Utiliser au bon endroit des modèles légers et des modèles optimisés pour des objectifs spécifiques
Prendre en compte l’équilibre entre les patterns d’usage de l’API, le traitement par batch et les traitements en temps réel

  1. Revoir la stratégie infrastructure et cloud

Planifier la diversification de la dépendance hardware et la sécurisation des ressources de calcul dans le cloud
Examiner activement les ressources internes et les partenariats externes

  1. Gouvernance des données et réponse réglementaire

Renforcer activement la protection de la vie privée, la transparence et la sécurité
Mettre en place la responsabilité des actions des agents et des dispositifs de supervision

  1. Réponse à la concurrence dans l’écosystème et stratégie de collaboration

Explorer des partenariats avec d’autres plateformes et services
Mettre à profit des atouts différenciants fondés sur des données propriétaires et une expertise métier

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.