1 points par GN⁺ 2025-06-11 | 1 commentaires | Partager sur WhatsApp
  • OpenAI réduit de 80 % le prix du modèle o3
  • Cette baisse tarifaire allège fortement le coût d’utilisation de o3 pour les startups et le secteur IT
  • Elle offre une option plus économique aux développeurs de services d’IA
  • Elle devrait intensifier la concurrence du marché et favoriser un environnement d’adoption plus rapide de l’IA
  • L’utilisation du modèle devrait s’accélérer, avec une expansion de l’écosystème en perspective

OpenAI annonce une baisse de 80 % du prix de o3

  • OpenAI a annoncé une politique réduisant de 80 % le prix du modèle o3 par rapport au tarif précédent
  • Les startups, PME et développeurs indépendants peuvent ainsi utiliser l’API du modèle o3 à un coût bien plus faible
  • Avec une baisse de la barrière à l’entrée pour l’usage de l’IA, les possibilités de développement de diverses applications d’IA et de nouveaux services augmentent
  • Cette politique tarifaire stimule la concurrence sur le marché de l’IA et contribue à créer un environnement favorable à une diffusion technologique rapide
  • À l’avenir, les économies réalisées pourraient aussi favoriser de nouvelles innovations dans l’optimisation des algorithmes de deep learning et le développement de services d’IA à grande échelle

1 commentaires

 
GN⁺ 2025-06-11
Avis Hacker News
  • Je voudrais partager une mise en garde basée sur mon expérience. J’avais déjà du crédit sur OpenRouter et j’ai voulu activer o3, mais un message indiquait que « pour utiliser l’API o3 d’OpenAI, il faut fournir directement une clé API OpenAI ». J’ai donc acheté 20 dollars de crédit API sur mon compte OpenAI, puis lancé Aider avec une nouvelle clé API et le modèle o3. En envoyant une requête, j’ai obtenu une erreur disant que « l’organisation doit être vérifiée pour utiliser o3 ; pour vérifier l’organisation, cliquez sur Verify Organization dans le lien ». J’étais de plus en plus agacé, et quand je suis retourné sur OpenAI pour cliquer sur Verify Organization, j’ai découvert qu’il fallait en réalité vérifier mon identité auprès d’un tiers, Persona. En cliquant sur « Start ID Check », on m’indique que Persona collecte et utilise des données personnelles et biométriques, et les conserve pendant un an. J’essayais simplement de dépenser quelques dollars pour accéder à l’API, et on en est arrivé à me demander de fournir mes données biométriques à la plus grande entreprise d’IA du monde et à son partenaire. Je n’ai aucune idée de la façon d’obtenir un remboursement
    • J’ai déjà dû contacter le procureur général de Californie pour obtenir un remboursement auprès d’une autre entreprise d’IA qui refusait de me rembourser. Je pense qu’il faut faire corriger ce genre de pratiques où des exigences supplémentaires apparaissent après paiement. Et puisqu’ils ont déjà mon nom, mon adresse et mes informations de carte bancaire via les données personnelles, je me demande aussi pourquoi ils demandent un numéro de téléphone. J’aimerais savoir si quelqu’un connaît la raison pour laquelle ils demandent un numéro à tout le monde
    • Je me demande si Sam Altman ne dirige pas justement une entreprise crypto qui collecte des données biométriques pour la vérification d’identité (Worldcoin). Ça semble familier. Infos sur Worldcoin
    • J’ai l’impression d’avoir vu presque exactement la même histoire au cours du mois dernier, donc soit j’ai une sensation de déjà-vu, soit il y a autre chose derrière tout ça
    • En réalité, tu as de la chance de pouvoir au moins essayer la vérification d’identité. Moi, ça fait des mois que je n’ai que l’erreur « session expired » et le support ne répond même pas
    • On voit arriver en même temps les exigences KYC (Know Your Customer) et le fait qu’OpenAI conserve tous les logs
  • En ce moment, j’ai l’impression qu’OpenAI est devenu « paresseux ». Quand je pose une question, il ne me donne pas directement le fichier complet ou les modifications, il se contente de dire « voilà comment faire », et je dois lui redemander 2 ou 3 fois pour qu’il l’exécute vraiment. Je ne vois pas ça avec DeepSeek. Je me demande s’ils répondent ainsi pour économiser des ressources
    • Je travaille chez OpenAI. Nos modèles peuvent parfois être paresseux. Ce n’est pas intentionnel, et nous allons proposer des modèles meilleurs à l’avenir. Quand je travaillais chez Netflix, il y avait des soupçons similaires disant qu’on faisait exprès de proposer des recommandations de mauvaise qualité, alors qu’en réalité la qualité produit n’augmente pas si facilement. Au final, fabriquer un produit parfait est vraiment difficile
    • Récemment, pour un calcul de chimie, j’ai demandé « fais-moi un graphique X contre Y », et la réponse s’est contentée d’une longue explication avant de conclure par « dis-moi si tu veux un graphique ! ». C’était assez drôle
  • Je me demande comment on peut savoir que le modèle o3 n’est pas une version quantized (précision réduite). Je me dis que les entreprises pourraient publier de bons benchmarks puis quantize progressivement en production (de Q8 vers Q6, Q4, etc.), ce qui dégraderait les performances. Je soupçonne même que la sortie rapide de gpt-4-turbo relevait peut-être de ce genre de méthode. À l’usage, je l’avais trouvé moins bon que le GPT-4 original, et j’ai l’impression qu’avec turbo et 4o ils ont surtout optimisé les benchmarks. Les utilisateurs ont l’impression que c’est meilleur alors qu’en pratique c’est moins bon
    • C’est probablement bien le genre de chose que les entreprises font, et je pense qu’ils ont rebrandé le o3 original en o3-pro
    • J’ai toujours l’impression qu’un nouveau modèle est bon au début puis que ses résultats se dégradent avec le temps. Avant, je pensais qu’ils essayaient de supprimer les mauvaises sorties via du fine-tuning et qu’ils finissaient aussi par abaisser les performances ; maintenant, je soupçonne davantage la quantization
    • Je travaille chez OpenAI, et le modèle est le même ; nous n’avons pas utilisé de quantization ni d’astuces. Nous ne changeons jamais un modèle dans l’API sans prévenir les développeurs. Dans ChatGPT, les mises à jour sont parfois un peu moins explicites parce qu’il serait fastidieux d’exposer en permanence des numéros de version aux utilisateurs, mais nous ne faisons pas de changement complètement silencieux. Toutes les mises à jour de modèles sont publiées dans les ChatGPT Release Notes. La seule exception est le pointeur chatgpt-4o-latest, que nous modifions sans préavis
    • Dans l’e-mail d’annonce officiel, ils expliquent avoir « réduit de 80 % le prix d’OpenAI o3, à 2 dollars par million de tokens en entrée et 8 dollars par million de tokens en sortie, et n’avoir optimisé que la stack d’inférence ; c’est donc le même modèle, simplement moins cher »
    • Juste après l’annonce, o3 sortait à plus de 700 tokens par seconde, donc je me demande vraiment si ce n’est pas une version quantized lien connexe
  • Je me demande si l’allocation hebdomadaire de messages liés à o3 a aussi augmenté pour les utilisateurs ChatGPT Plus. D’après mon expérience, o4-mini et o4-mini-high sont très loin derrière o3 en utilité, mais à cause du rate limit sur o3, je finis surtout par utiliser la série o4-mini. Cette structure elle-même renforce l’impression que les modèles « think » d’OpenAI sont à la traîne face à la concurrence
    • J’ai moi aussi subi un rate limit assez sévère sur o3, et même si j’ai trouvé o4-mini-high plutôt bon, j’aimerais clairement utiliser beaucoup plus souvent o3. J’espère que cette annonce augmente aussi les quotas
  • Google rattrape vite son retard en IA, lui aussi. Il y a à peine quelques mois, c’était DeepSeek qui faisait le buzz, et ce domaine évolue vraiment à toute vitesse
    • Pour beaucoup, les modèles Google Gemini sont désormais SOTA (State Of The Art, meilleur niveau), et Claude est aussi considéré comme assez bon pour les tâches de code
    • Ces derniers mois, je n’ai utilisé que les modèles de Google, car je trouve maintenant ChatGPT trop mielleux et trop léger. Il y a trop de remplissage non seulement au début ou à la fin, mais même au milieu des réponses, et pas assez d’informations substantielles. Quand on lui demande de changer de style, il a aussi tendance à simplement bourrer la réponse de jargon technique
    • Si les gens attendaient autant Deepseek, c’est parce qu’on pouvait télécharger directement le modèle. Mais depuis Gemini 2.5, il semble qu’il n’arrive plus vraiment à sortir de sa troisième place
  • Je ne comprends pas pourquoi OpenAI exige une vérification « d’organisation » (avec pièce d’identité officielle) pour utiliser o3
    • Je te conseillerais de ne même pas essayer. Beaucoup de gens ont échoué dans la procédure de vérification, et il semble souvent qu’il n’y ait pas de deuxième chance cas 1 cas 2 cas 3 cas 4 cas 5 cas 6 cas 7
    • Je me demande si ce n’est pas aussi pour empêcher que Deepseek R2 soit entraîné sur des modèles OpenAI
  • Contrairement à l’idée selon laquelle les LLM n’ont pas de moat durable et ne font que brûler du cash, je trouve la situation d’OpenAI très encourageante. L’entreprise a annoncé 10 milliards de dollars de revenus annualisés, et lors de sa levée de fonds de mars dernier, sa valorisation est montée à 300 milliards de dollars. Elle a certes perdu 5 milliards, mais affiche une croissance du chiffre d’affaires de 30x et plus de 500 millions d’utilisateurs actifs. Cette dynamique me rappelle les débuts d’Uber, avec une croissance rapide, d’énormes investissements, puis une progression vers la rentabilité
    • Le problème, c’est que quand les revenus augmentent, les coûts augmentent aussi. Normalement, plus on grossit, plus le coût unitaire baisse ; chez OpenAI, à mesure que l’usage augmente, les coûts de calcul augmentent eux aussi. À moins d’ajouter d’autres sources de revenus, les économies d’échelle restent faibles. Netflix est un exemple comparable. Je pense qu’atteindre une rentabilité durable sera difficile
    • Intuitivement, j’ai l’impression qu’OpenAI bénéficie d’un avantage de premier entrant, au point que je garde mon abonnement mensuel et que je n’ai pas vraiment envie de passer d’une option à l’autre. Plus tard, quand le marché sera stabilisé et que la concurrence sur les prix sera plus forte, je serai tout à fait prêt à changer. Au fond, la persistance de cet avantage dépendra de la part des revenus qui vient des utilisateurs de l’app ou des plans API. En dehors de la confiance et du nom de marque, j’ai aussi l’impression que les gens autour de moi choisissent déjà assez librement parmi plusieurs alternatives
    • Au final, les prix des LLM continueront probablement à baisser pour toujours, et seuls les modèles gratuits survivront, ce qui rend le moat d’OpenAI fragile. Les « modèles qui réfléchissent » ne résolvent pas à eux seuls les problèmes complexes et sont sans doute surestimés
    • Je ne suis pas d’accord avec l’idée qu’il n’y a « pas de moat ». Les données d’interaction utilisateur, comme les données de chat, ont déjà une très grande valeur en elles-mêmes
    • Si on ne regarde que la croissance d’OpenAI, oui, c’est encourageant. Mais si on prend aussi en compte l’impact social d’entreprises d’IA comme ChatGPT, je ne trouve pas cela si positif. Par exemple, les boutiques en ligne sont inondées de contenus générés par IA sans intérêt, ce qui dégrade l’expérience d’achat. On observe aussi des comportements étranges chez certains groupes qui deviennent excessivement absorbés par ChatGPT, au point de nuire à la communication avec leurs vrais amis et leur famille, voire d’aller jusqu’au divorce. Dans l’éducation aussi, l’abus crée beaucoup de confusion. Comme pour la croissance d’Uber, le succès d’OpenAI n’apporte pas forcément uniquement des effets positifs à la société
  • Le modèle o3 est actuellement l’un des meilleurs, et son prix est au niveau de Claude et Gemini, voire inférieur. On a l’impression qu’ils ne laissent aucun répit à la concurrence
    • Gemini est à un niveau comparable, parfois meilleur, donc ce choix me paraît aussi rationnel. o3-pro est peut-être encore au-dessus
  • Autrefois, il fallait des décennies pour que la recherche Google devienne médiocre ; aujourd’hui, on vit une époque étonnante où il suffit de quelques jours pour qu’un modèle d’IA se dégrade
  • Je pense que la sortie de o3-pro est peut-être liée à cela aussi