2 points par GN⁺ 2026-03-04 | 1 commentaires | Partager sur WhatsApp
  • Le modèle le plus utilisé de ChatGPT a été mis à jour, avec des progrès en précision, fluidité et compréhension du contexte dans les conversations du quotidien
  • La nouvelle version réduit les refus inutiles et les avertissements superflus, et fournit des réponses directes et concrètes aux questions
  • Lors des recherches sur le web, sa capacité à intégrer l’information a été améliorée, ce qui lui permet de produire des réponses contextualisées plutôt que de simples résumés
  • Le ton et le style conversationnel sont désormais plus naturels et plus concis, tandis que la précision factuelle et la qualité de l’écriture créative ont aussi été renforcées
  • GPT‑5.3 Instant est disponible immédiatement dans ChatGPT et via l’API, tandis que le support de GPT‑5.2 Instant prendra fin le 3 juin 2026

Vue d’ensemble de GPT‑5.3 Instant

  • Cette mise à jour vise à améliorer globalement la qualité des conversations du quotidien dans ChatGPT, en mettant l’accent sur des réponses précises, la compréhension du contexte et la continuité des échanges
    • Elle réduit les ruptures inutiles, les formules d’avertissement excessives et les tournures trop déclaratives afin de rendre les conversations plus naturelles
  • En intégrant les retours des utilisateurs, elle améliore le ton, la pertinence et la fluidité des échanges
  • L’update a été conçue avant tout pour l’expérience d’usage au quotidien, avec une priorité donnée à la qualité perçue plutôt qu’aux seuls scores de benchmark

Moins de refus inutiles et des réponses plus concises

  • La version précédente (GPT‑5.2 Instant) avait tendance à refuser excessivement des questions auxquelles il était pourtant possible de répondre sans risque, ou à retarder la réponse avec un préambule moralisateur
  • GPT‑5.3 Instant réduit ces refus inutiles et fournit des réponses directes centrées sur la question
    • Exemple : pour une demande de calcul liée au tir à l’arc longue distance, GPT‑5.2 ajoutait une longue introduction axée sur la sécurité, alors que
      GPT‑5.3 demande immédiatement les variables physiques nécessaires (puissance de l’arc, masse de la flèche, vitesse, etc.) avant d’effectuer le calcul
  • Résultat : moins d’interruptions dans la conversation et des réponses immédiates et utiles

Amélioration de la qualité des réponses fondées sur la recherche web

  • GPT‑5.3 Instant intègre les informations trouvées sur le web avec ses propres connaissances et capacités de raisonnement afin de produire des réponses contextualisées
    • Au lieu de se contenter d’aligner des liens ou des informations redondantes, il privilégie la synthèse des points clés et l’articulation de leur sens
  • Exemple : à la question sur le « plus gros contrat de l’intersaison MLB 2025–26 »,
    • GPT‑5.2 décrivait des cas rétrospectifs issus de la saison précédente, tandis que
    • GPT‑5.3 identifie correctement le contrat de 240 millions de dollars sur 4 ans de Kyle Tucker avec les LA Dodgers,
      et l’explique en le reliant aussi aux changements structurels de la ligue et à l’impact des négociations sociales
  • Au final, fraîcheur, pertinence et précision contextuelle progressent

Un style conversationnel plus naturel

  • Certaines réponses de GPT‑5.2 Instant avaient été jugées « peu naturelles » en raison de formules de réconfort excessives ou d’inférences émotionnelles inutiles
  • GPT‑5.3 Instant réduit les expressions émotionnelles superflues et adopte un style conversationnel naturel centré sur l’essentiel
    • Exemple : à la question « pourquoi est-il difficile de trouver l’amour à San Francisco ? »,
      GPT‑5.3 explique de manière structurée des facteurs comme la culture urbaine, la mobilité et la distance émotionnelle
    • Sans préambule du type « vous allez bien », il fournit une réponse analytique directe et empathique

Meilleure précision factuelle

  • GPT‑5.3 Instant réduit fortement le taux d’hallucinations dans des domaines à haut risque comme la médecine, le droit ou la finance
    • Baisse de 26,8 % du taux d’hallucination avec usage du web, et de 19,7 % lorsqu’il s’appuie uniquement sur ses connaissances internes
    • Dans les évaluations fondées sur les retours utilisateurs, la baisse atteint aussi 22,5 % (avec web) et 9,6 % (sans web)
  • La fiabilité des réponses factuelles augmente, ce qui renforce son utilité en contexte professionnel

Renforcement des capacités d’écriture

  • GPT‑5.3 Instant gagne en profondeur narrative et en expressivité émotionnelle, avec des atouts marqués pour l’écriture créative et les descriptions littéraires
    • Exemple : pour une demande de poème sur « la dernière tournée d’un facteur de Philadelphie qui part à la retraite »,
      GPT‑5.3 transmet l’émotion de façon naturelle grâce à des scènes concrètes et des détails sensoriels
    • Par rapport au ton sentimental de GPT‑5.2, le résultat présente une meilleure cohérence structurelle et davantage de réalisme

Limites et améliorations à venir

  • Dans les langues non anglophones (japonais, coréen, etc.), il subsiste encore des formulations maladroites ou trop littérales
    • L’amélioration d’un ton naturel selon chaque langue reste un chantier à venir
  • La fonction d’ajustement du ton des réponses est encore en cours d’amélioration, avec une collecte continue des retours utilisateurs

Disponibilité et transition

  • GPT‑5.3 Instant est disponible immédiatement pour tous les utilisateurs de ChatGPT et dans l’API (gpt‑5.3‑chat‑latest)
  • Des mises à jour des modèles Thinking et Pro sont prévues prochainement
  • Le support de GPT‑5.2 Instant prendra fin le 3 juin 2026, avec un accès maintenu pendant 3 mois pour les utilisateurs payants via « Legacy Models »

1 commentaires

 
GN⁺ 2026-03-04
Avis sur Hacker News
  • Le plus gros problème de ChatGPT en ce moment, c’est le ton maladroit de ses réponses
    Il y a beaucoup trop de formules du genre « Why it matters », « the big picture », d’emphase exagérée et de questions rhétoriques
    La première version de GPT‑5 était correcte, mais en voulant lui donner une « personnalité plus chaleureuse », ils l’ont au contraire abîmée comme 4o
    Il était aussi bon en japonais avant, mais la qualité a baissé maintenant, ce qui est décevant

    • Avant, j’écrivais moi aussi des textes du genre « Why X works, but Y doesn’t », mais maintenant j’ai l’impression de passer pour quelqu’un qui imite un LLM, donc c’est encore plus gênant
      Du coup, j’essaie désormais un nouveau style d’écriture en ajoutant même des bruitages, <i>swoosh</i>
    • Ce style répétitif m’agace aussi, mais maintenant j’essaie de passer au‑delà pour n’en retenir que le contenu
      Je m’appuie sur les sorties des LLM sans les copier telles quelles, et je les réécris avec ma propre voix pour conserver mon style personnel
    • Ils sortiront peut-être bientôt une « version premium non arrogante ». Dans ce cas, pas mal de monde risque de migrer
  • La marque « 5.2‑Instant » est déroutante
    Je pensais que c’était un modèle ultra-rapide, mais on dirait juste une version 5.2 sans routeur
    On a l’impression qu’OpenAI revient à la période d’avant GPT‑5, avec trop de modèles et plus personne ne sait quoi utiliser

    • ChatGPT Plus utilise en réalité deux familles de modèles
      L’une est la série Instant, rapide et optimisée pour ChatGPT, mais moins précise
      L’autre est la série Thinking, plus lente mais plus adaptée aux tâches spécialisées
      Ils voudraient simplifier avec une option unique, mais comme les préférences varient selon les utilisateurs, ils continuent à proposer les deux modèles (l’auteur travaille chez OpenAI)
    • Les gens aiment avoir le choix, donc distinguer « 5.2 Instant / 5.2 Thinking » au lieu de simplement « 5.2 » est plus clair
      Le concurrent Gemini 3 Fast / Gemini 3 Thinking suit la même logique
    • Il y a encore environ 800 000 personnes par jour qui utilisent gpt‑4o, donc l’objectif est aussi de conserver cette base d’utilisateurs
      Comme les modèles « Thinking » coûtent cher, la stratégie consiste à les retenir avec des modèles Instant meilleur marché
    • Il faudra voir les benchmarks réels, mais d’après l’explication d’OpenAI, Instant est un modèle optimisé pour la latence
      Dans une interface vocale, le temps jusqu’au premier token compte davantage que le débit de tokens par seconde
  • Le titre « GPT‑5.3 Instant: Smoother, more … » m’a fait rire
    En ce moment, les slogans marketing des LLM ressemblent à des publicités pour cigarettes

    • « GPT‑5.3 Instant: It’s toasted… »
    • « LLMenthols »
    • « GPT Super Mild »
    • « GPT Crush »
  • Il y avait sur la page la formule « Better judgment around refusals »,
    et je me demande si une entreprise d’IA a déjà traité officiellement le problème des règles différentes selon les groupes
    Par exemple, refuser une blague sur un groupe précis tout en l’autorisant pour un autre
    Et puis cet article affirme que les modèles évaluent différemment la valeur d’une vie humaine selon les pays

    • Ça pourrait simplement refléter des normes sociales, non ?
    • Pour moi, le plus gros problème était le biais centré sur les États-Unis
      Même en demandant « réponds en unités métriques », il ne le respectait pas correctement, au point que je devais reformuler plusieurs fois mes questions de cuisine
      C’est un peu mieux maintenant, mais la perspective américaine reste très marquée
    • La critique des biais des modèles est valable, mais cet article me semble méthodologiquement fragile
      Ils disent avoir calculé un « taux de change » de la vie humaine à partir du prix des chèvres, mais cela peut simplement refléter les différences de coût de la vie selon les pays
      En plus, l’échantillon ne couvre que 11 pays, donc c’est difficile à généraliser
    • Un article de l’ACM souligne que ces expériences de « taux de change » sont surtout un produit du protocole d’évaluation
      et ne montrent pas les préférences intrinsèques réelles des modèles
      Quand on leur donne une option neutre, la plupart des modèles évaluent toutes les vies humaines de façon égale
      En plus, l’article d’origine inspire peu confiance, car il publie trop peu de données et il est difficile de relier le code aux résultats
  • Selon ce lien de comparaison,
    Gemini 3.1 Lite (sans reasoning) obtient de meilleures performances que GPT‑5.3 (sans reasoning)

    • Et en plus, c’est bien moins cher : GPT‑5.3 est à 0,256 $, Gemini à environ 0,011 $
  • J’ai été mal à l’aise de voir, dans l’exemple de présentation, une mention du calcul de trajectoire d’artillerie à longue portée

    • C’est gênant, mais pas surprenant
      OpenAI collabore avec l’armée américaine, donc on dirait une tentative de normalisation des usages militaires
      On dirait une stratégie consistant à les emballer dans des exemples de plus en plus ordinaires afin d’émousser l’opposition
    • Moi, j’y ai vu un clin d’œil à l’époque où les premiers ordinateurs servaient aux calculs balistiques
      Mais vu le contexte actuel, je ne sais pas si cette interprétation tient encore
    • C’est peut-être simplement un exemple de physique de niveau lycée
    • Vu les événements récents, ce genre d’exemple donne l’impression d’une maladresse insensible
    • Certains ont aussi réagi en plaisantant : « Il y a eu un accident de tir à l’arc récemment ? »
  • L’explication selon laquelle « GPT‑5.3 Instant combine mieux les informations récupérées sur le web » me parle
    En pratique, GPT utilise la recherche de façon bien plus naturelle que Claude

    • À l’inverse, j’ai l’impression que Claude lance des recherches beaucoup trop souvent
      Et en plus, il y a un bug : même si on désactive la recherche web, il oublie ce réglage
  • Dans mes benchmarks, GPT‑5.3 a montré des performances égales ou légèrement inférieures à 5.2‑chat
    Du coup, je crois comprendre pourquoi ils n’ont pas publié de benchmarks dans leur billet de blog
    Lien de comparaison

  • Ce qui est intéressant, c’est que juste avant l’annonce de « 5.3 Instant », ils ont carrément retiré l’option « Instant » du sélecteur de modèles
    pour la remplacer par « Auto (mais avec Auto-switch désactivé) »
    La formule « automatique, mais avec l’automatique désactivé » donne l’impression qu’eux-mêmes s’y perdent