- Le modèle le plus utilisé de ChatGPT a été mis à jour, avec des progrès en précision, fluidité et compréhension du contexte dans les conversations du quotidien
- La nouvelle version réduit les refus inutiles et les avertissements superflus, et fournit des réponses directes et concrètes aux questions
- Lors des recherches sur le web, sa capacité à intégrer l’information a été améliorée, ce qui lui permet de produire des réponses contextualisées plutôt que de simples résumés
- Le ton et le style conversationnel sont désormais plus naturels et plus concis, tandis que la précision factuelle et la qualité de l’écriture créative ont aussi été renforcées
- GPT‑5.3 Instant est disponible immédiatement dans ChatGPT et via l’API, tandis que le support de GPT‑5.2 Instant prendra fin le 3 juin 2026
Vue d’ensemble de GPT‑5.3 Instant
- Cette mise à jour vise à améliorer globalement la qualité des conversations du quotidien dans ChatGPT, en mettant l’accent sur des réponses précises, la compréhension du contexte et la continuité des échanges
- Elle réduit les ruptures inutiles, les formules d’avertissement excessives et les tournures trop déclaratives afin de rendre les conversations plus naturelles
- En intégrant les retours des utilisateurs, elle améliore le ton, la pertinence et la fluidité des échanges
- L’update a été conçue avant tout pour l’expérience d’usage au quotidien, avec une priorité donnée à la qualité perçue plutôt qu’aux seuls scores de benchmark
Moins de refus inutiles et des réponses plus concises
- La version précédente (GPT‑5.2 Instant) avait tendance à refuser excessivement des questions auxquelles il était pourtant possible de répondre sans risque, ou à retarder la réponse avec un préambule moralisateur
- GPT‑5.3 Instant réduit ces refus inutiles et fournit des réponses directes centrées sur la question
- Exemple : pour une demande de calcul liée au tir à l’arc longue distance, GPT‑5.2 ajoutait une longue introduction axée sur la sécurité, alors que
GPT‑5.3 demande immédiatement les variables physiques nécessaires (puissance de l’arc, masse de la flèche, vitesse, etc.) avant d’effectuer le calcul
- Résultat : moins d’interruptions dans la conversation et des réponses immédiates et utiles
Amélioration de la qualité des réponses fondées sur la recherche web
- GPT‑5.3 Instant intègre les informations trouvées sur le web avec ses propres connaissances et capacités de raisonnement afin de produire des réponses contextualisées
- Au lieu de se contenter d’aligner des liens ou des informations redondantes, il privilégie la synthèse des points clés et l’articulation de leur sens
- Exemple : à la question sur le « plus gros contrat de l’intersaison MLB 2025–26 »,
- GPT‑5.2 décrivait des cas rétrospectifs issus de la saison précédente, tandis que
- GPT‑5.3 identifie correctement le contrat de 240 millions de dollars sur 4 ans de Kyle Tucker avec les LA Dodgers,
et l’explique en le reliant aussi aux changements structurels de la ligue et à l’impact des négociations sociales
- Au final, fraîcheur, pertinence et précision contextuelle progressent
Un style conversationnel plus naturel
- Certaines réponses de GPT‑5.2 Instant avaient été jugées « peu naturelles » en raison de formules de réconfort excessives ou d’inférences émotionnelles inutiles
- GPT‑5.3 Instant réduit les expressions émotionnelles superflues et adopte un style conversationnel naturel centré sur l’essentiel
- Exemple : à la question « pourquoi est-il difficile de trouver l’amour à San Francisco ? »,
GPT‑5.3 explique de manière structurée des facteurs comme la culture urbaine, la mobilité et la distance émotionnelle
- Sans préambule du type « vous allez bien », il fournit une réponse analytique directe et empathique
Meilleure précision factuelle
- GPT‑5.3 Instant réduit fortement le taux d’hallucinations dans des domaines à haut risque comme la médecine, le droit ou la finance
- Baisse de 26,8 % du taux d’hallucination avec usage du web, et de 19,7 % lorsqu’il s’appuie uniquement sur ses connaissances internes
- Dans les évaluations fondées sur les retours utilisateurs, la baisse atteint aussi 22,5 % (avec web) et 9,6 % (sans web)
- La fiabilité des réponses factuelles augmente, ce qui renforce son utilité en contexte professionnel
Renforcement des capacités d’écriture
- GPT‑5.3 Instant gagne en profondeur narrative et en expressivité émotionnelle, avec des atouts marqués pour l’écriture créative et les descriptions littéraires
- Exemple : pour une demande de poème sur « la dernière tournée d’un facteur de Philadelphie qui part à la retraite »,
GPT‑5.3 transmet l’émotion de façon naturelle grâce à des scènes concrètes et des détails sensoriels
- Par rapport au ton sentimental de GPT‑5.2, le résultat présente une meilleure cohérence structurelle et davantage de réalisme
Limites et améliorations à venir
- Dans les langues non anglophones (japonais, coréen, etc.), il subsiste encore des formulations maladroites ou trop littérales
- L’amélioration d’un ton naturel selon chaque langue reste un chantier à venir
- La fonction d’ajustement du ton des réponses est encore en cours d’amélioration, avec une collecte continue des retours utilisateurs
Disponibilité et transition
- GPT‑5.3 Instant est disponible immédiatement pour tous les utilisateurs de ChatGPT et dans l’API (
gpt‑5.3‑chat‑latest)
- Des mises à jour des modèles Thinking et Pro sont prévues prochainement
- Le support de GPT‑5.2 Instant prendra fin le 3 juin 2026, avec un accès maintenu pendant 3 mois pour les utilisateurs payants via « Legacy Models »
1 commentaires
Avis sur Hacker News
Le plus gros problème de ChatGPT en ce moment, c’est le ton maladroit de ses réponses
Il y a beaucoup trop de formules du genre « Why it matters », « the big picture », d’emphase exagérée et de questions rhétoriques
La première version de GPT‑5 était correcte, mais en voulant lui donner une « personnalité plus chaleureuse », ils l’ont au contraire abîmée comme 4o
Il était aussi bon en japonais avant, mais la qualité a baissé maintenant, ce qui est décevant
Du coup, j’essaie désormais un nouveau style d’écriture en ajoutant même des bruitages, <i>swoosh</i>
Je m’appuie sur les sorties des LLM sans les copier telles quelles, et je les réécris avec ma propre voix pour conserver mon style personnel
La marque « 5.2‑Instant » est déroutante
Je pensais que c’était un modèle ultra-rapide, mais on dirait juste une version 5.2 sans routeur
On a l’impression qu’OpenAI revient à la période d’avant GPT‑5, avec trop de modèles et plus personne ne sait quoi utiliser
L’une est la série Instant, rapide et optimisée pour ChatGPT, mais moins précise
L’autre est la série Thinking, plus lente mais plus adaptée aux tâches spécialisées
Ils voudraient simplifier avec une option unique, mais comme les préférences varient selon les utilisateurs, ils continuent à proposer les deux modèles (l’auteur travaille chez OpenAI)
Le concurrent Gemini 3 Fast / Gemini 3 Thinking suit la même logique
Comme les modèles « Thinking » coûtent cher, la stratégie consiste à les retenir avec des modèles Instant meilleur marché
Dans une interface vocale, le temps jusqu’au premier token compte davantage que le débit de tokens par seconde
Le titre « GPT‑5.3 Instant: Smoother, more … » m’a fait rire
En ce moment, les slogans marketing des LLM ressemblent à des publicités pour cigarettes
Il y avait sur la page la formule « Better judgment around refusals »,
et je me demande si une entreprise d’IA a déjà traité officiellement le problème des règles différentes selon les groupes
Par exemple, refuser une blague sur un groupe précis tout en l’autorisant pour un autre
Et puis cet article affirme que les modèles évaluent différemment la valeur d’une vie humaine selon les pays
Même en demandant « réponds en unités métriques », il ne le respectait pas correctement, au point que je devais reformuler plusieurs fois mes questions de cuisine
C’est un peu mieux maintenant, mais la perspective américaine reste très marquée
Ils disent avoir calculé un « taux de change » de la vie humaine à partir du prix des chèvres, mais cela peut simplement refléter les différences de coût de la vie selon les pays
En plus, l’échantillon ne couvre que 11 pays, donc c’est difficile à généraliser
et ne montrent pas les préférences intrinsèques réelles des modèles
Quand on leur donne une option neutre, la plupart des modèles évaluent toutes les vies humaines de façon égale
En plus, l’article d’origine inspire peu confiance, car il publie trop peu de données et il est difficile de relier le code aux résultats
Selon ce lien de comparaison,
Gemini 3.1 Lite (sans reasoning) obtient de meilleures performances que GPT‑5.3 (sans reasoning)
J’ai été mal à l’aise de voir, dans l’exemple de présentation, une mention du calcul de trajectoire d’artillerie à longue portée
OpenAI collabore avec l’armée américaine, donc on dirait une tentative de normalisation des usages militaires
On dirait une stratégie consistant à les emballer dans des exemples de plus en plus ordinaires afin d’émousser l’opposition
Mais vu le contexte actuel, je ne sais pas si cette interprétation tient encore
L’explication selon laquelle « GPT‑5.3 Instant combine mieux les informations récupérées sur le web » me parle
En pratique, GPT utilise la recherche de façon bien plus naturelle que Claude
Et en plus, il y a un bug : même si on désactive la recherche web, il oublie ce réglage
Dans mes benchmarks, GPT‑5.3 a montré des performances égales ou légèrement inférieures à 5.2‑chat
Du coup, je crois comprendre pourquoi ils n’ont pas publié de benchmarks dans leur billet de blog
Lien de comparaison
Ce qui est intéressant, c’est que juste avant l’annonce de « 5.3 Instant », ils ont carrément retiré l’option « Instant » du sélecteur de modèles
pour la remplacer par « Auto (mais avec Auto-switch désactivé) »
La formule « automatique, mais avec l’automatique désactivé » donne l’impression qu’eux-mêmes s’y perdent