Pour bien utiliser le contexte 1M de GPT-5.4 dans ChatGPT Pro, un réglage est nécessaire
(reddit.com)Un post intéressant a récemment été publié sur r/codex.
Un utilisateur expliquait qu’il utilisait GPT-5.4 dans ChatGPT Pro + Codex, mais n’obtenait qu’un contexte de 258K.
« J’avais entendu que GPT-5.4 avait un contexte de 1M, alors pourquoi je ne vois que 258K ? »
En pratique, lorsqu’on vérifie dans Codex CLI ou dans l’IDE, il arrive que le contexte par défaut s’affiche autour de 258K.
La solution proposée dans les commentaires consiste à ajouter directement des paramètres de configuration.
Exemple :
model_context_window=800000
model_auto_compact_token_limit=700000
En ajoutant cela dans config.toml, certains ont partagé qu’il était possible d’étendre le contexte utilisable jusqu’à environ 800K.
Quelques points à retenir :
• GPT-5.4 est réputé prendre en charge un contexte maximal d’environ 1M de tokens
• Mais dans l’environnement Codex, la configuration par défaut peut démarrer avec une limite d’environ 258K
• En modifiant les valeurs dans la config, il devient possible d’utiliser un contexte plus large
Des utilisateurs ont également indiqué qu’en se rapprochant trop de la valeur maximale, des baisses de performances peuvent apparaître, et qu’il vaut donc mieux garder une certaine marge.
⸻
Ce que j’ai trouvé intéressant personnellement
À mesure que les outils d’IA deviennent plus complexes,
on a de plus en plus souvent des cas où « spécifications du modèle = configuration réelle par défaut » n’est pas vrai.
En particulier dans des environnements comme l’agentic coding / Codex, il semble assez fréquent qu’il faille ajuster soi-même les réglages pour tirer pleinement parti des performances.
Y a-t-il parmi vous des personnes qui ont déjà réellement exploité du long context (500K~1M) dans Codex ou en CLI ?
Je serais curieux de savoir si le gain est vraiment perceptible dans un workflow de développement réel.
Aucun commentaire pour le moment.