GPT-5.2 et GPT-5.2-Codex sont désormais 40 % plus rapides
(twitter.com/OpenAIDevs)- La vitesse de traitement des modèles GPT-5.2 et GPT-5.2-Codex a été améliorée de 40 % par rapport à auparavant
- Optimisation de la pile d’inférence pour tous les utilisateurs de l’API
- Il s’agit du même modèle et des mêmes poids, mais avec une latence réduite
Aucun commentaire pour le moment.