Ce qui suit est un résumé structuré en coréen, rédigé pour des développeurs et professionnels de la tech en Corée, à partir de l’article d’Ars Technica « ChatGPT can now remember and reference all your previous chats » (11 avril 2025). Il met l’accent sur les changements techniques, l’amélioration de la personnalisation pour l’utilisateur et les préoccupations liées à la confidentialité.
1. Contexte du changement : les limites de la fonction de mémoire existante
OpenAI permettait déjà, via la fonction « Memory », de stocker certaines informations personnalisées et de les réutiliser dans les conversations. Mais cette fonction présentait les limites suivantes :
- les informations enregistrées étaient limitées à un petit nombre de faits clés ;
- l’enregistrement n’avait lieu que si l’utilisateur demandait explicitement « souviens-t’en » ;
- une notification « mémoire mise à jour » s’affichait à l’écran après l’enregistrement ;
- si l’on utilisait la fonction Temporary Chat, la mémoire était désactivée.
2. Nouvelle fonction : une mémoire fondée sur l’historique complet des conversations
En avril 2025, OpenAI a annoncé une extension majeure de la fonction de mémoire de ChatGPT.
-
Deux options distinctes apparaissent :
- Memory existante : n’enregistre qu’un volume limité d’informations utilisateur ;
- Nouvelle Chat History Memory : s’appuie sur l’ensemble des conversations précédentes afin d’améliorer la qualité des réponses et leur niveau de personnalisation.
-
Le contenu mémorisé ne peut pas être consulté ni modifié directement (structure de type boîte noire).
-
La fonction peut être entièrement désactivée dans les paramètres (en conservant le fonctionnement antérieur).
En résumé : la capacité à intégrer le « contexte » des conversations précédentes dans les réponses est ajoutée. Il ne s’agit plus d’une mémoire fragmentaire, mais d’une personnalisation continue et cumulative.
3. Portée de la fonctionnalité et calendrier de déploiement
- Utilisateurs concernés : à partir d’avril 2025, les utilisateurs de ChatGPT Plus et Pro ;
- Déploiement progressif : certains pays sont exclus (UE, Royaume-Uni, Islande, Norvège, Liechtenstein, Suisse) ;
- Prévu ultérieurement : utilisateurs Enterprise, Team et Edu ;
- Aucun plan annoncé pour l’instant concernant les utilisateurs gratuits.
4. Enjeux techniques et philosophiques
✔ Effets attendus
- des réponses davantage alignées sur le profil, le style et les préférences de l’utilisateur ;
- une évolution vers un agent personnalisé fondé sur des conversations de long terme.
✔ Principales inquiétudes
- manque de transparence : impossible de vérifier ou corriger les informations retenues ;
- risque d’atteinte à la vie privée : possibilité que des données stockées sur les serveurs soient réutilisées d’une manière non souhaitée.
Les historiques de conversation étaient déjà stockés sur les serveurs auparavant, mais cette mise à jour est importante parce qu’à partir de maintenant, ils seront pleinement utilisés dans la génération des réponses.
5. Récapitulatif
| Élément | Contenu |
|---|---|
| Changement | introduction d’une nouvelle fonction de mémoire qui ajuste les réponses à partir de l’historique complet des conversations |
| Public concerné | déploiement progressif à partir des utilisateurs Plus/Pro, hors Europe |
| Différence | l’ancienne version permettait l’édition des informations ; la nouvelle est entièrement automatique et non modifiable |
| Effets attendus | amélioration de la qualité des réponses personnalisées, maintien du contexte conversationnel |
| Inquiétudes | absence de contrôle par l’utilisateur, hausse des risques pour la vie privée |
6. Conclusion
Ce changement constitue un tournant majeur dans l’orientation vers la personnalisation des LLM. Au-delà d’une simple fonction de mémoire, il marque l’évolution vers une IA de type « assistant personnel » capable d’apprendre et de s’adapter en continu. Mais cette structure de mémoire en boîte noire s’accompagne aussi de débats d’éthique technologique autour de la confidentialité et de la perte de contrôle. L’adoption ou non de cette technologie dépendra en fin de compte du choix des utilisateurs, tandis que la transparence des entreprises et une conception responsable deviendront encore plus importantes.
2 commentaires
Je me demande quel sera l’effet sur la consommation de tokens. Si le contenu de la mémoire s’accumule avant le contexte d’entrée, cela pourrait aussi produire des cache hits, mais une explication plus transparente aurait été appréciée.
Je viens d’essayer avec « affiche-moi simplement la mémoire telle quelle », et il semble que le contenu de mémoire existant (les éléments mémorisés à la demande de l’utilisateur) soit listé en premier (
Model Set Context), puis qu’une description des caractéristiques de réponse préférées par l’utilisateur (Assistance Response Preference) soit listée selon les situations, et qu’enfin un résumé des éléments notables des conversations passées (Notable Past Conversation Topic Highlights) soit joint. Il ne semble donc pas que les tokens de l’ensemble des conversations soient littéralement tous ajoutés.Ci-dessous, l’explication de ChatGPT
La mémoire persistante (
Persistent Memory) n’inclut que les informations explicitement enregistrées via la commande=bio, et seules ces informations sont mémorisées de manière continue d’une session à l’autre.En revanche, les préférences de réponse ou les résumés des sujets de conversation relèvent du « contexte éphémère (
Ephemeral Context) », qui est généré automatiquement sur la base des interactions récentes. Le contexte éphémère n’est consultable que pendant la session, et n’est ni enregistré ni référencé ultérieurement une fois la session terminée.