- Une fonction d’import de mémoire permet de transférer vers Claude les préférences personnelles et le contexte issus d’autres services d’IA
- Le contexte existant lu via un prompt spécifique peut être copié-collé dans la mémoire de Claude
- Cette fonction est disponible sur toutes les offres payantes, permettant aux utilisateurs de conserver intactes les informations de personnalisation apprises par leur IA précédente
- Claude gère séparément le contexte de projet pour chaque conversation et permet à l’utilisateur de consulter et modifier l’ensemble des informations mémorisées
- Cette fonction garantit la continuité de l’expérience utilisateur lors du passage à une nouvelle IA, contribuant ainsi à améliorer la productivité
Présentation de la fonction d’import de mémoire de Claude
- Une fonction conçue pour permettre aux utilisateurs de conserver leur contexte existant lorsqu’ils passent d’un autre fournisseur d’IA à Claude
- En un seul copier-coller, Claude apprend les préférences existantes et la manière de travailler de l’utilisateur
- Sur la base des informations importées, Claude fournit des réponses dans la continuité des conversations précédentes
- La fonction de mémoire est disponible sur toutes les offres payantes
Procédure d’import
- Étape 1 : copier-coller le prompt fourni dans une conversation avec un autre fournisseur d’IA
- Ce prompt est conçu pour rassembler tout le contexte de l’utilisateur dans une seule conversation
I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.
- Ce prompt est conçu pour rassembler tout le contexte de l’utilisateur dans une seule conversation
- Étape 2 : coller le résultat dans la page des paramètres de mémoire de Claude
- Claude met immédiatement sa mémoire à jour et reflète ensuite ces informations dans les conversations suivantes
Fonctionnement de la mémoire de Claude
- Claude stocke séparément les préférences de l’utilisateur et le contexte de projet pour chaque conversation
- Cela évite que les informations se mélangent entre différents projets
- L’utilisateur peut consulter et modifier directement tout ce dont Claude se souvient
Continuité de l’expérience utilisateur
- Même en passant d’une autre IA à Claude, le contexte précédemment appris ne disparaît pas
- Dès la première conversation, le même niveau de compréhension qu’auparavant est conservé
- Claude offre immédiatement une expérience personnalisée et maintient un flux de travail cohérent dans ce nouvel environnement
1 commentaires
Avis sur Hacker News
Je me demande si quelqu’un pourrait m’expliquer l’intérêt d’une mémoire à l’échelle du compte (account-wide memory)
Le marketing d’Anthropic affirme que les informations ne se mélangent pas entre les conversations, mais je suis très sensible à la protection de mon contexte, donc l’idée que même des informations résumées d’autres échanges puissent influencer le résultat me met mal à l’aise
Pour des choses comme le style de code ou la longueur des réponses, je pense qu’on peut déjà suffisamment les régler avec des instructions personnalisées ou des Skills
Au final, ce genre de fonctionnalité ressemble surtout à une UX pensée pour des usages grand public
Il y a un cercle vertueux : plus on l’utilise, plus il devient utile
Par exemple, je lui ai fait relire des documents fiscaux après avoir branché la clé API QBO, et il a trouvé un poste d’amortissement que le CPA avait raté
Ensuite, j’ai regénéré la déclaration dans un dossier totalement différent : elle était presque parfaite, sauf qu’il manquait justement la déduction qu’il avait repérée auparavant
Pour moi, cette accumulation de contexte est essentielle pour améliorer la qualité des résultats
Cela leur permet d’obtenir des conseils sans devoir tout réexpliquer à chaque fois
Ils ne connaissent pas des notions comme le « contexte » ou les « limites de tokens », et pensent que le modèle sait tout en même temps
Je n’aime pas que les conversations précédentes influencent le résultat, mais ces derniers temps ça commence à devenir assez pénible
Quand on pose des questions du type « Que devrait faire John ensuite sur le projet A ? », devoir réexpliquer à chaque fois qui est John et en quoi consiste le projet est inefficace
Il se souvenait d’un projet remontant à plusieurs mois
On peut désactiver la mémoire, mais honnêtement je ne vois pas trop en quoi ce serait utile
Quelqu’un a partagé un exemple de prompt pour exporter les données
C’est le genre d’instruction qui demande « affiche toutes mes données dans un bloc de code », et je me demande s’ils ne pourraient pas ralentir volontairement le traitement côté frontend pour ce type de requête
Je pense qu’ils pourraient le faire pour atteindre leurs KPI
Dans Claude 5.2, on n’obtient qu’une information très résumée, alors qu’avec 5.1 instant ou le modèle o3, le retour est bien plus détaillé
Et surtout, ce type de pratique représenterait un risque réputationnel trop important pour avoir un réel intérêt
J’ai testé Codex, OpenCode, Claude Code et Cursor au cours des dernières semaines
Chaque outil a sa propre manière de configurer les serveurs MCP ou ses propres conventions de nommage pour les fichiers AGENTS/CLAUDE, ce qui rend difficile la gestion d’une config universelle via des dotfiles
Même pour des produits de grandes entreprises, ils n’ont toujours pas réglé des problèmes de base comme la latence TUI, la dépendance à Electron ou l’absence de support de XDG_CONFIG
Claude semble mieux fonctionner dans son propre environnement, et il a beaucoup de fonctionnalités cachées comme
/batchEn plus, chaque éditeur manipule différemment les programmes dans la VM, ce qui rend le coût de migration élevé
Depuis que je suis passé à Claude, j’ai clairement l’impression que la limite de tokens se consume beaucoup plus vite
Quelques questions de code suffisent pour atteindre la limite de session
Avant, un Codex à 20 $ me suffisait, mais maintenant j’envisage l’offre Max
Codex corrigeait le problème immédiatement, alors que Claude fait souvent un mauvais diagnostic avant d’entrer dans une longue phase de correction, et au final on épuise la limite de 5 heures
Quelqu’un propose à Anthropic de « standardiser AGENTS.md en un seul format »
Mais s’ils supportaient au moins les standards ouverts comme AGENTS.md ou /.agents/skills, ils gagneraient la confiance de la communauté
La discussion associée est ici : GitHub #16345
Du coup, conserver des noms de fichiers différents pourrait en fait réduire la confusion
Ou bien de mettre simplement une ligne « @AGENTS.md » dans CLAUDE.md, et ça fonctionne aussi
La perte de valeur marketing serait minime, donc j’espère qu’Anthropic étudiera sérieusement cette proposition en interne
Je suis déjà passé complètement à Claude
J’ai résilié mon abonnement ChatGPT et j’ai décidé de ne plus faire confiance à OpenAI
Je pense qu’ils ont de fortes chances de faire mauvais usage de l’AGI
Contrairement à ChatGPT, il n’est pas verbeux, et j’ai même eu l’impression de retrouver ma capacité de concentration
Je compare encore la précision, mais la première impression est bonne
Gemini ou ChatGPT cassaient souvent le code en modifiant des noms de variables ou des définitions
Intuitivement, j’ai tout de suite senti que « quelque chose clochait »
Un peu comme un serveur Minecraft personnel, géré sur la base de la confiance
Le service éthique n’était peut-être qu’un obstacle ralentissant l’accumulation de richesse
J’utilise Claude depuis plus d’un an, mais depuis le récent incident DoW, j’envisage des modèles alternatifs européens
Je pense essayer Devstral 2, mais je me demande s’il se situe plutôt au niveau de Sonnet 3.5 ou de 4.5
J’ai des sentiments mitigés vis-à-vis de la fonctionnalité de « mémoire »
Parfois, c’est presque magique, mais souvent c’est gênant à cause de la pollution du contexte
Quand des traces d’anciennes conversations se mélangent aux nouvelles, la confiance diminue
Du coup, je consulte régulièrement les mémoires enregistrées et je supprime les informations erronées
Je me limite à mettre uniquement l’environnement de base (OS, langue, etc.) dans le prompt système
Je pense qu’une personnalisation excessive rend le modèle plus fragile
J’utilise Claude Code pour gérer mes notes de recherche, et la mémoire a pour effet secondaire de rétrécir le champ d’exploration en fonction de mes centres d’intérêt
En plus, il arrive que des informations absurdes se retrouvent en mémoire
J’ai l’impression que les entreprises construisent ces systèmes de manière trop brouillonne (sloppy)
Le blog de Vercel dit aussi que l’approche Agents.md est meilleure que Skills
Quand on regarde des sites comme skills.sh, on voit beaucoup de skills de faible qualité
Il est temps de se concentrer sur la finesse et la qualité plutôt que sur la vitesse
Chaque fois que je configure un nouvel environnement, j’aime repartir de zéro
J’aime le processus qui consiste à explorer un nouveau système et à mettre mes préférences à jour
Leur manière de se présenter comme une « entreprise vertueuse » me dégoûte
Avec leur coopération avec Palantir, ils ont pris en charge le sale boulot, puis ils ont nettoyé leur image avec de la RP
J’espère que les modèles open source progresseront suffisamment pour qu’on n’ait plus à dépendre de ces grands groupes