- Anthropic a mis à jour les conditions d’utilisation pour les consommateurs et la politique de confidentialité
- Les utilisateurs peuvent désormais choisir eux-mêmes s’ils autorisent ou non l’utilisation de leurs données pour améliorer les modèles
- Cela s’applique aux offres Claude Free, Pro et Max, tandis que les utilisateurs existants des services commerciaux et de l’API sont exclus
- En autorisant la fourniture de données, ils peuvent contribuer au renforcement de la sécurité des modèles ainsi qu’à l’amélioration des fonctionnalités futures des modèles, notamment en programmation
- Le consentement à l’utilisation des données, sa durée et les modifications peuvent être gérés à tout moment dans les paramètres
Principaux changements de la mise à jour
- Anthropic a mis à jour les conditions d’utilisation pour les consommateurs et la politique de confidentialité afin d’améliorer les performances de l’IA Claude et de renforcer la protection des utilisateurs
- Les utilisateurs peuvent choisir de fournir ou non leurs données pour l’amélioration des modèles de Claude et le renforcement des garde-fous de sécurité
- Dans les paramètres, il est possible de modifier à tout moment le choix de partage des données
Public concerné et exceptions
- Cette mise à jour s’applique uniquement aux offres Claude Free, Pro et Max, ainsi qu’aux utilisateurs de Claude Code relevant de ces offres
- Elle ne s’applique pas aux services régis par des conditions commerciales, à savoir Claude for Work, Claude Gov, Claude for Education, ni à l’utilisation de l’API (y compris via des tiers, par exemple : Amazon Bedrock, Google Cloud Vertex AI)
Impact du consentement à l’utilisation des données
- En acceptant le partage des données, la sécurité des modèles est améliorée et la précision des systèmes de prévention des dommages et des usages abusifs augmente
- Cela peut aussi contribuer à améliorer les futures capacités de Claude dans divers domaines comme le code, l’analyse et le raisonnement
- Ce paramètre reste toujours sous le contrôle direct de l’utilisateur ; les nouveaux inscrits, comme les utilisateurs existants, peuvent choisir cette option via une fenêtre contextuelle
Notification et entrée en vigueur
- Une notification dans l’application informe les utilisateurs des mises à jour et leur donne la possibilité de modifier leurs paramètres
- Les utilisateurs existants peuvent décider jusqu’au 28 septembre 2025 d’accepter les conditions et d’autoriser ou non le partage des données
- En cas d’acceptation, la nouvelle politique s’applique immédiatement et uniquement aux nouvelles conversations, aux conversations reprises ou aux sessions de code reprises
- Après le 28 septembre 2025, il faudra choisir directement ce paramètre pour continuer à utiliser Claude
- Les options peuvent être modifiées dans Privacy Settings
Extension de la durée de conservation des données
- En cas de consentement à la fourniture de données pour l’entraînement des modèles, la durée de conservation des données est étendue à 5 ans
- Cette extension s’applique uniquement aux nouvelles conversations / conversations reprises et aux sessions de code reprises, et les données sont utilisées pour l’amélioration des modèles et de la sécurité
- Si une conversation est supprimée, les données correspondantes ne seront pas utilisées pour l’entraînement futur des modèles
- Si l’utilisateur n’accepte pas le partage des données, la politique actuelle de conservation de 30 jours reste en vigueur
Traitement des données de feedback
- Les retours des utilisateurs sont eux aussi soumis à une politique de conservation de 5 ans
Protection de la vie privée et traitement des données
- Anthropic protège la vie privée des utilisateurs en filtrant / pseudonymisant les données sensibles à l’aide d’outils et de processus automatisés
- Les données des utilisateurs ne sont pas vendues à des tiers
Informations supplémentaires
- Les changements détaillés des conditions d’utilisation pour les consommateurs et de la politique de confidentialité sont disponibles dans la section FAQ
1 commentaires
Discussion Hacker News
Je me demande si les utilisateurs peuvent en pratique polluer les futurs jeux de données d’apprentissage, par exemple en laissant systématiquement des retours négatifs même après avoir réellement été aidés, ou en orientant volontairement la conversation dans une direction destructrice avant de laisser un retour très positif
Je n’aime pas le fait que ce soit présenté comme un opt-in par défaut alors qu’en réalité c’est pratiquement de l’opt-out, amené via une invite qui ressemble à une simple mise à jour des conditions d’utilisation, et je trouve aussi qu’une conservation des données pendant 5 ans est excessive ; je me demande s’il n’y a pas d’autres éléments problématiques dans les nouvelles conditions, et au final c’est ce qui m’a poussé à annuler mon abonnement
Claude m’aide dans mes recherches en mathématiques ; je crains que si je lui transmets au fil de la conversation des idées de recherche encore non publiées, Claude puisse ensuite suggérer exactement les mêmes idées à quelqu’un d’autre, qui pensera qu’il s’agit de ses propres idées ; cela m’a fait sentir que la confidentialité est indispensable dans le développement des connaissances assisté par IA, non seulement pour les comptes professionnels, mais aussi pour les particuliers
C’était prévisible ; les grands acteurs ont déjà atteint la limite de l’entraînement sur pratiquement toutes les données possibles, y compris l’ensemble d’Internet et des contenus détournés qui ont même donné lieu à des procès ; comme il n’y a pas eu de grande innovation récente dans l’architecture des modèles, ils sont maintenant en guerre pour obtenir davantage de données d’entraînement ; au bout du compte, ils en viennent à s’emparer aussi des données des utilisateurs et sont prêts à employer des méthodes de plus en plus douteuses
Beaucoup de gens ne sont pas surpris, mais personnellement je trouve cela assez choquant ; par exemple, Google n’affiche pas le contenu du Gmail des utilisateurs dans ses résultats de recherche, donc j’ai l’impression que c’est une décision commerciale autodestructrice ; j’ai l’impression de rater quelque chose
Ce qui me frustrait jusque-là, c’est précisément que l’IA semblait incapable d’apprendre quoi que ce soit des interactions avec les utilisateurs, en particulier parce qu’elle répétait les mêmes erreurs ; je suis plutôt surpris que ce changement n’arrive que maintenant
Si beaucoup sont opposés à cette évolution, moi je la vois plutôt positivement ; permettre à un LLM d’apprendre de conversations passées est très important pour le progrès du modèle ; à long terme, je reconnais qu’il peut être dangereux que le savoir collectif se concentre dans les mains d’un petit nombre d’entreprises ; c’est pourquoi, au final, la seule vraie solution sera sans doute un mode de « self custody » où chaque organisation ou individu exécute et entraîne ses propres modèles ; bien sûr, cela ne deviendra réaliste que si les coûts baissent énormément
Le fait que la politique change seulement maintenant est encore pire ; moi, j’ai toujours voulu que mes données servent à l’entraînement, et même qu’elles continuent à servir à l’avenir ; si l’on veut être obsédé à l’extrême par la confidentialité des données, il suffit de ne pas utiliser ses propres données ; je suis presque à l’opposé complet de cette position, mais les entreprises n’en tiennent jamais compte ; même Google n’offre pas d’option du genre « utilisez activement toutes mes données pour l’entraînement » ; j’ai déjà saisi plusieurs fois où j’habite, et pourtant le système continue de l’oublier ; tout est conçu sur l’hypothèse que personne ne souhaite partager ses données ; même les interviews de DeepMind dans le domaine médical commencent toujours par la peur du partage de données, la catastrophe et l’obsession de la confidentialité ; personnellement, je n’en ai jamais subi de grand préjudice et j’ai plutôt l’impression que cela a aidé le progrès médical ; avec le NHS aussi, j’essaie à chaque fois de cocher l’option « utilisez activement mes données », mais la valeur par défaut est toujours « tout refuser », donc c’est fastidieux ; j’aimerais qu’il existe une case maître permettant de dire en une seule fois « utilisez toutes mes données et ne me redemandez plus »
Je pensais qu’Anthropic visait, sur le long terme, un public certes restreint mais techniquement solide ; en principe, je vais résilier mon abonnement ; les modèles open source ne répondent pas encore à mes besoins aussi bien que Claude, notamment pour préparer des tests de sécurité centrés sur les normes ISO/IEEE, mais je trouverai une solution
Je me demande pourquoi on ne met pas directement le lien vers l’annonce officielle, plutôt qu’un article récapitulatif généré par IA sur perplexity.ai ; dans l’annonce réelle lien, les points importants sont les suivants : une fenêtre dans l’application informe du changement et permet de choisir l’opt-out, l’opt-out reste accessible à tout moment dans le menu des paramètres, l’entrée en vigueur est prévue le 28 septembre, cela ne s’applique qu’après acceptation des nouvelles conditions et renouvellement de session, et cela ne concerne pas les API/services externes, Claude Gov ni Claude for Education ; le lien vers la source originale est plus utile