1 points par GN⁺ 2025-08-30 | 1 commentaires | Partager sur WhatsApp
  • Anthropic a mis à jour les conditions d’utilisation pour les consommateurs et la politique de confidentialité
  • Les utilisateurs peuvent désormais choisir eux-mêmes s’ils autorisent ou non l’utilisation de leurs données pour améliorer les modèles
  • Cela s’applique aux offres Claude Free, Pro et Max, tandis que les utilisateurs existants des services commerciaux et de l’API sont exclus
  • En autorisant la fourniture de données, ils peuvent contribuer au renforcement de la sécurité des modèles ainsi qu’à l’amélioration des fonctionnalités futures des modèles, notamment en programmation
  • Le consentement à l’utilisation des données, sa durée et les modifications peuvent être gérés à tout moment dans les paramètres

Principaux changements de la mise à jour

  • Anthropic a mis à jour les conditions d’utilisation pour les consommateurs et la politique de confidentialité afin d’améliorer les performances de l’IA Claude et de renforcer la protection des utilisateurs
  • Les utilisateurs peuvent choisir de fournir ou non leurs données pour l’amélioration des modèles de Claude et le renforcement des garde-fous de sécurité
  • Dans les paramètres, il est possible de modifier à tout moment le choix de partage des données

Public concerné et exceptions

  • Cette mise à jour s’applique uniquement aux offres Claude Free, Pro et Max, ainsi qu’aux utilisateurs de Claude Code relevant de ces offres
  • Elle ne s’applique pas aux services régis par des conditions commerciales, à savoir Claude for Work, Claude Gov, Claude for Education, ni à l’utilisation de l’API (y compris via des tiers, par exemple : Amazon Bedrock, Google Cloud Vertex AI)

Impact du consentement à l’utilisation des données

  • En acceptant le partage des données, la sécurité des modèles est améliorée et la précision des systèmes de prévention des dommages et des usages abusifs augmente
  • Cela peut aussi contribuer à améliorer les futures capacités de Claude dans divers domaines comme le code, l’analyse et le raisonnement
  • Ce paramètre reste toujours sous le contrôle direct de l’utilisateur ; les nouveaux inscrits, comme les utilisateurs existants, peuvent choisir cette option via une fenêtre contextuelle

Notification et entrée en vigueur

  • Une notification dans l’application informe les utilisateurs des mises à jour et leur donne la possibilité de modifier leurs paramètres
  • Les utilisateurs existants peuvent décider jusqu’au 28 septembre 2025 d’accepter les conditions et d’autoriser ou non le partage des données
  • En cas d’acceptation, la nouvelle politique s’applique immédiatement et uniquement aux nouvelles conversations, aux conversations reprises ou aux sessions de code reprises
  • Après le 28 septembre 2025, il faudra choisir directement ce paramètre pour continuer à utiliser Claude
  • Les options peuvent être modifiées dans Privacy Settings

Extension de la durée de conservation des données

  • En cas de consentement à la fourniture de données pour l’entraînement des modèles, la durée de conservation des données est étendue à 5 ans
  • Cette extension s’applique uniquement aux nouvelles conversations / conversations reprises et aux sessions de code reprises, et les données sont utilisées pour l’amélioration des modèles et de la sécurité
  • Si une conversation est supprimée, les données correspondantes ne seront pas utilisées pour l’entraînement futur des modèles
  • Si l’utilisateur n’accepte pas le partage des données, la politique actuelle de conservation de 30 jours reste en vigueur

Traitement des données de feedback

  • Les retours des utilisateurs sont eux aussi soumis à une politique de conservation de 5 ans

Protection de la vie privée et traitement des données

  • Anthropic protège la vie privée des utilisateurs en filtrant / pseudonymisant les données sensibles à l’aide d’outils et de processus automatisés
  • Les données des utilisateurs ne sont pas vendues à des tiers

Informations supplémentaires

  • Les changements détaillés des conditions d’utilisation pour les consommateurs et de la politique de confidentialité sont disponibles dans la section FAQ

1 commentaires

 
GN⁺ 2025-08-30
Discussion Hacker News
  • Je me demande si les utilisateurs peuvent en pratique polluer les futurs jeux de données d’apprentissage, par exemple en laissant systématiquement des retours négatifs même après avoir réellement été aidés, ou en orientant volontairement la conversation dans une direction destructrice avant de laisser un retour très positif

  • Je n’aime pas le fait que ce soit présenté comme un opt-in par défaut alors qu’en réalité c’est pratiquement de l’opt-out, amené via une invite qui ressemble à une simple mise à jour des conditions d’utilisation, et je trouve aussi qu’une conservation des données pendant 5 ans est excessive ; je me demande s’il n’y a pas d’autres éléments problématiques dans les nouvelles conditions, et au final c’est ce qui m’a poussé à annuler mon abonnement

    • J’ai remarqué que, dans tous les autres réglages d’Anthropic, un interrupteur est bleu quand il est activé et noir quand il est désactivé, mais que dans cette boîte d’annonce du changement, le curseur est gris dans les deux états ; on peut le constater en allant comparer directement dans les préférences ; je suis déçu et un peu amer, car quelqu’un semble l’avoir conçu ainsi délibérément
    • J’ai envie de contester l’expression « opt-in by default » ; en réalité, c’est bien de l’« opt-out », puisque le réglage par défaut consiste à devoir se retirer
    • On mentionne la « conservation pendant 5 ans », mais une fois que c’est appris par le modèle, cela y reste pour toujours
    • Ce qui m’inquiète vraiment, c’est cette conservation sur 5 ans ; s’ils continuent à modifier les conditions et à reproposer l’option d’opt-out au cours des 5 prochaines années, une seule erreur de clic suffira pour qu’ils récupèrent toutes les données ; ils pourraient même supprimer complètement l’opt-out plus tard ; dans 4 ans et 364 jours, ils pourraient changer les conditions et prolonger la conservation à 10 ans ; d’ici là, la vie privée se sera déjà tellement dégradée que plus personne ne remarquera peut-être même que cette option n’existe plus du tout
    • Quand j’ai ouvert l’application, l’option d’opt-out s’affichait avec la fenêtre annonçant le changement ; du point de vue de la transparence, ça avait l’air correct
  • Claude m’aide dans mes recherches en mathématiques ; je crains que si je lui transmets au fil de la conversation des idées de recherche encore non publiées, Claude puisse ensuite suggérer exactement les mêmes idées à quelqu’un d’autre, qui pensera qu’il s’agit de ses propres idées ; cela m’a fait sentir que la confidentialité est indispensable dans le développement des connaissances assisté par IA, non seulement pour les comptes professionnels, mais aussi pour les particuliers

    • On m’a demandé si, dans ce cas, Claude n’avait pas simplement aidé le travail de quelqu’un d’autre ; Claude ne connaît rien en dehors de ses propres chats, sauf ce qui vient de ses données d’entraînement, donc c’est un mécanisme classique de l’IA
    • Je vois l’IA comme un immense moteur d’associations ; en recherche mathématique, distinguer une « idée à laquelle personne n’a pensé » d’une « idée à laquelle quelqu’un a déjà pensé » a toujours pris du temps ; auparavant, cela impliquait beaucoup d’itérations pour trouver les bons mots-clés via Internet, MathSciNet, ArXiv, etc. ; avec l’IA, j’ai investi plus de six mois à apprendre à formuler des prompts qui donnent des réponses rares ; la capacité de généralisation de l’IA ajoute plutôt de la confusion ; paradoxalement, le moment où elle paraît le plus originale est souvent celui où elle relie entre eux des éléments auxquels tout le monde avait déjà pensé ; avec les bons prompts, l’IA peut elle aussi relier des idées de cette manière
    • Si l’on choisit l’opt-out dans la fenêtre liée aux nouvelles conditions, mes conversations ne seront pas utilisées pour l’entraînement
    • Si le travail est vraiment inédit, il a très peu de chances de réapparaître plus tard dans ce type de modèle ; par nature, ces systèmes produisent des sorties généralisées à partir de données partagées par beaucoup de gens, donc un concept doit être très fréquent dans les données d’entraînement pour ressortir à l’inférence ; en pratique, c’est une architecture qui protège à la fois l’innovation et la vie privée ; si une idée est déjà assez répandue, elle mérite aussi de faire partie du savoir public, hors questions de propriété intellectuelle
    • La frontière concernant jusqu’où les entreprises d’IA vont exploiter des connaissances humaines qu’elles ne possèdent pas réellement est floue ; il est même possible qu’aucune frontière n’ait été tracée du tout
  • C’était prévisible ; les grands acteurs ont déjà atteint la limite de l’entraînement sur pratiquement toutes les données possibles, y compris l’ensemble d’Internet et des contenus détournés qui ont même donné lieu à des procès ; comme il n’y a pas eu de grande innovation récente dans l’architecture des modèles, ils sont maintenant en guerre pour obtenir davantage de données d’entraînement ; au bout du compte, ils en viennent à s’emparer aussi des données des utilisateurs et sont prêts à employer des méthodes de plus en plus douteuses

    • Des centaines de courtiers en données veulent eux aussi les données des utilisateurs, mais les entreprises d’IA disposent déjà d’un canal existant par lequel les utilisateurs fournissent volontairement des données chaque jour ; il leur suffit de changements de conditions truffés de dark patterns et d’un minimum de gestion RP ; dans une semaine, toute cette controverse sera oubliée
    • Il est intéressant de voir que les modèles d’IA récents subissent une baisse de qualité en apprenant sur des données auto-produites ; les choses auraient peut-être été différentes s’ils avaient séparé plus soigneusement les contenus humains et IA, ou conclu des accords avec des éditeurs ; mais comme tout le monde s’est précipité pour aspirer toutes les données possibles, tout le monde finit par y perdre
    • La question n’est pas de savoir si c’est du « vol » ou non : ils ont eux-mêmes reconnu devant le tribunal qu’il s’agissait bien de copies illégales
    • Pour les entreprises d’IA, les données sont une mine d’or bien plus puissante que pour l’industrie publicitaire ; elles sont essentielles à leur survie ; le vrai problème, c’est ce qui va émerger à l’intersection entre l’IA et la publicité ; on peut supposer que Google ou Facebook relient déjà entre elles leurs différentes plateformes de données ; le jour où cela sera ouvertement toléré, je suis à la fois curieux et inquiet des cas d’usage qui apparaîtront
    • Ce type d’exemple montre précisément la nécessité de régulations et de garde-fous plus forts
  • Beaucoup de gens ne sont pas surpris, mais personnellement je trouve cela assez choquant ; par exemple, Google n’affiche pas le contenu du Gmail des utilisateurs dans ses résultats de recherche, donc j’ai l’impression que c’est une décision commerciale autodestructrice ; j’ai l’impression de rater quelque chose

    • Gmail a pourtant analysé les e-mails pendant des années jusqu’en 2017 pour afficher de la publicité lien
    • J’ai appris grâce à cet article lien que ce changement de politique ne s’applique pas aux comptes Claude professionnels ou éducatifs, qui conservent les protections de confidentialité existantes ; en pratique, les comptes gratuits ou non commerciaux sont, du point de vue d’Anthropic, une population moins rentable à laquelle on prête moins attention ; cette décision vise à réduire l’afflux de ces « utilisateurs gratuits » ; je m’attends bientôt à une annonce du genre « nous vous avons entendus, nous lançons un nouveau produit centré sur la confidentialité, seulement 30 dollars par mois »
    • Ces données sont très utiles pour l’apprentissage par renforcement ; tous les autres le font aussi ; et il reste possible de faire un opt-out si on le souhaite
    • Le cadrage qui présente la réaction comme de la surprise est lui-même étrange ; tout le monde s’y attendait
    • Google exploite en profondeur les e-mails à diverses fins, qu’il s’agisse de marketing ou de transmission aux autorités, mais afficher le corps des e-mails dans les résultats de recherche et utiliser les conversations Claude pour l’entraînement sont deux choses différentes ; Google n’a pas subi de sanction majeure pour ce type de pratique
  • Ce qui me frustrait jusque-là, c’est précisément que l’IA semblait incapable d’apprendre quoi que ce soit des interactions avec les utilisateurs, en particulier parce qu’elle répétait les mêmes erreurs ; je suis plutôt surpris que ce changement n’arrive que maintenant

    • Il n’y a pas d’apprentissage en temps réel, et mes données ne seront pas intégrées immédiatement ; les données d’entraînement servent toujours à l’entraînement du modèle, un processus qui prend plusieurs mois ; les données d’une ou deux personnes ont peu d’effet sur l’usage de la majorité ; ce qui finit par produire un effet d’apprentissage, ce ne sont pas mes méthodes de travail spécifiques, mais seulement ce qui est commun à de nombreux utilisateurs
    • On ne peut pas apprendre tant que ça des interactions elles-mêmes ; les métriques d’évaluation restent centrées sur des critères globaux plutôt que sur les utilisateurs individuels, donc le service ne fait que devenir de plus en plus banal
    • C’est une stratégie pour obtenir davantage de données pour le même prix d’abonnement ; une baisse tarifaire ou un remboursement sont peu probables
  • Si beaucoup sont opposés à cette évolution, moi je la vois plutôt positivement ; permettre à un LLM d’apprendre de conversations passées est très important pour le progrès du modèle ; à long terme, je reconnais qu’il peut être dangereux que le savoir collectif se concentre dans les mains d’un petit nombre d’entreprises ; c’est pourquoi, au final, la seule vraie solution sera sans doute un mode de « self custody » où chaque organisation ou individu exécute et entraîne ses propres modèles ; bien sûr, cela ne deviendra réaliste que si les coûts baissent énormément

    • Je trouverais cette approche bonne s’il y avait au moins une forme de réciprocité ; mais je paie déjà 20 dollars par mois, et il faudrait en plus fournir gratuitement mes données d’entraînement à Anthropic, ce qui n’a pas de sens
    • Je trouve qu’il manque le point essentiel : il ne s’agit pas de « faire progresser les LLM ensemble », mais de fournir des données d’entraînement à un seul LLM, Claude
    • Si l’on entraîne le modèle sur des données sensibles comme du code source d’entreprise, des scénarios ou des informations médicales et financières, le risque devient bien plus élevé
    • Je pense que ce n’est pas grave si les LLM ne progressent pas énormément
    • Au contraire, même si les LLM deviennent meilleurs, il n’est pas certain que cela procure un bénéfice concret à la majorité des utilisateurs ; globalement, il est même possible que le bilan soit négatif
  • Le fait que la politique change seulement maintenant est encore pire ; moi, j’ai toujours voulu que mes données servent à l’entraînement, et même qu’elles continuent à servir à l’avenir ; si l’on veut être obsédé à l’extrême par la confidentialité des données, il suffit de ne pas utiliser ses propres données ; je suis presque à l’opposé complet de cette position, mais les entreprises n’en tiennent jamais compte ; même Google n’offre pas d’option du genre « utilisez activement toutes mes données pour l’entraînement » ; j’ai déjà saisi plusieurs fois où j’habite, et pourtant le système continue de l’oublier ; tout est conçu sur l’hypothèse que personne ne souhaite partager ses données ; même les interviews de DeepMind dans le domaine médical commencent toujours par la peur du partage de données, la catastrophe et l’obsession de la confidentialité ; personnellement, je n’en ai jamais subi de grand préjudice et j’ai plutôt l’impression que cela a aidé le progrès médical ; avec le NHS aussi, j’essaie à chaque fois de cocher l’option « utilisez activement mes données », mais la valeur par défaut est toujours « tout refuser », donc c’est fastidieux ; j’aimerais qu’il existe une case maître permettant de dire en une seule fois « utilisez toutes mes données et ne me redemandez plus »

    • Pour pouvoir davantage comprendre cette position, il faudrait encore croire que les entreprises sont au service des utilisateurs ; en réalité, mes informations sont plus souvent utilisées contre mes propres intérêts, par exemple pour cibler des publicités pour des produits douteux ; la plupart des entreprises d’IA sont elles aussi sous l’influence du capital-risque et orientées vers le profit plutôt que vers des produits conçus pour les utilisateurs ; nous sommes actuellement dans une phase type « MoviePass » où les utilisateurs sont généreusement servis pour gagner des parts de marché, mais la qualité du service va se dégrader et le potentiel d’abus ne fera qu’augmenter MoviePass Wikipédia
    • J’ai du mal à comprendre qu’on puisse défendre sérieusement ce point de vue sans esprit critique
    • On comprend très vite à quel point les données médicales sont un enjeu de confidentialité majeur quand on vit dans un pays avec un système d’assurance privée
    • Je me demande si ce n’est pas du trolling, ou si tu vis simplement dans un monde idéal où les entreprises mettent réellement l’utilisateur au premier plan
    • Il existe clairement, dans ma vie, des valeurs plus importantes que « j’aimerais que les LLM fonctionnent un peu mieux »
  • Je pensais qu’Anthropic visait, sur le long terme, un public certes restreint mais techniquement solide ; en principe, je vais résilier mon abonnement ; les modèles open source ne répondent pas encore à mes besoins aussi bien que Claude, notamment pour préparer des tests de sécurité centrés sur les normes ISO/IEEE, mais je trouverai une solution

    • Au final, la seule chose que les utilisateurs puissent faire est de résilier le service ; il ne faut pas trop compter sur la loi ou la régulation, et même si elles arrivent, il suffira probablement de payer le coût associé ; à partir du moment où l’on fournit ses données à un service web ou à une application, il faut partir du principe qu’elles ne nous appartiennent plus exclusivement
  • Je me demande pourquoi on ne met pas directement le lien vers l’annonce officielle, plutôt qu’un article récapitulatif généré par IA sur perplexity.ai ; dans l’annonce réelle lien, les points importants sont les suivants : une fenêtre dans l’application informe du changement et permet de choisir l’opt-out, l’opt-out reste accessible à tout moment dans le menu des paramètres, l’entrée en vigueur est prévue le 28 septembre, cela ne s’applique qu’après acceptation des nouvelles conditions et renouvellement de session, et cela ne concerne pas les API/services externes, Claude Gov ni Claude for Education ; le lien vers la source originale est plus utile

    • Si l’opt-out est possible, cela ne me dérange pas trop ; en revanche, je me demande si des applications tierces connectées à l’API Claude, comme JetBrains AI ou Zed, décident de l’opt-in à la place des utilisateurs ; dans les cas fondés sur l’API, ce type d’option d’entraînement ne devrait absolument jamais être activé par opt-in par défaut, et je pense que l’ensemble du secteur devrait adopter cette règle
    • Dans la fenêtre pop-up que j’ai reçue dans l’application, il n’y avait que des boutons et des images, sans aucun texte ; j’ai même inspecté le DOM au cas où ce serait un problème de mode sombre, mais je n’ai trouvé aucun texte ; j’ai cru qu’il s’agissait juste d’une annonce de nouvelle fonctionnalité et je l’ai ignorée ; si je n’étais pas tombé par hasard sur ce récent changement de politique sur Reddit, je n’en aurais rien su ; beaucoup d’utilisateurs, en plus de moi, sont probablement passés à côté
    • Je reconnais que mon commentaire précédent ne collait pas au contexte et je l’ai modifié ; au départ, il pointait vers un lien récapitulant plusieurs articles de perplexity.ai, mais un modérateur l’a justement remplacé par l’annonce originale ; beaucoup de commentaires sont le résultat de jugements hâtifs après avoir seulement survolé le résumé IA ; au contraire, c’est une bonne chose que le lien ait été remplacé par la source d’origine
    • Je pense qu’il est bien préférable de lier la source originale plutôt que plusieurs résumés d’articles