1 points par GN⁺ 2025-08-30 | 1 commentaires | Partager sur WhatsApp
  • Si vous utilisez le service Claude d’Anthropic, vos données seront désormais utilisées pour l’entraînement de l’IA
  • Les données saisies par les utilisateurs seront utilisées ultérieurement pour l’entraînement des modèles afin de faire évoluer les systèmes d’IA
  • Les données passées sont exclues ; seules les nouvelles données saisies à l’avenir sont concernées
  • Les données supprimées ou rendues privées ne seront pas utilisées pour l’entraînement
  • Les utilisateurs peuvent choisir l’option de refus (opt-out) via les paramètres

Changement de politique de collecte de données et d’entraînement de l’IA pour Claude

  • Les utilisateurs d’un compte Claude exploité par Anthropic doivent désormais savoir que toutes les données qu’ils saisissent dans le service seront utilisées pour l’entraînement de l’IA
  • Cette politique s’applique aux nouvelles données saisies à l’avenir, et ne concerne pas les données fournies auparavant
  • Les données supprimées par l’utilisateur et les données marquées comme privées ne sont pas incluses dans l’ensemble de données d’entraînement de l’IA en raison d’un traitement distinct
  • Dans ses informations de service, Anthropic indique que les utilisateurs qui le souhaitent peuvent refuser l’utilisation de leurs données pour l’entraînement via le menu des paramètres (opt-out)
  • Une politique équilibrée semble être appliquée entre l’évolution des services d’IA et la protection des données des utilisateurs

1 commentaires

 
GN⁺ 2025-08-30
Commentaires sur Hacker News
  • Honnêtement, ces entreprises ont déjà pillé des téraoctets de données et ne publient même pas leurs jeux de données, donc quoi que j’envoie dans un service, je pars du principe qu’ils vont tout collecter et l’utiliser pour l’entraînement
    • Lire des textes librement publiés sur Internet, c’est devenu du vol maintenant ? Je trouve que c’est une interprétation excessivement sévère du droit de propriété
    • Il n’y a pas besoin de partir d’une hypothèse aussi pessimiste, on ne devrait pas supposer que tout le monde agit avec malveillance, et il faut aussi se méfier du fait que cette manière de penser se généralise
    • Je pense que le commentaire ci-dessus est l’interprétation la plus raisonnable
  • Pour ma part, je partais déjà du principe que toutes les données étaient utilisées pour l’entraînement de l’IA, je me demande si j’étais le seul
    • En 2025, le problème le plus difficile de l’informatique sera probablement de convaincre les gens que « nous n’entraînons pas l’IA sur toutes vos données personnelles ». Honnêtement, je me demande si Anthropic ne s’est pas simplement dit que, puisque personne ne croit que ses données ne sont pas utilisées pour l’entraînement, autant les utiliser. Au contraire, proposer une option que les gens peuvent contrôler eux-mêmes pourrait peut-être renforcer la confiance
    • J’ai du mal à comprendre cet état d’esprit, je ne vois pas pourquoi il faut partir systématiquement de cette hypothèse. Quand j’ai commencé à utiliser Claude, il m’a suffi de quelques minutes pour vérifier les paramètres de confidentialité. Je le fais toujours quand j’utilise un service pour la première fois. Si on part cyniquement du principe que tout est partagé, on finit simplement par ne rien vérifier du tout. Il suffit d’aller dans Paramètres -> Confidentialité pour le voir tout de suite
    • C’est du même ordre que la naïveté de ceux qui croient que supprimer un document des serveurs de Google/META/Apple/Microsoft le fait réellement disparaître. Google a probablement des sauvegardes de toutes les informations qu’il a indexées au cours des vingt dernières années. C’est à un niveau que même Internet Archive pourrait envier
    • Je pensais déjà que les comptes gratuits étaient utilisés pour l’entraînement de l’IA, et que pour les données que je ne voulais vraiment pas laisser, il suffisait de les supprimer du service. Mais inclure aussi les comptes payants et conserver les données pendant 5 ans, ça, je ne comprends pas
    • Bien sûr, certaines personnes croient encore à la valeur fondamentale de la parole donnée dans notre société. Mais quand on voit ces engagements être contournés ou ignorés dès qu’ils deviennent gênants, il n’est pas étonnant qu’un regard cynique se répande. La vraie question, c’est l’effet de cette vision sur les choix réels. Au final, ce qui était autrefois public devient de plus en plus privé. C’est pour ça que j’essaie d’utiliser des versions locales et de construire des choses sur lesquelles j’ai davantage de contrôle
  • J’ai l’impression qu’un jour on découvrira finalement qu’ils ont entraîné leurs modèles sur les données de tout le monde, peu importe qui avait fait un opt-out. J’ai envie de continuer à utiliser Claude, mais je ne veux pas que toutes les solutions que j’invente se diffusent comme du savoir public
    • Quelqu’un demande si une entreprise a déjà ignoré une demande d’opt-out auparavant. On dirait qu’il y a quelque chose en tête derrière cette question
    • Ça ne me dérange pas qu’une entreprise ou une IA s’améliore un peu grâce à mes entrées, mais je n’aime pas que cela soit directement lié à mon nom ou à mes informations. J’aimerais qu’une règle de type Chatham House s’applique (Chatham House Rule : le contenu de la conversation peut être partagé, mais l’identité des intervenants reste anonyme)
    • Je me demande pourquoi vous ne voulez pas partager vos idées. J’aurais tendance à penser qu’un partage direct est préférable à une fuite des données via l’entraînement de l’IA, mais votre formulation me paraît un peu plus tranchée
  • On dirait qu’au final ils manquent de données pour l’entraînement. Je me demande à quel point ils peuvent encore dépendre des données, et quel type de « connaissance » ils peuvent en extraire. Je donne très peu de feedback et j’obtiens surtout de mauvais résultats (5 fois sur 6), et malgré ça je ne vois pas comment ils peuvent juger que ces résultats ont de la valeur
    • Ils pourraient utiliser une méthode comme Google, en considérant que si l’utilisateur clique sur un certain lien et n’effectue pas de recherche supplémentaire, alors le résultat a été utile. Mon silence pourrait aussi être interprété comme un faible signal de satisfaction (même si, bien sûr, cela dépend des habitudes d’utilisation de chacun)
    • Au final, peu importe ce qu’ils utilisent pour l’entraînement, on ne sait pas si cela a une vraie valeur. Même si je reçois une mauvaise réponse et que je ne manifeste pas mon mécontentement, l’entreprise ne s’en souciera probablement pas beaucoup
  • Ça me fait penser au fait que cela arrive juste après la publication de l’AI Safety Index, dont le rapport félicitait Anthropic de ne pas utiliser les données des utilisateurs pour l’entraînement. Ça m’avait justement donné davantage confiance et envie d’utiliser le service
    https://futureoflife.org/ai-safety-index-summer-2025/
  • L’IA moderne repose sur les données. Croire à la promesse que nos conversations ne seront pas utilisées pour l’entraînement, c’est un peu comme confier son plat préféré à un glouton en lui demandant de promettre de ne pas le manger. Cela dit, tant que la conversation ne fuit pas complètement à l’extérieur, ça me va. J’utilise déjà ces services en acceptant cette condition
    • Il ne faut pas normaliser ce genre de pratique. Pour faire respecter les obligations contractuelles et protéger notre vie privée ainsi que nos droits fondamentaux, il faut une véritable application des règles
  • Dans l’app iOS, le pop-up de réglage de l’opt-out s’est affiché immédiatement après la connexion. C’était un peu agaçant, mais la manière de le gérer n’était pas mauvaise
    • Personnellement, j’aimerais qu’un LLM comme Claude devienne plus intelligent grâce à mes conversations et à mon feedback, et je trouve extrêmement frustrant qu’il n’ait pas de mémoire intégrée à long terme par utilisateur ni d’historique de conversation durable. Cela fait 6 mois que je demande à Anthropic une fonction d’opt-in. Bien sûr, je comprends aussi les enjeux de confidentialité. Mais dans mon domaine d’expertise (recherche cognitive, génétique, neurophilosophie), j’ai besoin que Claude devienne plus intelligent, et j’aimerais partager ce que je sais pour obtenir un véritable partenaire de réflexion
  • Difficile à croire, c’est un problème éthique en matière de confidentialité comparable aux décisions tristement célèbres de Meta. C’est vraiment un très mauvais déploiement. Cette fenêtre modale s’est affichée telle quelle dans une conversation existante. Je n’ai jamais autorisé l’utilisation de mes données, de mes idées, de mon salaire ou de mes antécédents familiaux, et je crains que la com’ ne réponde ensuite : « vous aviez pourtant accepté via la fenêtre modale, non ? »
    https://imgur.com/afqMi0Z
  • Je ne sais pas quelles données ils ont utilisées pour l’entraînement, mais j’ai résilié Claude pour la deuxième fois. Les bugs d’interface du web, les clignotements incessants m’énervent aussi, et récemment les réponses de l’IA sont devenues excessivement négatives et arrogantes, ce que je n’avais jamais vu auparavant ni avec d’autres LLM. Ils ont sans doute essayé d’ajuster le modèle après les critiques sur son ton trop flatteur, et ils se sont ratés. Maintenant il extrapole sur mon comportement et me critique au-delà du contexte technique. Quand j’utilise Gemini, il part toujours du principe que je suis en colère contre la réponse, mais au moins ce n’est pas impoli. Du coup je suis revenu à chatgpt et je continue mes tests comparatifs
    • Les power users ont besoin de réglages ajustables comme avec une API (flatterie / sécurité / désactivation du mode protection des enfants, etc.). Ce serait encore mieux avec un interrupteur de déverrouillage, comme sur un micro-ondes
  • Il y a un post similaire ici
    • Au moins, ce post-ci a de la valeur parce qu’il inclut le texte intégral de l’annonce réellement envoyée par Anthropic. Le résumé fourni par Perplexity est peut-être plus agréable à lire pour les non-spécialistes