- Si vous utilisez le service Claude d’Anthropic, vos données seront désormais utilisées pour l’entraînement de l’IA
- Les données saisies par les utilisateurs seront utilisées ultérieurement pour l’entraînement des modèles afin de faire évoluer les systèmes d’IA
- Les données passées sont exclues ; seules les nouvelles données saisies à l’avenir sont concernées
- Les données supprimées ou rendues privées ne seront pas utilisées pour l’entraînement
- Les utilisateurs peuvent choisir l’option de refus (opt-out) via les paramètres
Changement de politique de collecte de données et d’entraînement de l’IA pour Claude
- Les utilisateurs d’un compte Claude exploité par Anthropic doivent désormais savoir que toutes les données qu’ils saisissent dans le service seront utilisées pour l’entraînement de l’IA
- Cette politique s’applique aux nouvelles données saisies à l’avenir, et ne concerne pas les données fournies auparavant
- Les données supprimées par l’utilisateur et les données marquées comme privées ne sont pas incluses dans l’ensemble de données d’entraînement de l’IA en raison d’un traitement distinct
- Dans ses informations de service, Anthropic indique que les utilisateurs qui le souhaitent peuvent refuser l’utilisation de leurs données pour l’entraînement via le menu des paramètres (opt-out)
- Une politique équilibrée semble être appliquée entre l’évolution des services d’IA et la protection des données des utilisateurs
1 commentaires
Commentaires sur Hacker News
https://futureoflife.org/ai-safety-index-summer-2025/
https://imgur.com/afqMi0Z