- GitHub prévoit d’utiliser le code et les données des dépôts privés pour l’entraînement de modèles d’IA
- Les utilisateurs doivent refuser explicitement (opt-out) avant le 24 avril pour empêcher l’utilisation de leurs données
- En l’absence de refus, des informations de projets privés peuvent être incluses dans les données d’entraînement
- Cette politique est liée à la collecte de données visant à améliorer les fonctionnalités d’IA comme GitHub Copilot
- Les développeurs doivent vérifier leurs paramètres afin de protéger la confidentialité et la sécurité du code
Changement de politique de GitHub sur les données d’entraînement de l’IA
- GitHub a modifié sa politique afin de pouvoir inclure les données des dépôts privés dans l’entraînement pour améliorer ses modèles d’IA
- Si l’utilisateur ne refuse pas séparément, les données seront utilisées automatiquement
- Le refus peut être effectué directement depuis la page des paramètres de GitHub
- Les données d’entraînement peuvent inclure du code privé, des métadonnées de projet et l’historique des commits
- Cette mesure est présentée comme destinée à améliorer la qualité de Copilot et d’autres fonctionnalités d’IA
Impact pour les développeurs
- Si les dépôts privés sont utilisés pour l’entraînement, il existe un risque d’exposition de code sensible ou de logique interne
- Les entreprises comme les développeurs individuels doivent examiner leurs politiques de sécurité et effectuer la procédure d’opt-out
- Ce changement chez GitHub pourrait relancer le débat sur la transparence des données d’entraînement de l’IA et le contrôle laissé aux utilisateurs
Aucun commentaire pour le moment.