- Le projet open source chardet v7.0.0 a entièrement réécrit son code à l’aide d’un outil d’IA et a changé de licence de la LGPL vers la MIT
- L’auteur original affirme que le processus pourrait constituer une violation de la GPL, en soulignant que le résultat généré par une IA entraînée sur le code d’origine n’est pas une « implémentation en clean room »
- Dans l’approche clean room traditionnelle, deux équipes doivent être séparées, mais l’IA contourne cette barrière, ce qui place au centre du débat la question de savoir s’il s’agit d’une œuvre dérivée
- En parallèle, la Cour suprême des États-Unis ne reconnaît pas le droit d’auteur sur les créations générées par l’IA, ce qui rend flous la propriété du nouveau code et la validité de sa licence
- Si ce type de cas est reconnu, cela soulève le risque d’affaiblir tout le système du Copyleft
Réécriture du projet chardet par l’IA et changement de licence
- La bibliothèque Python de détection d’encodage de caractères chardet était à l’origine un portage du code C++ de Mozilla et était donc liée à la LGPL
- Cela créait une incertitude juridique pour les entreprises utilisatrices
- Les mainteneurs ont utilisé Claude Code pour réécrire l’ensemble du code et ont distribué v7.0.0 sous licence MIT
- L’auteur original a2mark affirme que cette décision constitue une violation de la LGPL
- Selon lui, le code modifié doit toujours rester sous LGPL, et l’argument d’une « réécriture complète » est invalide puisqu’il s’agit d’un résultat généré après exposition au code source original
- Il précise que la génération de code par IA n’accorde aucun droit supplémentaire
Implémentation en clean room et contournement par l’IA
- Une réécriture clean room (clean room rewrite) traditionnelle repose sur deux équipes
- L’équipe A analyse le code d’origine et rédige une spécification fonctionnelle
- L’équipe B écrit un nouveau code à partir de la seule spécification, sans voir l’original
- Mais lorsqu’une IA génère du code après avoir reçu le code LGPL d’origine en entrée, cette séparation procédurale disparaît
- Si l’IA a appris à partir du code d’origine pour produire son résultat, celui-ci peut être considéré comme une œuvre dérivée soumise à la LGPL
Décision de la Cour suprême américaine et paradoxe juridique
- Le 2 mars 2026, la Cour suprême des États-Unis a rejeté le recours portant sur la reconnaissance du droit d’auteur des créations générées par l’IA
- La décision de la juridiction inférieure sur l’exigence d’un auteur humain (Human Authorship) est donc maintenue
- En conséquence, les mainteneurs de chardet se retrouvent face à trois contradictions juridiques
- Vide en matière de droit d’auteur : si les créations générées par l’IA ne bénéficient pas de la protection du droit d’auteur, il n’existe pas de base légale pour les relicencier en MIT
- Piège des œuvres dérivées : si la sortie de l’IA est une œuvre dérivée du code LGPL d’origine, il y a violation de licence
- Vide de propriété : si l’IA a généré un code entièrement nouveau, celui-ci entrerait immédiatement dans le domaine public, rendant la licence MIT elle-même dénuée de sens
Impact potentiel sur le système du Copyleft
- Si la modification de licence via une réécriture par IA est admise, les fondements mêmes du Copyleft pourraient s’effondrer
- N’importe qui pourrait donner un projet GPL à un LLM en lui demandant de « le réécrire dans un autre style », puis le distribuer sous licence MIT
- Le cas de chardet v7.0.0 est considéré comme le premier exemple concret mettant réellement à l’épreuve ces frontières juridiques et éthiques
Aucun commentaire pour le moment.