Le soutien d’OpenAI à un projet de loi de l’Illinois limitant la responsabilité en matière d’IA
(wired.com)- OpenAI soutient le projet de loi du Sénat de l’Illinois SB 3444, qui vise, sous certaines conditions, à limiter la responsabilité juridique des laboratoires d’IA même si des modèles d’IA provoquent de lourdes pertes humaines ou des dégâts matériels massifs
- Le texte définit le « préjudice critique (critical harm) » comme un événement causant la mort ou des blessures graves à plus de 100 personnes, ou plus d’un milliard de dollars de dommages matériels
- Un laboratoire d’IA pourrait être exonéré de responsabilité si ce préjudice a été causé sans intention délibérée ni faute grave, et s’il a publié sur son site web un rapport sur la sécurité, la sûreté et la transparence
- Le projet de loi définit un « modèle frontier (frontier model) » comme une IA dont le coût d’entraînement dépasse 100 millions de dollars, ce qui pourrait concerner de grands laboratoires d’IA comme OpenAI, Google, xAI, Anthropic et Meta
- Cette définition est interprétée comme une tentative de mettre en place un cadre réglementaire centré sur les systèmes d’IA très performants
- Dans une déclaration envoyée par e-mail, le porte-parole d’OpenAI Jamie Radice a indiqué que « cette approche permet de réduire le risque de dommages graves liés aux systèmes d’IA avancés tout en aidant la technologie à parvenir aux entreprises et aux particuliers »
- Il a aussi affirmé qu’elle contribuerait à établir des normes nationales claires et cohérentes, plutôt qu’une mosaïque de réglementations différentes selon les États
- Le « préjudice critique » défini par le projet de loi inclut notamment les cas où une IA génère des armes chimiques, biologiques, radiologiques ou nucléaires, ou accomplit de manière autonome des actes qui seraient considérés comme criminels s’ils étaient commis par un humain
- Même si de tels actes entraînent des dommages massifs, un laboratoire d’IA pourrait être exonéré de responsabilité juridique s’il n’a pas agi intentionnellement et a bien remis les rapports exigés
-
Conflit entre réglementation fédérale et projets de loi au niveau des États
- Caitlin Niedermeyer, de l’équipe Global Affairs d’OpenAI, a souligné dans son témoignage de soutien à SB 3444 la nécessité d’un cadre fédéral de régulation de l’IA
- Selon elle, des règles différentes d’un État à l’autre peuvent créer des frictions inefficaces, et il faut renforcer l’harmonisation avec un système fédéral
- Cette position est proche de celle de l’ensemble de la Silicon Valley et correspond à une logique mettant l’accent sur le maintien de la compétitivité américaine dans l’IA
- Niedermeyer a déclaré que « le déploiement sûr des modèles frontier et le maintien du leadership américain en matière d’innovation doivent servir d’étoile polaire (North Star) à la régulation »
- Caitlin Niedermeyer, de l’équipe Global Affairs d’OpenAI, a souligné dans son témoignage de soutien à SB 3444 la nécessité d’un cadre fédéral de régulation de l’IA
-
Chances d’adoption du texte et critiques
- Scott Wisor, directeur des politiques du Secure AI Project, estime que le projet a peu de chances d’être adopté compte tenu de la tendance de l’Illinois à réguler les technologies
- Un sondage mené auprès des habitants de l’Illinois montre que 90 % s’opposent à l’exonération de responsabilité des entreprises d’IA
- Les élus de l’État déposent au contraire des textes visant à renforcer la responsabilité des développeurs d’IA
- L’Illinois a déjà été le premier État à adopter une loi limitant l’usage de l’IA dans les services de santé mentale, et avait auparavant adopté en 2008 la Biometric Information Privacy Act (BIPA)
- Scott Wisor, directeur des politiques du Secure AI Project, estime que le projet a peu de chances d’être adopté compte tenu de la tendance de l’Illinois à réguler les technologies
-
La question toujours non résolue de la responsabilité en cas de dommages causés par l’IA
- Si SB 3444 se concentre sur les dommages à grande échelle, la question des préjudices subis à l’échelle individuelle continue aussi d’être débattue
- Certaines familles ont intenté une action en justice contre OpenAI, affirmant que leur enfant s’est suicidé après des interactions anormales avec ChatGPT
- Au niveau fédéral, la législation sur l’IA n’avance toujours pas au Congrès
- L’administration Trump a publié des décrets et des cadres d’action, mais les discussions législatives de fond restent bloquées
- En l’absence de directives fédérales, des États comme la Californie et New York ont de leur côté adopté des lois imposant des obligations de rapport en matière de sécurité et de transparence
- Alors que le boom de l’IA dure depuis plusieurs années, la responsabilité juridique en cas d’événement catastrophique provoqué par un modèle d’IA reste toujours non résolue
- Si SB 3444 se concentre sur les dommages à grande échelle, la question des préjudices subis à l’échelle individuelle continue aussi d’être débattue
Aucun commentaire pour le moment.