Le soutien d’OpenAI à un projet de loi de l’Illinois limitant la responsabilité en matière d’IA
(wired.com)- OpenAI soutient le projet de loi du Sénat de l’Illinois SB 3444, qui vise, sous certaines conditions, à limiter la responsabilité juridique des laboratoires d’IA même si des modèles d’IA provoquent de lourdes pertes humaines ou des dégâts matériels massifs
- Le texte définit le « préjudice critique (critical harm) » comme un événement causant la mort ou des blessures graves à plus de 100 personnes, ou plus d’un milliard de dollars de dommages matériels
- Un laboratoire d’IA pourrait être exonéré de responsabilité si ce préjudice a été causé sans intention délibérée ni faute grave, et s’il a publié sur son site web un rapport sur la sécurité, la sûreté et la transparence
- Le projet de loi définit un « modèle frontier (frontier model) » comme une IA dont le coût d’entraînement dépasse 100 millions de dollars, ce qui pourrait concerner de grands laboratoires d’IA comme OpenAI, Google, xAI, Anthropic et Meta
- Cette définition est interprétée comme une tentative de mettre en place un cadre réglementaire centré sur les systèmes d’IA très performants
- Dans une déclaration envoyée par e-mail, le porte-parole d’OpenAI Jamie Radice a indiqué que « cette approche permet de réduire le risque de dommages graves liés aux systèmes d’IA avancés tout en aidant la technologie à parvenir aux entreprises et aux particuliers »
- Il a aussi affirmé qu’elle contribuerait à établir des normes nationales claires et cohérentes, plutôt qu’une mosaïque de réglementations différentes selon les États
- Le « préjudice critique » défini par le projet de loi inclut notamment les cas où une IA génère des armes chimiques, biologiques, radiologiques ou nucléaires, ou accomplit de manière autonome des actes qui seraient considérés comme criminels s’ils étaient commis par un humain
- Même si de tels actes entraînent des dommages massifs, un laboratoire d’IA pourrait être exonéré de responsabilité juridique s’il n’a pas agi intentionnellement et a bien remis les rapports exigés
-
Conflit entre réglementation fédérale et projets de loi au niveau des États
- Caitlin Niedermeyer, de l’équipe Global Affairs d’OpenAI, a souligné dans son témoignage de soutien à SB 3444 la nécessité d’un cadre fédéral de régulation de l’IA
- Selon elle, des règles différentes d’un État à l’autre peuvent créer des frictions inefficaces, et il faut renforcer l’harmonisation avec un système fédéral
- Cette position est proche de celle de l’ensemble de la Silicon Valley et correspond à une logique mettant l’accent sur le maintien de la compétitivité américaine dans l’IA
- Niedermeyer a déclaré que « le déploiement sûr des modèles frontier et le maintien du leadership américain en matière d’innovation doivent servir d’étoile polaire (North Star) à la régulation »
- Caitlin Niedermeyer, de l’équipe Global Affairs d’OpenAI, a souligné dans son témoignage de soutien à SB 3444 la nécessité d’un cadre fédéral de régulation de l’IA
-
Chances d’adoption du texte et critiques
- Scott Wisor, directeur des politiques du Secure AI Project, estime que le projet a peu de chances d’être adopté compte tenu de la tendance de l’Illinois à réguler les technologies
- Un sondage mené auprès des habitants de l’Illinois montre que 90 % s’opposent à l’exonération de responsabilité des entreprises d’IA
- Les élus de l’État déposent au contraire des textes visant à renforcer la responsabilité des développeurs d’IA
- L’Illinois a déjà été le premier État à adopter une loi limitant l’usage de l’IA dans les services de santé mentale, et avait auparavant adopté en 2008 la Biometric Information Privacy Act (BIPA)
- Scott Wisor, directeur des politiques du Secure AI Project, estime que le projet a peu de chances d’être adopté compte tenu de la tendance de l’Illinois à réguler les technologies
-
La question toujours non résolue de la responsabilité en cas de dommages causés par l’IA
- Si SB 3444 se concentre sur les dommages à grande échelle, la question des préjudices subis à l’échelle individuelle continue aussi d’être débattue
- Certaines familles ont intenté une action en justice contre OpenAI, affirmant que leur enfant s’est suicidé après des interactions anormales avec ChatGPT
- Au niveau fédéral, la législation sur l’IA n’avance toujours pas au Congrès
- L’administration Trump a publié des décrets et des cadres d’action, mais les discussions législatives de fond restent bloquées
- En l’absence de directives fédérales, des États comme la Californie et New York ont de leur côté adopté des lois imposant des obligations de rapport en matière de sécurité et de transparence
- Alors que le boom de l’IA dure depuis plusieurs années, la responsabilité juridique en cas d’événement catastrophique provoqué par un modèle d’IA reste toujours non résolue
- Si SB 3444 se concentre sur les dommages à grande échelle, la question des préjudices subis à l’échelle individuelle continue aussi d’être débattue
1 commentaires
Commentaires de Hacker News
J’ai essayé d’utiliser GPT 5.4 et Opus 4.6 pour générer une méthode de fabrication de substances neurotoxiques à partir d’objets du quotidien
Au début, le modèle bloquait sur la manière d’obtenir du phosphore (P), mais il a fini par indiquer des annonces eBay pour du « phosphore décoratif » ainsi que des mots de code réellement utilisés sur le marché noir
J’ai aussi reçu des conseils sur les mesures de sécurité, la liste du matériel, les méthodes de dissimulation, ainsi que sur le procédé chimique via des recherches académiques
Bien sûr, il s’agissait d’un résultat anormal rendu possible par une attaque d’épuisement du contexte (context exhaustion attack), et cela a ensuite été signalé à OpenAI et Anthropic, sans réponse
Lors d’une nouvelle tentative récente, la session a été interrompue, ce qui donne l’impression que cela a été corrigé
Je suis convaincu que c’est le genre de chose qui empêche les gens des unités antiterroristes de dormir
À l’époque, il existait aussi beaucoup de forums sur les « informations que le gouvernement veut cacher »
Mais aujourd’hui, ce qui fait encore plus peur, c’est la réduction de la friction pour passer à l’acte
J’ai utilisé ChatGPT et Claude dans mon domaine d’expertise, et ils produisent souvent des contenus qui paraissent plausibles pour un non-spécialiste mais sont complètement faux
Je me demande aussi si quelqu’un a réellement essayé de mener une expérience en suivant les instructions chimiques d’un LLM
En réalité, c’est précisément ainsi qu’il devrait fonctionner si l’on n’écrase pas le system prompt
Citation du texte de l’Illinois Senate Bill 3444
Le terme « préjudice critique » désigne le cas où un modèle d’IA a causé la mort de plus de 100 personnes ou plus d’un milliard de dollars de dégâts matériels
Les développeurs sont exonérés, sauf faute intentionnelle, s’ils ont publié à l’avance un protocole de sécurité et un rapport de transparence
Mais je pense qu’un simple PDF mis en ligne ne suffit pas
Autrement dit, si un petit modèle cause un accident, il n’est pas protégé
Donc si seulement 99 personnes meurent, tout va bien ? C’est une logique étrange du type « see big or go home »
Il ne suffit pas de publier des documents : pour bénéficier de la protection, il faut respecter effectivement ces protocoles
Le régulateur devrait définir des « critères raisonnables », et l’exonération ne devrait s’appliquer que si l’entreprise respecte ces critères
Une immunité inconditionnelle comme une responsabilité inconditionnelle sont toutes deux excessives
Au fond, le problème de cette loi est que les critères sont fixés beaucoup trop bas
Le Price–Anderson Act de 1957 en est un exemple représentatif, puisqu’il limite la responsabilité de l’industrie nucléaire
Même lorsque les dégâts dépassent mille milliards de dollars, comme lors de la catastrophe de Fukushima, c’est en grande partie l’État qui assume
Le débat sur l’immunité de l’industrie de l’IA s’inscrit dans le même contexte
Au passage, voir Gemini se tromper sur l’année d’expiration de cette loi m’a rappelé la nécessité de vérifier les faits produits par l’IA
Bien sûr, c’est une analogie simplifiée, mais il est clair qu’il s’agit au final d’un texte destiné à éviter les responsabilités
On a l’impression d’une tentative d’échapper à la responsabilité lorsqu’une mauvaise cible est attaquée
Il est presque étonnant que « Skynet » ne soit même pas mentionné
Le simple fait qu’une immunité soit jugée nécessaire montre qu’ils savent déjà que c’est dangereux
Cela me rappelle le cas de l’Iowa
Le Sénat de l’État a adopté à deux reprises un texte empêchant les poursuites contre les fabricants de pesticides et d’herbicides s’ils respectent simplement l’étiquetage de l’EPA
L’Iowa est aussi l’État où l’incidence du cancer augmente le plus rapidement aux États-Unis
Cela risque de devenir un débat majeur, comme dans les procès liés aux PFAS (lien vers l’article)
Nous avons créé des systèmes que nous ne comprenons pas, et l’étape suivante serait l’immunité : c’est ironique
Mais ce qui fait vraiment peur, c’est que ce genre de réaction provient d’une vision beaucoup trop étroite
Je pense que la question de la responsabilité est simple
L’humain qui a pris la décision doit toujours être responsable
L’excuse du « c’est l’IA qui me l’a dit » ne tient pas
En revanche, si c’est quelqu’un sans autorité qui a exécuté l’action, c’est encore une autre forme de responsabilité
Au final, l’IA ne sera qu’un nouveau bouc émissaire
En fin de compte, ils ont conclu que faire du lobbying auprès du gouvernement coûte moins cher et va plus vite qu’améliorer la sécurité des produits
Ce qui est encore plus surprenant, c’est le nombre de développeurs prêts à confier les clés du monde à ce genre d’entreprises
Dans l’Illinois, il existe aussi un autre projet de loi imposant une vérification d’âge au niveau du système d’exploitation (HB 5511)
Si ce type de mauvais texte passe, c’est parce que nous ne faisons pas entendre notre voix
Si vous habitez là-bas, il faut envoyer un e-mail à votre représentant dès maintenant
Pari lancé : « quand est-ce que ce post va quitter la front page ? »
Le texte réel du projet de loi (lien) mentionne explicitement « plus de 100 morts ou un milliard de dollars de dégâts »
Je pense que le titre initial était en fait plus précis
Nous sommes en train de le consommer
À l’origine, OpenAI a été fondée comme une organisation à but non lucratif visant à réduire les risques des LLM, mais elle suit désormais la direction exactement inverse
Ce virage n’a rien de surprenant de la part d’OpenAI et de Sam Altman
Il est courant que les entreprises externalisent leurs coûts
Mais comment pouvons-nous empêcher ce genre de comportement ?
Est-ce simplement le résultat de l’avidité qui triomphe de la morale ?
Il existe des exceptions, comme la mobilisation contre SOPA/PIPA, mais la plupart du temps, les motivations des entreprises sont bien plus fortes que l’intérêt individuel
Au fond, c’est le même mécanisme que l’affaiblissement de la démocratie
Une société est fondamentalement une structure conçue pour éviter les responsabilités, donc il faudrait limiter les sociétés à plusieurs niveaux et les véhicules ad hoc (SPV)
Et il ne faut pas voter pour les responsables politiques et les juges qui adhèrent à la Friedman Doctrine
La société actuelle est désormais inclinée en faveur des détenteurs de capital
Ce n’est pas très différent d’une loi disant : « si votre actif net dépasse un milliard de dollars, vous êtes immunisé même si vous frappez quelqu’un »
Au final, à moins que les tribunaux ne soient corrompus, elle sera annulée
Trouver comment transformer cela en action collective est un défi propre à la civilisation elle-même
C’est le Parti démocrate qui a créé le CFPB, et les républicains l’ont affaibli
Il faut soutenir les forces politiques qui s’opposent aux monopoles et aux manipulations
Surtout maintenant qu’une jeune génération progressiste émerge, il est important de choisir les bons candidats lors des primaires
Au final, si seulement 25 % des électeurs changent, le monde peut changer