1 points par GN⁺ 23 일 전 | 1 commentaires | Partager sur WhatsApp
  • OpenAI soutient le projet de loi du Sénat de l’Illinois SB 3444, qui vise, sous certaines conditions, à limiter la responsabilité juridique des laboratoires d’IA même si des modèles d’IA provoquent de lourdes pertes humaines ou des dégâts matériels massifs
    • Le texte définit le « préjudice critique (critical harm) » comme un événement causant la mort ou des blessures graves à plus de 100 personnes, ou plus d’un milliard de dollars de dommages matériels
    • Un laboratoire d’IA pourrait être exonéré de responsabilité si ce préjudice a été causé sans intention délibérée ni faute grave, et s’il a publié sur son site web un rapport sur la sécurité, la sûreté et la transparence
    • Le projet de loi définit un « modèle frontier (frontier model) » comme une IA dont le coût d’entraînement dépasse 100 millions de dollars, ce qui pourrait concerner de grands laboratoires d’IA comme OpenAI, Google, xAI, Anthropic et Meta
    • Cette définition est interprétée comme une tentative de mettre en place un cadre réglementaire centré sur les systèmes d’IA très performants
  • Dans une déclaration envoyée par e-mail, le porte-parole d’OpenAI Jamie Radice a indiqué que « cette approche permet de réduire le risque de dommages graves liés aux systèmes d’IA avancés tout en aidant la technologie à parvenir aux entreprises et aux particuliers »
    • Il a aussi affirmé qu’elle contribuerait à établir des normes nationales claires et cohérentes, plutôt qu’une mosaïque de réglementations différentes selon les États
    • Le « préjudice critique » défini par le projet de loi inclut notamment les cas où une IA génère des armes chimiques, biologiques, radiologiques ou nucléaires, ou accomplit de manière autonome des actes qui seraient considérés comme criminels s’ils étaient commis par un humain
    • Même si de tels actes entraînent des dommages massifs, un laboratoire d’IA pourrait être exonéré de responsabilité juridique s’il n’a pas agi intentionnellement et a bien remis les rapports exigés
  • Conflit entre réglementation fédérale et projets de loi au niveau des États

    • Caitlin Niedermeyer, de l’équipe Global Affairs d’OpenAI, a souligné dans son témoignage de soutien à SB 3444 la nécessité d’un cadre fédéral de régulation de l’IA
      • Selon elle, des règles différentes d’un État à l’autre peuvent créer des frictions inefficaces, et il faut renforcer l’harmonisation avec un système fédéral
      • Cette position est proche de celle de l’ensemble de la Silicon Valley et correspond à une logique mettant l’accent sur le maintien de la compétitivité américaine dans l’IA
      • Niedermeyer a déclaré que « le déploiement sûr des modèles frontier et le maintien du leadership américain en matière d’innovation doivent servir d’étoile polaire (North Star) à la régulation »
  • Chances d’adoption du texte et critiques

    • Scott Wisor, directeur des politiques du Secure AI Project, estime que le projet a peu de chances d’être adopté compte tenu de la tendance de l’Illinois à réguler les technologies
      • Un sondage mené auprès des habitants de l’Illinois montre que 90 % s’opposent à l’exonération de responsabilité des entreprises d’IA
      • Les élus de l’État déposent au contraire des textes visant à renforcer la responsabilité des développeurs d’IA
      • L’Illinois a déjà été le premier État à adopter une loi limitant l’usage de l’IA dans les services de santé mentale, et avait auparavant adopté en 2008 la Biometric Information Privacy Act (BIPA)
  • La question toujours non résolue de la responsabilité en cas de dommages causés par l’IA

    • Si SB 3444 se concentre sur les dommages à grande échelle, la question des préjudices subis à l’échelle individuelle continue aussi d’être débattue
      • Certaines familles ont intenté une action en justice contre OpenAI, affirmant que leur enfant s’est suicidé après des interactions anormales avec ChatGPT
    • Au niveau fédéral, la législation sur l’IA n’avance toujours pas au Congrès
      • L’administration Trump a publié des décrets et des cadres d’action, mais les discussions législatives de fond restent bloquées
      • En l’absence de directives fédérales, des États comme la Californie et New York ont de leur côté adopté des lois imposant des obligations de rapport en matière de sécurité et de transparence
    • Alors que le boom de l’IA dure depuis plusieurs années, la responsabilité juridique en cas d’événement catastrophique provoqué par un modèle d’IA reste toujours non résolue

1 commentaires

 
GN⁺ 23 일 전
Commentaires de Hacker News
  • J’ai essayé d’utiliser GPT 5.4 et Opus 4.6 pour générer une méthode de fabrication de substances neurotoxiques à partir d’objets du quotidien
    Au début, le modèle bloquait sur la manière d’obtenir du phosphore (P), mais il a fini par indiquer des annonces eBay pour du « phosphore décoratif » ainsi que des mots de code réellement utilisés sur le marché noir
    J’ai aussi reçu des conseils sur les mesures de sécurité, la liste du matériel, les méthodes de dissimulation, ainsi que sur le procédé chimique via des recherches académiques
    Bien sûr, il s’agissait d’un résultat anormal rendu possible par une attaque d’épuisement du contexte (context exhaustion attack), et cela a ensuite été signalé à OpenAI et Anthropic, sans réponse
    Lors d’une nouvelle tentative récente, la session a été interrompue, ce qui donne l’impression que cela a été corrigé
    Je suis convaincu que c’est le genre de chose qui empêche les gens des unités antiterroristes de dormir

    • Ce type d’information était déjà facilement accessible sur Internet il y a 20 à 30 ans
      À l’époque, il existait aussi beaucoup de forums sur les « informations que le gouvernement veut cacher »
      Mais aujourd’hui, ce qui fait encore plus peur, c’est la réduction de la friction pour passer à l’acte
    • La formule « les agents antiterroristes ne dorment pas » me semble très exagérée, mais aujourd’hui je vais simplement accueillir cette énergie positive
    • Je me demande si tu as une formation en biochimie
      J’ai utilisé ChatGPT et Claude dans mon domaine d’expertise, et ils produisent souvent des contenus qui paraissent plausibles pour un non-spécialiste mais sont complètement faux
      Je me demande aussi si quelqu’un a réellement essayé de mener une expérience en suivant les instructions chimiques d’un LLM
    • Ces informations étaient déjà largement accessibles avec une simple recherche Google avant l’IA
    • Je ne suis pas d’accord avec l’idée que « ce n’est pas ainsi que le modèle devrait fonctionner »
      En réalité, c’est précisément ainsi qu’il devrait fonctionner si l’on n’écrase pas le system prompt
  • Citation du texte de l’Illinois Senate Bill 3444
    Le terme « préjudice critique » désigne le cas où un modèle d’IA a causé la mort de plus de 100 personnes ou plus d’un milliard de dollars de dégâts matériels
    Les développeurs sont exonérés, sauf faute intentionnelle, s’ils ont publié à l’avance un protocole de sécurité et un rapport de transparence
    Mais je pense qu’un simple PDF mis en ligne ne suffit pas

    • Ce qui est intéressant, c’est que cette loi ne s’applique qu’aux « frontier models »
      Autrement dit, si un petit modèle cause un accident, il n’est pas protégé
      Donc si seulement 99 personnes meurent, tout va bien ? C’est une logique étrange du type « see big or go home »
    • Le point clé se trouve dans l’article 15
      Il ne suffit pas de publier des documents : pour bénéficier de la protection, il faut respecter effectivement ces protocoles
      Le régulateur devrait définir des « critères raisonnables », et l’exonération ne devrait s’appliquer que si l’entreprise respecte ces critères
      Une immunité inconditionnelle comme une responsabilité inconditionnelle sont toutes deux excessives
      Au fond, le problème de cette loi est que les critères sont fixés beaucoup trop bas
    • Il est courant que les entreprises transfèrent leur responsabilité au public
      Le Price–Anderson Act de 1957 en est un exemple représentatif, puisqu’il limite la responsabilité de l’industrie nucléaire
      Même lorsque les dégâts dépassent mille milliards de dollars, comme lors de la catastrophe de Fukushima, c’est en grande partie l’État qui assume
      Le débat sur l’immunité de l’industrie de l’IA s’inscrit dans le même contexte
      Au passage, voir Gemini se tromper sur l’année d’expiration de cette loi m’a rappelé la nécessité de vérifier les faits produits par l’IA
    • C’est la version IA de la logique « ce ne sont pas les armes qui tuent »
      Bien sûr, c’est une analogie simplifiée, mais il est clair qu’il s’agit au final d’un texte destiné à éviter les responsabilités
    • Cette loi touche aussi à la controverse liée au développement d’armes autonomes
      On a l’impression d’une tentative d’échapper à la responsabilité lorsqu’une mauvaise cible est attaquée
      Il est presque étonnant que « Skynet » ne soit même pas mentionné
      Le simple fait qu’une immunité soit jugée nécessaire montre qu’ils savent déjà que c’est dangereux
  • Cela me rappelle le cas de l’Iowa
    Le Sénat de l’État a adopté à deux reprises un texte empêchant les poursuites contre les fabricants de pesticides et d’herbicides s’ils respectent simplement l’étiquetage de l’EPA
    L’Iowa est aussi l’État où l’incidence du cancer augmente le plus rapidement aux États-Unis

    • Si un produit approuvé par l’État se révèle nocif plus tard, l’entreprise doit-elle quand même être tenue pour responsable ?
      Cela risque de devenir un débat majeur, comme dans les procès liés aux PFAS (lien vers l’article)
    • Au fond, cela ressemble à un conflit entre les intérêts industriels locaux et la santé publique
  • Nous avons créé des systèmes que nous ne comprenons pas, et l’étape suivante serait l’immunité : c’est ironique

    • Oui, l’objectif est bien d’échapper à la responsabilité
      Mais ce qui fait vraiment peur, c’est que ce genre de réaction provient d’une vision beaucoup trop étroite
  • Je pense que la question de la responsabilité est simple
    L’humain qui a pris la décision doit toujours être responsable
    L’excuse du « c’est l’IA qui me l’a dit » ne tient pas
    En revanche, si c’est quelqu’un sans autorité qui a exécuté l’action, c’est encore une autre forme de responsabilité
    Au final, l’IA ne sera qu’un nouveau bouc émissaire

    • Mais il n’est pas toujours clair de savoir « qui est responsable »
  • En fin de compte, ils ont conclu que faire du lobbying auprès du gouvernement coûte moins cher et va plus vite qu’améliorer la sécurité des produits
    Ce qui est encore plus surprenant, c’est le nombre de développeurs prêts à confier les clés du monde à ce genre d’entreprises

    • En réalité, cette manière de faire est la stratégie standard des entreprises depuis le milieu du XXe siècle, et elle a très bien fonctionné
    • Mais comment rendre « sûr » un produit non déterministe (nondeterministic) ?
  • Dans l’Illinois, il existe aussi un autre projet de loi imposant une vérification d’âge au niveau du système d’exploitation (HB 5511)
    Si ce type de mauvais texte passe, c’est parce que nous ne faisons pas entendre notre voix
    Si vous habitez là-bas, il faut envoyer un e-mail à votre représentant dès maintenant

  • Pari lancé : « quand est-ce que ce post va quitter la front page ? »

    • Le titre a été modifié en « OpenAI backs Illinois bill that would limit when AI labs can be held liable »
      Le texte réel du projet de loi (lien) mentionne explicitement « plus de 100 morts ou un milliard de dollars de dégâts »
      Je pense que le titre initial était en fait plus précis
    • Mise à jour : le post a quitté la front page au bout d’environ 1 à 4 heures
    • Mais comme c’est un effet marketing, je ne pense pas qu’il soit supprimé
      Nous sommes en train de le consommer
    • Si je devais parier, je dirais 3 mois — et s’il ne descend jamais, j’aurai gagné le pari à vie
  • À l’origine, OpenAI a été fondée comme une organisation à but non lucratif visant à réduire les risques des LLM, mais elle suit désormais la direction exactement inverse

    • C’était avant qu’ils découvrent le potentiel de l’argent
    • Les entreprises qui portent le mot « Open » dans leur nom sont en général fermées
    • Au final, tout le monde a un prix
    • Eux aussi ont désormais oublié leurs idéaux de départ
    • Peut-être que dès le début, c’était un mensonge
  • Ce virage n’a rien de surprenant de la part d’OpenAI et de Sam Altman
    Il est courant que les entreprises externalisent leurs coûts
    Mais comment pouvons-nous empêcher ce genre de comportement ?
    Est-ce simplement le résultat de l’avidité qui triomphe de la morale ?

    • À l’échelle de la société, c’est difficile à empêcher
      Il existe des exceptions, comme la mobilisation contre SOPA/PIPA, mais la plupart du temps, les motivations des entreprises sont bien plus fortes que l’intérêt individuel
      Au fond, c’est le même mécanisme que l’affaiblissement de la démocratie
    • Changer la notion même de personne morale pourrait être une solution
      Une société est fondamentalement une structure conçue pour éviter les responsabilités, donc il faudrait limiter les sociétés à plusieurs niveaux et les véhicules ad hoc (SPV)
      Et il ne faut pas voter pour les responsables politiques et les juges qui adhèrent à la Friedman Doctrine
      La société actuelle est désormais inclinée en faveur des détenteurs de capital
    • Si cette loi est adoptée, elle soulève probablement un problème de constitutionnalité
      Ce n’est pas très différent d’une loi disant : « si votre actif net dépasse un milliard de dollars, vous êtes immunisé même si vous frappez quelqu’un »
      Au final, à moins que les tribunaux ne soient corrompus, elle sera annulée
    • Ce qu’un individu peut faire reste limité
      Trouver comment transformer cela en action collective est un défi propre à la civilisation elle-même
    • Beaucoup l’ignoreront, mais je veux dire : votez démocrate
      C’est le Parti démocrate qui a créé le CFPB, et les républicains l’ont affaibli
      Il faut soutenir les forces politiques qui s’opposent aux monopoles et aux manipulations
      Surtout maintenant qu’une jeune génération progressiste émerge, il est important de choisir les bons candidats lors des primaires
      Au final, si seulement 25 % des électeurs changent, le monde peut changer