1 points par GN⁺ 2025-09-30 | 1 commentaires | Partager sur WhatsApp
  • Le gouverneur de Californie a signé une loi renforçant la transparence de l’IA
  • Cette loi définit des normes de transparence pour le développement et l’utilisation des systèmes d’IA
  • Les entreprises ont désormais l’obligation de divulguer des informations sur le processus décisionnel de l’IA et ses impacts
  • L’objectif principal est la protection des consommateurs et le renforcement de la responsabilité en cas d’usage abusif de l’IA
  • L’entrée en vigueur de la loi pose les bases d’un renforcement de la régulation du secteur de l’IA et du développement éthique

Aperçu de la loi californienne sur la transparence de l’IA

  • Le gouverneur de Californie a officiellement signé une nouvelle loi visant à renforcer la transparence de l’IA
  • Cette loi exige que les entreprises et les institutions divulguent des informations liées au processus décisionnel lorsqu’elles développent ou utilisent des systèmes d’IA
  • Parmi les points clés, elle établit une obligation d’explication sur les données et critères utilisés par l’IA pour parvenir à une conclusion, ainsi que sur les impacts potentiels du système
  • Elle met en place des mécanismes de transparence afin que les consommateurs utilisant des services ou produits fondés sur l’IA puissent savoir qu’ils ont été affectés par une décision algorithmique
  • En définitive, cette loi vise à renforcer la responsabilité du secteur de l’IA, tout en prévenant les usages abusifs de l’IA et en rétablissant la confiance des consommateurs
  • Avec l’application de cette loi, la Californie devrait s’imposer comme un État leader aux États-Unis en matière d’éthique et de régulation de l’IA

1 commentaires

 
GN⁺ 2025-09-30
Avis sur Hacker News
  • S'il s'agit d'un problème du monde réel, je me demande si ce texte empêchera que ma propriété intellectuelle (IP) soit utilisée sans autorisation par des LLM
    • L'objectif principal de ce texte est de fournir un cadre de base permettant d'avoir des discussions fondées sur des données réelles. Il exige donc des entreprises technologiques qu'elles publient des plans de sécurité, des rapports de transparence et l'historique des incidents. C'est aussi pour cela que l'amende a été fixée à seulement 10 000 dollars. Une régulation globale de l'IA serait prématurée à ce stade, et la Californie n'est pas l'entité qui régit le droit d'auteur américain
    • Il ordonne au gouvernement d'élaborer un cadre pour le développement d'un cluster public de calcul. Il y a de fortes chances que ce texte profite largement à certains prestataires publics, et historiquement, je pense que cela peut aussi conduire à des attributions de gré à gré profitant à certaines personnes. Voir l'article associé : éditorial du Sacramento Bee
    • Il comprend des dispositions de protection des lanceurs d'alerte. Cela pourrait permettre de révéler des actes illégaux
    • On peut déjà s'en protéger de la même manière que contre les violations de propriété intellectuelle commises par des humains
    • Au final, ce texte règle un problème bien réel : donner plus d'argent aux fonctionnaires
  • J'ai trouvé un site web où l'on peut consulter le texte réel de la loi et ses annotations : https://sb53.info/
    • Si l'on regarde la définition de « modèle d'intelligence artificielle », cela couvre tout système non biologique basé sur une machine, avec des niveaux d'autonomie variables, capable de produire des sorties à partir d'entrées et d'influencer un environnement physique ou virtuel. Autrement dit, même une simple tondeuse pourrait être incluse, puisqu'il existe une relation entre ses entrées (accélérateur, coupe-circuit) et ses sorties (lames rotatives). La définition de « risque critique » indique un risque pouvant entraîner la mort ou des blessures graves pour au moins 50 personnes, ou plus d'un milliard de dollars de pertes ; or, chaque année, le nombre de personnes blessées par des tondeuses dépasse déjà cela
  • À la lecture du texte, cela ressemble à une faveur faite à l'industrie de la « sécurité de l'IA ». Les certifications de conformité vont être très bien rémunérées
    • Dans les Big Four, des associés boomers empêchent la séparation des activités de conseil, et cette loi sur l'IA va leur offrir une nouvelle source de revenus. Je pense surtout que Deloitte va en tirer un gros bénéfice cette fois
    • La personne qui a écrit le commentaire ci-dessus travaille dans une grande entreprise de développement d'IA. Son opposition à la régulation de l'IA est donc étroitement liée à son salaire. Il y a aussi une tendance à tourner en ridicule la « sécurité de l'IA ». Dans de nombreux secteurs de la Silicon Valley, la culture de la sécurité est peu développée. Le manque d'efficacité de la régulation est un problème, mais il faut aussi considérer les problèmes qui surgissent en l'absence totale de régulation. Il faut également dénoncer les malversations internes du secteur, les ristournes et les ententes
  • Le texte précise que, pour une violation intentionnelle entraînant « décès, blessures graves ou risque critique », l'amende est de 1 million de dollars pour une première infraction, puis jusqu'à 10 millions ensuite. Pour les violations non intentionnelles (erreurs, etc.), il n'y a pas d'amende même si elles créent ce risque. Les amendes n'ont qu'un plafond, sans plancher. Autrement dit, 0 dollar satisfait aussi la clause « jusqu'à 10 millions de dollars »
  • Donc on peut causer 1 milliard de dollars de dommages et n'être condamné qu'à 10 millions d'amende ? Idem pour des dommages « critiques ». Pour moi, ce n'est pas une régulation. Même si OpenAI paie ses ingénieurs 1 million de dollars par an, une amende de 10 000 dollars, ou même de 1 million ou 10 millions, n'a aucun effet dissuasif
  • À en juger par la discussion, ce texte ne signifie rien tout en fournissant en même temps un motif de géoblocage envers la Californie. Il en fait beaucoup trop, tout en en faisant trop peu. Il est à la fois coûteux et peu coûteux. C'est un exemple de corruption et en même temps un premier pas vers la régulation de l'IA. Les entreprises d'IA pourraient quitter la Californie, ou au contraire y venir davantage puisque le niveau de régulation est bas. S'il existe une discussion réellement plus approfondie, j'aimerais avoir le lien
    • Tous les résultats sont possibles ; je pense que tout dépendra de la manière dont le gouvernement et les tribunaux l'interpréteront et l'appliqueront dans les faits. Le texte est tellement vague qu'il peut devenir un marteau, ou n'avoir absolument aucun effet
  • À mon avis, cela aurait dû être encadré à l'avance par une loi fédérale. Mais les définitions de ce texte sont beaucoup trop laxistes. En particulier, la définition de « modèle d'intelligence artificielle » inclut en pratique presque toutes les machines et tous les algorithmes. On dirait que cette définition a été écrite après avoir regardé La Quatrième Dimension et en se préparant au cas où un androïde avec un coucou sortirait d'une horloge
  • Je me demandais comment la Californie allait définir l'IA ; pour l'instant, cela ressemble davantage à un terme marketing. Ici, elle est définie comme un système non biologique qui reçoit des entrées et produit des sorties
    • Les deux réactions à ce commentaire sont amusantes : « il n'existe aucune technologie réelle correspondant à cette définition », et « donc, ma cafetière ? »
    • Mon avis diffère de celui ci-dessus. Il n'existe pas de technologie réelle correspondant à cette définition. L'IA ne peut pas « raisonner » quoi que ce soit à partir d'entrées. De la même manière, rien n'a non plus démontré que les humains le font
    • Donc ma cafetière entre aussi dans la définition, non ?
  • En un mot, c'est « davantage de censure via davantage de procédure ». À voir ce qu'exige le texte, les entreprises doivent documenter leurs protocoles de sécurité et d'atténuation des risques, puis le gouvernement définit ce qui est dangereux et le privé met en place des systèmes de filtrage en conséquence. Cela revient à une censure préalable contraire au Premier amendement de la Constitution américaine. La Cour suprême fédérale a déjà clairement établi que seuls l'incitation directe à la violence (jurisprudence Brandenburg) et quelques cas exceptionnels (pornographie infantile, menaces crédibles) sont admis. Le fait qu'une technologie soit nouvelle ne devrait pas donner à l'État le droit de créer de nouvelles catégories de discours à risque. Si une IA fournit des informations de niveau expert sur la conception d'armes ou l'aide à des activités criminelles, il faut le signaler au gouvernement et fournir aussi des mesures d'atténuation. Aujourd'hui, c'est le « risque critique », demain cela pourra devenir la « désinformation », le « discours de haine », etc. Dès lors que l'État impose des restrictions de contenu au nom de la sécurité, la justification logique s'effondre
    • En vertu du 18 USC § 842, fournir des informations utilisables pour commettre un crime, comme un mode d'emploi pour fabriquer des explosifs, est déjà une infraction. Il existe un équilibre entre liberté d'expression et probabilité d'un préjudice réel. L'IA n'est pas un sujet titulaire de la liberté d'expression ; l'État peut donc la réguler. Affirmer qu'exiger des entreprises qu'elles filtrent les sorties de l'IA constitue une censure préalable repose sur l'idée que ces entreprises ne peuvent pas contrôler la « parole » de leur IA. Ce raisonnement ne tient pas. Un générateur de phrases combinées aléatoirement ne bénéficie pas d'une protection simplement parce qu'il est hébergé sur mon infrastructure en ligne. Appliquer l'argument de la liberté d'expression à la censure de l'IA n'est pas approprié
    • Les LLM n'ont pas de droits. Les LLM sont des outils, et l'État peut réguler les outils. Même si l'on partage ces idées, une personne pourrait tout aussi bien publier directement des instructions de fabrication d'armes sur le blog de son entreprise
    • « Aujourd'hui le risque critique, demain la désinformation, le discours de haine, etc. » C'est précisément là le problème. Moi, je m'inquiète davantage des risques du quotidien que des risques critiques. Même si un LLM fournit des informations nuisibles, ce ne sont au fond que des résumés d'informations déjà publiquement disponibles en ligne. La société américaine est déjà pleine de discours de haine, et ce n'est pas un problème nouveau. Le vrai problème, c'est plutôt la « désinformation ». Les LLM à grande échelle lisent Internet puis y ajoutent une aura d'autorité, ce qui fait peser la puissance de Google ou de MS sur des informations non vérifiées. Une bonne approche serait que les LLM répondent sous la forme « Y a affirmé X ». La question de la « sécurité » consiste le plus souvent à bloquer les contenus pour adultes, ce qui me semble déjà peu pertinent à l'ère de Pornhub. Les vrais sujets qui demandent un débat sont les services sur mesure fournis à des fins commerciales pour tromper les clients ou les éviter. Cela devrait être traité sous l'angle des droits des consommateurs. Un autre problème est le cas où l'IA agit comme mon supérieur hiérarchique, par exemple chez Uber
    • En observant l'évolution des réseaux sociaux au cours des quinze dernières années, on en a tiré la leçon que l'évaluation rapide des risques et la réaction sont arrivées beaucoup trop tard. Les réseaux sociaux ont déjà accumulé une influence politique telle qu'une régulation effective est presque impossible. J'espère qu'on ne refera pas la même erreur avec l'IA générative