3 points par GN⁺ 2025-07-24 | 1 commentaires | Partager sur WhatsApp
  • Le gouvernement américain a annoncé le « Plan d’action national pour l’IA (AAIAP) » afin d’assurer un développement et un usage de l’intelligence artificielle (IA) sûrs et responsables
  • Il présente cinq grands objectifs stratégiques, dont l’augmentation des investissements en recherche et développement sur l’IA, la garantie de la fiabilité et de la responsabilité, la formation des talents, le renforcement de l’accès aux infrastructures et aux données, ainsi que la coopération mondiale
  • L’accent est mis sur la mise en place d’un cadre juridique et politique visant à permettre à l’IA d’apporter des bénéfices sociaux et économiques tout en minimisant les risques
  • Le plan souligne des mesures pour prévenir les usages abusifs militaires et non militaires de l’IA, protéger l’éthique et les droits humains, et servir la sécurité nationale ainsi que l’intérêt public
  • Il vise à faire progresser à la fois l’innovation en IA et l’établissement de normes via une coopération entre le public et le privé

Aperçu du plan d’action national pour l’IA

  • L’administration américaine estime qu’une stratégie globale à l’échelle nationale est nécessaire compte tenu de l’impact des technologies d’IA sur l’ensemble de la société
  • Elle définit une orientation politique visant à atteindre simultanément deux objectifs : encourager l’innovation et maîtriser les risques

1. Renforcement des investissements en R&D sur l’IA et des infrastructures

  • Les États-Unis augmentent les investissements fédéraux en R&D pour favoriser le développement de l’IA et le renforcement de la compétitivité mondiale
  • Le pays prévoit d’étendre les infrastructures publiques nécessaires à la recherche en IA, comme le supercalcul, les jeux de données de haute qualité et les outils open source
  • Des opportunités d’accès aux données et aux ressources de calcul seront proposées aux chercheurs, aux startups et aux groupes minoritaires
  • Au niveau national, un soutien prioritaire sera accordé à la recherche sur les applications de l’IA dans certains secteurs comme la santé, le climat, l’agriculture et l’énergie
  • Les investissements en R&D interdisciplinaires seront renforcés dans des domaines comme les sciences fondamentales, la fiabilité, la sécurité et l’IA éthique

2. Construction d’un écosystème de l’IA fiable et responsable

  • Le gouvernement définira des normes de transparence, de sécurité et d’explicabilité de l’IA, puis favorisera leur diffusion dans le secteur privé
  • L’équité de l’IA (non-discrimination, réduction des inégalités), la protection de la vie privée et le respect de l’éthique seront garantis par des dispositifs juridiques et institutionnels
  • Les systèmes de test et de validation seront renforcés avant l’usage réel, notamment pour l’évaluation des risques algorithmiques et l’analyse d’impact
  • Des régulations et contrôles supplémentaires seront introduits pour les usages de l’IA à haut risque (ex. : santé, finance, sécurité publique)
  • Des procédures rapides pour établir les responsabilités et offrir des recours en cas de défaillance ou de mésusage de l’IA seront mises en place

3. Développement des talents et de la main-d’œuvre en IA

  • L’éducation à la culture de l’IA sera renforcée à tous les niveaux, de l’école primaire à l’université, ainsi que dans la formation des adultes
  • Le soutien sera élargi afin que les élèves issus de milieux défavorisés ou de régions vulnérables puissent eux aussi participer à l’enseignement de l’IA
  • Les programmes de formation de docteurs et d’experts en IA, ainsi que de reconversion et de montée en compétences des professionnels en activité, seront étendus
  • Le renforcement des compétences en IA au sein du gouvernement et des organismes publics sera soutenu, de même que les échanges et la coopération avec les talents du secteur privé et de l’industrie
  • Le plan inclut aussi des mesures concernant l’attraction des talents en IA, la politique migratoire et le recrutement de talents étrangers

4. Élargissement de l’accès aux données et aux infrastructures

  • Des politiques seront mises en place pour garantir l’obtention, le partage et l’usage de données de haute qualité, équitables et sûres
  • L’ouverture des données publiques sera accompagnée de leur articulation avec les données privées et de la garantie de l’interopérabilité
  • Les critères relatifs à la confidentialité des données, à la sécurité et à l’éthique seront clarifiés
  • Le partage d’infrastructures comme le supercalcul et le cloud sera soutenu au bénéfice des chercheurs et développeurs en IA, des entreprises, des écoles et des organisations à but non lucratif
  • Les cadres de normalisation des données, de gestion de la qualité et de gouvernance des données seront renforcés

5. Gouvernance mondiale de l’IA et coopération internationale

  • Les États-Unis entendent jouer un rôle moteur dans l’établissement de standards et de normes mondiaux relatifs à l’éthique, à la sécurité et à la fiabilité de l’IA
  • La coopération en matière de politiques, de technologies et de recherche sera renforcée avec le G7, l’OCDE, l’ONU et les pays alliés
  • Une solidarité internationale sera construite pour empêcher la militarisation de l’IA, la surveillance et les usages abusifs autoritaires
  • Les efforts en faveur de la standardisation mondiale de l’IA, de l’interopérabilité et de la portabilité des données seront poursuivis
  • Le développement des capacités en IA et l’aide internationale en faveur des pays moins développés ou fragiles seront renforcés

Mise en œuvre et mécanismes de suivi

  • L’Office of Science and Technology Policy (OSTP) de la Maison-Blanche pilotera l’ensemble de la stratégie
  • Chaque ministère (défense, commerce, éducation, énergie, santé, etc.) élaborera et mettra en œuvre des plans d’exécution détaillés
  • La participation des parties prenantes sera garantie via des instances de concertation public-privé, des groupes d’experts et des consultations citoyennes
  • Des feuilles de route détaillées par objectif, des indicateurs de performance ainsi qu’un dispositif de contrôle et de rapport périodique seront mis en place
  • Le processus d’exécution des politiques devra renforcer la transparence, l’inclusivité et la responsabilité

Conclusion et défis à venir

  • Le plan poursuit simultanément deux objectifs : accélérer l’innovation en IA et réduire les risques au minimum
  • Il souligne qu’avec l’évolution technologique, la définition de normes éthiques, juridiques et sociales est indispensable
  • Le leadership mondial, la coopération internationale, la formation des talents et le renforcement de la régulation et de la gouvernance figurent parmi les enjeux clés à moyen et long terme
  • La réussite de cette politique dépendra de la mise en place de régulations concrètes, d’un suivi continu et d’une participation active de l’ensemble de la société

1 commentaires

 
GN⁺ 2025-07-24
Avis sur Hacker News
  • Il est évident que l’IA est un domaine extrêmement important pour la croissance économique, mais je veux aussi souligner que l’énergie propre l’est tout autant. Les deux secteurs sont actuellement à un tournant décisif. Pourtant, alors que les États-Unis cherchent à prendre de l’avance dans l’IA, ils se comportent dans l’énergie comme s’il ne se passait rien et refusent d’affronter la réalité. Cette attitude risque de conduire, dans les 20 prochaines années, à une perte du leadership économique américain dans l’énergie au profit d’autres pays. Plus grave encore, la position actuelle du gouvernement pousse les entreprises énergétiques américaines à s’accrocher aux méthodes existantes, au point qu’elles pourraient faire faillite dans 10 à 20 ans. À ce moment-là, les États-Unis pourraient se retrouver contraints de les renflouer pour des raisons stratégiques

  • C’est bien de voir qu’ils encouragent l’open source et l’IA open-weight. J’ai surtout trouvé marquant qu’ils aient clairement précisé que l’open-weight et l’open source ne sont pas la même chose

    • Sans véritable soutien, notamment financier, le simple fait que le gouvernement « encourage » cela n’a pas beaucoup de sens concret. En lisant la section concernée du document (voir le PDF), on constate qu’il n’y a presque rien à ce sujet

    • Je me demande comment l’objectif principal de garantir la suprématie américaine peut être compatible avec une politique open-weight. Une fois les weights publiés, n’importe qui peut utiliser cette technologie

    • Je me demande comment l’intérêt du gouvernement pour des modèles « équitables » s’articule avec une politique open source. En particulier, la notion de « justice » telle que l’entend le gouvernement me paraît plutôt inquiétante

    • C’est une politique sans grande signification

    • Toutes ces politiques découlent au fond d’un désir de contrôle. Il n’y a pas de réel intérêt pour le bénéfice mutuel, l’exactitude ou la précision ; le but est de permettre à ceux qui détiennent le pouvoir de contrôler les weights ouverts et le code source afin d’empêcher les idées, les questions ou la pensée libre non approuvées

  • Personnellement, le point le plus important est qu’ils ont adopté une position forte sur les modèles d’IA open source et open-weight. Cette position entre en conflit avec certaines autres régulations comme l’EU AI Act. L’EU AI Act n’interdit pas non plus les modèles open-weight, mais même s’il prévoit une exception pour les projets en dessous de 10²⁵ FLOPS, il crée tout de même un environnement réglementaire assez lourd pour les projets ouverts décentralisés

    • Quand on regarde la section « recommandations de politique », on voit surtout des paroles sans contenu concret

    • Cela semble davantage axé sur l’énergie non renouvelable et une idéologie imposée par le gouvernement que sur l’open source et les énergies renouvelables. Je ne sais pas si cette lecture relève d’un optimisme naïf ou d’un refus de voir la réalité

  • Dans la partie sur l’énergie, le fait qu’ils parlent d’alimenter l’IA avec la fusion nucléaire tout en ne mentionnant pas le solaire ressemble à une plaisanterie

    • Techniquement, on pourrait aussi dire que l’énergie solaire est, au sens large, de l’énergie de fusion venue de l’espace et transmise sous forme de photons

    • Je me demande combien de terrain il faudrait pour faire fonctionner toute l’infrastructure IA uniquement au solaire. J’ai envie de dire que le solaire n’est pas pratique, mais c’est aussi une vraie curiosité de ma part

    • On ne voit pas vraiment comment empêcher les entreprises d’IA d’utiliser uniquement des énergies renouvelables

    • Dans ma région, on a installé de vastes centrales solaires sur des terres agricoles. Le solaire est très bien sur les toits des maisons, mais sans batteries, c’est difficile pour faire tourner des data centers 24 h/24

    • Le problème, c’est que la demande électrique de l’IA ne correspond pas à la courbe de production solaire

  • Après l’AI Action Plan américain, une suite notable est PREVENTING WOKE AI IN THE FEDERAL GOVERNMENT. Ce document définit le DEI comme l’introduction de notions telles que la déformation des faits concernant la race et le sexe, la diversité des résultats, la théorie critique de la race, les questions transgenres, les biais inconscients, l’intersectionnalité, le racisme systémique, ainsi que la discrimination. Il affirme que le DEI menace une IA digne de confiance en sacrifiant l’engagement envers la vérité

  • En pratique, presque tous les objectifs de l’Action Plan visent à promouvoir l’usage de l’IA, mais le dernier objectif seulement dit qu’il faut « combattre les médias synthétiques dans le système juridique ». Comme la génération de médias synthétiques est une fonction majeure de la plupart des IA, notamment des LLM, je me demande comment cela peut être compatible avec cet objectif

    • Je ne sais pas si la première phrase est satirique ou sérieuse. L’ensemble du document ressemble à une demande émanant d’un lobby industriel. Pour prendre un exemple d’usage des LLM dans le système juridique, c’est un peu comme lorsqu’un avocat expérimenté demande à un junior de rédiger une première version. Le problème apparaît quand on ne relit pas le brouillon avant de l’envoyer au tribunal. Cela conduit à une mauvaise application du droit, à des citations de jurisprudence inventées et à des arguments erronés

    • J’aurais probablement une meilleure compréhension du document entier si je le lisais avec la voix de Patrick Bateman

    • Certains y voient peut-être l’idée que le plus important est d’atteindre l’AGI en premier. Celui qui contrôle l’AGI obtiendrait alors le pouvoir de dominer le monde

    • Cette partie concerne le watermarking, c’est-à-dire des mécanismes d’identification et d’authentification des médias synthétiques par IA. Par exemple, il faudrait établir des normes distinctes pour éviter que des deepfakes malveillants ne compromettent la justice. Parmi les pistes proposées figurent des outils anti-deepfake pour les tribunaux et les institutions judiciaires, des lignes directrices pour des benchmarks forensiques, et une révision des Federal Rules of Evidence

  • Il est écrit en substance que « pour qu’un contrat avec un fournisseur de LLM soit renouvelé par le gouvernement fédéral, seuls seront acceptés les systèmes produisant des résultats “objectifs et non biaisés” reconnus par cette administration ». Autrement dit, les sorties de l’IA doivent correspondre aux critères de vérité de l’exécutif en place

    • Quand j’ai exprimé ce genre d’inquiétudes par le passé, cela a été mal reçu. C’était probablement parce que cela allait à contre-courant de l’enthousiasme pro-LLM.

    • Le document lié explique comment la notion de DEI peut agir comme une contrainte dans l’IA, et avance aussi que cette obsession de la « vérité » menace l’existence même d’une IA digne de confiance

    • L’expression « absence de biais idéologique top-down » revient en pratique à la même chose que ce qu’on appelait autrefois le « politiquement correct »

    • Si je dois me conformer à ce genre de « vérité à l’américaine », j’aurais presque envie de quitter le secteur IT. Au moins, l’AI Act européen retarde ce type d’exposition, et c’est déjà ça

    • « Objectif » et « sans biais top-down », c’est un peu comme décréter que 2+2=5 et imposer la croyance qu’on est constamment en guerre avec l’Asie de l’Est

  • Je voudrais souligner que la plupart des points énumérés dans l’Action Plan — comme « dérégulation administrative », « adoption libre de l’IA », « encouragement de l’open source », « défense des valeurs américaines », « constitution de datasets scientifiques pour l’IA », « accélération de l’adoption de l’IA dans l’administration » — sont en contradiction avec les politiques réellement mises en œuvre. Les actions récentes du gouvernement vont frontalement à l’encontre des objectifs affichés ici. Personnellement, j’ai du mal à prendre tout cela au sérieux tant l’orientation actuelle me paraît dangereuse

    • On dirait que la recette du succès consiste à ne pas réglementer tout en poursuivant uniquement des objectifs politiques

    • Le document entier ressemble davantage à une brochure de propagande du type « réaliser la grandeur de l’Amérique grâce à l’IA »

    • Il est question de « dérégulation administrative », alors qu’en réalité il n’existe aucune régulation particulière pour louer des GPU et entraîner des modèles

    • Au fond, cela montre qu’une déclaration purement verbale ne vaut rien. Très peu de gens croient vraiment à des promesses sans mise en œuvre

    • Une grande partie du texte ressemble à de la « propagande par slogans » façon Parti communiste chinois. Sauf qu’aux États-Unis, l’État n’a pas la capacité de mobiliser tous les secteurs de manière disciplinée comme dans un régime autoritaire, donc cette mise en scène creuse fonctionnera sans doute mal

  • Depuis la pandémie, le mot « plan » ne semble plus vouloir dire grand-chose. C’est le signe d’une incapacité nationale. À mon avis, ce genre d’Action Plan n’aboutira finalement à rien de concret en dehors des discours et des dépenses budgétaires

    • Si c’est comme ça, des contrats de plusieurs millions de dollars seront simplement consommés sans résultat réel. L’idéologie conservatrice consiste à réserver les privilèges à certaines catégories tout en transformant les frais médicaux des gens ordinaires en luxe qu’on peut ensuite réduire

    • Vouloir résoudre des problèmes du monde réel uniquement avec des politiques écrites sur le papier est un travers chronique que connaissent depuis longtemps les États-Unis, le Royaume-Uni et l’UE

    • Au Canada, il suffit de présenter un programme gouvernemental via l’audiovisuel public pour obtenir le soutien de l’opinion sans mise en œuvre réelle ni budget. Cela ressemble à la Pravda

  • Il est écrit que « le secteur américain de la santé adopte lentement l’IA en raison d’une méfiance envers la technologie, de réglementations complexes et de l’absence de normes claires de gouvernance et de gestion des risques, ce qui exige un effort fédéral cohérent ». Mais on peut se demander si l’approche du type « on déploie d’abord, on corrige après » est adaptée à la santé. Ce domaine dispose déjà de normes claires et strictes, peu compatibles avec des systèmes expérimentaux

    • J’ai le sentiment, à travers mon expérience, que le système de santé américain est déjà au bord de l’effondrement. Je ressens douloureusement la différence entre les consultations du médecin de campagne de mon enfance et le système actuel de soins d’urgence « type fast-food ». Mes expériences récentes n’ont été qu’indifférence et incompétence de la part du personnel soignant. À chaque fois, je ne vais pas mieux après la consultation et je reçois seulement une facture énorme. Même les cabinets dentaires ont été rachetés par le private equity, et la qualité du service s’est effondrée. À l’avenir, je n’irai plus de moi-même dans un établissement médical sauf en cas de risque de mort

    • L’usage de l’IA pour les soins exige une validation stricte, mais l’introduire dans la facturation et l’administratif permettrait probablement de fortes économies. Une part importante des coûts de santé aux États-Unis vient des frais administratifs

    • Le système de santé américain est déjà extrêmement fragile, avec des temps d’attente, des erreurs de diagnostic et des inefficacités qui causent des milliers de morts. Pour le diagnostic, l’IA est déjà meilleure que les médecins dans la plupart des cas

    • Une stratégie de type « move fast and break things » pourrait aussi apporter des évolutions positives en santé si les risques étaient correctement quantifiés. Si, dans les traitements expérimentaux, le risque n’est pas supérieur au risque de décès lié au retard de prise en charge des maladies courantes, une innovation rapide pourrait être bénéfique à long terme. Il existe d’ailleurs des études montrant que l’IA a surpassé les médecins aux urgences

    • Le système de santé américain a déjà atteint ses limites ; il est difficile d’imaginer qu’il puisse empirer davantage, et même s’il se dégradait encore, cela pourrait finir par être perçu comme une amélioration