2 points par GN⁺ 2026-01-30 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Le directeur par intérim de la Cybersecurity and Infrastructure Security Agency (CISA) aux États-Unis aurait téléversé sur ChatGPT des documents de contrats gouvernementaux classés sensibles
  • Les documents portaient la mention « For Official Use Only », ce qui a déclenché une alerte de sécurité interne et une enquête fédérale
  • Il aurait demandé une dérogation spéciale pour accéder à ChatGPT, alors que l’accès y était bloqué pour les autres employés du Department of Homeland Security
  • Une porte-parole de la CISA a déclaré que l’usage avait été « bref et limité », et qu’une procédure d’évaluation des dommages avait été lancée après l’incident
  • L’affaire survient dans un contexte de politique d’élargissement de l’usage de l’IA au sein du gouvernement fédéral et souligne l’importance de la gestion de la sécurité autour de l’IA dans les organismes publics

Aperçu de l’incident de téléversement sur ChatGPT

  • Politico rapporte que Madhu Gottumukkala, directeur par intérim de la CISA, principale agence de cybersécurité du gouvernement américain, a téléversé des documents gouvernementaux sensibles sur la version publique de ChatGPT
    • Les documents téléversés étaient des documents liés à des contrats gouvernementaux portant la mention « For Official Use Only »
    • L’incident se serait produit durant l’été 2025, et le système interne de surveillance cybersécurité l’aurait détecté début août
  • Après la détection, une évaluation des dommages (damage assessment) pilotée par le Department of Homeland Security (DHS) a été immédiatement lancée afin d’examiner si des informations avaient été exposées
  • Comme la version publique de ChatGPT partage les saisies des utilisateurs avec OpenAI, le risque d’une fuite de données sensibles en dehors du réseau interne a été soulevé

Réponse de la CISA et position officielle

  • La porte-parole de la CISA, Marci McCarthy, a expliqué que Gottumukkala « avait reçu l’autorisation d’utiliser ChatGPT sous le contrôle du DHS »
    • Elle a insisté sur le fait que l’usage avait été « bref et limité »
  • Gottumukkala occupe le poste de directeur par intérim depuis mai 2025, tandis que le Sénat n’a pas encore confirmé Sean Plankey comme directeur officiel
  • Politico mentionne également d’autres cas problématiques durant son mandat
    • Il aurait déjà échoué à un examen de contre-espionnage (polygraph) requis pour l’accès à des informations de haut niveau
    • Lors d’une récente audition au Congrès, il a toutefois contesté cette évaluation et l’a niée

Politique fédérale sur l’IA et moment de l’incident

  • L’incident est survenu à un moment où l’administration Donald Trump pousse à l’adoption de l’IA dans l’ensemble des agences fédérales
    • En décembre 2025, le président Trump a signé un décret limitant les réglementations de l’IA au niveau des États
    • Le Pentagon a annoncé une stratégie « AI-first » pour étendre l’usage de l’intelligence artificielle dans le domaine militaire
  • Dans ce contexte politique, l’affaire est observée comme un exemple révélant les risques de sécurité liés à l’usage de l’IA dans le secteur public

Alerte de sécurité interne et procédure d’enquête

  • Dès que le système de surveillance cybersécurité a détecté le téléversement sur ChatGPT, une alerte interne a été déclenchée
    • Le DHS a ensuite ouvert une enquête officielle afin d’évaluer une éventuelle exposition d’informations et l’étendue des dommages
  • Selon le reportage, l’accès à ChatGPT était bloqué pour les employés ordinaires du DHS, mais Gottumukkala a obtenu cet accès via une demande de dérogation spéciale
  • Des inquiétudes ont été exprimées au sein de l’administration fédérale quant au fait que la manière dont OpenAI traite les données pourrait entrer en conflit avec les politiques de sécurité des réseaux internes du gouvernement

Portée et signification de l’affaire

  • L’incident montre que même un haut responsable fédéral de la sécurité peut être exposé à des risques de sécurité lors de l’usage d’outils d’IA
  • Il met en lumière la nécessité de renforcer les directives d’usage de l’IA dans les organismes publics et de réexaminer les dispositifs de protection des données
  • Alors que l’adoption des technologies d’IA s’accélère, l’importance de contrôles de sécurité et de procédures d’usage transparentes est soulignée

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.