1 points par GN⁺ 2026-03-01 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • OpenAI a conclu un contrat avec le Department of War pour déployer des systèmes d’IA avancés dans des environnements classifiés, et demande que ce cadre s’applique de la même manière à toutes les entreprises d’IA
  • L’entreprise affirme que ce contrat inclut davantage de garde-fous de sécurité que les déploiements d’IA classifiés existants
  • Elle fixe des lignes rouges interdisant l’usage de la technologie d’OpenAI pour la surveillance intérieure de masse, le pilotage d’armes autonomes et la prise de décision automatisée à haut risque
  • OpenAI conserve une pleine latitude sur sa pile de sécurité, maintient un déploiement basé sur le cloud, prévoit l’intervention de personnels habilités de sécurité et applique de solides protections contractuelles
  • OpenAI a clairement indiqué au Department of War qu’Anthropic ne doit pas être désignée comme un risque pour la chaîne d’approvisionnement

Signature d’un contrat avec le Department of War

  • OpenAI a conclu un contrat avec le Department of War pour déployer des systèmes d’IA avancés dans des environnements classifiés
    • L’entreprise demande que ce type de déploiement soit proposé dans les mêmes conditions à toutes les entreprises d’IA
  • Ce contrat inclut davantage de dispositifs de sécurité que les précédents contrats de déploiement d’IA classifiée

Maintien des lignes rouges

  • La technologie d’OpenAI ne sera pas utilisée pour la surveillance intérieure de masse
  • La technologie d’OpenAI ne sera pas utilisée pour le pilotage de systèmes d’armes autonomes
  • La technologie d’OpenAI ne sera pas utilisée pour des systèmes de décision automatisée à haut risque (ex. : social credit)

Une architecture de protection multicouche

  • Cela contraste avec certains laboratoires d’IA qui, dans les déploiements liés à la sécurité nationale, ont réduit ou supprimé les protections centrées sur les politiques d’usage
  • OpenAI applique une approche multicouche étendue
    • Pleine latitude conservée sur la pile de sécurité
    • Maintien d’un mode de déploiement basé sur le cloud
    • Intervention de personnels OpenAI disposant d’une habilitation de sécurité
    • Inclusion de solides protections contractuelles
    • En complément des protections déjà prévues par le droit américain

Position concernant Anthropic

  • OpenAI s’oppose à la désignation d’Anthropic comme risque pour la chaîne d’approvisionnement
  • L’entreprise a clairement communiqué cette position au Department of War

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.