- OpenAI a conclu un contrat avec le Department of War pour déployer des systèmes d’IA avancés dans des environnements classifiés, et demande que ce cadre s’applique de la même manière à toutes les entreprises d’IA
- L’entreprise affirme que ce contrat inclut davantage de garde-fous de sécurité que les déploiements d’IA classifiés existants
- Elle fixe des lignes rouges interdisant l’usage de la technologie d’OpenAI pour la surveillance intérieure de masse, le pilotage d’armes autonomes et la prise de décision automatisée à haut risque
- OpenAI conserve une pleine latitude sur sa pile de sécurité, maintient un déploiement basé sur le cloud, prévoit l’intervention de personnels habilités de sécurité et applique de solides protections contractuelles
- OpenAI a clairement indiqué au Department of War qu’Anthropic ne doit pas être désignée comme un risque pour la chaîne d’approvisionnement
Signature d’un contrat avec le Department of War
- OpenAI a conclu un contrat avec le Department of War pour déployer des systèmes d’IA avancés dans des environnements classifiés
- L’entreprise demande que ce type de déploiement soit proposé dans les mêmes conditions à toutes les entreprises d’IA
- Ce contrat inclut davantage de dispositifs de sécurité que les précédents contrats de déploiement d’IA classifiée
Maintien des lignes rouges
- La technologie d’OpenAI ne sera pas utilisée pour la surveillance intérieure de masse
- La technologie d’OpenAI ne sera pas utilisée pour le pilotage de systèmes d’armes autonomes
- La technologie d’OpenAI ne sera pas utilisée pour des systèmes de décision automatisée à haut risque (ex. :
social credit)
Une architecture de protection multicouche
- Cela contraste avec certains laboratoires d’IA qui, dans les déploiements liés à la sécurité nationale, ont réduit ou supprimé les protections centrées sur les politiques d’usage
- OpenAI applique une approche multicouche étendue
- Pleine latitude conservée sur la pile de sécurité
- Maintien d’un mode de déploiement basé sur le cloud
- Intervention de personnels OpenAI disposant d’une habilitation de sécurité
- Inclusion de solides protections contractuelles
- En complément des protections déjà prévues par le droit américain
Position concernant Anthropic
- OpenAI s’oppose à la désignation d’Anthropic comme risque pour la chaîne d’approvisionnement
- L’entreprise a clairement communiqué cette position au Department of War
Aucun commentaire pour le moment.