- OpenAI a conclu un contrat avec le Department of War pour déployer des systèmes d’IA avancés dans des environnements classifiés, et demande que ce cadre s’applique de la même manière à toutes les entreprises d’IA
- L’entreprise affirme que ce contrat inclut davantage de garde-fous de sécurité que les déploiements d’IA classifiés existants
- Elle fixe des lignes rouges interdisant l’usage de la technologie d’OpenAI pour la surveillance intérieure de masse, le pilotage d’armes autonomes et la prise de décision automatisée à haut risque
- OpenAI conserve une pleine latitude sur sa pile de sécurité, maintient un déploiement basé sur le cloud, prévoit l’intervention de personnels habilités de sécurité et applique de solides protections contractuelles
- OpenAI a clairement indiqué au Department of War qu’Anthropic ne doit pas être désignée comme un risque pour la chaîne d’approvisionnement
Signature d’un contrat avec le Department of War
- OpenAI a conclu un contrat avec le Department of War pour déployer des systèmes d’IA avancés dans des environnements classifiés
- L’entreprise demande que ce type de déploiement soit proposé dans les mêmes conditions à toutes les entreprises d’IA
- Ce contrat inclut davantage de dispositifs de sécurité que les précédents contrats de déploiement d’IA classifiée
Maintien des lignes rouges
- La technologie d’OpenAI ne sera pas utilisée pour la surveillance intérieure de masse
- La technologie d’OpenAI ne sera pas utilisée pour le pilotage de systèmes d’armes autonomes
- La technologie d’OpenAI ne sera pas utilisée pour des systèmes de décision automatisée à haut risque (ex. :
social credit)
Une architecture de protection multicouche
- Cela contraste avec certains laboratoires d’IA qui, dans les déploiements liés à la sécurité nationale, ont réduit ou supprimé les protections centrées sur les politiques d’usage
- OpenAI applique une approche multicouche étendue
- Pleine latitude conservée sur la pile de sécurité
- Maintien d’un mode de déploiement basé sur le cloud
- Intervention de personnels OpenAI disposant d’une habilitation de sécurité
- Inclusion de solides protections contractuelles
- En complément des protections déjà prévues par le droit américain
Position concernant Anthropic
- OpenAI s’oppose à la désignation d’Anthropic comme risque pour la chaîne d’approvisionnement
- L’entreprise a clairement communiqué cette position au Department of War
5 commentaires
Je pense qu’il faudrait remettre en ordre la chronologie de cette affaire. On dit aussi qu’OpenAI était en pleine négociation contractuelle, non ?
C’est la première fois que je vois une erreur de résumé indiquant qu’il n’y a pas de contenu..
Il semble que cela arrive dans les cas où x devient un peu délicat à crawler. Nous allons essayer d’améliorer cela.
Je vous lis toujours avec beaucoup d’intérêt, merci.
Avis sur Hacker News
Le point essentiel, c’est l’écart entre la formulation réelle du contrat d’OpenAI et ce qu’Altman affirme
Le contrat dit en substance : « ne pas utiliser pour l’exploitation d’armes autonomes lorsque la loi ou la politique exige un contrôle humain »
Autrement dit, si le Département de la Défense décide qu’« aucun contrôle humain n’est nécessaire », cela devient possible tel quel
Anthropic avait posé une interdiction absolue du type « aucune surveillance de masse, jamais », alors qu’OpenAI a assoupli cela en mode « possible si la loi l’autorise »
Signer un tel contrat puis faire semblant de défendre Anthropic ressemble à un numéro de relations publiques assez rare dans le secteur
Dans ce fil X, OpenAI affirme que son contrat avec le Département de la Défense respecte ses lignes rouges
Mais selon cet article de NPR, Anthropic a été écartée du contrat pour avoir maintenu ces mêmes critères, tandis qu’OpenAI a encaissé l’argent
C’est pour cela qu’elle a remporté le contrat
Mais il est permis de douter que ces guardrails puissent empêcher la surveillance des civils
Le problème de la clause « Any Lawful Use », c’est que le Département de la Défense peut définir à sa guise ce qui est « légal »
Il suffit qu’un juriste interne rédige une note, et cela devient aussitôt légal
Les abus de pouvoir de l’État doivent être corrigés par le vote et la réforme institutionnelle
Le système n’a pas été conçu ainsi, mais la réalité est différente
Au bout du compte, le « Department of War » nouvellement rebaptisé ne fera que gaspiller l’argent public en achetant très cher des technologies inutiles
J’éprouve de la tristesse pour les citoyens
La différence entre Anthropic et OpenAI, c’est qu’Anthropic essayait de faire appliquer techniquement des restrictions, tandis qu’OpenAI s’est contentée de promesses verbales du type « espérons que le gouvernement ne les enfreindra pas »
Il est donc naturel que le gouvernement ait choisi la seconde option
Cela laisse donc entendre que, si c’est légal, la surveillance de masse ou les armes létales autonomes restent possibles
Une IA qui prend des décisions létales autonomes est une idée extrêmement dangereuse
Pas seulement à cause de la superintelligence, mais aussi parce que même de petits modèles permettraient à n’importe qui de créer des armes impossibles à tracer
Les modèles actuels ont appris une attitude positive envers la vie humaine, mais si on retire cela, on obtient des systèmes monstrueux
Ce ne sont que des prédicteurs probabilistes de tokens
Par exemple, un programme établissait une liste de cibles à éliminer et un humain pilotait ensuite le drone
Les gens semblent oublier qu’Anthropic a collaboré avec Palantir
Quand cela a été révélé, ils l’ont simplement recouvert d’une opération de communication
On dirait qu’OpenAI publie ce billet pour gérer son image, car l’entreprise perd déjà des clients à cause de cette polémique
Anthropic voulait un durcissement de la régulation de l’IA par le gouvernement, et au final on dirait qu’elle en subit elle-même les conséquences
Cette affaire donne l’impression qu’OpenAI répond par une opération de communication aux critiques sur la faiblesse de ses standards éthiques
À l’étranger, des usages non éthiques restent toujours possibles