- Un développeur de xAI a exposé sur GitHub une clé API privée de LLM, permettant pendant deux mois à n’importe qui d’accéder à des modèles internes
- Cette clé donnait accès à plus de 60 LLM, dont des versions de développement de Grok et des modèles entraînés sur des données de SpaceX et Tesla
- GitGuardian avait lancé l’alerte il y a deux mois, mais la clé était toujours valide et n’a été retirée de GitHub qu’après confirmation par l’équipe sécurité
- Cette mauvaise gestion des identifiants expose non seulement des informations de développement internes, mais ouvre aussi la voie à de possibles attaques de la chaîne d’approvisionnement ou injections de prompt
- Dans le même temps, des éléments montrent que l’organisation DOGE injecte des données du gouvernement fédéral dans des systèmes d’IA, ce qui renforce les inquiétudes autour de la sécurité de l’IA dans l’écosystème de Musk
Une clé API interne de LLM de xAI exposée sur GitHub
- Un développeur de xAI, la société d’IA d’Elon Musk, a accidentellement rendu publique sur GitHub une clé API permettant l’accès à des LLM internes
- Cette clé autorisait l’accès à des LLM spécialisés pour SpaceX, Tesla et Twitter/X
Origine de la fuite et alerte ignorée
- Philippe Caturegli, de la société de conseil en sécurité Seralys, a été le premier à signaler publiquement la fuite sur LinkedIn
- GitGuardian a repéré la clé via cette publication et, dans le cadre de sa surveillance continue de GitHub, a envoyé un e-mail d’alerte
- Bien qu’une alerte ait été envoyée le 2 mars, la clé était encore valide au 30 avril ; le dépôt n’a été supprimé qu’après que l’équipe sécurité en a pris connaissance
Impact de la clé exposée
- GitGuardian indique que la clé permettait d’accéder aux modèles publics et privés de Grok
- Exemples :
grok-2.5V, research-grok-2p5v-1018, grok-spacex-2024-11-04, tweet-rejector, etc.
- La clé donnait accès à au moins plus de 60 LLM non publiés et fine-tunés
Les avertissements des experts en sécurité
- Carole Winqwist, CMO de GitGuardian, avertit qu’un attaquant pourrait, via cette clé, mener des actions telles que :
- injection de prompt
- manipulation de LLM
- déclenchement d’attaques de la chaîne d’approvisionnement
- Cette fuite est considérée comme un exemple révélateur du manque de supervision de la sécurité interne et d’un échec de gestion du cycle de vie des clés chez xAI
Liens avec les agences gouvernementales et inquiétudes plus larges
- Il n’existe pas de preuve que la clé exposée était directement connectée à des données gouvernementales, mais il est très probable que les modèles concernés aient été entraînés sur des données internes de SpaceX, Twitter et Tesla
- Par ailleurs, le DOGE (Department of Government Efficiency) dirigé par Musk alimente déjà des systèmes d’IA avec des données du gouvernement fédéral américain
- analyse de données du ministère de l’Éducation par l’IA
- déploiement du chatbot GSAi auprès de fonctionnaires fédéraux
- indices d’usage de l’IA pour surveiller le soutien à l’administration Trump
- Cela signifie un renforcement de structures dans lesquelles les opérateurs de systèmes d’IA peuvent contrôler des données sensibles, augmentant ainsi le risque de fuite
Conclusion et alerte de sécurité
- Des identifiants internes exposés pendant une longue période illustrent des failles dans le contrôle des accès développeurs et dans les opérations de sécurité interne
- Caturegli estime que cet incident est un avertissement soulignant la nécessité d’une gestion plus stricte de la sécurité opérationnelle
1 commentaires
Réactions sur Hacker News
Bien que GitGuardian ait averti un employé de xAI de l’exposition de la clé API il y a presque deux mois, cette clé était toujours valide
L’exposition du LLM de données de SpaceX pourrait très bien constituer une violation majeure de l’ITAR
C’est d’une incompétence absolue
Bien sûr, Elon recrute sur la base de la « compétence »
Je suis surtout curieux de savoir à quoi sert le modèle personnel
tweet-rejectorLe plus frappant, c’est que des responsables gouvernementaux ont indiqué à certains employés fédéraux américains que DOGE utilisait l’IA pour surveiller les communications d’au moins une agence fédérale
On remarque que des journalistes partent à tort du principe qu’avoir la clé API d’un LLM permet d’y injecter des données
Cela signifie ex-développeur IA
[supprimé]
[supprimé]
[signalé]