4 points par GN⁺ 2025-05-03 | 1 commentaires | Partager sur WhatsApp
  • Un développeur de xAI a exposé sur GitHub une clé API privée de LLM, permettant pendant deux mois à n’importe qui d’accéder à des modèles internes
  • Cette clé donnait accès à plus de 60 LLM, dont des versions de développement de Grok et des modèles entraînés sur des données de SpaceX et Tesla
  • GitGuardian avait lancé l’alerte il y a deux mois, mais la clé était toujours valide et n’a été retirée de GitHub qu’après confirmation par l’équipe sécurité
  • Cette mauvaise gestion des identifiants expose non seulement des informations de développement internes, mais ouvre aussi la voie à de possibles attaques de la chaîne d’approvisionnement ou injections de prompt
  • Dans le même temps, des éléments montrent que l’organisation DOGE injecte des données du gouvernement fédéral dans des systèmes d’IA, ce qui renforce les inquiétudes autour de la sécurité de l’IA dans l’écosystème de Musk

Une clé API interne de LLM de xAI exposée sur GitHub

  • Un développeur de xAI, la société d’IA d’Elon Musk, a accidentellement rendu publique sur GitHub une clé API permettant l’accès à des LLM internes
  • Cette clé autorisait l’accès à des LLM spécialisés pour SpaceX, Tesla et Twitter/X

Origine de la fuite et alerte ignorée

  • Philippe Caturegli, de la société de conseil en sécurité Seralys, a été le premier à signaler publiquement la fuite sur LinkedIn
  • GitGuardian a repéré la clé via cette publication et, dans le cadre de sa surveillance continue de GitHub, a envoyé un e-mail d’alerte
  • Bien qu’une alerte ait été envoyée le 2 mars, la clé était encore valide au 30 avril ; le dépôt n’a été supprimé qu’après que l’équipe sécurité en a pris connaissance

Impact de la clé exposée

  • GitGuardian indique que la clé permettait d’accéder aux modèles publics et privés de Grok
    • Exemples : grok-2.5V, research-grok-2p5v-1018, grok-spacex-2024-11-04, tweet-rejector, etc.
  • La clé donnait accès à au moins plus de 60 LLM non publiés et fine-tunés

Les avertissements des experts en sécurité

  • Carole Winqwist, CMO de GitGuardian, avertit qu’un attaquant pourrait, via cette clé, mener des actions telles que :
    • injection de prompt
    • manipulation de LLM
    • déclenchement d’attaques de la chaîne d’approvisionnement
  • Cette fuite est considérée comme un exemple révélateur du manque de supervision de la sécurité interne et d’un échec de gestion du cycle de vie des clés chez xAI

Liens avec les agences gouvernementales et inquiétudes plus larges

  • Il n’existe pas de preuve que la clé exposée était directement connectée à des données gouvernementales, mais il est très probable que les modèles concernés aient été entraînés sur des données internes de SpaceX, Twitter et Tesla
  • Par ailleurs, le DOGE (Department of Government Efficiency) dirigé par Musk alimente déjà des systèmes d’IA avec des données du gouvernement fédéral américain
    • analyse de données du ministère de l’Éducation par l’IA
    • déploiement du chatbot GSAi auprès de fonctionnaires fédéraux
    • indices d’usage de l’IA pour surveiller le soutien à l’administration Trump
  • Cela signifie un renforcement de structures dans lesquelles les opérateurs de systèmes d’IA peuvent contrôler des données sensibles, augmentant ainsi le risque de fuite

Conclusion et alerte de sécurité

  • Des identifiants internes exposés pendant une longue période illustrent des failles dans le contrôle des accès développeurs et dans les opérations de sécurité interne
  • Caturegli estime que cet incident est un avertissement soulignant la nécessité d’une gestion plus stricte de la sécurité opérationnelle

1 commentaires

 
GN⁺ 2025-05-03
Réactions sur Hacker News
  • Bien que GitGuardian ait averti un employé de xAI de l’exposition de la clé API il y a presque deux mois, cette clé était toujours valide

    • xAI a demandé à GitGuardian de signaler le problème via le programme de bug bounty de HackerOne, mais quelques heures plus tard, le dépôt GitHub contenant la clé API a été supprimé
    • Il est surprenant que l’équipe sécurité ait renvoyé le signalement vers le programme HackerOne
    • Heureusement, l’information a finalement été transmise à quelqu’un capable de régler le problème
  • L’exposition du LLM de données de SpaceX pourrait très bien constituer une violation majeure de l’ITAR

  • C’est d’une incompétence absolue

    • Les développeurs, comme toutes les organisations, devraient scanner en continu les fuites de clés API
    • Un seul échec en cache plusieurs
  • Bien sûr, Elon recrute sur la base de la « compétence »

  • Je suis surtout curieux de savoir à quoi sert le modèle personnel tweet-rejector

  • Le plus frappant, c’est que des responsables gouvernementaux ont indiqué à certains employés fédéraux américains que DOGE utilisait l’IA pour surveiller les communications d’au moins une agence fédérale

    • Je comprends qu’on ne puisse pas s’attendre à avoir une vie privée au travail, mais voir son employeur surveiller essentiellement des crimes de pensée est terrifiant
    • Le désaccord n’est-il pas sain ?
  • On remarque que des journalistes partent à tort du principe qu’avoir la clé API d’un LLM permet d’y injecter des données

    • Beaucoup ne comprennent toujours pas comment fonctionne un LLM et pensent qu’on peut l’entraîner en interagissant avec lui au niveau de l’API
  • Cela signifie ex-développeur IA

  • [supprimé]

  • [supprimé]

  • [signalé]