- Le rapport d’évaluation des modèles d’IA DeepSeek publié par le NIST en septembre 2025 est un document à visée politique plutôt qu’une évaluation technique neutre, avec l’intention de freiner l’IA open source chinoise sans apporter de preuves de menaces de sécurité réelles
- Le rapport ne présente absolument aucune preuve de porte dérobée, de spyware ou de fuite de données dans les modèles DeepSeek, et se contente de souligner qu’ils sont moins alignés sur la sécurité, donc plus faciles à jailbreaker, et qu’ils reflètent parfois le point de vue du gouvernement chinois
- DeepSeek a entièrement publié les poids du modèle, l’architecture et la méthodologie d’entraînement sous licence Apache 2.0, contribuant fortement à la recherche ouverte en IA, mais le gouvernement américain le qualifie malgré cela d’« IA hostile »
- Le NIST mélange délibérément l’exécution locale et l’usage via API, et utilise une méthodologie biaisée en omettant les comparaisons avec d’autres modèles open source ou les tests de biais des modèles américains
- Ce rapport s’inscrit dans une politique industrielle visant à freiner DeepSeek, qui a démontré la compétitivité de l’IA open source, afin de protéger la position monopolistique des entreprises américaines de l’IA, en donnant la priorité aux intérêts commerciaux et stratégiques plutôt qu’à la neutralité scientifique
La véritable nature du rapport d’évaluation de DeepSeek par le NIST
- Le rapport du NIST sur DeepSeek daté du 30 septembre 2025 est un document d’attaque politique, pas une évaluation technique neutre
- Il n’apporte absolument aucune preuve de porte dérobée, de spyware ou de fuite de données
- Il s’agit d’une tentative du gouvernement américain d’utiliser la peur et la désinformation pour entraver l’open science, l’open research et l’open source
- Une contribution à l’humanité est attaquée par la politique et le mensonge afin de protéger le pouvoir des entreprises et le maintien du contrôle
- Après la publication du rapport, la panique s’est répandue en ligne
- Certains ont affirmé que les poids de DeepSeek étaient compromis
- D’autres ont affirmé que la Chine espionnait via le modèle
- D’autres encore ont prétendu que le simple téléchargement constituait un risque de sécurité
- Toutes ces affirmations sont fausses
Les véritables accomplissements de DeepSeek
- Développement de modèles d’IA compétitifs
- Des performances de niveau frontier obtenues avec un budget bien inférieur à celui d’OpenAI ou Anthropic
- Ce n’est pas parfait, mais c’est impressionnant au vu du budget
- Publication complète sous licence Apache 2.0
- Poids du modèle
- Architecture
- Méthodologie d’entraînement
- Articles de recherche
- Permet à quiconque de reproduire le travail et d’exécuter localement des modèles à l’échelle frontier
- En donnant les moyens de tout recréer depuis le début
- L’une des plus grandes contributions à la recherche ouverte en IA de ces dernières années
- Réaction du gouvernement américain : le stigmatiser comme une « IA hostile » et suggérer des activités d’espionnage
La stratégie centrale de tromperie du NIST
- Confusion délibérée entre trois scénarios
- Scénario A : lors de l’utilisation de l’application/API DeepSeek, les prompts sont envoyés à des serveurs chinois (véritable question de souveraineté des données)
- Scénario B : lors du téléchargement des poids ouverts et d’une exécution locale, les données ne quittent pas l’appareil
- Scénario C : lorsqu’un hébergement est assuré par un service tiers de confiance comme OpenRouter, Fireworks ou Chutes, l’infrastructure et le contrôle de la confidentialité dépendent du fournisseur d’hébergement
- Le NIST fusionne volontairement ces situations pourtant totalement différentes
- Il comptabilise les téléchargements locaux tout en avertissant d’un « risque pour la sécurité nationale »
- Toute personne disposant de connaissances techniques de base sait que c’est trompeur
- Cette confusion sert de fondement au reste du cadrage trompeur du rapport
Ce que le NIST a réellement trouvé
- Ce qu’il reste une fois le langage sensationnaliste retiré
- Les modèles DeepSeek sont plus faciles à jailbreaker que les modèles américains davantage alignés sur la sécurité
- Ils reflètent parfois le point de vue du gouvernement chinois
- Ils sont légèrement moins performants sur certains benchmarks
- Le rapport affirme que leur coût par token est plus élevé (sans fournir la méthodologie)
- C’est tout
- Aucune preuve de comportement malveillant
- Aucune preuve de fuite de données
- Aucune preuve que le modèle agit de manière malveillante autrement qu’en « répondant à des prompts d’une façon qui ne nous plaît pas »
- Analyse de la découverte sur les jailbreaks
- Cela vient du fait que DeepSeek a moins investi dans l’entraînement à la sécurité (question de ressources)
- Le NIST n’a pas testé d’anciens modèles américains à titre de comparaison
- Pendant ce temps,
gpt-oss-120b d’OpenAI est très facile à jailbreaker
- Analyse de la découverte sur le « narratif du Parti communiste chinois »
- Il n’est pas surprenant qu’un modèle entraîné sur des données chinoises reflète un point de vue chinois
- Il est soumis aux lois chinoises sur la censure
- Ce n’est pas une vulnérabilité de sécurité
Les comparaisons que le NIST n’a pas faites
- Pas de comparaison avec d’autres modèles ouverts
- Où sont Llama, Mistral et Falcon ?
- Une telle comparaison aurait montré qu’il ne s’agit pas d’un problème propre à DeepSeek, mais du fait que les modèles ouverts ont en général moins de couches de sécurité que les modèles fermés
- Pas de comparaison avec les premiers modèles américains
- À quel point GPT-3 en 2020 était-il vulnérable aux jailbreaks ?
- Cette comparaison affaiblirait le récit, donc elle n’a pas été faite
- Pas de test des biais américains dans les modèles américains
- Seuls les biais chinois semblent être considérés comme un risque de sécurité
- Usage de benchmarks privés
- « Benchmarks privés construits par CAISI », impossibles à reproduire ou à vérifier
- Ce n’est pas de la science, c’est de la recherche militante
Ce que ce rapport dit réellement
- Quand on lit entre les lignes
- Les modèles DeepSeek sont moins peaufinés — ce qui est logique puisqu’ils ont bénéficié de moins d’investissement en développement
- Les modèles chinois sont suffisamment compétitifs pour inquiéter — si ce n’était pas une menace pour les parts de marché, ce rapport n’existerait pas
- Les États-Unis craignent de perdre leur domination sur l’IA — le rapport a été explicitement commandé dans le cadre du « AI Action Plan » de Trump. La déclaration du secrétaire au Commerce montre clairement qu’il s’agit d’une politique industrielle, pas d’une évaluation neutre
La vraie menace (indice : ce n’est pas vous)
- Ce que DeepSeek a réellement menacé : le monopole
- Le vrai crime de DeepSeek est d’avoir montré que l’open source fonctionne
- Il a prouvé qu’on pouvait construire des modèles puissants sans capital-risque de plusieurs milliards de dollars ni API fermée
- C’est cela qui terrifie les entreprises qui vendent l’accès à l’IA à prix premium
- Quand DeepSeek dit « voici les poids, faites-le tourner vous-mêmes », il attaque les douves économiques sur lesquelles ces entreprises s’appuient
- C’est pour cela que le rapport du NIST existe
- Parce que DeepSeek a prouvé que l’ouverture pouvait rivaliser avec les systèmes fermés
- Et que les acteurs en place doivent l’arrêter
L’hypocrisie
- Les avertissements du NIST vs la réalité
- NIST : avertit que les modèles DeepSeek pourraient répondre à des prompts malveillants dans un environnement simulé
- Réalité : les modèles américains envoient réellement des données réelles vers des serveurs externes
- Le cas OpenAI
- Vous vous souvenez quand ChatGPT utilisait les conversations pour l’entraînement ?
- Il a fallu attendre le backlash pour qu’une option d’opt-out soit ajoutée
- Comparaison
- Exécution locale des poids DeepSeek = zéro transfert de données
- Utilisation de l’API OpenAI = transfert continu de données vers les serveurs
- Lequel constitue un risque pour la vie privée ?
- Le rapport met en garde contre « l’adoption d’IA étrangère » tout en ignorant que toute API cloud, américaine ou non, exige de faire confiance à l’infrastructure d’autrui
- Les poids ouverts exécutés localement sont plus auditables et plus sûrs que n’importe quel service cloud
- Mais ce n’est pas le message. Car il ne s’est jamais agi de sécurité. Il s’agit de contrôle du récit
Une trahison de l’open source et de l’open science
- La communauté open source a construit les fondations de l’IA moderne
- Linux, Python, PyTorch, Transformers
- Des décennies de développement collaboratif, librement partagées
- DeepSeek s’inscrit dans cette tradition
- Il a pris des connaissances ouvertes, construit quelque chose d’impressionnant, puis l’a rendu à son tour
- Réaction de l’institution américaine : appeler cela une menace
- Imaginez si la Chine avait fait cela quand Meta a publié Llama
- En publiant un rapport gouvernemental affirmant que les poids de Llama sont un outil de surveillance parce qu’ils sont « vulnérables aux jailbreaks »
- Nous aurions appelé cela du protectionnisme. De la paranoïa technologique. Une attaque contre la recherche ouverte
- Mais quand c’est nous ? « Sécurité nationale »
- La recherche ouverte doit être universelle
- On ne peut pas défendre l’open science seulement quand cela nous arrange
Un test que vous pouvez faire vous-même
- Ne me croyez pas, ne croyez pas le NIST, vérifiez par vous-même
- Téléchargez les poids DeepSeek
- Utilisez huggingface transformers, vLLM, LM Studio ou llama.cpp pour les exécuter localement
- Ouvrez un outil de monitoring réseau
- Observez
- Exactement zéro paquet n’est envoyé où que ce soit
- Les prompts sont traités entièrement sur l’appareil
- Cette terrible « menace de sécurité » ne fait rien d’autre que des multiplications de matrices, sans connexion à quoi que ce soit
- Demandez-vous : pourquoi le gouvernement américain ment-il à ce sujet ?
- La « menace de sécurité » n’est pas dans le modèle. Elle est dans la politique
Ce dont il faut réellement se préoccuper
- Il existe des préoccupations légitimes
- Utilisation de l’API DeepSeek : si vous envoyez des données sensibles au service hébergé de DeepSeek, elles transitent par une infrastructure chinoise. C’est un vrai problème de souveraineté des données, comme avec tout fournisseur cloud étranger
- Vulnérabilité aux jailbreaks : si vous construisez une application en production, testez les vulnérabilités de n’importe quel modèle et mettez en place des garde-fous au niveau applicatif. Ne vous reposez pas uniquement sur les garde-fous du modèle. Utilisez aussi à l’inférence des guard models (
LlamaGuard ou Qwen3Guard, par exemple) pour classifier et filtrer à la fois les prompts et les réponses
- Biais et censure : tous les modèles reflètent leurs données d’entraînement. Soyez-en conscient, quel que soit le modèle utilisé
- Ce sont des défis d’ingénierie
- Pas des raisons d’éviter totalement les modèles open source (ou chinois)
Ce que cela implique pour l’avenir de l’IA
- Il ne s’agit pas seulement de DeepSeek
- Il s’agit de savoir si l’IA restera ouverte et auditable, ou si elle sera mise sous clôture par les gouvernements et les entreprises
- Les questions
- Allons-nous laisser « open source » être redéfini comme « ouvert uniquement s’il est américain » ?
- Allons-nous exiger de vraies preuves pour les allégations de sécurité, ou accepter des insinuations vagues ?
- L’IA restera-t-elle un projet humain partagé, ou deviendra-t-elle une arme géopolitique ?
- DeepSeek a prouvé qu’une autre voie existait. Voilà pourquoi il a fallu le discréditer
Le point de vue de l’auteur
- Le parcours de l’auteur
- Exécute localement des modèles open source
- Entraîne ses propres modèles
- Croit en l’alignement composable et à la liberté de l’utilisateur
- Estime que l’IA doit être un outil au service des utilisateurs, pas des entreprises ni des gouvernements
- Évaluation du rapport du NIST
- Ce n’est pas une évaluation technique neutre
- C’est un document de politique conçu pour empêcher l’adoption de modèles d’IA chinois afin de protéger les intérêts commerciaux et stratégiques des États-Unis
- Position sur la promotion industrielle par le gouvernement américain
- Il n’y a rien d’intrinsèquement mauvais à ce que le gouvernement américain promeuve l’industrie américaine
- Mais il faut appeler cela par son nom
- Ne pas maquiller le protectionnisme en recherche sur la sécurité
- Ne pas fabriquer artificiellement des menaces
- Ne pas mentir au public sur ce que montrent réellement les preuves
- La contribution de DeepSeek
- Il nous a offert un cadeau précieux et utile
- Les poids ne sont que des données
safetensor
- Ils restent sur un disque et fonctionnent comme commandé
- Ils n’appellent pas la maison. Ils n’espionnent pas. Ils n’exfiltrent pas de données
- Conclusion
- Si cela vous inquiète, c’est que vous ne comprenez pas comment fonctionne l’inférence locale
- Si vous croyez à la peur entretenue, c’est que vous avez été manipulé avec succès
- Tout cela ne concerne pas la sécurité. Cela concerne le pouvoir — qui construit, partage et comprend les outils qui façonnent l’avenir
Conclusion
- Le code et la recherche sont open source et auditables. Tout le reste est politique
- Recommandation au lecteur
- Lisez vous-même le rapport du NIST et le code
- Cherchez des preuves réelles de code malveillant ou de fonctions de surveillance
- Vous n’en trouverez pas. Parce qu’il n’y en a pas
- Puis commencez à vous poser des questions
- Pourquoi nous dit-on de craindre l’open source quand il fonctionne trop bien ?
1 commentaires
Avis Hacker News