- Les LLM présentent un problème structurel qui les empêche de séparer le code et les données, ce qui les rend vulnérables aux attaques par prompt injection
- En particulier, lorsque l’on réunit l’accès à des données externes, la consultation de secrets internes et l’autorisation de communiquer avec l’extérieur, on crée ce qu’on appelle la triple menace mortelle (lethal trifecta), susceptible d’entraîner des dommages graves
- Les ingénieurs IA doivent penser comme des ingénieurs mécaniciens : au lieu d’une approche déterministe, ils doivent accepter l’incertitude des systèmes probabilistes et prévoir des marges de sécurité
- De la même façon que les ingénieurs de l’époque victorienne surdimensionnaient leurs ouvrages pour tenir compte de l’incertitude sur les matériaux, les systèmes d’IA doivent eux aussi intégrer des limites de sécurité, une tolérance au risque et des taux d’erreur
- Comme les ponts du monde physique ont des limites de charge, le moment est venu d’imposer aux systèmes d’IA des règles explicites de limites et de marges de sécurité
Le problème de sécurité intrinsèque des LLM
- Les grands modèles de langage présentent un défaut structurel : ils sont incapables de séparer le code et les données
- Ils sont donc vulnérables aux attaques par prompt injection
- Elles consistent à tromper le système pour qu’il suive des instructions qu’il ne devrait pas suivre
- Dans certains cas, cela produit simplement des résultats embarrassants, comme faire parler un agent de support client comme un pirate
- Dans d’autres, les dégâts peuvent être bien plus destructeurs
La triple menace mortelle (Lethal Trifecta)
- Les conséquences les plus graves apparaissent lorsque l’on réunit les « trois éléments mortels »
- Ces trois éléments sont :
- l’accès à des données non fiables
- la capacité à lire des informations confidentielles importantes
- la capacité à communiquer avec le monde extérieur
- Lorsqu’une entreprise veut fournir à ses employés un assistant IA puissant et lui accorde simultanément ces trois capacités, de graves problèmes deviennent inévitables
- Non seulement les ingénieurs IA, mais aussi les utilisateurs ordinaires doivent apprendre à utiliser l’IA en toute sécurité
- Installer une mauvaise combinaison d’applications peut créer accidentellement ces trois éléments
Changer la façon de penser des ingénieurs IA
Penser comme des ingénieurs mécaniciens
- Une meilleure ingénierie de l’IA constitue la première ligne de défense
- Les ingénieurs IA doivent raisonner comme ceux qui conçoivent des structures telles que des ponts
- en gardant à l’esprit qu’un travail mal fait peut coûter des vies
La leçon de l’ingénierie victorienne
- Les grands ouvrages de l’Angleterre victorienne ont été construits par des ingénieurs qui ne pouvaient pas être sûrs des propriétés des matériaux
- À l’époque, le fer était souvent de mauvaise qualité à cause de l’incompétence ou de la fraude
- Les ingénieurs ont donc choisi la prudence et intégré de la redondance par surdimensionnement
- Le résultat : des chefs-d’œuvre qui ont traversé les siècles
Le problème actuel du secteur de la sécurité IA
- Les fournisseurs de sécurité IA ne raisonnent pas de cette manière
- Le développement logiciel classique suit une logique déterministe
- Une faille de sécurité est considérée comme un bug à corriger
- Une fois corrigée, elle disparaît
- Les ingénieurs IA sont formés à cette façon de penser depuis leurs études
- ils agissent donc comme si davantage de données d’entraînement et des system prompts plus astucieux suffisaient à résoudre le problème
Une approche adaptée aux systèmes probabilistes
Les limites des données d’entraînement et des prompts
- Les données d’entraînement et des prompts plus intelligents réduisent bien le risque
- les modèles les plus avancés et les plus performants détectent et refusent mieux les requêtes malveillantes que les modèles plus anciens ou plus petits
- Mais ils ne peuvent pas éliminer complètement le risque
- contrairement à la plupart des logiciels, les LLM sont probabilistes
- la sortie est déterminée par une sélection aléatoire parmi des réponses possibles
- une approche de sécurité déterministe est donc inadaptée
S’inspirer de l’ingénierie du monde physique
- Une meilleure méthode consiste à imiter les ingénieurs du monde physique
- Il faut apprendre à travailler avec des systèmes imprévisibles
- non pas lutter contre des systèmes capricieux dont on ne peut garantir qu’ils fonctionneront comme prévu, mais travailler avec eux
- Il faut mieux gérer cette imprévisibilité en introduisant des marges de sécurité, une tolérance au risque et des taux d’erreur
Une stratégie de surdimensionnement pour l’ère de l’IA
- Utiliser des modèles plus puissants que nécessaire
- afin de réduire le risque qu’ils soient manipulés pour adopter un comportement inapproprié
- Imposer une limite au nombre de requêtes qu’un LLM peut recevoir de sources externes
- ajustée au niveau de risque lié aux requêtes malveillantes
- Mettre l’accent sur le fail-safe
- si un système d’IA doit accéder à des informations confidentielles, il faut éviter de lui remettre les clés du royaume
Pourquoi il faut définir des limites de sécurité
- Dans le monde physique, les ponts ont des limites de charge
- même si elles ne sont pas toujours clairement affichées aux conducteurs, elles existent
- point essentiel : ces limites conservent une marge significative à l’intérieur de la capacité réelle que les calculs indiquent que le pont peut supporter
- Il est temps que le monde virtuel des systèmes d’IA adopte des principes similaires
- Concevoir des systèmes avec des limites de sécurité claires et des marges devient indispensable
1 commentaires
Discussion Hacker News