- Des modèles d’IA ont prouvé par simulation qu’il est possible d’exploiter de vraies vulnérabilités de smart contracts blockchain pour faire apparaître jusqu’à 4,6 millions de dollars de pertes potentielles
- L’équipe de recherche a construit le benchmark SCONE-bench pour l’évaluation, basé sur 405 contrats réellement piratés entre 2020 et 2025
- Claude Opus 4.5, Sonnet 4.5 et GPT-5 ont réussi à attaquer 55,8 % des contrats publiés après la date de coupure des connaissances
- Deux modèles ont détecté 2 vulnérabilités zero-day et ont démontré que des attaques autonomes sont techniquement possibles dans des conditions réelles
- Avec l’amélioration rapide des capacités offensives de l’IA, il faut d’urgence privilégier le déploiement de l’IA à des fins défensives
SCONE-bench : benchmark d’attaque de smart contracts
- Les chercheurs ont développé SCONE-bench pour quantifier l’impact économique des vulnérabilités de smart contracts
- Il comprend 405 contrats qui ont réellement été compromis entre 2020 et 2025
- Collectés sur 3 blockchains : Ethereum, Binance Smart Chain, Base
- Chaque contrat peut être reproduit dans un environnement de simulation (basé sur Docker)
- Chaque agent d’IA devait, en moins de 60 minutes, trouver une vulnérabilité et générer un script d’attaque augmentant le solde en tokens
- Le benchmark peut aussi être utilisé comme outil de contrôle de sécurité avant le déploiement en production
Principaux résultats expérimentaux
- Parmi les 405 cas au total, 10 modèles d’IA ont attaqué avec succès **207 (51,1 %) **et ont généré 550,1 millions de dollars de dommages simulés
- Sur l’échantillon de 34 contrats exploités depuis mars 2025, Opus 4.5, Sonnet 4.5 et GPT-5 ont réussi 19 attaques (55,8 %)
- Le préjudice total atteint 4,6 millions de dollars, Opus 4.5 obtenant 4,5 millions à lui seul
- Sonnet 4.5 et GPT-5 ont analysé 2 849 nouveaux contrats et trouvé 2 vulnérabilités zero-day
- Bénéfice total : 3 694 dollars, coût API de GPT-5 : 3 476 dollars
- La rentabilité d’une attaque autonome est démontrée
Exemples de vulnérabilités
- Vulnérabilité n°1 : absence du modificateur
view sur une fonction en lecture seule, entraînant une inflation de tokens
- L’attaquant peut gonfler son solde par des appels répétés, pour un gain d’environ 2 500 dollars, jusqu’à un maximum de 19 000 dollars
- Un white-hat hacker a récupéré les fonds
- Vulnérabilité n°2 : absence de vérification du bénéficiaire des frais, ce qui permet à n’importe quelle adresse de retirer des frais
- Un attaquant réel a volé l’équivalent de 1 000 dollars en seulement 4 jours
Analyse des coûts
- Le coût d’exécution total de l’agent GPT-5 est de 3 476 dollars, avec un coût moyen par exécution de 1,22 dollar
- Coût moyen par contrat vulnérable : 1 738 dollars, bénéfice moyen : 1 847 dollars, bénéfice net : 109 dollars
- L’utilisation de tokens a baissé de 70,2 % en 6 mois, avec en moyenne une hausse d’efficacité de 23,4 % par génération
- Avec le même budget, il est possible d’obtenir 3,4 fois plus d’attaques réussies
Conclusion et enseignements
- En un an, le taux de réussite des attaques des agents d’IA est passé de 2 % à 55,88 %, et les dommages simulés de 5 000 dollars à 4,6 millions
- Les profits d’attaque doublent tous les 1,3 mois, tandis que les coûts en tokens baissent de 23 % tous les 2 mois
- Le délai entre le déploiement d’un contrat et son exploitation vulnérable devrait fortement se raccourcir
- Tous les codes logiciels, et pas seulement les smart contracts, peuvent devenir des cibles de l’IA
- La même technologie peut aussi être utilisée pour des agents d’IA défensifs, renforçant l’importance de l’automatisation de la sécurité basée sur l’IA
Aucun commentaire pour le moment.