5 points par GN⁺ 2025-12-05 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Des modèles d’IA ont prouvé par simulation qu’il est possible d’exploiter de vraies vulnérabilités de smart contracts blockchain pour faire apparaître jusqu’à 4,6 millions de dollars de pertes potentielles
  • L’équipe de recherche a construit le benchmark SCONE-bench pour l’évaluation, basé sur 405 contrats réellement piratés entre 2020 et 2025
  • Claude Opus 4.5, Sonnet 4.5 et GPT-5 ont réussi à attaquer 55,8 % des contrats publiés après la date de coupure des connaissances
  • Deux modèles ont détecté 2 vulnérabilités zero-day et ont démontré que des attaques autonomes sont techniquement possibles dans des conditions réelles
  • Avec l’amélioration rapide des capacités offensives de l’IA, il faut d’urgence privilégier le déploiement de l’IA à des fins défensives

SCONE-bench : benchmark d’attaque de smart contracts

  • Les chercheurs ont développé SCONE-bench pour quantifier l’impact économique des vulnérabilités de smart contracts
    • Il comprend 405 contrats qui ont réellement été compromis entre 2020 et 2025
    • Collectés sur 3 blockchains : Ethereum, Binance Smart Chain, Base
    • Chaque contrat peut être reproduit dans un environnement de simulation (basé sur Docker)
  • Chaque agent d’IA devait, en moins de 60 minutes, trouver une vulnérabilité et générer un script d’attaque augmentant le solde en tokens
  • Le benchmark peut aussi être utilisé comme outil de contrôle de sécurité avant le déploiement en production

Principaux résultats expérimentaux

  • Parmi les 405 cas au total, 10 modèles d’IA ont attaqué avec succès **207 (51,1 %) **et ont généré 550,1 millions de dollars de dommages simulés
  • Sur l’échantillon de 34 contrats exploités depuis mars 2025, Opus 4.5, Sonnet 4.5 et GPT-5 ont réussi 19 attaques (55,8 %)
    • Le préjudice total atteint 4,6 millions de dollars, Opus 4.5 obtenant 4,5 millions à lui seul
  • Sonnet 4.5 et GPT-5 ont analysé 2 849 nouveaux contrats et trouvé 2 vulnérabilités zero-day
    • Bénéfice total : 3 694 dollars, coût API de GPT-5 : 3 476 dollars
    • La rentabilité d’une attaque autonome est démontrée

Exemples de vulnérabilités

  • Vulnérabilité n°1 : absence du modificateur view sur une fonction en lecture seule, entraînant une inflation de tokens
    • L’attaquant peut gonfler son solde par des appels répétés, pour un gain d’environ 2 500 dollars, jusqu’à un maximum de 19 000 dollars
    • Un white-hat hacker a récupéré les fonds
  • Vulnérabilité n°2 : absence de vérification du bénéficiaire des frais, ce qui permet à n’importe quelle adresse de retirer des frais
    • Un attaquant réel a volé l’équivalent de 1 000 dollars en seulement 4 jours

Analyse des coûts

  • Le coût d’exécution total de l’agent GPT-5 est de 3 476 dollars, avec un coût moyen par exécution de 1,22 dollar
  • Coût moyen par contrat vulnérable : 1 738 dollars, bénéfice moyen : 1 847 dollars, bénéfice net : 109 dollars
  • L’utilisation de tokens a baissé de 70,2 % en 6 mois, avec en moyenne une hausse d’efficacité de 23,4 % par génération
    • Avec le même budget, il est possible d’obtenir 3,4 fois plus d’attaques réussies

Conclusion et enseignements

  • En un an, le taux de réussite des attaques des agents d’IA est passé de 2 % à 55,88 %, et les dommages simulés de 5 000 dollars à 4,6 millions
  • Les profits d’attaque doublent tous les 1,3 mois, tandis que les coûts en tokens baissent de 23 % tous les 2 mois
  • Le délai entre le déploiement d’un contrat et son exploitation vulnérable devrait fortement se raccourcir
  • Tous les codes logiciels, et pas seulement les smart contracts, peuvent devenir des cibles de l’IA
  • La même technologie peut aussi être utilisée pour des agents d’IA défensifs, renforçant l’importance de l’automatisation de la sécurité basée sur l’IA

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.