L’actualité technologique avec l’intelligence artificielle du 18 février 2026 marque une alliance majeure entre l’IA et la crypto. OpenAI et le fonds d’investissement Paradigm dévoilent EVMbench. Ce nouvel outil mesure la capacité des agents IA à détecter, corriger et exploiter les bugs des contrats intelligents (smart contracts). Les résultats montrent une progression fulgurante des capacités offensives de l’IA. Analyse d’un outil à double tranchant pour la sécurité d’Ethereum.
EVMbench : le crash-test des smart contracts
Ce benchmark repose sur des données réelles et non théoriques pour évaluer les modèles de langage (LLM).
120 failles authentiques
EVMbench utilise 120 vulnérabilités critiques issues de 40 audits passés. Ces données proviennent de compétitions de sécurité comme Code4rena et du développement de la blockchain Tempo. L’environnement de test simule une exécution locale d’Ethereum pour garantir un réalisme total.
Trois modes de test
L’outil évalue les agents IA sur trois axes précis :
- Detect (Détecter) : L’agent scanne le code pour identifier les vulnérabilités. Le score dépend de sa capacité à trouver tous les bugs (rappel).
- Patch (Corriger) : L’IA modifie le code pour supprimer la faille. Elle doit maintenir la fonctionnalité initiale sans introduire de nouveaux bugs.
- Exploit (Exploiter) : L’agent tente une attaque pour vider les fonds dans un environnement sécurisé et isolé.
OpenAI : L’IA devient un hacker redoutable
Les premiers résultats publiés par OpenAI inquiètent autant qu’ils impressionnent les experts en cybersécurité.
Le bond de ChatGPT-5.3
En mode « Exploit », le modèle GPT–5.3-Codex atteint un score de réussite de 72,2 %. C’est un saut massif par rapport à GPT-5, qui ne marquait que 31,9 % il y a peine six mois. Cette accélération prouve que l’IA comprend désormais finement la logique économique des protocoles DeFi.
Un risque offensif asymétrique
L’IA excelle désormais à vider des fonds virtuels. OpenAI note que les agents performent mieux dans l’attaque que dans la défense. Cela réduit drastiquement le temps entre la découverte d’un bug et son exploitation malveillante. L’automatisation du piratage devient une menace concrète pour les protocoles non audités.
Réponse défensive d’OpenAI: 10 millions de dollars
Face à ce risque, Sam Altman et OpenAI veulent renforcer les défenses de l’écosystème avant que l’IA ne soit utilisée à des fins criminelles.
Financer la recherche en cybersécurité
L’entreprise s’engage à fournir 10 millions de dollars en crédits API pour soutenir la recherche défensive. L’objectif est d’aider les développeurs à utiliser ces agents pour sécuriser le code avant le déploiement sur la chaîne principale (Mainnet).
Un contexte de tension pour la DeFi
Cette initiative arrive après des attaques récentes contre les protocoles Moonwell et CrossCurve. Dans certains cas, du code vulnérable écrit avec l’aide d’une IA générative était en cause. OpenAI souhaite que son outil devienne un garde-fou plutôt qu’une arme.
Conclusion OpenAI : l’épée et le bouclier numérique
EVMbench définit le nouveau standard de sécurité pour le Web3. L’outil prouve que l’IA peut désormais agir comme un auditeur « chapeau blanc » ou un pirate impitoyable. Pour Paradigm et OpenAI, la course consiste désormais à armer les défenseurs avant que les attaquants n’automatisent totalement le vol de fonds sur la blockchain.
FAQ : OpenAI, Paradigm et EVMbench
C’est un outil de test créé par OpenAI et Paradigm. Il évalue si une IA peut trouver, réparer ou exploiter des bugs dans les contrats Ethereum.
Le dernier modèle, GPT-5.3, réussit à exploiter 72,2 % des failles testées. Cela signifie que l’IA devient très efficace pour mener des cyberattaques autonomes.
Ils offrent 10 millions de dollars de crédits pour aider les chercheurs à bâtir des défenses. Ils veulent que l’IA serve d’auditeur de sécurité, pas d’arme.
Ce contenu analyse des outils technologiques de sécurité et des rapports de recherche. Il ne constitue pas un conseil en investissement ou en sécurité informatique.