Les hackers ont dérobé 786 millions de dollars à des projets crypto depuis le début de 2026, selon les données DefiLlama, après une année 2025 qui avait déjà établi un record à 2,5 milliards. La tendance de fond est claire : les attaquants ciblent désormais les humains plutôt que les systèmes, et l’IA leur offre des outils de manipulation sans précédent. Des incidents comme l’exploit Litecoin sur MWEB illustrent aussi comment les vulnérabilités protocolaires restent des vecteurs critiques. À plus grande échelle, les réseaux organisés de scams crypto montrent l’ampleur croissante de ces menaces coordonnées.
Au programme
- 786 millions de dollars volés depuis janvier 2026, après un record de 2,5 milliards en 2025 (DefiLlama)
- La DeFi redevient la cible principale après une période de répit, via l’ingénierie sociale
- Les modèles d’IA accélèrent la création de faux profils et d’arnaques deepfake ultra-convaincantes
Pourquoi la DeFi redevient-elle la cible numéro 1 ?
La finance décentralisée était réputée avoir mûri. Ce n’est plus l’avis des experts en sécurité. “En ce moment, la DeFi semble être la cible principale”, déclare Michael Pearl, vice-président stratégie chez Cyvers, à DL News. “Tout a basculé vers le hacking des humains plutôt que le hacking des systèmes.”
Les chiffres confirment ce retournement. Drift Protocol, un exchange populaire sur Solana, a perdu près de 300 millions de dollars après que des hackers eurent établi des relations de confiance avec l’équipe avant l’attaque. Kelp DAO a subi un préjudice de 293 millions de dollars, forçant Justin Sun à plaider publiquement auprès des criminels pour négocier. Le piratage de Bybit en février 2025, 1,5 milliard de dollars, reste le plus grand hack de l’histoire de la crypto : il a démarré par un faux contributeur open-source convaincant un développeur d’installer un logiciel malveillant.
“Le point de compromission initial commence souvent par les personnes”, explique Matt Price, vice-président des investigations chez Elliptic. “L’intelligence artificielle aide les acteurs malveillants à affiner leurs techniques d’ingénierie sociale.”
L’IA, accélérateur ou prétexte ?
L’intelligence artificielle joue un rôle croissant, mais les experts sont partagés sur son importance réelle. D’un côté, des auditeurs du Congrès américain ont conclu cette semaine que les hackers travaillent plus vite grâce aux outils d’IA. Les criminels utilisent ces modèles pour identifier des failles dans le code DeFi et reproduire des identités de manière convaincante.
Un fondateur crypto a ainsi eu son ordinateur compromis en rejoignant ce qu’il croyait être un appel Microsoft Teams avec un contact connu de la Cardano Foundation. Le visage et la voix correspondaient parfaitement : c’était un deepfake généré par IA. La sortie du nouveau modèle d’image d’OpenAI aggrave ces risques, selon CryptoSlate, en rendant la génération de faux visuels encore plus accessible.
Pourtant, David Schwed, directeur des opérations chez SVRN et vétéran de la cybersécurité, tempère : “Ce n’est pas ce qui se passe ici. Le problème, c’est que vous construisez quelque chose d’incroyablement mal sécurisé, et les hackers trouvent simplement les failles plus rapidement.”
Lecture CryptoActu L’argument de l’IA sert parfois d’écran aux équipes DeFi pour masquer des lacunes de sécurité basiques. Sur les 5 plus gros hacks de 2025-2026, tous partagent un point commun : un employé manipulé, pas une faille algorithmique ésotérique. La question n’est pas “comment battre l’IA” mais “comment former ses équipes”.
Les vecteurs d’attaque documentés cette année incluent :
- Faux recruteurs sur LinkedIn (méthode historique du groupe Lazarus nord-coréen)
- Appels vidéo deepfake imitant des partenaires connus
- Liens malveillants envoyés lors de conférences sectorielles
- Faux contributeurs open-source proposant des mises à jour de code
Ces tactiques ne sont pas nouvelles. Comme le montrent les données sur les escroqueries crypto en Australie avec plus de 1 200 plaintes déposées, l’ingénierie sociale frappe tous les niveaux du secteur.
Qu’est-ce que les équipes DeFi doivent changer ?
Schwed, qui a dirigé les offres d’actifs numériques de BNY Mellon, est direct : les protocoles DeFi doivent adopter les standards de sécurité des institutions financières traditionnelles. Cela passe par des procédures de vérification systématique des identités, même pour des contacts établis.
La cybersécurité blockchain souffre d’un angle mort structurel : les projets investissent massivement dans les audits de code, mais négligent la formation humaine. La fuite de données clients chez plusieurs sociétés crypto illustre ce même problème : ce sont les interfaces humaines qui cèdent en premier.
Les erreurs de base restent légion. Comme le rappellent les 10 erreurs classiques des investisseurs crypto, la vérification des interlocuteurs et des liens avant toute action reste un réflexe insuffisamment ancré.
Questions fréquentes
Qu’est-ce que l’ingénierie sociale dans la crypto ?
L’ingénierie sociale désigne les techniques psychologiques utilisées pour manipuler des personnes et leur faire divulguer des informations sensibles ou exécuter des transactions malveillantes. Dans la crypto, elle a causé les plus grandes pertes de 2025-2026, dont le hack Bybit à 1,5 milliard de dollars.
Comment les hackers utilisent-ils l’IA pour attaquer les projets crypto ?
Ils emploient l’IA pour 3 usages principaux : générer des deepfakes audio et vidéo imitant des partenaires connus, automatiser la recherche de failles dans le code DeFi, et rédiger des messages de phishing personnalisés à grande échelle. Les modèles d’image récents rendent ces attaques encore plus difficiles à détecter.
Combien d’argent les hackers ont-ils volé en crypto en 2026 ?
786 millions de dollars ont été dérobés depuis janvier 2026, selon DefiLlama. Ce chiffre s’inscrit dans une tendance haussière : 2025 avait établi un record avec 2,5 milliards volés. Pour approfondir, voir notre dossier sur les escroqueries crypto en Australie.
À retenir
L’épidémie de hacking crypto combine 2 facteurs convergents : des équipes DeFi insuffisamment formées aux risques humains, et des outils d’IA qui abaissent le coût d’entrée pour les attaquants. À surveiller : l’évolution des standards de sécurité que les grands protocoles adopteront en réponse, et l’éventuelle régulation des deepfakes dans les communications professionnelles.