Les cybercriminels peinent à intégrer l'intelligence artificielle (IA) à leurs activités, selon une étude récente publiée par l'université d'Édimbourg. Selon Euronews FR, l'étude a analysé plus de 100 millions de messages publiés sur des forums par des cybercriminels, en s'appuyant sur la base de données CrimeBB, qui aspire les données provenant de forums clandestins.
Ce qu'il faut retenir
- L'étude a analysé plus de 100 millions de messages publiés sur des forums par des cybercriminels.
- Les cybercriminels peinent à intégrer l'IA à leurs activités, malgré leur intérêt pour la technologie.
- L'IA n'a pas profondément transformé la façon dont les cybercriminels travaillent.
- Les assistants de programmation fondés sur l'IA s'avèrent surtout utiles pour les personnes déjà expérimentées.
- Les cybercriminels sont contraints de se rabattre sur d'anciens modèles d'IA open source de moindre qualité.
Les données ont été examinées à la fois manuellement et à l'aide d'un grand modèle de langage (LLM). Les chercheurs ont conclu que l'IA n'a pas profondément transformé la façon dont les cybercriminels travaillent, malgré leur intérêt pour la technologie.
Les limites de l'IA pour les cybercriminels
Les assistants de programmation fondés sur l'IA s'avèrent surtout utiles pour les personnes déjà expérimentées, selon l'étude. Les modèles d'IA proposant une aide au codage n'offrent pas de véritable « coup de pouce » lorsqu'il s'agit de pénétrer des appareils ou de contourner des dispositifs de sécurité.
« Il faut d'abord apprendre les bases de la programmation par soi-même avant de pouvoir utiliser l'IA et en tirer VRAIMENT profit », écrit l'un des messages cités dans l'étude.
Les cybercriminels et l'IA
Les retours d'expérience laissent entendre que même les hackers les plus chevronnés recourent aux chatbots pour obtenir des réponses à des questions de programmation ou générer des « antisèches » destinées à les aider à coder.
L'IA effectivement utilisée relève de « produits grand public et légitimes », comme Claude d'Anthropic ou Codex d'OpenAI, plutôt que de modèles spécifiquement conçus pour la cybercriminalité, tels que WormGPT, élaborés par des pirates pour produire du code malveillant ou des courriels d'hameçonnage.
En conclusion, l'étude de l'université d'Édimbourg met en lumière les limites de l'IA pour les cybercriminels. Même si les hackers sont attirés par la technologie, ils peinent à l'intégrer à leurs activités de manière efficace.