Cinq familles de logiciels malveillants développées par l'IA et analysées par Google ne fonctionnent pas et sont facilement détectées.
-
Google a analysé cinq exemples récents de malwares créés à l’aide d’intelligences artificielles génératives (PromptLock, FruitShell, PromptFlux, PromptSteal et QuietVault). Leurs performances se sont révélées nettement inférieures à celles de malwares développés par des experts humains : ils étaient faciles à détecter, non persistants et sans impact opérationnel réel.
Ces résultats montrent que, malgré l’engouement pour l’IA, la création automatisée de menaces reste rudimentaire et ne représente pas encore un risque crédible. Les chercheurs soulignent que l’IA peut aider les cybercriminels à coder plus vite, mais ne rend pas les attaques plus puissantes.
Des entreprises comme Anthropic, ConnectWise et OpenAI ont affirmé que leurs modèles pouvaient être utilisés pour créer ou faciliter le développement de ransomwares, mais leurs propres rapports reconnaissent également d’importantes limites techniques. Ces déclarations servent souvent à alimenter le battage médiatique autour du rôle de l’IA dans la cybersécurité.
Google a toutefois relevé un incident où un utilisateur malveillant a réussi à détourner le modèle Gemini en se faisant passer pour un chercheur participant à un exercice de cybersécurité (« capture du drapeau »), ce qui a conduit à un renforcement des contre-mesures.
En conclusion, les malwares créés par l’IA sont aujourd’hui surtout expérimentaux, sans capacités inédites ni menace concrète. Les attaques les plus dangereuses reposent encore sur des méthodes traditionnelles.
Restez quand même sur vos gardes, les menaces purement humaines sont toujours plus efficaces.