Africa-Press – Benin. Cela fait plusieurs années que les spécialistes de sécurité informatique anticipent l’utilisation malveillante de l’intelligence artificielle (IA). Il n’a d’ailleurs pas fallu longtemps pour que soient révélées les failles de ChatGPT et les manières de contourner les garde-fous de ce type d’interface. Sans parler des deepfakes à propos desquels le Clusif alertait déjà il y a deux ans. Le 15 janvier 2026, cette association française de spécialistes de cybersécurité présentait son traditionnel Panocrim, soit le bilan de la menace cyber de l’année écoulée. Et pour Gérôme Billois, de la société de conseil en informatique Wavestone, qui intervenait sur le sujet, « cette année (2025, ndlr) a été celle de la concrétisation des premières attaques dans le domaine de l’IA. »
Ces technologies donnent notamment un coup de fouet à des techniques d’escroquerie en ligne bien connues. Dans son rapport sur la menace cyber paru en septembre 2025, Microsoft a ainsi évalué qu’une opération de phishing automatisée grâce à l’IA avait 4,5 fois plus d’efficacité qu’une autre basée sur les méthodes classiques. « Plus préoccupant, note le rapport, l’automatisation par IA procure potentiellement au phishing une profitabilité 50 fois supérieure en déployant des attaques hautement ciblées à des milliers de destinataires pour un coût minimal. » De quoi inciter tout cybercriminel à s’y mettre… Mais cela ne s’arrête pas là car l’usage de l’IA a atteint une telle maturité que certains criminels, au lieu de s’en servir eux-mêmes, mettent au point des outils qu’ils revendent à d’autres.
Les dangers de l’automatisation
L’automatisation, justement, a fait ses preuves avec une opération de cyberespionnage sur une trentaine de cibles (entreprises, institutions financières…) attribuée à des hackers chinois et détaillée en novembre 2025 par la société Anthropic, conceptrice du modèle de langage Claude. L’attaquant a en effet utilisé Claude Code, la version du modèle spécialisée dans l’écriture de code informatique. « Il a simplement défini sa cible, explique Gérôme Billois, et ensuite, il a laissé l’IA réaliser les différentes opérations de manière automatique: découverte de la surface d’attaque, tests de vulnérabilité… » Là où Claude Code a opéré seul durant quelques heures sur chaque phase, l’humain, lui, n’a été mobilisé que quelques minutes. Selon le rapport d’Anthropic, il s’agirait du « premier cas documenté de cyberattaque à grande échelle principalement exécutée sans intervention humaine ».
La guerre en Ukraine a été l’occasion d’une autre première inquiétante: un logiciel malveillant autonome. Baptisé LameHug, il s’est installé sur le réseau informatique cible (en l’occurrence des sites gouvernementaux ukrainiens) pour adresser des prompts servant de commandes aux systèmes existants (notamment sous Windows). « Il récupère ainsi des instructions lui permettant de réaliser des attaques adaptées au contexte d’une entreprise, en temps réel, sans personne derrière lui », explique encore Gérôme Billois.
Attaques autonomes dans l’IA agentique
C’est encore l’autonomie qui fait planer un risque d’envergure sur une évolution en vogue de l’IA: l’IA agentique. Ce terme désigne non plus seulement des IA qui génèrent un contenu suite à une requête en langage naturel mais qui réalisent elles-mêmes des tâches pour lesquelles elles ont été paramétrées: ouvrir des pages web, y collecter des données, remplir des formulaires, trier et résumer des e-mails, y chercher un contenu, faire des synthèses, etc. Autrement dit, un utilisateur humain n’a plus besoin de cliquer où que ce soit pour être touché par une manœuvre malveillante…
Pour l’heure, ces attaques se cantonnent principalement à des travaux de recherche. C’est le cas par exemple de la faille EchoLeak découverte début 2025 sur Copilot, l’IA de Microsoft, par la société de cybersécurité Aim Security. Elle passe par un e-mail contenant un prompt caché, en lettres blanches sur fond blanc. L’instruction est invisible pour un humain, lequel de toute façon n’a pas besoin d’ouvrir le mail pour le traiter par IA. Mais Copilot, lui, le lit et va donc exécuter le prompt. En l’occurrence, exfiltrer des données sensibles.
Un piège pour ChatGPT Atlas
Ce mécanisme vaut pour les navigateurs web intégrant de l’IA native, comme Comet de Perplexity, l’AI Mode de Google ou ChatGPT Atlas. Une équipe d’une autre firme de cybersécurité, NeuralTrust, a pu piéger ChatGPT Atlas en octobre 2025 avec la saisie dans l’interface de suites de caractères ressemblant à des adresses de pages web (commençant par https://). Mais il s’agissait en réalité de commandes à l’intention du LLM qui, au lieu d’ouvrir une page web, peut exécuter une action malveillante comme effacer ou voler des données, basculer sur un faux site web servant à une opération de phishing, etc. Les chercheurs détaillent sur leur blog l’opération.
« Ces IA ont un problème fondamental: la manière dont on les configure et celle dont on les utilise passent par le même canal d’interaction, c’est-à-dire le prompt, insiste Gérôme Billois. Contrairement aux systèmes classiques avec d’un côté l’espace de l’administrateur du système, et de l’autre celui de l’utilisateur. » Deux zones jusque-là étanches.
Effet démultiplicateur sur la sécurité
Il reste que si l’intelligence artificielle peut démultiplier les attaques, elle a logiquement le même effet sur la sécurité. La preuve avec le Challenge AIxCC organisé sur deux ans par la Darpa, l’agence de recherche de la défense américaine. Les participants devaient utiliser des IA pour trouver, corriger et tester les mises à jour dans 80 projets informatiques open source. Résultat, publiée en août 2025: certains systèmes ont pu débusquer 77% des vulnérabilités connues mais aussi trouver des failles dites « zero day », c’est-à-dire non-identifiées jusque-là. Et pour un taux de succès des correctifs de 61%.
« On préférerait évidemment que ce soit 100% mais la vraie nouveauté, c’est qu’en moyenne, de l’analyse du code à la compilation du logiciel après intégration des corrections, il a fallu 45 minutes pour un coût de puissance de calcul informatique de 450 dollars. » C’est sans comparaison avec les pratiques traditionnelles bien plus laborieuses. Au moins une bonne nouvelle dans un contexte trop souvent anxiogène.





