Africa-Press – Côte d’Ivoire. Cet article est extrait du mensuel Sciences et Avenir n°939, daté mai 2025.
L’apparition des deepfakes, contenus (photos, vidéos, voix) créés par apprentissage automatique, a fait émerger un champ de recherche à part entière: celui de leur détection, utilisant aussi l’apprentissage automatique. Au début, certaines techniques débusquaient diverses incohérences dans les images générées: des reflets de lumière, les mouvements labiaux, les clignements d’œil, les couleurs, la résolution, etc.
Une équipe du laboratoire CortAIx de Thales a poussé bien plus loin cette approche en novembre 2024, dans le cadre d’un concours de l’Agence de l’innovation de défense (AID), un service de la direction générale des Armées. Elle a mis au point un méta-détecteur qui combine les performances des cinq meilleurs détecteurs du monde académique.
« Par exemple, si les modèles 1 et 2 ont quasiment tout le temps raison, notre méta-modèle va apprendre à leur faire confiance quand ils sont d’accord, explique Rodolphe Lampe, data scientist au sein de l’équipe. En revanche, si les deux sont en désaccord mais que le modèle 4 donne le même verdict que l’un des deux, on va regarder pourquoi. Le méta-modèle apprend ainsi différentes règles. » Chacun des détecteurs analyse des choses différentes dans la structure mathématique des images.
Par exemple, un modèle de diffusion fonctionne sur une logique de bruitage/débruitage d’images. Or, ce mécanisme crée des motifs, plus ou moins réguliers, dans ce bruit. Un réseau de neurones peut apprendre à repérer cette régularité pour identifier l’image comme générée ou non. D’autres détecteurs examinent les « fréquences » d’une image, c’est-à-dire le niveau d’homogénéité (un ciel bleu) ou de variabilité (de nombreux objets disparates).
Modèle de diffusion
Cette catégorie de réseaux de neurones sert de base à des logiciels de génération d’images à partir de descriptions textuelles, comme Dall-E 2, Midjourney ou Stable Diffusion. Le fonctionnement, décrit dans un article de 2020 de l’université de Californie à Berkeley (États-Unis), est inspiré de principes de la thermodynamique.
Le modèle part d’images ayant servi à son entraînement pour les bruiter peu à peu, c’est-à-dire qu’il y ajoute des données parasites de manière aléatoire (forward diffusion), jusqu’à rendre illisible le contenu. Ensuite, un algorithme d’apprentissage procède à un débruitage progressif (reverse diffusion) pour revenir à une image cohérente, soit celle d’origine, soit une création guidée par du texte, voire d’autres images.
Une invraisemblance mathématique
Or, à visuel similaire, les deepfakes ont une distribution de fréquences qui n’est pas du tout celle des images réelles. Autrement dit, si une IA peut produire une image vraisemblable, elle ne sait pas lui donner une vraisemblance mathématique. « Bien sûr, un attaquant peut tenter de faire en sorte que les fréquences dans l’image générée ne soient plus si caractéristiques, reconnaît Christophe Meyer, directeur technique de CortAIx. Mais, ce faisant, il va provoquer autre chose que l’on va pouvoir découvrir. »
Preuve de la sensibilité du sujet, l’Agence de l’innovation de défense s’est associée à l’Agence nationale de la recherche dans un appel à projets sur la guerre cognitive, incluant la lutte contre les deepfakes. Jean-Luc Dugelay, enseignant-chercheur à l’école d’ingénieurs Eurecom, et son doctorant Alexandre Libourel y ont répondu par DeTox, une méthode inédite exploitant la biométrie comportementale de personnalités précises (politiques, économiques, militaires). « Nous nous intéressons à la dynamique faciale, explique Alexandre Libourel. Chacun a une façon bien à lui de froncer les sourcils, de hocher la tête, d’osciller la tête, et ces informations peuvent être exploitées pour savoir si, dans une vidéo, les mouvements sont ceux de la vraie personne. »
Pour cela, un algorithme de détection apprend à partir de vidéos authentiques et en tire une signature comportementale faciale qui sera ensuite comparée à un contenu suspect. Délaissant les caractéristiques intrinsèques d’un deepfake, il fonctionne sur toute vidéo synthétique, quelle que soit l’IA générative utilisée. Lors des tests, la technique donne de très bons résultats, mais ils s’avèrent meilleurs quand le deepfake est un faceswap (substitution d’un visage par un autre) plutôt qu’un reenactment (animation d’un visage par un tiers). Il faut cependant réentraîner l’algorithme sur un nouveau corpus d’images dès que l’on veut l’appliquer à une nouvelle personne.
« Mais notre atout est de pouvoir proposer à une personnalité de tourner des vidéos privées spécifiquement pour notre détecteur, en lui demandant des mouvements de tête qui nous arrangent, des expressions, des sourires, avec ou sans lunettes, tout ce que l’on veut pour un meilleur apprentissage des mimiques faciales, souligne Jean-Luc Dugelay. Les attaquants n’auront pas ces contenus pour faire leurs deepfakes, ce qui nous donne un avantage. » Dans un contexte où la défense est généralement à la traîne, c’est toujours bon à prendre.
Pour plus d’informations et d’analyses sur la Côte d’Ivoire, suivez Africa-Press