L’IA se prépare pour aller à la guerre

8
L'IA se prépare pour aller à la guerre
L'IA se prépare pour aller à la guerre

Africa-Press – Niger. « Les armées doivent prendre le virage de l’intelligence artificielle ! », lançait le ministre des Armées Sébastien Lecornu le 8 mars à l’École polytechnique, annonçant la création d’une nouvelle Agence ministérielle pour l’IA de défense (Amiad). Son but: renforcer les équipements de l’armée (avions Rafale et canons Caesar, entre autres) et aider les états-majors dans la planification d’opérations, notamment grâce à un supercalculateur classifié, le premier en Europe selon le ministère.

« La France est en train de faire un effort important dans le domaine de l’IA de défense », estime Lance Hunter, professeur de relations internationales à l’Université d’Augusta (États-Unis), spécialiste de l’utilisation de l’IA par les armées des grandes puissances militaires. Avec un budget de 300 millions d’euros par an (pour un total de 2 milliards d’ici à 2030), le pays ambitionne d’entrer dans le top 3 mondial de l’IA militaire.

« L’humain pourrait devenir le maillon faible »

Ailleurs aussi, les armées recourent de plus en plus à ces technologies. « Les États-Unis disposent par exemple de systèmes qui simulent une frappe de missile et estiment les dommages collatéraux pour aider à prendre des décisions », révèle Michael Mayer, conseiller à l’Institut de recherche de la Défense norvégienne (FFI). Et il est probable que cette utilisation gagne en importance.

« Certains experts estiment que dans le futur, le nombre de missiles et de drones présents en même temps dans l’espace de la bataille sera tellement élevé qu’il dépassera les capacités de la cognition humaine. Un humain ne pourra plus faire les arbitrages nécessaires à temps et devra déléguer cette responsabilité à la machine, poursuit Michael Mayer. L’humain pourrait devenir le maillon faible dans la boucle de prise de décisions militaires. » Une situation connue sous le nom d’hyper-guerre (hyperwar), où l’IA mène des batailles de très haute intensité, avec peu, ou pas, de décisions humaines.

Hyperguerre (« hyperwar »)

Ce terme est apparu en 2017, utilisé par le général à la retraite du corps des marines des États-Unis, John R. Allen, et l’expert en intelligence artificielle Amir Husain, pour décrire un combat où l’IA prend la majorité, voire la totalité, des décisions. Le délai de cette prise de décisions serait donc presque instantané, dans le but de submerger l’ennemi sous les attaques et de ne pas lui donner le temps de réagir. Des batailles éclair qui deviendraient encore plus rapides si les deux camps s’en remettaient intégralement à l’IA.

Les IA ont pris les options les plus agressives

Les machines orienteront-elles l’issue des grands conflits ? Et si c’est le cas, quels choix feront-elles ? Des chercheurs de l’Université Stanford et de l’Institut de technologie de Géorgie (États-Unis) ont exploré cette question dans un article en prépublication (pas encore revu par les pairs), mis en ligne en janvier. Ils ont demandé à plusieurs intelligences artificielles génératives – dont ChatGPT – de tenir le rôle d’un État et de prendre des décisions lors d’un conflit avec un autre État (également dirigé par une IA). Les actions possibles allaient de l’envoi d’un message à l’attaque par arme nucléaire. Bilan ? Toutes les IA testées ont penché pour l’escalade militaire, prenant des options agressives soudaines et difficiles à prédire. Alors que des décisionnaires humains ont plutôt tendance à prendre davantage de précautions dans ces situations et à tenter de réduire les tensions. « La nature imprédictible du comportement d’escalade montré par ces modèles souligne la nécessité d’une grande prudence en les intégrant à des opérations militaires », concluent les auteurs.

« Je ne suis pas sûr qu’un commandant militaire puisse être totalement dépendant d’une IA « , nuance Michael Mayer. Ce risque dépendrait du pays, selon Lance Hunter: « La Chine pourrait être plus encline à le faire. Notamment parce que ses responsables militaires ont moins d’expérience directe du combat que chez d’autres puissances, et pourraient donc se reposer davantage sur l’IA. » Mais aussi à cause d’une moindre vigilance du public. « Les dirigeants des pays occidentaux doivent tenir compte de l’opinion publique, au risque de le payer politiquement, explique Christopher Hennigan, consultant spécialisé dans la défense au cabinet de conseil Deloitte à Washington (États-Unis). Des pays comme la Chine n’ont pas cette contrainte car leurs systèmes politiques contrôlent davantage la population et l’opinion. » Ce qui pourrait leur donner un avantage tactique.

« Les pays occidentaux seront tentés de laisser l’IA prendre de plus en plus de décisions, en raison de l’importance de la vitesse dans une bataille. Cependant, ils garderont toujours des humains dans les boucles décisionnelles, prédit Lance Hunter. Mais ces humains auront besoin d’au moins quelques secondes pour s’informer et décider. » Des secondes qu’une armée ennemie entièrement pilotée par IA pourrait utiliser pour attaquer. Autant dire que dans un tel contexte, l’humanité risque d’être rapidement dépassée.

Pour plus d’informations et d’analyses sur la Niger, suivez Africa-Press

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here