Africa-Press – CentrAfricaine. ChatGPT, démontre-moi l’hypothèse de Riemann. » Quand on pose la question au chatbot bien connu d’OpenAI, il l’élude. Il préfère nous rappeler que la conjecture de Riemann est l’un des sept fameux « problèmes du millénaire », un ensemble de questions réputées extrêmement difficiles à résoudre. Mais c’est tout. Les mathématiques sont l’une des fiertés de l’humanité, et il paraît presque inconcevable que l’IA s’y illustre. Pourtant, depuis trois ans, de plus en plus de chercheurs explorent l’aide qu’elle peut apporter dans les mathématiques. Et plus les progrès arrivent, moins ils voient de questions qu’elle ne pourrait résoudre.
Le pavé dans la mare a été lancé en 2021 par des chercheurs de Google Deep-Mind, des universités de Sydney (Australie) et d’Oxford (Royaume-Uni). Dans un article publié dans Nature, ils expliquent comment ils se sont servis des outils de l’IA pour résoudre un problème du domaine de la théorie des nœuds. « Ce travail a constitué une véritable percée, car il a montré qu’il était possible d’utiliser le machine learning [apprentissage automatique] en mathématiques fondamentales « , se souvient Radmila Sazdanovic, chercheuse à l’Université d’État de Caroline du Nord (États-Unis).
La théorie des nœuds est une discipline qui étudie les manières d’entortiller une corde. Une des questions importantes, mais difficiles, est de distinguer deux nœuds: quand on colle les deux bouts de la corde, deux nœuds sont différents si on ne peut pas passer de l’un à l’autre sans couper la corde. Pour répondre à ce type de questions, les mathématiciens ont créé des objets, appelés invariants de nœuds, qui permettent de les distinguer.
« On peut les voir comme des images d’un nœud depuis différents points de vue « , propose Radmila Sazdanovic. Pour faciliter les calculs parfois complexes des invariants et mieux les comprendre, il est intéressant de savoir s’il existe une formule pour passer d’un invariant à un autre. C’est pour répondre à cette question qu’en 2021, les chercheurs ont entraîné un modèle d’IA sur une base de données de plus de 2 millions de nœuds dotés de deux invariants. La mission de l’ordinateur était alors de deviner un invariant lorsqu’on lui donnait l’autre. Ce qu’il a réussi.
Si les chercheurs en restaient là, ils auraient pour information qu’il y a bien un lien unissant les deux invariants, ce qui permet à la machine de deviner l’autre, mais sans en dire plus. « La difficulté est que ces outils sont des boîtes noires: on ne sait pas vraiment ce qu’ils font « , souligne Geordie Williamson, chercheur à l’Université de Sydney qui a participé à l’étude. Heureusement, il est possible de décoder les choix de l’algorithme grâce à une technique appelée analyse de saillance.
« Imaginez qu’on a une boîte noire qui reconnaît les images de tigre: on peut cacher successivement toutes les parties des photos pour identifier celles qui comptent pour reconnaître l’animal. C’est un peu ce qu’on a fait ici « , illustre-t-il. Avec cette technique, ils ont pu trouver une formule reliant les invariants. « Le modèle a vraiment suggéré des idées aux mathématiciens « , complète Kevin Buzzard, mathématicien à l’Imperial College de Londres (Royaume-Uni). Malgré ce succès, l’adoption de ces outils est timide dans la communauté mathématique. « Les mathématiciens sont assez conservateurs « , admet-il.
D’autres travaux ont toutefois vu le jour par la suite. À l’instar des chercheurs de l’Imperial College de Londres et de l’Université de Nottingham (Royaume-Uni), qui cherchaient à déchiffrer une expression mathématique compliquée, appelée période quantique, qui est comparable à l’empreinte digitale d’un certain type de formes, les variétés de Fano.
L’avantage de l’apprentissage automatique, c’est sa capacité à analyser des quantités considérables de données. Il ne résout pas le problème à la place du spécialiste mais aide à mieux comprendre des données, suggère des liens, génère des exemples ou des contre-exemples, oriente un calcul d’une manière astucieuse…
Les mathématiciens sont alors là pour comprendre les retours de l’algorithme, en déduire des conjectures et les prouver. Tout en gardant en tête que « le modèle peut faire une erreur à tout moment. Alors qu’en mathématiques il faut que cela soit juste tout le temps « , souligne Thomas Hubert, chercheur chez Google DeepMind.
L’apprentissage par renforcement évite les erreurs
Mais nous sommes peut-être à l’aube d’un tout autre avènement: celui des modèles d’IA qui ne font pas d’erreurs. Et ce, grâce à l’apprentissage par renforcement. Cette méthode consiste à faire jouer la machine à un jeu, en la récompensant quand elle réussit. C’est elle qui a permis à DeepMind de concevoir des modèles comme AlphaGo, capable de battre les meilleurs joueurs de go. Or les problèmes de mathématiques, eux aussi, peuvent être vus comme des jeux.
« Prenez une conjecture: il y a des hypothèses et le but est de montrer qu’elle est vraie. Le jeu auquel la machine va jouer est de trouver le cheminement des hypothèses au but, éclaire Sergei Gukov, chercheur au California Institute of Technology (États-Unis). Et l’un des intérêts principaux de cette technique, c’est que lorsque le modèle résout une question, nous sommes certains qu’il n’y a aucune erreur. » Quand l’algorithme réussit le jeu, le problème est dénoué. Depuis quelques mois, certains s’en servent donc en mathématiques.
C’est le cas de DeepMind, qui a présenté à l’été dernier AlphaProof, un modèle d’apprentissage par renforcement reposant sur l’assistant de preuves Lean, un logiciel qui vérifie si une démonstration est correcte. Leur idée est proche d’AlphaGo, mais ici, plutôt que de générer des coups au cours d’une partie de jeu de go jusqu’à la victoire, leur programme écrit des lignes de démonstration jusqu’au CQFD. Cette idée a été mise à l’épreuve au sein d’un concours réputé: les Olympiades internationales de mathématiques, une compétition ouverte aux élèves en fin de lycée. Les questions posées demandent beaucoup d’astuces et de réflexion. Avant la compétition, AlphaProof – comme les élèves – s’est entraîné, a ingurgité un grand nombre de problèmes. Le jour du concours, le modèle a réussi trois des six problèmes (même s’il lui a fallu jusqu’à trois jours pour certains). « J’étais impressionné. Avant leur exploit, je n’aurais jamais pensé que l’IA pourrait réussir ne serait-ce qu’un des problèmes ! « , se souvient Kevin Buzzard.
D’autres équipes ont utilisé l’apprentissage par renforcement pour se frotter à des problèmes ouverts de recherche. Sergei Gukov et ses collègues ont testé des contre-exemples de la conjecture d’Andrews-Curtis. Il s’agit d’un problème que beaucoup pensent faux et issu de la théorie des groupes, domaine qui étudie des ensembles d’objets avec une structure particulière. Sans même besoin d’un corpus de données d’apprentissage, ils ont testé la validité de contre-exemples supposés à cette conjecture. Et ils ont montré qu’aucun de ceux-ci n’invalide la question. Pour l’heure, la conjecture d’Andrews-Curtis tient donc toujours…
Pouvoir atteindre un jour les problèmes du millénaire
Avec ces succès, la question s’impose d’elle-même: où est la limite dans ce que pourra, ou non, faire l’IA ? « Difficile de prévoir le futur. Mais je pense qu’on est davantage en train d’explorer ce que la machine peut résoudre, plutôt que ce qu’elle ne peut pas « , pose Geordie Williamson. D’autres sont plus optimistes: « On se dit qu’il n’y a pas forcément de limites dans ce que la machine pourrait faire « , admet Thomas Hubert. « Peut-être que si on continue sur cette lancée, on pourrait un jour atteindre les problèmes du millénaire. Mais il reste encore beaucoup de travail à accomplir « , projette même Sergei Gukov.
« Si la machine devient si performante, j’aurai du mal à justifier de continuer la recherche « , concède Kevin Buzzard. Peut-être qu’alors il restera aux mathématiciens à trouver les futures conjectures intéressantes. Et aussi de se plonger dans le raisonnement de la machine: tout l’intérêt n’est pas de savoir si oui ou non la conjecture de Riemann est vraie, mais plutôt de comprendre pourquoi elle l’est. Alors, même si la machine envoie une démonstration longue de milliers de pages, il restera aux mathématiciens d’essayer de la comprendre.
Des applications au-delà des mathématiques
Employer les outils de l’IA dans les mathématiques, cela n’a pas pour seule utilité la résolution de problèmes théoriques de longue date. « À partir du moment où nous aurons des modèles capables de faire des mathématiques, des applications commerciales vont suivre « , annonce Sergei Gukov, chercheur au California Institute of Technology (États-Unis). La prévision météo est un premier exemple de ces applications, « car les équations utilisées sont si complexes qu’on ne peut pas les résoudre exactement « , explique Radmila Sazdanovic, chercheuse à l’Université d’État de Caroline du Nord (États-Unis).
Ensuite, l’apprentissage par renforcement permet d’imaginer des utilisations dans des domaines critiques comme la finance. Enfin et comme un cercle vertueux, le domaine de l’IA, lui-même, pourrait en bénéficier. Pour créer des modèles capables de s’attaquer aux problèmes mathématiques difficiles (comme les conjectures ouvertes), les chercheurs doivent développer de nouveaux algorithmes et de nouvelles architectures de réseaux de neurones. Le but est de créer des systèmes capables de trouver le très long chemin qui mène à la réponse, « et c’est ce dont on a besoin pour faire progresser le niveau actuel de l’IA vers l’IA générale », précise Sergei Gukov.
Pour plus d’informations et d’analyses sur la CentrAfricaine, suivez Africa-Press