Africa-Press – Burkina Faso. Courant 2026, le test ARC-AGI (Abstraction and reasoning corpus for artificial general intelligence) conçu pour déterminer si une intelligence artificielle (IA) peut être qualifiée de « générale » (AGI) doit être mis à jour. Son principe: présenter à une IA une série de grilles avec motifs colorés, comme dans un jeu de Tetris, pour qu’elle génère la grille et les motifs suivants. Si un humain réussit assez facilement, les IA ont toujours été à la peine.
Or, fin 2024, o3 d’OpenAI a atteint 75,7 %, voire 87,5 % de réussite selon la version du modèle, contre 34 % pour les meilleurs scores enregistrés jusque-là. Mais quelques mois plus tard, face à une première mise à jour du test, les performances d’o3 sont tombées à… 4 %. Cette révision disqualifiait expressément l’usage de la force brute, le recours à la puissance de calcul pour tester un maximum de réponses jusqu’à trouver la bonne.
Mis au point en 2019 par le Français François Chollet, ancien de Google, l’ARC-AGI témoigne d’une véritable obsession pour l’IA générale. Selon un rapport daté d’avril dernier de Google DeepMind, son avènement serait pour 2030 ; Open-AI, Meta ou Amazon en ont fait leur priorité. Reste que cette notion, apparue dans les années 2000, demeure nébuleuse. « Demandez à 100 spécialistes de l’IA de définir ce qu’ils entendent par ‘AGI’ et vous obtiendrez sans doute 100 définitions connexes mais différentes « , notait un autre rapport de Google DeepMind début 2024.
Dit simplement, il s’agirait d’une intelligence de niveau humain, voire supérieur. Mais sur quels critères? Comparé à un humain lambda ou supérieurement intelligent? OpenAI fait de l’AGI « un système hautement autonome qui dépasse les humains dans la plupart des tâches ayant un intérêt économique « . Trop réducteur selon François Chollet, pour qui l’AGI ne se définit pas par ses compétences mais par sa faculté à en acquérir de nouvelles. Créatrice du corpus ImageNet destiné à la vision par ordinateur, Fei-Fei Li estime, elle, que l’AGI devra nécessairement avoir une « intelligence spatiale ».
Certains modèles aptes au « raisonnement »
« Les modèles de langue savent reproduire un texte sans qu’on leur ait dit ce qu’était un texte, une phrase. On ne leur a pas appris à conjuguer, ni à accorder le verbe au sujet mais ils y arrivent. C’est ce qu’on appelle des phénomènes émergents « , reconnaît Thierry Poibeau, directeur de recherche au laboratoire Lattice (Langues, textes, traitements informatiques et cognition) du CNRS.
L’aptitude au « raisonnement », qui voit les modèles décrire comment ils décomposent une tâche, serait aussi un pas vers plus de compréhension, au-delà du pur apprentissage. « Après, on se heurte à l’imaginaire d’un système plus intelligent que nous et cela suscite des fantasmes, prévient le chercheur. Dans le monde de la recherche, on se demande surtout si l’IA va continuer d’évoluer au même rythme que ces cinq dernières années. On se rend compte que GPT5 [août 2025] n’est pas tellement meilleur que le 4o. »
Pour plus d’informations et d’analyses sur la Burkina Faso, suivez Africa-Press





