Affaire Briefcam : qu’est-ce que la vidéosurveillance algorithmique ?

2
Affaire Briefcam : qu’est-ce que la vidéosurveillance algorithmique ?
Affaire Briefcam : qu’est-ce que la vidéosurveillance algorithmique ?

Africa-Press – Guinee Equatoriale. A la suite des révélations du média Disclose, la Commission nationale de l’informatique et des libertés (la Cnil) a annoncé le mercredi 15 novembre 2023 qu’elle contrôlerait le ministère de l’Intérieur sur l’utilisation du logiciel de vidéosurveillance algorithmique Briefcam.

Briefcam : un logiciel utilisé en secret par la police depuis 2015

En effet, le 14 novembre, le média Disclose révélait que la police municipale utilisait, depuis 2015, un logiciel de vidéosurveillance algorithmique (VSA) conçu par la société Briefcam. Ce logiciel permet de suivre un individu sur un réseau de caméras à l’aide de données tel que le numéro de plaque d’immatriculation, la couleur des vêtements ou encore par reconnaissance faciale. L’utilisation d’un tel logiciel aurait dû être déclaré auprès de la Cnil, ce qui ne fut pas le cas.

Une loi récente, du printemps 2023, a éclarcit le flou juridique encadrant ces logiciels de surveillance en autorisant leur expérimentation à l’approche des Jeux Olympiques de Paris en 2024. Cette loi exclut, par son article 7, l’utilisation de la reconnaissance faciale. Or, selon Disclose, les services de surveillance de la police auraient utilisé cette fonctionnalité. C’est devant ces révélations que la Cnil a annoncé le 15 novembre un contrôle visant le ministère de l’Intérieur.

Logiciel de vidéosurveillance algorithmique : l’intelligence artificielle au service de la police

La vidéosurveillance algorithmique est un système de contrôle de l’espace urbain se basant sur des données biométriques (taille, âge ou encore reconnaissance faciale) assisté par des algorithmes d’intelligence artificielle (IA) spécialisés dans la vision informatique (“computer vision”). Les logiciels de ce type analysent l’ensemble des flux vidéo de surveillance urbaine pour alerter lors de la détection de comportement jugé comme suspect.

Aujourd’hui, les flux des caméras de surveillances de l’espace public sont centralisés à l’échelle de la commune dans des centres de supervision urbains (CSU). C’est dans ces centres que des agents scrutent en temps réel les vidéos de l’espace urbain et alertent lorsqu’ils détectent un comportement suspect. Les logiciels de vidéosurveillance algorithmique ont pour but d’automatiser ce travail.

Ces algorithmes sont entraînés par de l’apprentissage profond (deep learning). Concrètement, un large jeu de données est fourni à un algorithme qui se charge de déduire des motifs pour catégoriser un comportement comme suspect. L’apprentissage profond est d’une complexité telle que même les concepteurs de ces logiciels n’ont pas de moyen de connaître les critères qui permettent la catégorisation des comportements.

Pourquoi cette technologie fait débat

Les logiciels de vidéosurveillance algorithmique sont fortement controversés à cause de l’utilisation d’intelligences artificielles. Ces dernières présentent un certain nombre de biais racistes, sexistes ou encore culturels. On peut par exemple penser à la tristement célèbre intelligence artificielle Tay qu’avait lancé Microsoft le 23 mars 2016 avant de l’éteindre le lendemain tant l’IA tenait des propos racistes. On peut encore citer les IA génératives d’image qui vont reproduire les stéréotypes de manière systématique, comme en représentant les Amérindiens avec des coiffes à plumes. Il est prudent de penser que les algorithmes de VSA subiront des biais similaires fortement corrélés au jeu de données fourni à l’algorithme lors de la phase d’apprentissage.

Il est en effet admis que les données d’entrée jouent un rôle important dans les biais des algorithmes, or les concepteurs de logiciels, étant des entreprises privées, ont intérêt à les garder secrets. Il n’y a donc aucun moyen de s’assurer qu’un logiciel de VSA n’ait pas été entraîné sur un jeu de données biaisé.

Pour plus d’informations et d’analyses sur la Guinee Equatoriale, suivez Africa-Press

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here