Intelligence artificielle et santé mentale : que dit la loi ?

4
Intelligence artificielle et santé mentale : que dit la loi ?
Intelligence artificielle et santé mentale : que dit la loi ?

Africa-Press – Cameroun. Les 29 et 30 janvier 2024 se tenait à Caen un symposium sur l’intelligence artificielle (IA) et la santé mentale. Ces deux jours de conférence ont été l’occasion pour une vingtaine de chercheurs et de médecins nationaux et internationaux d’échanger sur l’évolution de ces technologies dans le domaine de la santé mentale. Ce fut également l’occasion de questionner l’actuel encadrement des emplois de l’IA pour la santé, sur le plan légal et éthique.

L’IA, un outil d’avenir dans la santé mentale

Les différentes conférences ont montré que l’IA peut être utile tant bien pour accompagner la recherche que pour faciliter le parcours de soin des patients en santé mentale.

L’IA est par exemple utilisée par des chercheurs de l’université de Cergy pour étudier la coordination des personnes schizophrènes. L’IA implémentée avec un robot leur a permis de contrôler les paramètres et ainsi étudier ce qui est à l’origine du déficit social lié à ce trouble.

Des pistes sont également développées pour l’emploi d’IA dans la phase de diagnostic. Elles restent encore imparfaites, mais leur emploi est de plus en plus crédible. Les systèmes les plus développés et les plus robustes, actuellement, se basent sur la retranscription d’entretiens et sont spécialisés pour détecter un trouble spécifique comme la schizophrénie ou la dépression.

Une solution plus concrète et pouvant impacter le quotidien est la possibilité, à l’aide de l’IA, de détecter l’arrivée d’un symptôme (angoisse, symptôme de manque…). Une fois détecté, le symptôme peut être traité au plus vite à l’aide d’exercices de respiration par exemple.

Quel cadre légal ?

L’arrivée de plus en plus concrète de ces technologies dans la façon d’aborder la question de la santé et particulièrement de la santé mentale soulève une question: quel est l’encadrement de ces utilisations ?

Lors du symposium de Caen, Christian Byk, représentant de la France au Comité intergouvernemental de bioéthique de l’Unesco, rappelle que ces questions législatives sont importantes au vu des statistiques de prévalence dans la population européenne. En 2021, environ 30 % de la population européenne (500 millions d’habitants) souffrait de problème de santé mentale.

En France, comme le précise Aurore Catherine, maître de conférence en droit public à l’université de Caen, c’est la loi bioéthique de 2021 qui prévaut, au-delà du droit courant, pour ces questions d’utilisation d’intelligence artificielle dans le cadre de la santé et donc pour la santé mentale. Cette loi vise à encadrer l’utilisation des méthodes du numérique dans le cadre de la santé, notamment en précisant l’obligation d’informer le patient (ou à défaut son responsable légal) de l’emploi de ces outils.

Pour le stockage des données sensibles utiles aux entraînements, le gouvernement, avec l’appui du Conseil d’État, s’est prononcé pour l’utilisation de serveurs certifiés par l’Agence Nationale de Sécurité des Systèmes d’informations (Anssi). Des solutions comme Microsoft Azur ou AWS (services d’hébergement de données fournis respectivement par Microsoft et Amazon) ne sont donc plus utilisables pour stocker des données de santé.

Lors du symposium, nous avons pu interviewer Christian Byk au sujet de l’encadrement légal de l’IA en santé mentale. L’entretien est à découvrir dans la vidéo ci-dessous.
Les limites de la loi bioéthique

Aurore Catherine précise que la loi bioéthique a des limites quant à l’objectif affiché de protéger les patients, et particulièrement les patients les plus vulnérables (mineurs ou sous tutelle). C’est le cas tout particulièrement de l’article L4001-3 du code de la santé publique.

L’article est écrit en ces termes: “Le professionnel de santé qui décide d’utiliser, pour un acte de prévention, de diagnostic ou de soin, un dispositif médical comportant un traitement de données algorithmique dont l’apprentissage a été réalisé à partir de données massives s’assure que la personne concernée en a été informée et qu’elle est, le cas échéant, avertie de l’interprétation qui en résulte.”

On peut noter plusieurs limites soulevées par Aurore Catherine. Premièrement, il n’est aucunement fait mention d’un consentement du patient vis-à-vis de l’utilisation de ses données. Le professionnel de santé n’a le devoir que de s’assurer que le patient en est informé.

Le deuxième problème est l’absence claire de détermination de l’agent devant informer le patient. En ses termes, cela peut être le praticien lui-même, tout comme n’importe quel autre intermédiaire.

Troisième problème, le professionnel doit s’assurer que le patient est au courant de l’interprétation, mais aucunement de la manière dont cette interprétation a été faite. Le fonctionnement du traitement des données n’est pas nécessairement expliqué au patient.

Des recommandations pour modifier la loi

Aurore Catherine suggère plusieurs pistes de modifications de la loi bioéthique, à commencer par repréciser les cas des patients les plus vulnérables (en mentionnant le cas échéant l’implication du tuteur ou responsable légal).

Il est important selon elle également de repréciser le consentement du patient pour l’utilisation de tels outils. Cette importance du consentement était également soulevée par les professionnels de santé durant ce symposium.

La complexité des algorithmes et de leur fonctionnement nécessite, toujours selon Aurore Catherine, la mise en place de dispositifs d’accompagnement. On peut imaginer l’obligation d’un référent IA dans les hôpitaux qui accompagne le patient et le praticien dans l’utilisation de ces nouveaux outils et qui puissent aider à communiquer sur leur fonctionnement.

Pour plus d’informations et d’analyses sur la Cameroun, suivez Africa-Press

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here