Alors que la santé mentale, et particulièrement celle des jeunes adultes, connaît une dégradation alarmante depuis plusieurs années, le Collectif MentalTech, via un groupe de travail coordonné par Alexia Adda, co-fondatrice de la société KLAVA Innovation, et en collaboration avec Stane Groupe - publie un rapport inédit mettant en lumière le rôle prometteur, mais non sans danger, de l’intelligence artificielle (IA) dans le domaine de la santé mentale.
Recrudescence des troubles de l’humeur, consultations d’urgences en psychiatrie, errance diagnostique, tabou de la santé mentale etc., sont autant d’éléments qui favorisent l’émergence d’outils numériques et d’innovation afin d’améliorer la précision des diagnostics, la personnalisation des traitements et l’accès aux soins.
Toutefois, ces avancées technologiques indispensables soulèvent des interrogations cruciales quant à la protection des données et l’éthique. Le Collectif MentalTech appelle donc à la mise en place d’un cadre de « numéricovigilance » – autour de 10 axes majeurs – pour garantir une utilisation responsable et transparente des innovations, tout en maximisant les bénéfices pour les patients.
L’intelligence
artificielle : un levier de transformation pour la santé mentale
Au cours des dernières
années, l’IA a connu des avancées technologiques considérables, accroissant ses
capacités et ses applications dans divers domaines. C’est le cas dans le
secteur de la santé mentale où elle contribue par exemple à améliorer les diagnostics
grâce à une analyse objective des données ou encore à automatiser certaines
tâches répétitives pour permettre aux professionnels de santé de se concentrer
sur des interventions stratégiques, tout en détectant des tendances difficiles
à repérer manuellement. Enfin, elle offre des traitements personnalisés et
facilite l’accès aux soins via des outils de suivi à distance.
Le rapport du Collectif
MentalTech identifie quatre principaux cadres d’intervention de l’IA en santé
mentale aujourd’hui :
• La prédiction de
valeur :
l’IA est capable de prédire des états psychiques à partir d’une large gamme de
données. Par exemple, elle peut détecter des émotions en analysant des vidéos
ou des conversations textuelles, permettant ainsi d’intervenir avant même
l’apparition de symptômes graves.
• La génération de
texte et de dialogue : les modèles de langage, tels que les agents
conversationnels, peuvent interagir directement avec les patients, favorisant
une relation continue et personnalisée. Ces systèmes d’IA peuvent analyser en
temps réel l’état psychologique des individus à travers leurs réponses verbales
ou écrites, et fournir un premier niveau d’assistance ou de recommandations
• La création
d’activités thérapeutiques : l’IA peut générer des programmes d’activités,
comme des jeux sérieux ou des exercices de relaxation, adaptés aux besoins
spécifiques des patients. Cela inclut des outils comme la réalité virtuelle
pour aider à traiter des phobies ou des troubles de stress post-traumatique en
simulant des environnements thérapeutiques contrôlés.
• La recommandation de
ressources :
l’IA offre également la possibilité de recommander des ressources pertinentes
aux patients ou aux professionnels de santé, comme des articles, des vidéos, ou
des protocoles de soin, selon les besoins exprimés ou détectés. Par exemple, un
patient souffrant d’anxiété peut recevoir des conseils pratiques pour mieux
comprendre et gérer ses symptômes.
Ces technologies
permettent non seulement d’améliorer la précision des diagnostics et des
traitements, mais aussi de créer un système de soins plus inclusif et
accessible.
L’IA contribue par exemple à combler les problèmes de déserts médicaux et de
pénurie de médecins (particulièrement les psychiatres et pédopsychiatres) en
rendant les soins psychiques disponibles partout et à tout moment.
L’apparition
d’importants défis éthiques à relever
Si les promesses de
l’IA sont grandes, le rapport souligne aussi les défis éthiques majeurs que
son utilisation soulève dans le domaine de la santé mentale. En particulier, la
protection des données sensibles des patients est une préoccupation centrale.
Les algorithmes d’IA reposent souvent sur une quantité importante de données
personnelles, ce qui augmente le risque de violation de la confidentialité.
Dans un domaine aussi intime que la santé mentale, ces risques doivent être
strictement contrôlés pour préserver la vie privée des individus.
Le rapport lève
également le voile sur le risque de déshumanisation des soins. En
déléguant certaines tâches à des machines, comme l’analyse des émotions ou la
coordination des interventions thérapeutiques, il est crucial de veiller à ce
que les décisions prises par l’IA soient toujours validées par des
professionnels de santé. Le danger réside dans la confiance aveugle que
pourraient accorder certains praticiens à ces outils au détriment de leur
propre expertise.
Enfin, un autre défi
majeur est l'explicabilité des algorithmes. Les modèles d’IA, souvent
qualifiés de "boîtes noires", peuvent prendre des décisions complexes
sans que leur logique ne soit toujours compréhensible pour les utilisateurs
humains, notamment les médecins. Le rapport insiste sur la nécessité de
développer des systèmes plus transparents, capables de justifier leurs
décisions et d’assurer ainsi une meilleure intégration dans la pratique
clinique.
Ces trois défis liés
directement à l’utilisation de l’IA doivent faire l’objet d’un encadrement et
d’une réglementation, qui tend déjà à se dessiner et s’affiner à l’échelle
européenne, mais qui est encore extrêmement mouvante.
RAPPEL : quelle
réglementation européenne actuelle autour de l’IA ?
Le cadre réglementaire autour de l'intelligence artificielle en Europe est principalement structuré par l’IA Act, entré en vigueur en mai 2024 après trois ans de négociations.
Ce règlement vise à
encadrer et promouvoir le développement des systèmes d'IA en se fondant sur
quatre axes :
* Respect de la santé
publique :
intégration des normes de santé existantes, comme le Code de la santé publique
et le règlement sur les dispositifs médicaux.
* Réglementation
spécifique à l’IA :
application de règles dédiées aux systèmes d'IA.
* Protection de la vie
privée :
conformité au RGPD et à la Loi Informatique et Libertés.
* Anticipation des
risques cyber :
conformité à la directive NIS 2 et au Résilience Act.
Les applications d’IA
en santé sont souvent considérées comme à haut risque, et les nouvelles
exigences de l’IA Act s'ajoutent aux régulations existantes pour les
dispositifs médicaux. Les éditeurs d’IA doivent suivre six étapes pour se
conformer aux nouvelles normes : définir le cadre d’utilisation, obtenir le
consentement des patients pour la collecte de données, évaluer l’impact de
l’IA, anticiper les biais, garantir la conformité réglementaire et établir une
gouvernance appropriée.
La mise en place d’un
cadre de numéricovigilance : l’appel du Collectif MentalTech pour définir des
remparts éthiques
Face aux défis soulevés
par l’utilisation croissante de l’IA en santé mentale, le collectif MentalTech
préconise la mise en place d’un cadre de numéricovigilance, inspiré des
principes de pharmacovigilance. Ce cadre vise notamment à garantir la sécurité des
patients en détectant rapidement les dérives potentielles des dispositifs d’IA,
comme une mauvaise interprétation des données ou une surgénéralisation des
résultats. À terme, cela permettrait de
maintenir un équilibre entre l’innovation technologique et le respect des
principes éthiques fondamentaux dans la prise en charge de la santé mentale.
Les 10 principes du
cadre de numéricovigilance formulés par le Collectif MentalTech
1. L’élaboration d'une notice
d’information :
créer un document explicatif pour les utilisateurs, détaillant le
fonctionnement de l'IA, ses avantages, ses risques, la population cible et les
mesures en cas de dysfonctionnement, avec un langage accessible.
2. La constitution d'un comité
scientifique pluridisciplinaire : former un comité composé d’au moins un médecin,
un expert en IA, un éthicien et un spécialiste du Réglementaire pour superviser
le développement et l'évaluation des systèmes d'IA.
3. L’implication des professionnels de
santé :
engager les professionnels de santé dans le processus de développement de l'IA
pour garantir la robustesse et la fiabilité des systèmes.
4. La formation des professionnels de
santé :
proposer des formations sur l’IA, ses applications en médecine et les principes
d’évaluation des systèmes de machine learning.
5. L’installation personnalisée pour les
utilisateurs :
adapter l'utilisation des outils d'IA aux appréhensions des utilisateurs, en
développant des protocoles spécifiques pour chaque cas d’usage.
6. L’absence de conflits d’intérêts : veiller à ce qu’il n’y
ait pas de conflits d’intérêts entre les entités impliquées dans le dépistage
et le traitement des troubles.
7. L’adaptation des métriques d'évaluation
:
ajuster les métriques d’évaluation de l’algorithme selon le cas d’usage et
garantir la transparence et l’efficacité des mécanismes de sécurité.
8. Le retracement des décisions de l'IA : documenter le
processus décisionnel de l’IA, en expliquant les résultats générés, tout en
prévoyant des exceptions lorsque des bénéfices médicaux substantiels peuvent
être démontrés.
9. La sélection de la population
d'entraînement :
assurer la représentativité des données utilisées pour l'entraînement de l'IA,
et mener des études complémentaires pour prévenir les biais algorithmiques si
nécessaire.
10. La collecte parcimonieuse des données : suivre les recommandations de la CNIL en ne collectant que les données indispensables, afin de tester les IA de manière pragmatique et efficace.