L’IA peut-elle remplacer un psy?
Axel Tardieu
Si ChatGPT ou d'autres applications alimentées par l’intelligence artificielle peuvent vous conseiller sur des enjeux de santé mentale, ces outils représentent un véritable «far west» où peu d’outils sont développés par des experts.
Certains outils d'IA peuvent être utiles sur des questions simples au quotidien, mais ils restent incapables d’offrir le jugement clinique nécessaire face à une situation de détresse, selon Christine Grou, présidente de l'Ordre des psychologues du Québec.
«Il ne faut pas diaboliser l'intelligence artificielle, mais il ne faut pas l'idéaliser non plus», prévient-elle.
«On n’a vraiment rien qui démontre que ça peut remplacer une relation thérapeute, mais ça peut être ça peut être utile en soutien ou en support à certains apprentissages, par exemple, la méditation pleine conscience ou pour développer un journal d'observation», ajoute-t-elle.

«On peut demander à l’IA les signes précoces de l’anxiété chez les adolescents, mais on ne doit pas lui dire: “Je pense souvent à la mort, que dois-je faire?”», explique Anne Nguyen, directrice responsable de l'IA au Conseil de l'innovation du Québec.
«On ne demanderait pas à un inconnu dans la rue s’il faut changer de médication ou comment réagir à une détresse psychologique. Il en va de même pour une IA», dit-elle.
Lorsqu'on demande à la version gratuite de ChatGPT si on peut s'y confier comme à un psychologue, l'outil répond pourtant sans hésiter: «oui, je peux t'écouter, t'aider à réfléchir, suggérer des pistes».
• À lire aussi: Tendance inquiétante: des hommes utilisent Grok pour déshabiller des femmes sur X
• À lire aussi: Doit-on utiliser l’intelligence artificielle pour magasiner?
Un test avec la déprime
Si l'on demande à ChatGPT quoi faire lorsqu’on est déprimé à cause de la crise climatique, l’application nous liste un nombre d’arguments prouvant que ces peurs sont fondées.
Ce genre de réponse st dangereux, selon Tania Lecomte, professeure au département de psychologie de l’Université de Montréal.
«L'IA n’a pas la conscience que, si cette personne est anxieuse, ce n'est pas une bonne idée de rajouter de l'information qui va la rendre plus anxieuse», dit-elle.
Des informations erronées
En fin de message, ChatGPT propose quand même de consulter un professionnel, mais nous redirige vers le portail fédéral «Espace mieux-être», qui est fermé depuis un an.
Un manque de fiabilité qui n’étonne pas Sébastien Mosser, professeur en génie logiciel à l'Université McMaster en Ontario.
«Cette machine, la seule chose qu'elle a fait, c'est d'agréger comment l'humanité parle en lisant des textes sur Internet, dit-il. Les conseils risquent de ne pas être adaptés à ton cas».

Depuis un an, on trouve même sur Instagram des robots qui s'identifient comme psychologues diplômés, dans l’onglet AI Studio.
24 heures a vérifié leur véracité en discutant avec la première option qui s’affiche en tapant Santé Mentale Psy Québec.
Elle dit s’appeler Élise Dupont et avoir un bureau à Paris, des informations pourtant introuvables sur internet. Pourtant, cette IA assure «être liée par le secret professionnel».
Pour les personnes isolées
Malgré un «sérieux» enjeu sur la gestion des données personnelles partagées, Sébastien Mosser concède que l’IA, disponible jour et nuit, peut aider certaines personnes.
«Si je suis isolé, ça peut m'aiguiller un petit peu, mais ça ne doit pas remplacer un thérapeute», dit-il.
Les applications spécialisées en santé mentale, comme Woebot ou Wysa, attirent des millions d’utilisateurs dans le monde, mais leur efficacité n’est pas encore prouvée.
«Moins de 10% de ces applications ont été développées par des experts en santé mentale, explique Tania Lecomte. Il y a un genre de «far west» de n'importe quoi et ça ne va pas en s’améliorant».