Se confier à ChatGPT «ne remplace pas une thérapie», prévient une spécialiste
Agence QMI
De plus en plus de Québécois se tournent vers ChatGPT et autres robots conversationnels pour parler de leurs problèmes de santé mentale. Si ces outils offrent certains avantages, ils comportent aussi des risques importants, alerte une spécialiste.
• À lire aussi: «Coach suicide»: des parents américains accusent ChatGPT d'avoir encouragé leur fils à se suicider
• À lire aussi: Paranoïa et hallucinations: un homme s’empoisonne en suivant les conseils médicaux de ChatGPT
• À lire aussi: Impact des nouvelles technologies sur la santé mentale des jeunes: «des inquiétudes qui sont légitimes», selon un psychiatre
Face à la pénurie de professionnels en santé mentale et aux longues listes d'attente, de nombreuses personnes trouvent refuge auprès de robots conversationnels comme ChatGPT.
Ces outils gratuits, disponibles 24 heures sur 24 et anonymes, séduisent particulièrement les personnes seules ou qui n'ont pas les moyens financiers de consulter un psychologue.
«C'est un espace très confidentiel, anonyme et gratuit. On peut être au fin fond de l'Abitibi, dans un tout petit village, et avoir accès à ces confidents», explique Marine Corniou, journaliste scientifique et rédactrice en chef de Québec Science, en entrevue sur les ondes de QUB radio et télé, diffusée sur les ondes du 99,5 FM Montréal, mercredi.
La spécialiste met toutefois le public en garde contre les limites importantes de ces agents conversationnels. «Ça ne remplace aucunement la médication. Ça ne remplace pas non plus une thérapie», insiste-t-elle.

Les risques sont multiples
La spécialiste souligne également que la confidentialité des données des utilisateurs n'est pas garantie, car ces plateformes appartiennent à des entreprises privées qui peuvent utiliser les données à des fins commerciales.
De plus, contrairement à un thérapeute, ces «amis virtuels» n'ont pas pour objectif d'aider la personne qui se confie à aller mieux. Il s'agit plutôt de la maintenir le plus longtemps possible sur la plateforme, selon Marine Corniou.
Plus troublant encore, certains cas documentés montrent des robots qui confortent des personnes en «délire psychotique» dans leurs idées ou qui approuvent des pensées suicidaires, faute de garde-fous appropriés, d'après la spécialiste.
«Ce ne sont pas des outils à proscrire, mais il faut garder en tête que ce sont des robots et non des personnes», conclut l'experte.
Voyez l'entrevue complète de Marine Corniou dans la vidéo ci-dessus