Paranoïa et hallucinations: un homme s’empoisonne en suivant les conseils médicaux de ChatGPT

Agence QMI
Un Américain de 60 ans, qui souhaitait simplement remplacer le sel dans sa diète, aurait fini à l’hôpital en pleine psychose après s’être lui-même empoisonné au bromure de sodium en suivant les conseils médicaux de ChatGPT.
• À lire aussi: L’IA rendrait les médecins moins performants, selon une étude
• À lire aussi: Impact des nouvelles technologies sur la santé mentale des jeunes: «des inquiétudes qui sont légitimes», selon un psychiatre
«Ce cas met également en évidence la manière dont l’utilisation de l’intelligence artificielle (IA) peut potentiellement contribuer au développement de problèmes de santé évitables», a souligné l’équipe médicale de l’Université de Washington à Seattle, dans un rapport de cas rapporté par «The Guardian».
Selon l’étude publiée le 5 août dans le journal Annals of Internal Medicine, un homme de 60 ans se serait récemment présenté dans un hôpital, persuadé que son voisin tentait de l’empoisonner.
Dans les 24 premières heures, le sexagénaire aurait alors exprimé «une paranoïa croissante et des hallucinations auditives et visuelles», qui auraient mené à son internement psychiatrique involontaire après une tentative d'évasion, peut-on lire.
Une fois son état stabilisé et ses esprits retrouvés, le patient aurait alors indiqué à son équipe soignante avoir remplacé pendant trois mois le sel de table de sa diète par du bromure de sodium, une substance utilisée comme sédatif au début du 20e siècle, a relevé le média britannique.
Sauf qu’une intoxication au bromure – appelée bromisme – peut causer toute une gamme de symptômes, dont de l’anxiété, de l’hystérie et de l’insomnie, si bien que son usage a été aboli par la Food and Drug Administration (FDA) américaine entre 1975 et 1989.
À l’époque, le bromisme était responsable de 8% des hospitalisations psychiatriques, selon l’étude.
Informations décontextualisées
C'est en demandant l’avis de ChatGPT pour remplacer le sel de table que l’intelligence artificielle lui aurait notamment répondu que «le chlorure de sodium [ou sel de table] peut être remplacé par du bromure, probablement à d’autres fins, comme le nettoyage».
«L'IA comporte le risque de diffuser des informations décontextualisées, car il est très peu probable qu'un expert médical mentionne le bromure de sodium face à un patient cherchant un substitut viable au chlorure de sodium», ont martelé les auteurs.
Sans avoir accès à l’historique de ChatGPT du patient, les auteurs ont eux-mêmes effectué la recherche auprès de ChatGPT 3.5, confirmant que le bromure y était bel et bien mentionné.
«Bien que la réponse précisait que le contexte était important, elle ne contenait pas d'avertissement [...] ni ne demandait pourquoi nous souhaitions le savoir, comme le ferait un professionnel de la santé», ont-ils souligné.
En plus d’avertir la population quant au fait que les systèmes d’IA peuvent «générer des inexactitudes scientifiques», ils estiment que les médecins devront apprendre à adapter leurs soins en fonction d’où leurs patients «consomment des informations de santé», concluent-ils.