Des informations personnelles et confidentielles à la merci des robots


Elisa Cloutier
L'intelligence artificielle est de plus en plus présente dans nos vies, mais cette technologie peut aussi représenter de graves dangers, surtout si elle est utilisée comme thérapeute, partenaire amoureux ou confident.
Il est impossible de savoir où vont nos informations et confidences partagées avec les robots conversationnels, bien que leurs créateurs tentent de se faire rassurants sur la protection des données personnelles de leurs abonnés.
Que ce soit à des fins thérapeutiques, pratico-pratiques ou pour une relation amoureuse, les robots conversationnels sont à l’écoute de centaines de milliers de personnes quotidiennement.
Ce lot d’informations personnelles représente une mine d’or pour les entreprises qui les conçoivent, estiment les experts. Et elles ne sont pas à l’abri d’éventuelles parties malveillantes.
«Cette information-là se retrouve sur leurs serveurs, qui sont peut-être au Canada, peut-être ailleurs. Ces données-là peuvent ensuite être volées», prévient Laurent Charlin, directeur scientifique par intérim à Mila, l’Institut québécois d’intelligence artificielle.

«Si vous avez une information et que vous ne voulez pas qu'elle devienne publique, il vaut mieux ne pas la donner à un agent conversationnel», conseille-t-il.
Inquiétudes chez les psys
De son côté, l’Ordre des psychologues du Québec est aussi préoccupé quant aux risques de violation de la confidentialité, lorsqu’il est question de compagnon virtuel thérapeutique.
«Ça me dérange pas mal moins que des gens aient accès à ce qui se passe dans mon dossier de dentisterie qu’ils aient accès à ce qui se passe dans mon dossier de santé mentale», illustre la présidente de l’Ordre, Christine Grou.

Conversations privées
En revanche, les dirigeants des entreprises derrière les applications Replika et Nomi se font rassurants et affirment porter une attention «extrêmement importante» au maintien de la confidentialité de leurs abonnés et de leurs conversations.
«Nous avons des règles très strictes et nous nous assurons que les conversations demeurent privées [...] et nous ne vendons aucune donnée», assure Eugenia Kuyda, PDG de Replika.

Replika et Nomi affirment que le stockage des conversations ne sert strictement qu’à améliorer la mémoire du compagnon virtuel de l’utilisateur.
Par ailleurs, le 8 octobre, une Montréalaise a déposé une demande de recours collectif contre OpenAI, le géant américain derrière ChatGPT. L'étudiante en criminologie à l’Université de Montréal allègue que l'entreprise «recueille, compile et stocke» des renseignements personnels au-delà de ce qui lui est nécessaire et qu’elle les partage avec des tiers sans avoir obtenu le consentement de ses utilisateurs.