Publicité
L'article provient de Le Journal de Québec
Société

Intelligence artificielle: une escroquerie lui fait croire que son frère est mort

Partager

TVA Nouvelles

2023-04-23T11:40:00Z
2023-04-23T11:54:06Z
Partager

Une vilaine escroquerie devenue virale a réussi à faire croire à une femme que son frère était mort en recréant les voix de ses proches à l’aide de l’intelligence artificielle.  

• À lire aussi: Comment ChatGPT s’attaque désormais au monde politique

• À lire aussi: Fausse interview de Michael Schumacher: la rédactrice en chef d’un magazine allemand limogée

• À lire aussi: L’ADISQ est «très préoccupée» par l’arrivée de l’intelligence artificielle en musique

La «tiktokeuse» Brooke (@babybushwhacked) a tenu à partager l'expérience qu’elle a vécue avec ses centaines de milliers d’abonnés. 

Elle explique que son grand-père aurait d’abord reçu un appel de celui qu’il croyait être son petit-fils, soit le frère de Brooke; l’imitation vocale était en fait l’œuvre de l’intelligence artificielle.  

«Quelqu’un a utilisé l’intelligence artificielle pour arnaquer [notre] grand-père et lui faire croire que mon petit frère est mort après avoir fait naufrage», raconte-t-elle les larmes aux yeux dans une vidéo TikTok.

@babybushwhacked

Sharing so this doesn’t happen to anyone else

♬ original sound - Brooke Bush

«Ça fait deux heures que je pleure, pensant que mon frère est mort», a-t-elle lancé.

Elle avance également que la voix générée par l’IA a dit à son grand-père que «son frère» était sur le point de faire naufrage, avant que la ligne ne se déconnecte.  

  • Écoutez l'entrevue de Benjamin Prud’homme, directeur exécutif de l’équipe IA pour l’Humanité chez Mila au micro Philippe-Vincent Foisy, disponible en balado au QUB radio    

Après avoir parlé à son grand-père et tenté de suivre la localisation du téléphone de son frère, la créatrice de contenu s’est vite rendu compte qu’il s’agissait d’un individu malveillant qui tentait de faire un coup d’argent.  

«Si on vous appelle et une personne de votre entourage vous demande de l’argent, alors vous saurez qu’il s’agit d’une IA imitant sa voix», prévient-elle.

- D'après les informations d'Indy100

Publicité
Publicité