Loi contre le partage de sextos sans consentement: le gouvernement doit inclure les images générées par l’IA


Geneviève Lajoie
La loi pour contrer le partage de sextos sans consentement doit inclure les images générées par l’intelligence artificielle (IA), un phénomène qui prend de l’ampleur et qui ne tardera pas à toucher les jeunes Québécois, plaide l’Union étudiante du Québec.
En début d’année, de fausses images pornographiques générées par l’IA de la chanteuse américaine Taylor Swift ont circulé sur les réseaux sociaux.
L’association, qui représente quelque 100 000 étudiants universitaires à travers le Québec, implore le gouvernement de s’attaquer, dès maintenant, non seulement à l’hypertrucage des images, mais aussi à l’IA générative, qui a la capacité de créer, modifier ou générer une image intime.
«Dans le cas de l’IA, particulièrement celle qui est générative, on peut faire ça avec n’importe qui, on prend des photos disponibles sur internet, sur Facebook, sur Instagram et on peut créer toutes sortes de contenus, des images, des vidéos, tout ça avec des photos de gens qui ne sont absolument pas consentants, qui n’ont jamais consenti à faire un acte sexuel», souligne le président, Étienne Paré, qui sera de passage en commission parlementaire mercredi à l’Assemblée nationale au sujet du projet de loi visant à contrer le fléau des sextos.
Le texte législatif du ministre Simon Jolin-Barrette présentement à l’étude crée un nouveau recours d’urgence permettant à une personne de prévenir ou de faire cesser immédiatement la distribution sans consentement d’images intimes par texto ou messagerie via les différents réseaux sociaux ou ailleurs sur internet.
Un geste salué par l’Union étudiante du Québec, qui croit toutefois qu’on ne peut laisser passer l’occasion d’y inclure l’IA. «Il faut régler ce problème avant qu’il ne soit trop tard, parce que si en ce moment il n’y a pas un million de cas, on a un projet de loi qui est sur la table et ce serait bien de tout de suite s’attaquer à ça, plutôt que d’attendre un autre dix ans», insiste Étienne Paré.
Difficile de distinguer le vrai du faux
René Morin, porte-parole du Centre canadien de protection de l’enfance, anticipe lui aussi un phénomène en croissance qui touchera les jeunes Québécois. «C’est malheureusement inévitable. On a vu des situations se produire ailleurs au Canada, je pense que c’est une question de temps avant que ça se produise au Québec aussi», dit-il.
L’expert souligne que les sites de «nudification» par l’IA sont désormais monnaie courante.
«En dix minutes, vous êtes en mesure de trouver sept ou huit outils, dont certains gratuits, qui vont vous permettre de prendre une photo que vous allez avoir récupérée, par exemple, sur les médias sociaux et d’en faire une version dénudée», signale-t-il.
Si les images créées sont de fausses images, les dommages causés sont bien réels. Et ce qui inquiète particulièrement l’expert, c’est qu’il est de plus en plus difficile de distinguer le vrai du faux.
«Il y a un an, nos analystes arrivaient souvent à savoir qu’ils étaient en présence d’une fausse image parce qu’il y avait des mains à six doigts, des ombres qui ne concordaient pas, qui étaient irréalistes [...], mais un an plus tard, on n’est plus là! La qualité du matériel est souvent assez exceptionnelle», se désole René Morin.
Vous avez des informations à nous communiquer à propos de cette histoire?
Écrivez-nous à l'adresse ou appelez-nous directement au 1 800-63SCOOP.