Publicité
L'article provient de TVA Nouvelles

Utilisation de l’IA: des profs n’hésitent pas à sévir

Partager
Photo portrait de Marie-Laurence Delainey

Marie-Laurence Delainey

2025-02-21T10:00:00Z
Partager

S’il est difficile de détecter l’utilisation de l’intelligence artificielle (IA) dans 100% des cas, une majorité des professeurs universitaires qui ont répondu à nos questions sévissent lorsqu’elle est mal utilisée ou trop utilisée.

• À lire aussi: «Faut pas se mettre la tête dans le sable»: l’utilisation de l’IA divise les profs d’université

Sur la cinquantaine de professeurs de l’Université de Sherbrooke, de l’Université d’Ottawa, de l’Université de Montréal, de l’UQTR, de l’UQAM et de McGill que nous avons sondés, 65% ont déjà remis des sanctions à des élèves pour une mauvaise utilisation de l’IA.

«Les profs en ont gros sur le cœur à propos de l’IA. Nous avons eu au moins une vingtaine d’infractions d’utilisation de l’IA pour des travaux dans la dernière année. Nous n’avons pas une grosse cohorte. [...] Cette vingtaine de cas n’est que la pointe de l’iceberg», précise un professeur de la Faculté des arts et sciences de l’Université de Montréal qui souhaite garder l’anonymat, car il n’a pas eu l’autorisation de parler aux médias de cet enjeu «délicat».

Le professeur en informatique de l’Université de Montréal Marc Feeley a même ajouté une bande dessinée sur la question dans son plan de cours. S’il estime qu’un étudiant sur cinq trichait avant l’arrivée de l’IA, maintenant, il estime qu’environ 70% des étudiants s’en serviraient à «mauvais escient». M. Feeley utilise différents systèmes pour la détecter, mais souvent le «gros bon sens» prime. «Ça fait partie de la bêtise humaine. Il n’y a aucune faute d’orthographe, normalement il y a 3-4 fautes dans une même phrase [...] On avait lancé la description [du travail] à 23h, à 5h, il avait une solution [de codage] parfaite. Il y a quelque chose de louche quand un débutant en informatique réussit à donner une solution parfaite», dit-il.

Publicité
Photo Agence QMI Marie-Laurence Delainey
Photo Agence QMI Marie-Laurence Delainey

De son côté, la professeure à l’Université de Sherbrooke Annie Chaloux dit adopter une approche «bienveillante» en suggérant à ses étudiants de refaire le travail. «J’ai eu plusieurs cas [dans la dernière année]. Est-ce qu’il y en a plus et je ne les ai pas vus? Je ne pourrais dire. Je prenais rendez-vous avec les étudiants, je discutais avec eux, tous les étudiants en question avouaient», dit-elle.

Les chiffres officiels, eux, ne semblent pas représenter la réalité. À l’Université Laval, l’an dernier, 82 dossiers disciplinaires (sur environ 50 000 étudiants) ont été retenus en lien avec une utilisation non autorisée d’un outil d’intelligence artificielle. À l’Université du Québec à Chicoutimi et à l’Université de Sherbrooke, moins d’une poignée de cas est soulevée par année.

À l’Université de Montréal, environ 10% des cas de plagiat seraient liés à l’IA. «Il est sous-estimé puisque l’utilisation de l’IA générative n’est pas facilement détectable», admet le vice-recteur adjoint aux études de 1er cycle, Juan Torres.

Logiciels de détection peu fiables

Même si plusieurs existent, l’utilisation de logiciels de détection de l’IA n’est pas recommandée à l’Université de Montréal.

«On a des outils qu’on met à la disposition des enseignants pour la détection des similarités par exemple. La difficulté avec l’IA, même les outils de détection les plus performants ont beaucoup de faux positifs/négatifs», ajoute M. Torres.

Publicité
Publicité