L’UdeM interdit à ses étudiants d’utiliser ChatGPT, mais ne précise pas comment ce sera réglementé


Julien Bouthillier
L’Université de Montréal (UdeM) a annoncé vendredi à ses étudiants que l’usage de robots conversationnels comme ChatGPT dans un contexte d’évaluation sera officiellement considéré comme une forme de plagiat – à moins d’un avis contraire de la part de l’enseignant – et passible de sanctions.
• À lire aussi: Tout ce qu’il faut savoir sur ChatGPT
• À lire aussi: ChatGPT refuse d'écrire notre lettre de coming out
Dans un courriel destiné aux étudiants des différents cycles universitaires dont 24 heures a obtenu copie, le secrétaire général de l’Université, Alexandre Chabot, reconnaît qu’il «peut être tentant d’utiliser ChatGPT durant un examen ou au moment de la rédaction d’un travail de session».
Il explique toutefois que «l’utilisation de robots conversationnels n’est pas permise à l’Université de Montréal dans le contexte d’une évaluation à moins d’être explicitement prévue dans le plan de cours ou dans les consignes d’évaluation».
Le règlement sur le plagiat de l’UdeM a d’ailleurs été mis à jour le 14 février dernier pour y ajouter l’interdiction d’avoir recours à l’intelligence artificielle, que son utilisation soit «totale ou partielle, littérale ou déguisée».
• À lire aussi: Le robot conversationnel ChatGPT réussit de justesse un test d’une faculté de droit américaine
Cette politique de l’Université est une bonne chose, selon un étudiant en droit à l’UdeM avec qui 24 heures a échangé à ce sujet.
«J'ai toujours fait preuve d'énormément de rigueur intellectuelle dans mes examens et mes travaux. Je suis dans un programme compétitif où mes notes sont directement liées avec les notes de mes camarades de classe. C'est une bonne chose que l'Université indique clairement sa politique sur l'utilisation du logiciel», estime Marc-Antoine (prénom fictif), qui désire demeurer anonyme pour ne pas nuire à ses études.
Comment vérifier?
S’il estime que cette réglementation est une bonne chose en théorie, Marc-Antoine craint qu’elle sera extrêmement difficile à appliquer en pratique.
«C'est comme si [l’UdeM] faisait cette annonce plus pour la forme. Ça me stresse honnêtement de savoir que certains de mes collègues pourraient utiliser le logiciel et donc tricher pendant des examens et que l'Université ne semble pas avoir aucun moyen de vérifier si le logiciel a été utilisé ou non», explique-t-il.

Dans certains cas, il pourrait en effet être quasi impossible pour un prof de prouver qu’un étudiant a triché en utilisant ChatGPT, estimait Jean-Hugues Roy, un professeur de l’UQAM spécialisé en intelligence artificielle appliquée au journalisme, cité dans le cadre d’un article de 24 heures où il avait soumis ChatGPT à des examens universitaires.
• À lire aussi: On a testé ChatGPT avec des profs et ils n'ont pas été impressionnés
Pour cette raison, celui qui a déjà siégé sur un comité pour évaluer des cas possibles de plagiat considère revenir aux bonnes vieilles évaluations en papier et en présentiel et lors desquelles les étudiants devaient laisser leur téléphone cellulaire à la porte. En Australie, de grandes universités ont justement annoncé revenir aux examens en papier après que des étudiants ont été surpris à tricher en utilisant l’intelligence artificielle.

L’entreprise en démarrage québécoise Draft & Goal a lancé en janvier un outil qui permettrait, selon les premiers tests effectués par l’entreprise, de détecter avec une certaine fiabilité si un texte a probablement été généré ou non par un robot conversationnel comme ChatGPT.
Toutefois, comme ce logiciel n’est pas efficace à 100%, il serait difficile pour les universités de l’utiliser pour prouver hors de tout doute qu’un étudiant a plagié.
«Des personnes qui n’ont pas plagié pourraient être accusés de plagiat sans aucun moyen de défense. Ça serait contraire aux principes de justice naturelle», estime Marc-Antoine.
Au moment de mettre en ligne ce texte, l’Université de Montréal n’avait pas répondu aux questions de 24 heures à savoir comment elle comptait appliquer sa nouvelle politique.