Publicité
L'article provient de TVA Nouvelles
Société

«Le statu quo est impossible»: des profs de cégep et des étudiants réclament des balises pour encadrer l’intelligence artificielle

Les fédérations qui les représentent pressent la ministre de l’Enseignement supérieur d’agir

Partager
Photo portrait de Daphnée  Dion-Viens

Daphnée Dion-Viens

2023-08-15T14:05:00Z
2023-08-15T19:29:44Z
Partager

Alors que la rentrée collégiale s’amorce au cours des prochains jours, des profs de cégep et des étudiants réclament des balises nationales pour encadrer le recours à l’intelligence artificielle, qui s’impose comme un «incontournable» lors de ce retour en classe. 

• À lire aussi: Rentrée collégiale et universitaire: voici quatre façons de bien utiliser l'intelligence artificielle

• À lire aussi: Tinder lance une nouvelle fonction de sélection de photos par IA

• À lire aussi: L’intelligence artificielle pour déceler les failles de cybersécurité à la Maison-Blanche

«C’est immense, ce qui se passe en ce moment», laisse tomber Caroline Quesnel, présidente de la Fédération nationale des enseignantes et des enseignants du Québec (FNEEQ), qui représente la majorité des profs de cégep de la province.

Les robots conversationnels comme ChatGPT font maintenant partie du quotidien et ont forcé les enseignants à revoir complètement leur façon d’enseigner. 

Les évaluations papier-crayon ont fait un retour en force dans les plans de cours cet automne, mais en l’absence de lignes directrices, «les profs se posent 1000 questions», indique Mme Quesnel.

Publicité

«Le statu quo est impossible. Il y a de véritables appréhensions, mais les profs sont seuls face à cette réalité», déplore-t-elle.

Étudiants dans le «néant»

Le son de cloche est semblable du côté de la Fédération étudiante collégiale du Québec (FECQ). «La population étudiante se retrouve complètement dans le néant», affirme sa présidente, Laurence Mallette-Léonard.

La FECQ est favorable à une utilisation éthique de l’intelligence artificielle, puisqu’elle peut favoriser la réussite, mais elle réclame aussi des balises claires pour limiter le plagiat.

Les deux organisations pressent la ministre de l’Enseignement supérieur, Pascale Déry, d’agir rapidement afin d'en arriver à des balises nationales pour éviter des situations à géométrie variable d’une classe à l’autre. 

«J’aimerais connaître quel est son plan de match, où on s’en va avec ça. [...] On a besoin de sa part d’avoir un cadre, une réflexion réelle et indépendante», affirme Caroline Quesnel, qui croit que Mme Déry doit en faire «une priorité».

La professeure de l’Université du Québec en Outaouais Martine Peters estime aussi qu’il est «très important» d’encadrer l’utilisation de l’IA dans les établissements d’enseignement supérieur. 

«Tout le monde est pris au dépourvu par ce tsunami», affirme celle qui dirige le Partenariat universitaire sur la prévention du plagiat. 

  • Écoutez Caroline Quesnel, présidente de la Fédération nationale des enseignantes et des enseignants du Québec via QUB radio : 

Publicité

Deux rapports attendus

De son côté, la ministre Déry assure que des démarches sont bel et bien en branle. Deux rapports d’experts sont attendus au cours de l’automne, ce qui permettra d’élaborer un cadre plus précis par la suite.

«On veut arriver avec les meilleures pratiques [...]. On va analyser ces rapports et voir de quelle manière on peut baliser pour qu’il y ait une certaine cohérence à travers le réseau de l’enseignement supérieur», a affirmé au Journal Mme Déry.

«Il y a des avantages et des inconvénients, ajoute-t-elle. Une chose est sûre, ces outils ne doivent pas se substituer à l’apprentissage de connaissances et de compétences. Ils doivent plutôt servir à enrichir les pratiques.»

Dans un contexte de performance où l’accès à des programmes universitaires est très contingenté, ChatGPT ne peut qu’être attirant pour les cégépiens, prévient de son côté la FNEEQ.

«On est dans un système très compétitif et ChatGPT fournit, sur un plateau d’argent, une clé pour tricher», affirme Caroline Quesnel.

Le recours à des logiciels de détection n’est d'ailleurs pas une solution viable pour l’instant, car les outils disponibles ne sont pas encore assez fiables, affirme Martine Peters. «La seule façon» de prouver hors de tout doute si un étudiant a plagié en utilisant l’intelligence artificielle, «c’est s’il l’avoue», dit-elle.

La fédération étudiante estime de son côté que des notions sur l’utilisation éthique de l’intelligence artificielle devraient être intégrées dans les cours de philosophie.

Vous avez un scoop à nous transmettre?

Vous avez des informations à nous communiquer à propos de cette histoire?

Écrivez-nous à l'adresse ou appelez-nous directement au 1 800-63SCOOP.

Publicité
Publicité