À cause des coupures budgétaires en éducation, est-ce que votre enfant sera (peut-être mal) évalué par ChatGPT?


Shophika Vaithyanathasarma
Au début des Journées de la persévérance scolaire, le média numérique anglophone The Rover nous rappelait que certains centres de services scolaires (CSS), comme ceux des Mille-Îles et des Laurentides, utilisent désormais l’intelligence artificielle (IA) pour analyser les risques de décrochage scolaire.
Cette initiative, mise en place sous la directive du ministère de l’Éducation du Québec (MEQ), sera adoptée par la majorité des CSS dès l’année scolaire 2025-2026. Le Journal a déjà abordé le sujet à la fin de l’année 2024. Il n’y a eu aucune annonce médiatisée de la part du MEQ à ce sujet, mis à part ce micromessage du ministre Drainville.
Bénéfique pour l’élève?
Si vous êtes parent, vous vous demandez sans doute quand et comment vous avez consenti à tout cela.
Ne soyez pas surpris, on ne vous a pas demandé votre accord. Et le MEQ n’en a pas l’intention!
En effet, dans les officines du ministère, on considère probablement que l’utilisation de l’IA pour détecter les risques de décrochage scolaire est dans l’intérêt des élèves. Et dans ce contexte, le MEQ estime sans doute avoir toute la légitimité nécessaire pour communiquer certaines données qu’il détient au sujet de vos enfants sans votre consentement...
Mais est-ce réellement dans l’intérêt des élèves ou est-ce plutôt dans l’intérêt du système?
C’est une question à se poser.
Sur papier, c’est vrai, c’est beau comme bénéfice. L’administration scolaire se dote d’un outil qui, en théorie, améliore l’efficacité du suivi des élèves en difficulté.
Mais dans la réalité, cet apporta systémique ne garantit aucunement que l’outil sera bénéfique pour les enfants eux-mêmes.
Un algorithme peut faire des erreurs, catégoriser un élève à risque à tort ou manquer certains cas.
Il peut contribuer à une stigmatisation ou à un classement qui met une étiquette de «risque» sur un enfant avant même de comprendre ce qui lui arrive.
Un prétexte à la surveillance
Si on suit le raisonnement du MEQ, on pourrait appliquer cette approche misant sur l’IA dans d’autres domaines.
Par exemple, pourquoi ne pas suivre en temps réel l’alimentation des élèves par le biais de leurs cartes de cafétéria? Ou encore, pourquoi ne pas analyser leur comportement en utilisant la reconnaissance faciale, afin de détecter ceux qui montrent des signes de stress ou d’anxiété?
Bon, n’exagérons pas, mais constatons néanmoins que la ligne est mince entre protection et contrôle.
Sommes-nous en train de banaliser une forme de surveillance algorithmique sous le prétexte de protéger l’intérêt supérieur de l’enfant?
La vraie raison
La réalité, c’est que, sous prétexte de représenter une avancée pour le bien des élèves, cette mesure vise surtout à combler un manque de ressources.
Un véritable engagement exigerait d’investir ces 13 M$ dans le recrutement de professionnels qualifiés (orthopédagogues, psychoéducateurs, enseignants, etc.) plutôt que dans une optimisation bureaucratique menée par l’IA.
Le 4 février dernier, le député de Maurice-Richard, Haroun Bouazzi, rappelait l’importance de légiférer sur l’IA, notamment en tenant une commission parlementaire sur le sujet – une idée initialement proposée par le PLQ en 2023.
Ne pas s’attaquer aux sources du décrochage et cacher la crise en éducation derrière l’IA en invoquant un bénéfice supposé au détriment d’une réflexion éthique est franchement inquiétant.