Par Frédérique Maysenhoelder

Depuis quelques années, l’intelligence artificielle (IA) est en plein essor dans plusieurs domaines. Certains l’utilisent sans gêne alors que d’autres ont plus de réticence face à cette technologie. Qu’en est-il de son utilisation à l’université? Qu’en pensent le personnel enseignant et les étudiants de l’Université de Sherbrooke (UdeS)?
Selon une nouvelle étude de KPMG au Canada, publiée alors que l’année scolaire bat son plein, 6 étudiants canadiens sur 10 (59 %) utilisent maintenant l’intelligence artificielle générative pour effectuer leurs travaux scolaires, contre 52 % l’année précédente.
L’arrivée des intelligences artificielles génératives comme ChatGPT bouleverse le milieu universitaire. À l’Université de Sherbrooke, autant le corps professoral que la population étudiante s’interrogent : faut-il craindre ou apprivoiser cet outil? Les avis sont partagés, mais une chose est certaine : l’IA est déjà implantée dans les pratiques pédagogiques et les habitudes d’apprentissage.
L’IA comme soutien, pas comme remplaçant
Pour Denis Bélisle, professeur au Département de communication, l’IA représente une avancée impressionnante, mais ambivalente. « C’est extrêmement performant, surtout depuis la fin 2024. Il y a eu un saut de qualité majeur. Mais plus il y a d’étapes dans le raisonnement, moins l’IA est fiable », explique-t-il. Lui-même utilise ces outils pour corriger plus efficacement les travaux de ses étudiants et étudiantes et aussi dans le cadre de programmation informatique : « J’ai monté des programmes de 1000 lignes en trois jours avec l’IA, ce qui m’aurait pris un mois. » M. Bélisle est toutefois catégorique sur une chose : « L’IA ne doit jamais produire un travail à la place de l’étudiant. Elle peut aider à critiquer, à réfléchir, mais pas à faire. »
Julien Pierre, également professeur au Département de communication, partage cette prudence : « L’IA pose des défis comparables à l’arrivée d’Internet ou de Wikipédia, notamment sur le plan du plagiat et de l’intégrité intellectuelle. » Pour lui, l’IA représente à la fois une menace et un outil : « L’IA, comme un outil, dépend des usages qu’on veut en faire. Elle comporte des éléments problématiques, notamment sur le plan éthique, et il est important de définir des bornes éthiques pour son utilisation en pédagogie. » Il ajoute : « L’IA comprend aussi des problématiques liées à son impact énergétique et écologique. »
Règlements en évolution : comment l’UdeS encadre l’IA
La majorité des facultés à l’UdeS n’ont pas encore imposé de lignes directrices uniformes à propos de l’utilisation de l’IA en contexte académique. Toutefois, un cadre institutionnel se met en place. Stéphane Roux, directeur général du Service de soutien à la formation, rappelle que l’Université s’est dotée d’un énoncé de principe, de lignes directrices et même d’un chapitre dans le règlement des études sur l’usage de l’IA. « L’IA doit être utilisée de façon judicieuse, critique, sécuritaire et éthique », résume-t-il.
Dany Baillargeon, lui aussi professeur au Département de communication, va plus loin : « Il serait irresponsable de ne pas intégrer l’IA à la formation universitaire. Mais cette intégration doit se faire avec une réflexion sur ses impacts sociaux, professionnels et cognitifs. » Selon lui, l’enjeu est moins de maîtriser l’outil que de développer une « littératie algorithmique » et un esprit critique face aux décisions automatisées.
Des usages variés, des avis partagés
Du côté des personnes étudiantes, l’utilisation de l’IA est déjà bien ancrée. Deux étudiantes en communication, ayant préféré garder l’anonymat, témoignent de leurs pratiques : l’une utilise ChatGPT pour reformuler ses phrases ou changer des mots dans ses travaux; l’autre s’en sert pour éclaircir des concepts, résumer des lectures ou générer des idées de titres. « C’est un allié, mais il faut savoir bien l’utiliser », affirme la première. La seconde nuance : « Une utilisation exagérée nuit à la créativité et à la pensée critique. L’IA devient l’option facile. »
Une troisième étudiante aussi anonyme, ayant utilisé l’IA dans le cadre du cours Enjeux sociaux du numérique, note aussi les avantages et les risques associés à ces outils : « L’IA peut nous faire gagner du temps, surtout pour des tâches comme la correction ou la synthèse de textes. Mais les risques sont principalement au niveau de la qualité de l’information. L’IA ne distingue pas un texte crédible d’un autre, et elle peut générer des sources fausses ou inexistantes. Il est donc crucial de vérifier les informations. » Elle ajoute : « Je suis peut-être old school, mais je considère que l’IA est une forme de tricherie, car j’ai l’impression de ne pas travailler réellement lorsque je l’utilise. »
Karina Deslauriers, une autre étudiante en communication, partage son expérience personnelle : « J’ai débuté mes études universitaires en communication appliquée à l’automne 2024. J’avais pris connaissance de l’accessibilité de l’intelligence artificielle, surtout pendant l’été qui précédait ma rentrée universitaire. Au départ, je ne croyais pas en l’utilité et la fiabilité des IA, mais je me suis vite rendu compte qu’elles étaient rapides et pratiques. J’ai utilisé ChatGPT plusieurs fois pour améliorer et vérifier certains éléments dans mes textes. »
Cependant, Karina reconnaît les risques. « L’IA peut réfléchir pour nous, ce qui est pratique dans la vie de tous les jours, mais dans un milieu académique, cela peut nuire à notre développement de compétences. »
Ces témoignages confirment les observations de Julien Pierre. « Le problème du plagiat lié à l’IA est déjà présent, et la transparence devient essentielle. La ligne entre aide technologique et tricherie réside dans la reconnaissance explicite de l’utilisation de l’IA dans le travail académique. »
Vers une nouvelle pédagogie?
Tout le monde s’entend : l’IA ne peut être ignorée. Mais comment s’assurer qu’elle ne remplace pas l’apprentissage en profondeur? Pour Dany Baillargeon, l’objectif change. « Il ne suffit plus de démontrer qu’on sait faire un travail. Il faut montrer qu’on peut le faire d’une manière originale, différente. » C’est donc la créativité, la capacité à faire des liens et à poser un regard critique qui deviennent les nouvelles compétences clés.
Julien Pierre de son côté souligne également l’importance de la réflexion éthique et de la transparence dans l’utilisation de l’IA en recherche et en pédagogie. « L’université forme à la recherche, et il est crucial d’intégrer les IA dans ce cadre, pas seulement dans les activités d’apprentissage. Le défi sera de transformer l’outil en levier d’autonomie intellectuelle, plutôt qu’en raccourci vers la facilité. »
L’intelligence artificielle redéfinit déjà la manière d’enseigner, d’apprendre et d’évaluer. Le défi sera maintenant d’utiliser cet outil pour développer l’autonomie intellectuelle, plutôt que de l’utiliser comme une solution facile.
Source : Université de Sherbrooke