Chronique 102 – IA en enseignement supérieur
Au sortir de la 6e journée du numérique, tenue le 1er novembre dernier et organisée par les ministères de l’Éducation et de l’Enseignement supérieur, la tentation était forte, pour l’ironie de la chose, de demander à une intelligence artificielle générative de produire une chronique incendiaire sur le sujet, qui rappellerait encore une fois les dangers d’une éducation de plus en plus atomisée, médiatisée et déshumanisée. En fait, force est d’admettre que pour produire plus de réchauffé, incluant de produire des textes complexes sur des sujets nichés, ChatGPT et tous ses cousins sont désormais extrêmement performants.
C’est peut-être cette perspective qui faisait dire à Éric Caire, ministre de la Cybersécurité et du Numérique en mot d’ouverture que l’humain pourrait fort bien se trouver très bientôt dépassé par une intelligence plus grande que la sienne. Cette remarque, empreinte de gravité, devait nous sensibiliser à l’importance de « former les leaders de demain… aujourd’hui ». Au-delà du lieu commun toujours plus creux que profond, les mots d’ouverture marquaient le caractère complètement paradoxal de la journée. L‘objectif semblait être de former des usagers autonomes et critiques dans leur usage du numérique. Pourtant, les termes employés au sein de l’évènement se cantonnaient à « susciter l’innovation pédagogique », « s’inspirer, s’informer, réseauter et partager » et « favoriser l’utilisation des outils numériques à des fins pédagogiques », offrant ainsi une perspective à la fois fataliste et enthousiaste face à l’accélération du recours au numérique en éducation.
Les 6 000 inscrit·es (dont 600 en présence) ont donc eu accès à plus de 70 ateliers, mettant à contribution 173 intervenant·es portant sur moult usages possibles du numérique en éducation. Les ateliers semblaient vouloir illustrer les 12 dimensions du Cadre de référence de la compétence numérique à travers différents thèmes tels que le bien-être et la littératie numériques, l’enseignement à distance (encore et toujours), mais aussi la réalité augmentée et ses vertus éducatives.
Si certains ateliers abordaient de front la question critique de l’utilisation du numérique, d’autres ont littéralement caché leurs intentions de défendre cette utilisation à travers des titres d’ateliers trompeurs. Par exemple, un atelier invitait à discuter de tâches chronophages pour ensuite faire l’apologie de certaines pratiques incluant l’IA. Nous avons eu le droit également à un exposé sur les utilisations possibles de ChatGPT dans les cours (sans se questionner tant que ça sur le contenu encore imparfait et comment il est généré). Finalement, l’atelier sur le temps d’écran cachait en fait des moyens ludiques d’utiliser plus de numérique en classe. S’il faut reconnaitre que dans la plupart des ateliers, du moins ceux auxquels les membres du comité ont pu participer, les intervenant·es prenaient soin, après avoir longtemps vanté leur utilisation du numérique, d’inclure quelques mises en garde quant aux risques ou limites des outils proposés, la dimension critique nous a globalement laissés sur notre appétit.
En effet, en nous proposant des techniques et des outils IA pour produire des plans de cours par dizaines en un temps record, générer des exercices et en automatiser la correction, ou offrir une pré-évaluation d’une production étudiante, ou encore rendre disponible un robot conversationnel à toute heure du jour et de la nuit, on glisse souvent dans la dérive technosolutionniste. Plutôt que de se questionner rigoureusement sur les problèmes réels ou anticipés, leurs sources et leurs impacts, sans appliquer le principe de précaution, on passe immédiatement aux solutions. En effet, pourquoi les plans de cours et les plans-cadres sont-ils si longs, d’ordinaire, à écrire ? Pourquoi la correction, moment fondamental de la relation pédagogique, est-elle reléguée au rang de corvée stérile ? En quoi le robot conversationnel basé sur le matériel du cours est-il plus efficace que ledit matériel ? Pourquoi est-ce acceptable de laisser Antidote reformuler le texte de l’élève alors qu’apprendre à écrire est intimement associé à sa capacité de construire ses idées et de développer sa capacité à réfléchir? Et pourquoi diable est-ce devenu normal d’étudier à 2h du matin ?
En fait, l’attitude technosolutionniste qui semblait traverser la journée relève de la même dynamique qui pousse certain·es étudiant·es à recourir parfois maladroitement à plusieurs outils numériques, que ce soit de crainte de manquer de temps, parce que tant l’exécution de la tâche que l’injonction de performance génèrent trop d’anxiété, ou simplement parce que la valeur intrinsèque de l’exercice exigé ne leur apparait pas évidente.
Face aux comportements étudiants, l’appel à un usage judicieux de l’IA était bien entendu promu. C’est d’ailleurs pour outiller la population étudiante et décourager les usages inadéquats et abusifs de l’IA que plusieurs ateliers proposaient des ressources et autres trousses à outils, notamment quant à l’éthique de son usage. C’est un effort qui doit être salué. Ces outils pourront être utilisés en classe et hors classe afin d’en clarifier les enjeux, et répondent à un besoin réel et urgent du monde de l’éducation.
Reste que ces outils n’auront que peu d’effet si on ne prend pas acte des enjeux profonds auxquels le numérique et l’IA prétendent répondre.
D’une part, l’information et la sensibilisation ne pèseront pas lourd dans la balance si le contexte général du travail et des études en demeure une d’accélération et de performance à tout prix. D’autre part, informer et sensibiliser repose sur une base fragile, dans un contexte où la recherche sur le numérique accuse de manière systémique un retard par rapport à l’usage.
Prenons l’exemple de la TELUQ, qui déploie progressivement des robots conversationnels dans certains cours. On se désole que la mise en ligne de ces premiers robots suscite tant d’enthousiasme chez certains, alors que l’évaluation faite par la TELUQ entourant les effets de tels outils en est encore à une phase exploratoire. En effet, la question des besoins étudiants et des impacts sur leurs pratiques et leurs apprentissages demeure encore à traiter. Dans ce contexte, le fait que la TELUQ envisage déjà de diminuer l’offre de tutorat humain, sans connaitre les résultats de ses propres recherches, nous semble loin d’une posture critique et éclairée, empreinte du principe de précaution !
Cette pression à déployer l’IA prend racine dans un profond fatalisme. On nous dit que puisque les étudiant·es l’utilisent massivement,[1] les établissements n’ont d’autre choix que de suivre. C’est ce fatalisme qui semble complètement incompatible avec la notion même de leadership appelée de tous ses vœux par M. Caire en début de journée. Cette résignation, ultimement, impliquerait d’abdiquer nos capacités de juger, de créer et de vivre ! Comme enseignant·es, nous avons le devoir plus urgent que jamais de tout mettre en œuvre pour garder vivante, et surtout humaine, l’éducation !
Le comité école et société
On peut contacter le comité école et société par courriel à l’adresse : cesfneeq@csn.qc.ca
[1] Larochelle, Samuel. « Les étudiants adorent l’intelligence artificielle, mais… ». La Presse. 5 novembre 2024.