
« Cet outil est à la disposition des syndicats de la FNEEQ parce que la Fédération observe une croissance des établissements d’enseignement intéressés à se doter d’un nouveau cadre réglementaire. L’utilisation responsable, éthique, durable et sécuritaire de l’IA dans les domaines de l’éducation et l’enseignement supérieur doit reposer sur une approche critique, basée sur le principe de précaution. Des balises claires doivent être établies autour de valeurs centrales : l’humanisme, la collégialité, la liberté académique, l’équité, la diversité et l’inclusion. »

Benoît Lacoursière
Président de la FNEEQ–CSN
Huit principes

Agir avec prudence
Défendre le principe de précaution : les risques et les conséquences de l’IA sont encore peu connus. / Dénoncer le recours abusif aux technologies en éducation et en enseignement supérieur. / Rappeler les biais discriminatoires pouvant être engendrés par l’IA. / Privilégier l’utilisation de logiciels libres par les établissements d’enseignement, plutôt que des plateformes privées.

Agir avec transparence
Informer toute personne de l’usage de l’IA ou de l’interaction avec un outil IA, par exemple pour une décision la concernant, et obtenir son consentement explicite et spécifique à cet effet. / S’assurer que toute décision ou recommandation émise par un outil d’IA soit connue, et soit contestable et révisable selon un processus clairement établi qui place l’humain au centre de toute décision finale. / Partager avec les usagères et les usagers toute erreur de fonctionnement, effet imprévu ou indésirable, faille de sécurité et fuite de données en lien avec un outil IA.

Protéger les renseignements personnels et le droit à la vie privée
S’assurer, en vertu des obligations légales, de la mise en place de mesures de sécurité suffisantes pour veiller à la confidentialité des renseignements personnels. / S’assurer que des informations sensibles et confidentielles se rapportant à un individu ne soient pas soumises à un outil IA sans son consentement explicite et spécifique. / Garantir que l’IA ne puisse pas soumettre une personne à une surveillance continue ou entraîner une obligation de connexion constante.

Préserver l’intégrité intellectuelle et l’intégrité académique
Interroger d’abord et avant tout l’utilisation de l’IA au regard de la pertinence pédagogique et vérifier ses impacts sur le processus d’apprentissage. / Faire connaître aux personnes étudiantes, de façon claire et transparente, les risques posés par l’IA relativement à la qualité de l’information. / Garantir la qualité des apprentissages des étudiant·es ainsi que l'intégrité et la validité des évaluations.

Respecter l’autonomie professionnelle
Respecter l’expertise enseignante, l’autonomie professionnelle, la collégialité et la liberté académique. / S’assurer de préserver le jugement professionnel des personnes enseignantes pour l’ensemble des tâches et d’agir en accord avec leur responsabilité professionnelle. / Rappeler le caractère libre d’utiliser ou non des outils IA dans l’enseignement et que nul ne devrait être tenu de recourir à une technologie IA. / Contrer toute tentative de standardisation du travail enseignant par des outils IA.

Assurer la primauté de la relation humaine dans l’enseignement
Valoriser une approche qui place l’être humain de même que son épanouissement au centre des réseaux de l’éducation et de l’enseignement supérieur. / S’assurer que le recours à l’IA ne réduise pas l’accès par des étudiant·es à du personnel qualifié pour de l’encadrement, des suivis, etc. / Rappeler le caractère central des rapports humains dans la relation pédagogique.

Protéger la qualité des emplois et le bien-être au travail
Contrer toute utilisation de l’IA qui aurait pour effet de remplacer le travail humain, de précariser les emplois ou de morceler la tâche des personnels en les dépossédant d’une part de leurs responsabilités. / Empêcher tout recours à l’IA pour des fins de recrutement des personnels, des élèves, des étudiantes ou étudiants, ou d’évaluation des personnels. / Refuser toute utilisation de l’IA à des fins de pression de performance continue ou d’intensification du travail (p. ex. croissance de la taille des groupes). / Privilégier le travail collaboratif pour soutenir la créativité au travail plutôt que les technologies.

Soutenir la justice sociale et environnementale
Viser à sensibiliser les personnels et les étudiant·es à une utilisation éthique et responsable ainsi qu’aux limites de ces outils IA. / Viser à ce que les outils d’IA ne manquent pas au devoir de respect de l’égalité, de l’équité, de la diversité et de l’inclusion. / Soutenir que le développement des outils IA doit bénéficier à tous·tes, et viser à réduire les inégalités et la précarité sociales. / Mentionner l’importance de limiter l’utilisation de l’IA en raison de son impact environnemental majeur, dans un esprit de sobriété numérique.
- Chronique 102 du comité école et société – IA en enseignement supérieur: retour sur la Journée du numérique en éducation (décembre 2024)
- IA en éducation / de la mission à la démission sociale : replaçon l’humain au coeur de l’enseignement (mémoire présenté au conseil fédéral de juin 2023)
- Recommandations adoptées par le conseil fédéral (point 7) sur l’IA le 2 juin 2023
Si vous avez des questions concernant l’intégration de l’IA au sein de votre établissement, le syndicat local est un espace privilégié pour réfléchir, agir et représenter les intérêts des enseignant∙es face à l’intégration de l’IA. Votre syndicat peut compter sur l’appui d’une personne conseillère syndicale et de la solidarité d’un regroupement de syndicats partageants des défis similaires.