Catégorie : Évaluer en ligne

L’autoévaluation comme moyen de développer les habiletés métacognitives chez les étudiants

Dan Thanh Duong Thi, Université du Québec à Montréal

Carla Barroso da Costa, Université du Québec à Montréal

Depuis décembre 2019, le monde fait face à l’épidémie de coronavirus, maladie infectieuse causée par le syndrome respiratoire aigu sévère (SRAS-CoV-2). Connue généralement comme la COVID-19, cette pandémie a fortement affecté l’enseignement et l’apprentissage à l’université, la plupart des cours étant donnés en ligne depuis le printemps 2020. Dans cette situation, les professeurs universitaires doivent mettre en place des modalités d’évaluation pertinentes, dynamiques et variées afin de s’adapter à ce nouveau contexte d’enseignement, tout en respectant la complexité et l’authenticité des tâches demandées aux étudiants ainsi que leur engagement actif dans l’accomplissement des tâches évaluatives. Parmi ces modalités d’évaluation, l’autoévaluation semble un moyen indispensable pour développer la pratique réflexive et les habiletés métacognitives des étudiants sur leurs propres apprentissages.

L’autoévaluation constitue une démarche réflexive, une appréciation argumentée du parcours d’apprentissage de l’étudiant dans la réalisation d’une tâche donnée et dans la capacité de porter un jugement personnel authentique et objectif sur le développement de ses savoirs (St-Pierre, 2004). Ainsi, lorsque l’étudiant s’autoévalue, il prend conscience non seulement de ses processus cognitifs, mais également de ses motivations et de son sentiment d’efficacité à effectuer la tâche proposée.

La métacognition et ses composantes

La métacognition est une pratique réflexive, une sorte de cognition sur la cognition. Selon Flavell (1976) « La métacognition se rapporte à la connaissance qu’on a de ses propres processus cognitifs, de leurs produits et de tout ce qui touche, par exemple, les propriétés pertinentes pour l´apprentissage d´informations et de données… » (p. 232). C’est une opération mentale consciente constituée d’une composante déclarative (des connaissances sur les facteurs liés à la personne, à la tâche évaluative et aux stratégies d’apprentissage) ainsi que d’une composante procédurale (l’autorégulation).

La composante déclarative – facteur lié à la personne : l’étudiant montre qu’il a une connaissance de lui-même lorsqu’il est capable de reconnaître ses forces et ses limites en tant qu’apprenant. Par exemple, l’étudiant peut s’identifier comme étant une personne qui apprend rapidement et efficacement en visualisant les attributs d’un concept à partir d’un schéma conceptuel, en verbalisant dans ses mots le contenu appris ou encore en confrontant ses idées avec celles de ses collègues et de son professeur.

La composante déclarative – facteur lié à la tâche évaluative : l’étudiant reconnaît les effets des caractéristiques de la situation d’évaluation sur sa manière d’apprendre et pose un jugement sur la complexité de cette situation, sur sa connaissance du contexte, sur la disponibilité des ressources permettant de la réaliser, etc. Il peut s’agir, par exemple, d’un étudiant qui se sent à l’aise d’effectuer la tâche grâce à des apprentissages réalisés dans d’autres cours et qui l’ont bien outillé à suivre la matière, ou encore, d’un étudiant confronté à une tâche dont le niveau de complexité est jugé élevé et dont la réalisation demande un effort considérable.

La composante déclarative – facteur lié aux stratégies d’apprentissage : l’habileté métacognitive liée aux stratégies d’apprentissage se révèle lorsque l’étudiant démontre sa connaissance sur les moyens d’atteindre les objectifs précisés et de réussir, autrement dit, son raisonnement pour effectuer la tâche. Par exemple, l’étudiant décrit les étapes qu’il a suivies pour répondre aux exigences de la tâche et les décisions qu’il a prises pour l’effectuer à partir d’une logique bien structurée.

La composante procédurale de la métacognition – l’autorégulation des apprentissages : il s’agit de l’habileté à contrôler et à ajuster ses propres activités. Par exemple, l’étudiant est apte à identifier de quelle manière et dans quelles conditions certaines stratégies cognitives peuvent s’appliquer, tout en étant capable d’évaluer consciemment leur efficacité.  

Bien entendu, les tâches évaluatives conçues pour être complexes sont celles qui offrent l’occasion aux étudiants de réfléchir sur leurs processus cognitifs et de poser un jugement sur la qualité de leurs opérations mentales (Barroso da Costa et Araújo-Oliveira, sous presse; Berger, 2009; Monnard et Luisoni, 2013). Cela dit, la conception d’une tâche évaluative qui laisse de la place à l’analyse, à l’évaluation et/ou à la création (des niveaux les plus élevés de la taxonomie de Bloom) est celle qui rend possible le développement de l’habileté de l’étudiant à analyser ses activités intellectuelles et à réguler ses apprentissages.

L’autoévaluation en pratique

L’exemple présenté dans cette section est une tâche évaluative provenant d’un cours d’analyse des données quantitatives, donné en première année d’un programme de baccalauréat dans le domaine des sciences de l’éducation. Pour répondre aux exigences de cette tâche qui représente 40 % de la note finale du cours, les étudiants doivent produire un rapport constitué d’analyses statistiques descriptives en utilisant le logiciel le Statistical Package for Social Sciences (SPSS) avec quatre variables au choix (trois discrètes et une continue) à partir d’une liste d’environ 100 variables d’une enquête internationale à grande échelle. Pour produire ce rapport statistique, les étudiants doivent démontrer leur maitrise de divers aspects de la description des données étudiées en cours, comme l’élaboration de différents graphiques et tableaux, le calcul des fréquences et des statistiques (moyenne, médiane, écart-type, etc.), la réalisation de croisements de données et l’analyse des formes de distribution. Le travail s’échelonne sur une période de sept semaines. Les consignes et les critères d’évaluation sont présentés et expliqués aux étudiants durant le deuxième cours. L’évaluation du travail se fait à l’aide d’une grille d’évaluation descriptive, basée sur les quatre critères suivants : (1) la maîtrise des concepts liés à l’analyse descriptive (12 points), (2) la pertinence et la justesse des résultats (12 points), (3) l’association effectuée entre les variables analysées (10 points) et (4) la qualité du rapport statistique (6 points).

À la fin du rapport statistique, chaque étudiant doit remplir une autoévaluation dans laquelle il est invité à présenter une réflexion critique personnelle de son apprentissage et du développement de ses compétences. Il doit énoncer les aspects les plus faciles et les plus difficiles de la tâche, les plus plaisants, mais également les moins agréables. De plus, il doit expliciter les défis rencontrés dans la réalisation de la tâche, les stratégies cognitives et métacognitives mises en œuvre pour surmonter ces défis ainsi que leur progression. Par ailleurs, tout au long des sept semaines de réalisation du travail, les étudiants exécutent plusieurs exercices en petits groupes afin de partager leurs points de vue, de chercher des solutions ensemble et de s’entraider dans la construction du travail.

Dans une étude menée par Barroso da Costa et Araújo-Oliveira (à paraître) qui se base sur l’analyse qualitative de 98 autoévaluations produites par des étudiants dans le cadre de ce cours, les résultats suggèrent une forte relation entre les composantes de la métacognition (composante déclarative ou procédurale) et les performances des étudiants (les résultats obtenus dans le cours et les participations actifs dans des exercices réalisés en salle de classe) ainsi que leur engagement affectif (la motivation, le sentiment d’efficacité ou la perception sur l’importance et l’utilité de la tâche). Plus précisément, les étudiants qui se sentent motivés, capables de reconnaître leur habileté à réaliser le travail et de donner du sens à l’activité évaluative sont ceux qui démontrent le plus clairement leur capacité métacognitive et qui réussissent le mieux dans la réalisation de la tâche. Autrement dit, les étudiants les plus performants sont ceux qui manifestent un pouvoir de réflexion consciente accru sur leurs stratégies d’apprentissage. Par contre, dans le cas des étudiants moins performants, l’analyse de leurs autoévaluations montre la frustration et l’anxiété qu’ils ressentent face à la réalisation du travail ainsi qu’une habileté métacognitive ponctuelle et partiellement consciente.

Comment développer l’habileté des étudiants à s’autoévaluer?

Pour enseigner aux étudiants à s’autoévaluer, il est important de commencer par susciter leur engagement affectif et cognitif dans l’élaboration des critères d’évaluation, si la situation le permet. S’il est impossible d’élaborer ces critères avec les étudiants dans un contexte de cours, il est fondamental de s’assurer qu’ils comprennent les critères d’évaluation afin de pouvoir établir une relation claire entre les objectifs visés et les attentes associées à la tâche demandée, et de porter un jugement adéquat sur leur progrès (Lison et St-Laurent, 2015). Pour favoriser le développement de l’habileté des étudiants à s’autoévaluer, St-Pierre (2004) propose une démarche en huit étapes adaptées par Lison et St-Laurent (2015). Ci-dessous, nous décrivons ces étapes en détail, en donnant l’exemple de la tâche évaluative proposée dans un cours d’analyse des données quantitatives mentionnée dans la section précédente.

Les huit étapes pour favoriser le développement de l’habileté à s’autoévaluer 

(1) L’appropriation des objectifs (la compréhension, le partage et l’engagement personnel)

Cette étape est réalisée lors de la présentation des consignes de la tâche, de l’échéancier et de la grille d’évaluation aux étudiants durant le deuxième cours. L’enseignant s’assure qu’ils ont bien compris les attentes en leur posant des questions. Il précise la valeur extrascolaire de la tâche à réaliser et son usage dans des situations réelles d’analyse de données quantitatives, en donnant des exemples de rapports statistiques liés à certaines enquêtes à grande échelle.

(2) L’échange sur la nature des tâches et des activités et sur les productions attendues Avec l’enseignant ou les pairs, les étudiants ont de nombreuses occasions de partager leurs analyses, de discuter de la meilleure façon de décrire les données et de solutionner certains problèmes présentés par l’enseignant. Ils ont également l’occasion d’identifier les stratégies possibles pour réaliser le travail, par exemple, choisir les variables à analyser, les types de graphiques et de tableaux les plus adéquats pour décrire des données, partager des parties d’analyse et d’interprétation.

(3) L’analyse des exemples pour en dégager les qualités, les caractéristiques et les manifestations d’un produit ou d’un processus réussi

Plusieurs exemples d’analyses descriptives sont mis à la disposition des étudiants pour les aider dans la construction de leur travail. De plus, l’enseignant intervient auprès des équipes de travail et les amène à s’exprimer et à confronter leurs idées, à développer leur réflexion critique à propos de certains aspects du travail, par exemple, le choix d’un format de graphique ou de tableau pour présenter une variable du type ordinal. L’enseignant assure le suivi des étapes complétées par les étudiants en leur donnant des rétroactions régulièrement.

(4) La formulation ou l’appropriation de critères, d’indicateurs et d’échelles d’appréciation pour soutenir la réflexion

Les critères d’évaluation et la grille d’évaluation descriptive sont présentés aux étudiants lors de la deuxième séance. Cette grille est initialement élaborée par l’enseignant, puis bonifiée, au besoin, avec des commentaires des étudiants. L’enseignant fournit oralement des exemples concrets afin que lesétudiants puissent comprendre clairement ce qui est attendu pour chaque critère d’évaluation.

(5) L’exécution de la tâche en relevant les indices sur la qualité

Chaque semaine, les étudiants sont invités à présenter l’état d’avancement de leur travail pour recevoir des rétroactions formatives de l’enseignant et de leurs pairs. Ils sont également invités à s’exprimer oralement, à partager des résultats d’analyse qui peuvent intéresser le groupe d’étudiants et à présenter les solutions utilisées pour surmonter certains défis du travail, par exemple, la réalisation d’une sélection de données pour extraire des informations originales.

(6) La comparaison des indices et des critères (échelles)

Lorsque les étudiants ont des doutes quant à l’atteinte des critères d’évaluation, l’enseignant planifie une rencontre pour réviser la matière et faire plusieurs exercices en groupe. À cette occasion, il invite les groupes d’étudiants à remplir la grille descriptive utilisée pour l’évaluation du rapport statistique au but d’analyser des points forts et des limites de chaque groupe et cela pour chaque critère d’évaluation.

(7) La réflexion critique et le jugement

Cette réflexion s’effectue oralement pendant la réalisation des travaux en groupe et par écrit lorsqu’il remplit l’autoévaluation qui se trouve à la fin du travail à remettre. Lors des échanges et des discussions en classe, les étudiants ont l’occasion de comparer leur travail à celui de leurs pairs, ce qui leur permet de développer leur réflexion critique. De plus, les exercices en équipe les aident à se faire une idée sur leur propre travail ou sur celui de leurs collègues. En remplissant l’autoévaluation qui se trouve à la fin du travail, chaque étudiant décrit les stratégies utilisées pour réaliser le travail et porte un jugement sur son rapport statistique.

(8) L’autorégulation

Bien que l’autorégulation soit difficile à vérifier, l’enseignant peut l’utiliser pour obtenir certains indices. Ainsi, lorsque l’étudiant dit qu’il a rencontré un défi dans la réalisation du travail et qu’il explique comment il a réussi à le surmonter, le processus d’autorégulation révèle sa capacité de surveiller et d’évaluer ses propres apprentissages. Nous donnons comme exemple un extrait d’une autoévaluation :

Il a fallu se relire plusieurs fois pour bien valider que nos explications étaient claires et en lien les unes avec les autres. J’ai appris que ce genre d’analyse amène beaucoup de données et de résultats possibles que nous pouvons analyser encore et encore de différentes façons. Il faut donc être structuré pour conserver notre objectif initial.

En guise de conclusion

Pour conclure cette brève réflexion, nous soulignons qu’il est important que l’évaluation dans un contexte universitaire puisse privilégier l’apprentissage en profondeur et la participation active des étudiants dans leur propre processus d’évaluation. Elle doit également favoriser et consolider les activités d’autorégulation et l’utilisation de stratégies métacognitives des étudiants pour faciliter l’inclusion et orienter l’apprentissage vers la réussite universitaire. Ainsi, afin de développer la capacité d’autoévaluation chez les étudiants, il est nécessaire de les accompagner au fur et à mesure qu’ils réalisent les tâches demandées. Les huit étapes proposées par St-Pierre (2004) et adaptées par Lison et St-Laurent (2015) constituent donc une suggestion pertinente pour guider la démarche de l’enseignant dans le développement des habiletés d’autoévaluation chez les étudiants.

GRIÉMÉtic (28 février 2021) L’autoévaluation comme moyen de développer les habiletés métacognitives chez les étudiants. Retrieved from https://griemetic.ca/fr/2020/12/18/lautoevaluation-comme-moyen-de-developper-les-habiletes-metacognitives-chez-les-etudiants/.
"L’autoévaluation comme moyen de développer les habiletés métacognitives chez les étudiants." GRIÉMÉtic - 28 février 2021, https://griemetic.ca/fr/2020/12/18/lautoevaluation-comme-moyen-de-developper-les-habiletes-metacognitives-chez-les-etudiants/
GRIÉMÉtic 18 Décembre 2020 L’autoévaluation comme moyen de développer les habiletés métacognitives chez les étudiants., viewed 28 février 2021,<https://griemetic.ca/fr/2020/12/18/lautoevaluation-comme-moyen-de-developper-les-habiletes-metacognitives-chez-les-etudiants/>
GRIÉMÉtic - L’autoévaluation comme moyen de développer les habiletés métacognitives chez les étudiants. [Internet]. [Accessed 28 février 2021]. Available from: https://griemetic.ca/fr/2020/12/18/lautoevaluation-comme-moyen-de-developper-les-habiletes-metacognitives-chez-les-etudiants/
"L’autoévaluation comme moyen de développer les habiletés métacognitives chez les étudiants." GRIÉMÉtic - Accessed 28 février 2021. https://griemetic.ca/fr/2020/12/18/lautoevaluation-comme-moyen-de-developper-les-habiletes-metacognitives-chez-les-etudiants/
"L’autoévaluation comme moyen de développer les habiletés métacognitives chez les étudiants." GRIÉMÉtic [Online]. Available: https://griemetic.ca/fr/2020/12/18/lautoevaluation-comme-moyen-de-developper-les-habiletes-metacognitives-chez-les-etudiants/. [Accessed: 28 février 2021]

Références bibliographiques

Barroso da Costa, C. et Araújo-Oliveira, A. (sous presse). Métacognition, états affectifs et engagement cognitif chez des étudiants universitaires : triade percutante pour l’apprentissage et l’inclusion. Educativa23.

Berger, J. L. (2009). The influence of achievement goals on metacognitive processes in math problem solving. Journal of Cognitive Education and Psychology8(2), 165-181.

Flavell, J. H. (1976). Metacognitive aspects of problem solving. Dans L. B. Resnick

(dir.), The Nature of Intelligence (p. 231-235). New Jersey: Lawrence Erlbaum.

Lison, C. et St-Laurent, C. (2015). Développer la pratique réflexive des étudiants pour soutenir leur autoévaluation. Dans J. L. Leroux (dir.), Évaluer les compétences au collégial et à l’université: un guide pratique (p. 311-334). Montréal, Québec : Chenelière Éducation/Association québécoise de pédagogie collégiale.

Monnard, I. et Luisoni, M. (2013). Sens attribué à l’évaluation des compétences professionnelles par tâches complexes chez de futurs enseignants en formation. Mesure et évaluation en éducation36(2), 1-27.

St-Pierre, L. (2004). L’habileté d’autoévaluation chez l’élève: pourquoi et comment la développer? Pédagogie collégiale18(1), 33-38.

La grille d’évaluation descriptive: un outil précieux en contexte d’enseignement à distance

Par Patricia Vohl (Univrersité de Montréal)

Selon Durand et Chouinard (2006/2012), une grille d’évaluation descriptive « fournit des renseignements descriptifs en ce qui concerne une performance observée et la situe par rapport à une performance attendue » (p.276). La Figure 1 qui suit est un exemple de ce qu’est une grille d’évaluation descriptive.

Figure 1. Exemple d’une grille d’évaluation descriptive tirée d’un cours de recherche et analyse quantitative.

Utiliser une telle grille comporte de nombreux avantages, aussi bien avant et pendant la réalisation d’une activité d’apprentissage, qu’au moment d’évaluer et de transmettre la rétroaction aux étudiants. Avant la réalisation d’une activité d’apprentissage, la grille d’évaluation descriptive permet à l’enseignant de préciser ses attentes en regard de l’activité à venir, puis de les communiquer clairement aux étudiants.Quand vient ensuite le temps de réaliser l’activité, la grille d’évaluation favorise l’autonomie chez les étudiants : elle leur permet d’ajuster leur production afin de répondre adéquatement aux attentes et elle leur sert d’aide-mémoire. Quand vient le moment d’évaluer, l’enseignant n’a qu’à encercler ou surligner les éléments de la grille les mieux adaptés à la production de chacun des étudiants afin de leur fournir, en peu de temps, une rétroaction détaillée, tout en garantissant l’uniformité du processus. Pour l’ensemble de ces raisons, la grille d’évaluation descriptive nous apparaît un outil d’évaluation à privilégier, particulièrement dans les situations où les défis liés à la communication sont grands, comme tel est le cas dans le contexte de la pandémie actuelle.

Ce court texte a pour objectif d’expliquer comment construire une grille d’évaluation descriptive. Pour ce faire, il sera divisé en deux parties. Dans la première, nous présenterons les quatre composantes d’une grille d’évaluation descriptive, puis dans la seconde nous proposerons quatre étapes afin d’obtenir une grille d’évaluation descriptive complète.

Les composantes d’une grille d’évaluation descriptive (Stevens et Levi, 2005)

Les composantes d’une grille d’évaluation descriptive sont les suivantes : une description de la tâche, une liste des dimensions/critères d’évaluation, une liste des niveaux de performance, et enfin une description, pour chaque dimension/critère, de chacun des niveaux de performance attendu (voir Figure 2).

Figure 2. Les composantes d’une grille d’évaluation descriptive, inspiré de Stevens et Levi (2005)

Alors que la description de la tâche se veut une formulation claire, précise et complète de l’activité d’apprentissage proposée, la liste des dimensions/critères rassemble quelques-unes des habiletés/connaissances qui sont nécessaires pour réaliser la tâche proposée ou les critères qui serviront à l’évaluer. Une grille contient en général entre 3 et 5 dimensions/critères d’évaluation. En ajoutant des pondérations aux dimensions/critères, la grille permet d’indiquer clairement leur niveau de priorisation. La liste des niveaux de performance contient habituellement entre 3 et 5 catégories, bien que certaines grilles en contiennent une seule. La Figure 1 est une grille constituée de 3 dimensions/critères et 4 niveaux de performance.

La description, pour chaque dimension/critère, de chacun des niveaux de performance attendu illustre « […] en termes observables, les caractéristiques et les propriétés d’une performance à chacun des niveaux donnés […]» (Durand et Chouinard, 2006/2012, p.283). Pour Durand et Choinard (2006/2012), chaque critère/dimension peut être relié à une qualité (clarté, variété, suffisance, pertinence, conformité, justesse, exactitude, efficacité, intensité, complétude, finesse, logique, organisation, structure ou encore richesse). Cette qualité peut ensuite être « modulée » (p. 284) afin de décrire chacun des niveaux de performance.

Pour clore cette section, il est important de mentionner que, pour qu’une grille soit efficace, les descriptions doivent respecter deux critères : elles doivent être exhaustives (prévoir tous les cas de figure) et  mutuellement exclusives (ne pas se recouper) (Wiggins, 1998; Beckers, 2002, cités dans Durand et Chouinard, 2006/2012). Cela permet en effet de situer le niveau de performance observé de chacun des étudiants de manière non-équivoque.

Démarche d’élaboration d’une grille d’évaluation descriptive

Afin d’élaborer une grille d’évaluation descriptive, 4 étapes sont proposées par Stevens et Levi (2005). Celles-ci vont comme suit.

  1. Réfléchir – Réfléchir aux objectifs du cours, à l’activité d’apprentissage demandée, aux objectifs de cette activité, aux connaissances préalables des étudiants, aux expérience antérieures vécues avec cette tâche, ainsi qu’aux qualités importantes attendues en ce qui a trait aux performances.
  2. Faire des listes et rédiger des descriptions – Faire la liste des objectifs visés par le cours ainsi que par l’activité d’apprentissage, décrire ce que serait, de manière générale, le plus haut niveau de performance attendu.
  3. Faire des regroupements – À partir du contenu rédigé à l’étape 2, regrouper les idées communes. Cela permet en général d’obtenir les dimensions/critères d’évaluation de la grille, la ou les qualités associées à chaque dimension/critère, puis la description du plus haut niveau de performance attendu, pour chaque dimension/critère.
  4. Produire la grille –Indiquer la description de la tâche, les dimensions/critères d’évaluation, les niveaux de performance et la description du plus haut niveau de performance. À partir du plus haut niveau de performance, décrire le plus bas (souvent en y allant par la négative ou en dressant la liste des erreurs typiques), puis s’inspirer de ces deux descriptions pour rédiger les autres. Au besoin, ajouter des pondérations aux critères/dimensions.

Dans ce court texte, nous avons présenté « la grille d’évaluation descriptive ». Nous sommes d’avis que cet outil d’évaluation peut s’avérer fort utile en contexte d’enseignement à distance puisqu’il facilite l’échange d’information entre l’enseignant et les étudiants, en plus de favoriser l’autonomie chez ces derniers. Nous avons mentionné les composantes de cet outil et proposé des étapes afin les créer. Les lecteurs intéressés à aller plus loin sont invités à consulter les textes suivants :

Stevens, D. D., & Levi, A. J. (2005). Introduction to rubrics: An assessment tool to save grading time, convey effective feedback, and promote student learning. Stylus Publishing, LLC.

Durand, M.-J. et Chouinard, R. (2012). L’évaluation des apprentissages : de la planification de la démarche à la communication des résultats. Éditions Marcel Didier inc.

GRIÉMÉtic (28 février 2021) La grille d’évaluation descriptive: un outil précieux en contexte d’enseignement à distance. Retrieved from https://griemetic.ca/fr/2020/09/09/la-grille-devaluation-descriptive-un-outil-precieux-en-contexte-denseignement-a-distance/.
"La grille d’évaluation descriptive: un outil précieux en contexte d’enseignement à distance." GRIÉMÉtic - 28 février 2021, https://griemetic.ca/fr/2020/09/09/la-grille-devaluation-descriptive-un-outil-precieux-en-contexte-denseignement-a-distance/
GRIÉMÉtic 9 septembre 2020 La grille d’évaluation descriptive: un outil précieux en contexte d’enseignement à distance., viewed 28 février 2021,<https://griemetic.ca/fr/2020/09/09/la-grille-devaluation-descriptive-un-outil-precieux-en-contexte-denseignement-a-distance/>
GRIÉMÉtic - La grille d’évaluation descriptive: un outil précieux en contexte d’enseignement à distance. [Internet]. [Accessed 28 février 2021]. Available from: https://griemetic.ca/fr/2020/09/09/la-grille-devaluation-descriptive-un-outil-precieux-en-contexte-denseignement-a-distance/
"La grille d’évaluation descriptive: un outil précieux en contexte d’enseignement à distance." GRIÉMÉtic - Accessed 28 février 2021. https://griemetic.ca/fr/2020/09/09/la-grille-devaluation-descriptive-un-outil-precieux-en-contexte-denseignement-a-distance/
"La grille d’évaluation descriptive: un outil précieux en contexte d’enseignement à distance." GRIÉMÉtic [Online]. Available: https://griemetic.ca/fr/2020/09/09/la-grille-devaluation-descriptive-un-outil-precieux-en-contexte-denseignement-a-distance/. [Accessed: 28 février 2021]

Les examens cliniques objectifs structurés formatifs (ECOS-F) en ligne au CAAHC pendant la pandémie de COVID-19 : une opportunité d’innovation en évaluation

Ilian Cruz-Panesso, Conseillère principal (CAAHC)

Valérie Chabot, Coordonnatrice des examens cliniques (CAAHC)

Roger Perron, Responsable activités haute-fidélité (CAAHC)

Pierre Drolet, Directeur académique (CAAHC)

Marie-Michèle Demers, Formatrice en simulation (CAAHC)

Roxane Trottier, Formatrice en simulation (CAAHC)

Shiva Gharavi, Coordonnatrice des patients simulés (CAAHC)

Département de Médecine – Centre d’apprentissage des attitudes et habiletés cliniques (CAAHC) Université de Montréal

Au Canada, comme ailleurs dans le monde, l’approche par compétence (APC) a été adoptée dans les programmes d’éducation médicale depuis une vingtaine d’années (Lacasse et al., 2016). L’évaluation formative est un des piliers fondamentaux de l’APC. Elle fait référence à une évaluation spécifiquement destinée à générer un retour d’informations sur les performances afin d’améliorer et d’accélérer l’apprentissage (Sadler,1998). Ce type d’évaluation est fondamental pour aider les apprenants à autoévaluer leur performance, identifier leurs besoins d’apprentissage et élaborer le(s) plan(s) d’amélioration (Carracio et al., 2002; & Bing-You &Trowbridge, 2009). Les examens cliniques objectifs structurés formatifs (ECOS-F) sont l’un des moyens aptes à appuyer la démarche de l’évaluation formative dans le contexte de l’APC. Ils permettent en effet la pratique des compétences et la rétroaction  (Humphrey et al., 2016). « Les tâches à effectuer dans chacune des stations d’ECOS représentent des situations cliniques de la vie réelle. On peut ainsi évaluer la capacité du candidat à appliquer ses connaissances et compétences cliniques lorsqu’il, par exemple, rencontre un patient, propose une conduite à suivre, donne un congé, s’entretient avec un collègue, etc » (MCC )

La pandémie de COVID-19 a forcé les établissements d’enseignement supérieure à repenser temporairement leur offre pédagogique, incluant les activités de simulation et les ECOS. Ainsi, à la mi-mars 2020, la Faculté de médecine de l’Université de Montréal ordonnait que les activités d’enseignement se fassent dans un format « à distance ». L’équipe du Centre d’apprentissage des attitudes et habilités cliniques (CAAHC) de la Faculté de médecine a alors répondu à l’appel en concevant et développant une gamme innovatrice de produits pédagogiques en ligne. Plusieurs activités déjà existantes et ayant pour thème la communication ont ainsi été adaptées au format en ligne[1],2. De plus, bien qu’il ait fallu annuler les ECOS sommatifs prévus en présentiel au calendrier du CAAHC en avril et mai 2020, l’ECOS formatif destiné aux étudiants de troisième année a néanmoins été maintenu et adapté au format en ligne. Toutes ces simulations ont été effectuées à l’aide de la plateforme ZOOM

L’environnement virtuel de l’ECOS en ligne

La conversion de l’ECOS au format en ligne repose sur la création de salles virtuelles, lesquelles remplacent les locaux où les examens cliniques se déroulent traditionnellement. La représentation graphique de ces salles créées sur ZOOM offre ainsi un environnement simulé qui permet aux divers participants (étudiants, médecins-évaluateurs, patients simulés), ainsi qu’à toute l’équipe du CAAHC (technique et coordination), de réaliser l’activité totalement à distance. 

La conception de l’environnement simulé propre à l’ECOS doit cependant tenir compte de plusieurs facteurs incluant notamment la quantité de stations, le temps nécessaire aux étudiants pour parcourir chacune d’entre elles, le nombre d’étudiants et l’échéancier prévu pour l’activité. Un plan est alors élaboré et présenté sous forme graphique (FIGURE 1). Ce plan sert de point d’ancrage et de référence afin de faciliter la compréhension de l’environnement de travail et des contraintes qu’il impose pour tous les intervenants.

FIGURE 1. Représentation graphique de l’environnement virtuel de l’ECOS formatif tenu en juin 2020 au CAAHC

Adapter les activités au format en ligne tout en respectant les principes d’apprentissage propres à la simulation

Afin d’adapter les activités de simulation à la formule en ligne, l’équipe du CAAHC s’est employée à respecter les principes qui régissent les bonnes pratiques en matière d’enseignement par simulation, le tout à l’intérieur des contraintes imposées par le nouveau média.

Activités hands-on: nous avons testé différents outils afin de maximiser, pour les étudiants, l’opportunité de prendre part activement aux scénarios virtuels. Ainsi, pendant l’ECOS en ligne, les étudiants ont pu maintenir un contact personnalisé continu avec les patients simulés. Le format a donc permis aux apprenants d’exercer les habiletés et compétences de communication nécessaires afin de faire face aux nouveaux défis imposés par la télémédecine.

Patients simulés et fidélité : Bien que les contraintes liées au COVID rendent le recrutement de patients simulés passablement difficile (familiarité avec les outils informatiques, limitations financières imposées par les programmes d’aide gouvernementaux, etc.), nous avons néanmoins réussi à recruter les acteurs professionnels dont nous avions besoin afin d’assurer la fidélité des simulations ainsi que l’engagement nécessaire aux interactions entre les divers participants.

Contrat de fiction : Il s’agit d’un contrat d’apprentissage dans lequel les différentes parties impliquées dans la simulation (étudiants, acteurs et instructeurs) acceptent de s’engager dans la simulation et le débriefing de manière active et respectueuse. Les modifications imposées par la formule en ligne risquant d’altérer l’engagement des étudiants, ceux-ci ont donc été invités à signer des ententes dans lesquelles les conditions aptes à maximiser les bénéfices pédagogiques sont énoncées. Les éléments suivants sont abordés dans le cadre de ces ententes:

  • Contrat d’apprentissage
  • Confidentialité des scénarios
  • Sécurité et bonnes pratiques liées à l’utilisation de ZOOM
  • Autorisation d’enregistrer et examiner les enregistrements vidéos à des fins techniques, éducatives, et de recherche

Formation préalable: L’équipe du CAAHC a préparé des tutoriels ZOOM destinés aux acteurs, étudiants et instructeurs. Ces tutoriels ont été réalisés dans le but de permettre à tous les participants d’accéder aux liens ZOOM sécurisés propres à chaque activité. Ces liens ont été intégrés dans la plateforme Medcours afin d’assurer la confidentialité et la sécurité des échanges. Différents comptes ont été créés pour les acteurs et les animateurs afin de faciliter l’accès aux procédures et d’en assurer la standardisation.

Standardisation des procédures pour les simulations en ligne: Afin de standardiser les procédures liées aux simulations en ligne, tous les employés du CAAHC ont reçu la formation nécessaire à l’utilisation de la plateforme ZOOM. Trois répétitions ont ensuite été effectuées afin de tester, corriger, optimiser et finalement valider l’ensemble des procédures. Un plan alternatif a aussi été élaboré en cas de problèmes de connexion. Toujours dans le but d’assurer la standardisation des procédures, des diagrammes de type flow charts liés aux différentes étapes des simulations ont été conçus. Ces diagrammes identifient les outils ZOOM nécessaires à la progression de l’activité et à l’orientation des étudiants au travers d’un parcours qui les mène du scénario au débriefing.

Évaluation des activités: Des évaluations en ligne respectant les meilleures pratiques en matière de conception et d’innovation pédagogiques ont été créées afin d’évaluer la motivation des étudiants ainsi que leur perception des apprentissages souhaités via cette nouvelle formule.

Bâtir une communauté de pratique dédiée à la simulation en ligne

En qualité de pionniers de la simulation en ligne, les membres de l’équipe du CAAHC n’ont pas hésité à collaborer avec d’autres groupes oeuvrant au sein de la faculté, qu’il s’agisse d’innovation ou de transformations de simulations existantes. Il convient ainsi de souligner le travail effectué avec l’équipe d’audiologie qui procédera aussi à la réalisation, en ligne, d’un examen de type ECOS. L’expertise des membres de l’équipe du CAAHC et les documents élaborés par ces derniers ont ainsi été mis à la disposition des responsables d’audiologie et des autres unités qui souhaitent les utiliser ou les adapter. Parmi les expertises partagées, on note:

1. Contact et formation des patients simulés

2. Assistance pédagogique et technique dans l’élaboration de la planification d’ECOS en ligne en audiologie

3. Partage des procédures nécessaires à la réalisation d’ECOS en ligne

4. Formation des membres de l’équipe d’audiologie en matière de planification et de réalisation d’ECOS en ligne

Présentation en ligne :

Nous vous invitons à visionner la vidéo d’une présentation récente de l’équipe du CAAHC présentant tous les détails de nos simulations en ligne : https://youtu.be/pyGnFq3VNyM


[1] Procédurier des simulations en ligne, CAAHC, juin 2020

2 Guide pour les ECOS et OSLER en ligne, CAAHC, juillet 2020

GRIÉMÉtic (28 février 2021) Les examens cliniques objectifs structurés formatifs (ECOS-F) en ligne au CAAHC pendant la pandémie de COVID-19 : une opportunité d’innovation en évaluation. Retrieved from https://griemetic.ca/fr/2020/09/02/les-examens-cliniques-objectifs-structures-formatifs-ecos-f-en-ligne-au-caahc-pendant-la-pandemie-de-covid-19-une-opportunite-dinnovation-en-evaluation/.
"Les examens cliniques objectifs structurés formatifs (ECOS-F) en ligne au CAAHC pendant la pandémie de COVID-19 : une opportunité d’innovation en évaluation." GRIÉMÉtic - 28 février 2021, https://griemetic.ca/fr/2020/09/02/les-examens-cliniques-objectifs-structures-formatifs-ecos-f-en-ligne-au-caahc-pendant-la-pandemie-de-covid-19-une-opportunite-dinnovation-en-evaluation/
GRIÉMÉtic 2 septembre 2020 Les examens cliniques objectifs structurés formatifs (ECOS-F) en ligne au CAAHC pendant la pandémie de COVID-19 : une opportunité d’innovation en évaluation., viewed 28 février 2021,<https://griemetic.ca/fr/2020/09/02/les-examens-cliniques-objectifs-structures-formatifs-ecos-f-en-ligne-au-caahc-pendant-la-pandemie-de-covid-19-une-opportunite-dinnovation-en-evaluation/>
GRIÉMÉtic - Les examens cliniques objectifs structurés formatifs (ECOS-F) en ligne au CAAHC pendant la pandémie de COVID-19 : une opportunité d’innovation en évaluation. [Internet]. [Accessed 28 février 2021]. Available from: https://griemetic.ca/fr/2020/09/02/les-examens-cliniques-objectifs-structures-formatifs-ecos-f-en-ligne-au-caahc-pendant-la-pandemie-de-covid-19-une-opportunite-dinnovation-en-evaluation/
"Les examens cliniques objectifs structurés formatifs (ECOS-F) en ligne au CAAHC pendant la pandémie de COVID-19 : une opportunité d’innovation en évaluation." GRIÉMÉtic - Accessed 28 février 2021. https://griemetic.ca/fr/2020/09/02/les-examens-cliniques-objectifs-structures-formatifs-ecos-f-en-ligne-au-caahc-pendant-la-pandemie-de-covid-19-une-opportunite-dinnovation-en-evaluation/
"Les examens cliniques objectifs structurés formatifs (ECOS-F) en ligne au CAAHC pendant la pandémie de COVID-19 : une opportunité d’innovation en évaluation." GRIÉMÉtic [Online]. Available: https://griemetic.ca/fr/2020/09/02/les-examens-cliniques-objectifs-structures-formatifs-ecos-f-en-ligne-au-caahc-pendant-la-pandemie-de-covid-19-une-opportunite-dinnovation-en-evaluation/. [Accessed: 28 février 2021]

L’évaluation des apprentissages en ligne: varier les méthodes et clarifier les consignes

Sylvie Fontaine

La pandémie mondiale (COVID-19) a des conséquences sur l’enseignement post-secondaire qui sera largement offert en ligne à l’automne 2020. Ce contexte sans précédent d’enseignement et d’évaluation en ligne n’est pas exempt de défis. Parmi ceux-ci, deux retiennent notre attention. Le premier concerne le risque que les professeurs, soucieux de bien évaluer leurs étudiants, exigent plus d’activités d’évaluation que ce qu’ils demandent habituellement. En effet, il appert que « La multiplication des évaluations a été constatée en contexte d’évaluation en ligne, d’où le risque de surcharge de travail pour le personnel et le ressentiment des étudiants. » (Nizet, Leroux, Deaudelin, Béland et Goulet, 2016, p.3). Deuxièmement, selon Detroz, Malay et Crahay (2020, p.104), le contexte de pandémie actuel pourrait faire en sorte que les étudiants auront « plus de difficultés pour obtenir de l’information informelle auprès des enseignants ou des pairs » ce qui pourrait limiter leur compréhension des attentes concernant les tâches d’évaluation. La combinaison de ces deux défis mérite qu’on s’y attarde.

Nombre de tâches d’évaluation versus variété des tâches

Le nombre de tâches d’évaluation ne devrait pas augmenter parce que le cours est offert en ligne. Les risques de surcharge de travail sont très réels pour les professeurs qui, non seulement devront consacrer plus de temps à la préparation de leurs cours en ligne, mais également à la correction des travaux et à la rétroaction aux étudiants. Si tous les professeurs d’un même programme adoptent cette pratique, les étudiants seront rapidement submergés par la quantité de tâches évaluatives ce qui pourrait contribuer à diminuer leur motivation et peut-être même les inciter à la tricherie (Ellahi et al., 2013).

En fait, tout comme c’est le cas pour un cours en présentiel, le choix des tâches doit s’inscrire en cohérence avec les objectifs du cours. Ainsi, il n’est peut-être pas souhaitable de se limiter à exiger uniquement des travaux écrits qui seront déposés par les étudiants sur le site du cours si les objectifs du cours font appel à une variété de compétences. Dans une étude réalisée auprès d’intervenants impliqués dans l’enseignement en ligne à l’Université de Sherbrooke, Nizet et ses collègues (2016) ont identifié cinq méthodes d’évaluation adoptées à un degré variable par les professeurs pour l’enseignement en ligne : 1) quiz et examens (5 %); 2) travaux écrits (18,5 %); 3) démonstration de compétences (61,5 %); 4) participation (5 %); 5) collaboration (10 %). Dans la catégorie démonstration de compétences on retrouve des tâches telles que les études de cas, les présentations, les simulations, les projets, etc. Les travaux écrits incluent l’analyse de textes, les questions à développement, les synthèses, les tableaux à remplir, etc. Des activités de participation telles que les forums de discussion ou les foires aux questions sont aussi proposées aux étudiants de même que des tâches de collaboration de type ateliers, travail en équipe, coévaluation, etc. Une mise en garde émerge de cette étude : quelles que soient les tâches d’évaluation qui seront retenues, « La clarté des messages adressés aux étudiants est selon plusieurs participants un enjeu essentiel de la communication non présentielle. » (Nizet et al., 2016, p.18)

Des consignes claires pour une meilleure communication

Que l’enseignement soit réalisé en présentiel ou en ligne, les tâches d’évaluation doivent être accompagnées de consignes claires et précises pour bien guider les étudiants au regard des exigences de chacune. Dans un contexte d’enseignement en ligne, la clarté et l’exhaustivité des consignes prennent encore plus d’importance puisque la relation entre le professeur et ses étudiants n’est peut-être pas aussi aisée à établir et que le degré d’interaction pourrait être moindre entre professeur-étudiants et entre étudiants-étudiants.

Ainsi, il est suggéré de formuler les consignes en respectant le principe de transparence qui s’opérationnalise dans l’exhaustivité et dans la clarté des consignes. Il faut donc fournir à l’étudiant tous les éléments dont il aura besoin pour réaliser la tâche demandée. Par exemple, l’étudiant doit-il intégrer des graphiques à son travail? Combien d’articles sont nécessaires pour rédiger la synthèse? Ces articles doivent-ils être scientifiques, récents? Cette information doit faire partie des consignes. La clarté des consignes est aussi essentielle et en ce sens, Gérard et Roegiers (2009) insistent sur le fait que la difficulté pour l’étudiant de réaliser la tâche demandée devrait être liée à l’absence de compétence et non pas à une incompréhension des consignes. Detroz et ses collègues (2020, p. 104) abondent dans le même sens en précisant que « Pour les productions longues (travaux, portfolios, cartes conceptuelles …) asynchrones, il est recommandé de mettre beaucoup de soin et de rigueur pour préciser les consignes. » J’ajouterais de plus que dans un contexte de tâches d’évaluation synchrones, les consignes doivent aussi être claires et exhaustives. L’utilisation d’un vocabulaire simple, de phrases courtes et claires pour formuler les consignes est souhaitable. Puisant dans les travaux de Zakhartchouk (1999, 2004), Leblanc et Guillemette (2014) définissent quatre types de consignes. Les consignes pour préciser la tâche à réaliser (consignes-buts), les consignes sur la façon de faire (consignes-procédures), les consignes pour faire ressortir certaines spécificités de la tâche (consigne de guidage) et les consignes qui viennent préciser les critères d’évaluation (consignes-critères) en lien avec les exigences du professeur. Bien souvent dans les tâches d’évaluation, toutes ces consignes s’appliquent. Les efforts consentis pour s’assurer de présenter des consignes claires et exhaustives ont un objectif commun soit, « de placer l’apprenant dans les meilleures conditions possibles pour accomplir une tâche. » (Laforge, 2001, p. 156)

Detroz, P., Malay, L., et Crahay, V. (2020). Une démarche structurée pour définir quelques conseils en vue de limité l’impact de la pandmie sur l’évaluation de nos étudiants. Évaluer. Journal international de recherche en éducation et formation. Numéro Hors-série, 1, 97-110.

Gérard, F.-M. et Roegiers, X. (2009). La rédaction des consignes dans Des manuels scolaire pour apprendre : Concevoir, évaluer, utiliser. Belgique : De Boeck Supérieur, p. 274-278.

Laforge Claude. Les consignes dans l’enseignement à distance : difficultés de compréhension liées à la présence de négations. In: Pratiques : linguistique, littérature, didactique, n°111-112, 2001. Les consignes dans et hors l’école. pp. 151-178.

DOI : https://doi.org/10.3406/prati.2001.2429

Leblanc, C. et Guillemette, F. (2014). Consignes claires : travail réussi! Le tableau, 3(2).

Nizet, I., Leroux, J. L., Deaudelin, C., Béland, S. et Goulet, J. (2016). Bilan de pratiques évaluatives des apprentissages à distance en contexte de formation universitaire. Revue internationale de pédagogie et de l’enseignement supérieur, 32(2).

GRIÉMÉtic (28 février 2021) L’évaluation des apprentissages en ligne: varier les méthodes et clarifier les consignes. Retrieved from https://griemetic.ca/fr/2020/08/31/levaluation-des-apprentissages-en-ligne-varier-les-methodes-et-clarifier-les-consignes/.
"L’évaluation des apprentissages en ligne: varier les méthodes et clarifier les consignes." GRIÉMÉtic - 28 février 2021, https://griemetic.ca/fr/2020/08/31/levaluation-des-apprentissages-en-ligne-varier-les-methodes-et-clarifier-les-consignes/
GRIÉMÉtic 31 août 2020 L’évaluation des apprentissages en ligne: varier les méthodes et clarifier les consignes., viewed 28 février 2021,<https://griemetic.ca/fr/2020/08/31/levaluation-des-apprentissages-en-ligne-varier-les-methodes-et-clarifier-les-consignes/>
GRIÉMÉtic - L’évaluation des apprentissages en ligne: varier les méthodes et clarifier les consignes. [Internet]. [Accessed 28 février 2021]. Available from: https://griemetic.ca/fr/2020/08/31/levaluation-des-apprentissages-en-ligne-varier-les-methodes-et-clarifier-les-consignes/
"L’évaluation des apprentissages en ligne: varier les méthodes et clarifier les consignes." GRIÉMÉtic - Accessed 28 février 2021. https://griemetic.ca/fr/2020/08/31/levaluation-des-apprentissages-en-ligne-varier-les-methodes-et-clarifier-les-consignes/
"L’évaluation des apprentissages en ligne: varier les méthodes et clarifier les consignes." GRIÉMÉtic [Online]. Available: https://griemetic.ca/fr/2020/08/31/levaluation-des-apprentissages-en-ligne-varier-les-methodes-et-clarifier-les-consignes/. [Accessed: 28 février 2021]

Les plateformes d’évaluation en ligne

Marc-André Désautels

Suite à l’épidémie de Covid-19, les enseignants.es se sont retrouvés à devoir modifier de façon profonde leurs méthodes d’enseignement. De plus, ils et elles ont dus réfléchir à la manière d’évaluer leurs étudiants.es à distance. Nous voulons dans ce bref article tenter de débroussailler et de préciser les avantages et inconvénients d’évaluer nos étudiants.es en ligne, de manière asynchrone ou pas. Cet article ne présume pas faire un tour d’horizon exhaustif des possibilités de l’évaluation en ligne, mais plutôt permettre de démontrer les possibilités, les avantages et aussi les défauts des outils d’évaluation en ligne.

Nous discutons dans cet article de plateformes qui permettent une évaluation qui se rapproche le plus possible d’une évaluation traditionnelle. Nous omettons donc les options qui permettent simplement des questions de types choix de réponses ou réponses courtes (par exemple Google Forms, Microsoft Forms, etc.). Nous discuterons de plateformes permettant d’évaluer des questions de types réponses longues, réponses sous forme de textes, réponses sous forme de calculs, etc. Les deux plateformes utilisées par l’auteur sont:

Ces deux plateformes ont des fonctionnalités très similaires et nous présenterons les grandes étapes qu’un évaluateur doit faire pour partir d’une évaluation traditionnelle et finir avec une évaluation en ligne.

Pour qui s’adresse l’évaluation en ligne?

Bien que la courbe d’apprentissage des techniques du web se soit aplatie avec le temps, il est certain qu’une certaine familiarité et maîtrise des technologies de l’information sont des atouts importants pour son utilisation. Au début, l’utilisation d’une évaluation en ligne demandera davantage de temps qu’une évaluation traditionnelle mais plus vous l’utiliserez, plus vous gagnerez du temps et de la flexibilité dans vos évaluations. Il faut être un peu débrouillard, savoir aller chercher de l’information et avoir un peu de courage pour débuter ce type d’évaluation. La collaboration entre enseignants.es pour l’utilisation de cette technologie est un excellent moyen de débuter puisque la charge de travail et les divers apprentissages sont partagés entre plusieurs personnes.

Comment ça marche?

Pour bien comprendre la manière d’utiliser ces technologies d’évaluation, nous présenterons le flux de travail nécessaire pour partir d’une évaluation «traditionnelle» et arriver au processus complet d’une évaluation «en ligne». Nous scinderons ce processus en plusieurs étapes et discuterons des avantages et inconvénients potentiels.

La création d’une évaluation

Nous prenons pour acquis que le cours dont l’évaluation fait partie a été créé. Les étudiants.es ont été inscrits et ajoutés à ce cours et les membres de l’équipe enseignante ont eux aussi été ajoutés. En effet, il est habituellement possible d’être plusieurs évaluateurs pour une même évaluation ou pour un même cours.

L’évaluation peut être créée pour tous les étudiants d’un cours ou alors pour seulement certains d’entre eux. Il est possible de créer des évaluations distinctes pour diverses équipes par exemple. La manière la plus simple de créer une évaluation en ligne est de téléverser l’évaluation habituelle «version papier», sous format Pdf Ou Word par exemple. Si vous avez peu d’expérience avec ces technologies, c’est un excellent moyen de débuter avec un travail minimal.

Par contre, il est plus versatile de créer une évaluation et d’ajouter des questions directement sur la plateforme. Ceci permet d’utiliser la versatilité du web, car les évaluations sont accessibles par n’importe quel fureteur internet. C’est un avantage pour vous et vos étudiants.es car ces plateformes n’utilisent pas de logiciel que vous auriez à télécharger. Elles sont accessibles directement de votre fureteur internet, de la même façon que vous accéderiez à YouTube par exemple. Les étudiants.es peuvent même utiliser leur téléphone intelligent pour y accéder.

La création des questions

Pour les utilisateurs débutants, la création d’une question est un processus simple où il suffit d’écrire le texte de la question et de lui associer une pondération. Il est habituellement possible de créer plusieurs types de questions: choix de réponses, réponses courtes, réponses longues, etc. Il est par contre possible d’obtenir davantage de possibilités en utilisant les fonctions plus avancées de ces plateformes, même si ce n’est pas obligatoire.

Pour les utilisateurs plus avancés

Ces deux plateformes permettent l’utilisation d’un langage de balisage léger appelé Markdown. Celui-ci permet de modifier le formatage du texte, d’ajouter des hyperliens, des images, etc. Le tableau ci-dessous présente quelques possibilités de ce langage.

MarkdownRésultat
*italique*italique
**gras**gras
[GRIÉMÉtic](http://griemetic.ca/fr/)GRIÉMÉtic
![Logo GRIÉMÉtic](http://griemetic.ca/wp-content/uploads/2017/10/cropped-Griemetic_Bleu-e1508594133153-3.png)Logo GRIÉMÉtic

Pour avoir une idée des possibilités de ce langage, le markdown guide contient la liste de presque toutes les possibilités de ce langage. L’intérêt de ce langage est sa syntaxe simple, le fait qu’ils soit interprétable en fichier texte et ouvert et donc gratuit et accessible pour tous.

Il est aussi habituellement possible d’utiliser le langage LaTeX par l’entremise de MathJax, ce qui permet d’écrire des expressions mathématiques dans les questions mais aussi dans la rétroaction et la correction des copies. Ce genre d’expression peut être créé en encadrant les formules LaTeX entre un ou deux signes de dollars. Par exemple, la formule suivante $\zeta (s) = \sum_{n=1}^\infty \frac{1}{n^s}$ sera interprétée et vue par les étudiants.es comme ceci  dans le document final:

Comment les étudiants.es remettent leurs évaluations?

Les étudiants peuvent faire leur évaluation sur papier, à l’aide de Word ou Google Docs. Chaque question possède sa propre fenêtre de téléversement, il est donc préférable de compléter chaque question sur une page distincte. Les étudiants.es doivent sauver, scanner ou photographier leur évaluation. Il suffit ensuite de téléverser ces documents dans les zones de téléversement appropriées.

Si vous êtes débutants et avez par exemple créé une seule question pour votre évaluation (ce que je ne vous conseille pas!), les étudiants pourraient téléverser plusieurs fichiers qui contiendraient leurs démarches complètes. Si vous décidez de scinder votre examen en plusieurs questions, ceci vous permettra de ne corriger qu’une seule question à la fois, pour tous vos étudiants.es.

Une fois l’évaluation terminée, il est possible de l’envoyer en un seul clic aux étudiants.es, qui la recevront à leur adresse courriel. Un temps peut être imparti pour l’exécution de l’évaluation. Bien sûr, le plus grand problème de ce genre d’évaluation est qu’il est difficile, voire impossible de contrer le plagiat. Les étudiants.es peuvent se trouver à n’importe quel endroit, recevoir l’aide de n’importe qui, peuvent avoir accès à leur notes, à leurs livres, etc.

Une fois les évaluations présentes sur la plateforme, tous les évaluateurs peuvent corriger les questions qui leur sont attitrées au même moment, à l’endroit qui leur convient. Il n’est plus nécessaire de partager les copies physiques des évaluations et d’attendre qu’un des évaluateurs ait terminé pour qu’un autre continue le travail. Pour une personne seule, la flexibilité de pouvoir corriger à n’importe quel moment, n’importe où, une seule sous-question sans avoir à gérer une pile de copies est un immense avantage.

Les outils d’évaluation

Comme indiqué précédemment, pour chacune des questions, les étudiants.es devront envoyer une photo (ou un scan ou un fichier) de leur travail. Ceci simplifie la tâche de l’évaluateur car il peut se concentrer sur une seule et même question pour tous les étudiants.es, sans connaître le reste de leur évaluation ou leur identité. L’équité dans l’évaluation de tous les étudiants.es s’en trouve donc grandement améliorée. De plus, il est possible de construire, de maintenir et d’appliquer une même grille d’évaluation pour une même question, applicable par tous les membres de l’équipe d’évaluation.

Plusieurs outils sont à notre disposition pour évaluer une question. Il est possible d’ajouter des commentaires. Ces commentaires supportent habituellement le Markdown et LaTeX, ce qui donne une flexibilité extraordinaire à l’évaluateur. Ces commentaires sont enregistrés, réutilisables et modifiables par tous les évaluateurs. Il est donc possible de donner des rétroactions extrêmement précises pour donner aux étudiants.es les raisons exactes pour lesquelles des points ont été ajoutés ou déduits. Sur une évaluation habituelle sur papier, il peut devenir long et difficile de réutiliser le même commentaire à plusieurs reprises. Les rétroactions en souffrent donc. Sur une plateforme d’évaluation en ligne, il est possible de réutiliser à l’infini un commentaire.

Mais il y a plus, ces commentaires peuvent être accompagnés d’une pondération. Un commentaire peut donc ajouter ou enlever des points selon la situation. Mais puisque ces commentaires sont modifiables, il est possible, à tout moment, de modifier une pondération si l’évaluateur avait mal évalué celle-ci. La plupart des évaluateurs vous le diront, il peut arriver de devoir modifier la pondération de plusieurs copies suite à une réévaluation de la pondération. Sur les versions papiers, le travail consiste à revoir toutes les copies où un changement peut être envisagé et d’ensuite faire les modifications. Sur une plateforme en ligne, le changement de pondération ou la modification d’une rétroaction se fait à un seul endroit et ces modifications sont ensuite automatiquement appliquées pour toutes les évaluations concernées.

Il est également possible d’écrire ou de dessiner (préférablement avec un stylet, mais la souris est une alternative possible) directement sur la copie. L’utilisation de symboles divers est habituellement possible, comme le crochet, la croix, le point d’interrogation, etc.

L’IA

Sur certaines plateformes, il est parfois possible d’utiliser l’IA (ou Intelligence Artificielle), pour regrouper les réponses semblables en blocs, blocs qui pourront être évalués un à un. Ceci permet de diminuer les redondances dans la correction, de sauver du temps et de donner une rétroaction de grande qualité même pour un grand nombre d’étudiants.es. La technologie est par contre embryonnaire et ne s’applique qu’à un nombre restreint de situations. Par exemple des diagrammes simples de molécules ou des expressions mathématiques courtes.

Les résultats de l’évaluation

Retourner les notes aux étudiants.es

Une fois la correction terminée, il est possible d’envoyer les notes aux étudiants.es, en un seul clic. Il est également possible d’envoyer la copie annotée, contenant tous les commentaires, tous les symboles et toutes les pondérations ajoutées par les évaluateurs. Cette copie devient donc un outil précieux qui permet aux étudiants.es de comprendre très exactement leurs erreurs. Ceci permet également de simplifier le processus de révision de notes car il est habituellement possible de le faire par l’entremise de la plateforme choisie.

Analyser les notes

Puisque chaque question peut être créée indépendamment, il est possible d’obtenir des statistiques précises sur chacune d’entres elles. Il devient ensuite simple de connaître la moyenne ou la médiane de chaque question, le nombre d’étudiants.es l’ayant réussie ou échouée, etc. Ces informations permettent de bonifier les évaluations et l’enseignement car elles montrent les forces et les faiblesses des étudiants.es.

Conclusion

Comme cet article permet de le constater, l’évaluation en ligne est possible. Elle comporte même plusieurs avantages par rapport à l’évaluation papier, particulièrement au niveau de la rétroaction. Par contre, du travail supplémentaire est demandé à l’enseignant.e pour débuter dans ce type d’évaluation. Mais malgré cet effort supplémentaire, nous suggérons de tenter au moins une fois l’expérience.

De plus, ces plateformes ont été pensées pour qu’on puisse les utiliser même lorsque l’évaluation se fait en classe sur des copies papier. La manière de faire de ces deux plateformes est un peu différente mais l’idée de base reste la même. L’évaluateur crée une évaluation et il doit construire un gabarit d’examen qu’il devra enregistrer sur la plateforme. La plateforme lui produira ensuite des copies papier de cette évaluation à distribuer aux étudiants.es. Il faut ensuite scanner ces copies, les téléverser sur la plateforme et il est maintenant possible d’utiliser tous les outils discutés dans cet article.

GRIÉMÉtic (28 février 2021) Les plateformes d’évaluation en ligne. Retrieved from https://griemetic.ca/fr/2020/08/31/les-plateformes-devaluation-en-ligne/.
"Les plateformes d’évaluation en ligne." GRIÉMÉtic - 28 février 2021, https://griemetic.ca/fr/2020/08/31/les-plateformes-devaluation-en-ligne/
GRIÉMÉtic 31 août 2020 Les plateformes d’évaluation en ligne., viewed 28 février 2021,<https://griemetic.ca/fr/2020/08/31/les-plateformes-devaluation-en-ligne/>
GRIÉMÉtic - Les plateformes d’évaluation en ligne. [Internet]. [Accessed 28 février 2021]. Available from: https://griemetic.ca/fr/2020/08/31/les-plateformes-devaluation-en-ligne/
"Les plateformes d’évaluation en ligne." GRIÉMÉtic - Accessed 28 février 2021. https://griemetic.ca/fr/2020/08/31/les-plateformes-devaluation-en-ligne/
"Les plateformes d’évaluation en ligne." GRIÉMÉtic [Online]. Available: https://griemetic.ca/fr/2020/08/31/les-plateformes-devaluation-en-ligne/. [Accessed: 28 février 2021]

À propos: Évaluer en ligne en contexte de pandémie


La pandémie de COVID-19 a depuis plusieurs mois un fort impact sur le monde de l’éducation. La nécessité d’adapter l’enseignement aux modalités à distance a représenté un défi majeur. Pour tous les enseignants qui reportaient depuis longtemps le fait de s’initier aux méthodes pédagogiques, et aux instruments technologiques sous-jacents, pour enseigner à distance, le choc a été rude et la surcharge de travail, colossale. Les conseillers pédagogiques et les centres d’aide pédagogique des différentes institutions, du primaire à l’université, ont mis les bouchées double afin d’aider les enseignants à traverser la tempête. Chacun a travaillé de son mieux dans le but de s’adapter aux conditions exceptionnelles que nous traversons. D’ailleurs, dans le contexte, la santé psychologique et la qualité de vie des enseignants et autres professionnels  du milieu sont à surveiller, et le GRIÉMÉtic va y porter un intérêt particulier à la rentrée 2020.

Parallèlement à cela, dans l’urgence, nous avons constaté que les ressources se sont surtout consacrées à l’enseignement, et ont souvent peu abordé l’évaluation. Pourtant, de nombreuses questions se posent lorsque vient le temps de transporter nos méthodes d’évaluation, habituellement prévues pour la salle de classe, au foyer des étudiants en utilisant diverses technologies. Pour cette raison, le GRIÉMÉtic a aussi décidé de fournir une banque de ressources pour guider l’évaluation réalisée à distance.

Cette banque de ressources s’adresse à tous les enseignants ainsi qu’à tous les conseillers pédagogiques qui souhaitent réfléchir à la transposition des méthodes et instruments d’évaluation vers des modalités à distance, plus particulièrement à ceux qui œuvrent au postsecondaire, au collégial ou à l’université. Son développement a été guidé par diverses questions issues d’échanges informels avec des enseignants, puis par un apéro-causerie organisé par l’OPIEVA (Observatoire interuniversitaire sur les pratiques innovantes d’évaluation des apprentissages, ).

Alors que certaines questions portaient sur les aspects technologiques de l’évaluation à distance:

  • Comment reproduire en ligne une évaluation qui se fait papier crayon?
  • Comment surveiller les élèves à distance pendant un examen?
  • Comment éviter le plagiat ou la tricherie?
  • Comment s’assurer que les élèves/étudiants ont accès à un matériel informatique suffisant?
  • Comment tenir compte des besoins particuliers des étudiants?
  • Comment évaluer des compétences motrices, par exemple dans les cours en éducation physique ou en art?

d’autres portaient sur l’évaluation et les principes à respecter :

  • Peut-on se contenter de l’autoévaluation faite par les élèves?
  • Qu’implique le fait de mettre en place une évaluation sous forme de succès-échec?
  • Quels sont les principes de base de l’évaluation dont il faut tenir compte?
  • Comment différencier son évaluation comme on le ferait en présentiel?

Avec cette banque de ressources, nous n’avons évidemment pas la prétention de proposer des solutions miracles, mais l’expertise des membres du GRIÉMÉtic, et des collègues qui collaborent avec nous, nous permet de vous aider à réfléchir aux enjeux liés à l’évaluation à distance, aux méthodes pour le faire ou aux erreurs à ne pas commettre. Nous espérons que les documents que nous partageons avec vous vous aideront à faire un pas de plus dans votre réflexion sur le sujet.

Utiliser des questions à choix multiples pour automatiser la rétroaction

Nathalie Loye, Université de Montréal

Dans les cours à distance, établir un contact régulier et de qualité avec les apprenants pose de réels défis. Par exemple, le fait de fournir une rétroaction aux étudiants, qu’elle soit individuelle ou collective, fait partie naturellement des cours en présentiel. Dans le cas des cours à distance, il faut planifier les manières de guider les apprentissages de manière efficace. Les options technologiques qui permettent des échanges individuels et collectifs sont nombreuses. Les courriels, les échanges de travaux écrits que le professeur peut annoter, les rencontres en visioconférence, l’utilisation du chat ou d’un forum sont des exemples qui permettent de telles interactions. Tous ces exemples demandent toutefois un travail important au professeur et dans certains cas l’effort cognitif nécessaire pour rencontrer les étudiants en grand groupe, sous-groupes ou de manière individuelle est grand pour chacun des participants.

Nous proposons ici d’utiliser les technologies afin d’automatiser certaines tâches de rétroaction aux étudiants. L’une des possibilités consiste en effet à proposer des questions à choix multiples aux étudiants en considérant que chaque choix de réponse est (1) assorti d’un commentaire explicatif automatique lorsqu’il est choisi et (2) corresponde à des erreurs propices à fournir des explications utiles pour guider les apprentissages.

Nous nous inspirons ici de la méthode proposée par King et collègues en 2011. Ces auteurs proposent un guide pour élaborer et apprécier les choix de réponse dans des questions à correction objective. Leur visée est diagnostique puisqu’ils proposent

  • de faire des listes d’erreurs possibles et de s’en inspirer pour rédiger des choix de réponse,
  • puis d’identifier les raisons des erreurs et de les organiser en une taxonomie.

Le tableau 1 illustre une telle taxonomie comportant 4 niveaux pour la compréhension d’un élève en lecture, les niveaux sont ordonnés en commençant par une compétence peu développée pour aboutir à une compétence développée permettant de trouver la bonne réponse.

Tableau 1. Exemple de taxonomie en lecture (King, et al., 2004, p. 6 – traduction libre)

Niveau de compréhension de l’élèveErreurs de l’élève
Niveau 1Erreurs en lien avec le décodage du texte.
– Connaissance préalable non basée sur la lecture du texte
– Information tirée du texte, mais pas reliée à la question
Niveau 2Erreurs témoignant d’une certaine compréhension du texte
-Incapacité à relier les informations entre elles
– Conclusion ou inférence erronée
Niveau 3Erreurs témoignant d’un niveau de réflexion et d’interprétation
-Propose une partie de la bonne réponse
-Vision trop étroite ou trop large
Niveau 4Réponse correcte

Ils proposent ensuite des exemples de questions dans lesquels les choix sont catégorisés dans l’un ou l’autre des niveaux (traductions libres).

Exemple 1

Exemple 2

Exemple 3

Personnellement j’utilise cette approche dans mon cours de méthodes quantitatives en ligne aux cycles supérieurs. Dans la plateforme (StudiUM), j’utilise les choix multiples de manière formative sans qu’ils fassent partie de l’évaluation du cours. Chaque choix correspond à un commentaire, certaines questions peuvent avoir plus de choix de réponse que d’autres, et j’autorise les étudiants à revenir sur leur réponse après avoir reçu le commentaire de manière à les laisser libres de naviguer dans les commentaires. Il est vrai qu’il y a un certain travail pour organiser cette évaluation formative, mais par la suite la rétroaction se fait sans mon intervention.

Références

King, K.V., Gardner, D.A., Zucker, S. & Jorgensen, M.A. (2004).. The distractor rationale taxonomy: Enhancing multiple-choice items in reading and mathematics. Assessment report available from Pearson education at: https://images.pearsonassessments.com/images/tmrs/tmrs_rg/Distractor_Rationales.pdf?WT.mc_id=TMRS_The_Distractor_Rationale_Taxonomy_Enhancing

GRIÉMÉtic (28 février 2021) Utiliser des questions à choix multiples pour automatiser la rétroaction. Retrieved from https://griemetic.ca/fr/2020/07/15/utiliser-des-questions-a-choix-multiples-pour-automatiser-la-retroaction/.
"Utiliser des questions à choix multiples pour automatiser la rétroaction." GRIÉMÉtic - 28 février 2021, https://griemetic.ca/fr/2020/07/15/utiliser-des-questions-a-choix-multiples-pour-automatiser-la-retroaction/
GRIÉMÉtic 15 juillet 2020 Utiliser des questions à choix multiples pour automatiser la rétroaction., viewed 28 février 2021,<https://griemetic.ca/fr/2020/07/15/utiliser-des-questions-a-choix-multiples-pour-automatiser-la-retroaction/>
GRIÉMÉtic - Utiliser des questions à choix multiples pour automatiser la rétroaction. [Internet]. [Accessed 28 février 2021]. Available from: https://griemetic.ca/fr/2020/07/15/utiliser-des-questions-a-choix-multiples-pour-automatiser-la-retroaction/
"Utiliser des questions à choix multiples pour automatiser la rétroaction." GRIÉMÉtic - Accessed 28 février 2021. https://griemetic.ca/fr/2020/07/15/utiliser-des-questions-a-choix-multiples-pour-automatiser-la-retroaction/
"Utiliser des questions à choix multiples pour automatiser la rétroaction." GRIÉMÉtic [Online]. Available: https://griemetic.ca/fr/2020/07/15/utiliser-des-questions-a-choix-multiples-pour-automatiser-la-retroaction/. [Accessed: 28 février 2021]

Surveiller ses étudiants à distance pendant un examen

Nathalie Loye et Pierre Gignac

Lorsqu’un professeur donne un cours à distance, l’évaluation soulève de très nombreux défis. L’un de ces défis consiste à contrôler la passation des examens. Dans un cours en présentiel, généralement le professeur, ses assistants ou des surveillants engagés spécialement pour ce travail, assurent la surveillance de la salle d’examens. Ils peuvent ainsi contrôler l’identité des étudiants, s’assurer qu’ils ne communiquent pas entre eux et ne trichent pas. Ils peuvent également éviter qu’ils ne gardent des traces des questions d’examen en contrôlant le matériel auquel ils ont accès (par exemple : interdire les téléphones, fournir les copies et les feuilles de brouillons et tout ramasser à la fin de l’examen). Ce type d’examen prend le plus souvent la forme d’examens écrits constitués de questions à correction objective comme des questions à choix multiples ou dont les réponses nécessitent un développement plus ou moins long (par exemple : problèmes complexes, réflexions critiques, études de cas, etc.).

D’un point de vue pratique, ce type d’examen peut facilement être proposé à distance aux étudiants. Une variété de plateformes utilisées pour l’enseignement (aussi appelées LMS pour Learning Management System; par exemple Moodle, StudiUM) ou de plateformes dédiées (par exemple ExamSoft ou Netquiz) permet d’y reproduire les questions et de les soumettre aux étudiants à un moment choisi, avec un accès individuel et pendant une durée contrôlée. Dans le cas de questions à réponses objectives, ces plateformes assurent en outre la correction de manière automatique.

La question qui se pose est de savoir comment s’assurer de l’identité des étudiants, et surveiller la passation de l’examen comme on le ferait dans la salle d’examen. C’est ce qu’on appelle le proctoring.

Le proctoring est un processus qui permet de superviser les étudiants qui passent un examen à distance en utilisant une caméra vidéo, un enregistrement du son et un accès à leur écran. Cette surveillance peut se faire de trois manières :

  • Par un humain en temps réel en utilisant l’audio, la vidéo et le partage d’écran,
  • Par un humain qui a accès par la suite aux enregistrements audio, vidéo et de l’écran,
  • De manière automatisée grâce à l’analyse des données massives (analytics) générées par la surveillance audio, vidéo et des écrans.

Des logiciels comme SafeExamBrowser[1] peuvent en outre prendre le contrôle de l’ordinateur des étudiants pendant la passation de l’examen afin de le transformer en un poste de travail sécurisé. Ces logiciels peuvent par exemple bloquer la navigation sur Internet ou l’impression, contrôler les menus accessibles, empêcher de lancer d’autres applications durant la passation de l’examen ou de prendre des captures d’écran (voir Foster, 2013 pour plus de détails). Cette surveillance est un créneau lucratif que de nombreuses entreprises exploitent, il existe en conséquence de multiples options, dont la plupart sont payantes et dont le coût dépend souvent du nombre d’étudiants à surveiller.

Le tableau 1 montre cette variété et regroupe divers classements disponibles sur le web (liens en fin d’article).

Note. Les classements dans le tableau sont à titre informatif, et dépendent des critères utilisés par l’évaluateur. Consulter le site de l’évaluateur pour les détails.

Le site de METTL[2]  propose une comparaison des caractéristiques de 5 logiciels souvent mentionnés. Le tableau 2 présente certaines de ces caractéristiques. Il met en évidence la variété de ces logiciels de surveillance.

Tableau 2. Comparaisons de 5 logiciels en fonction de quelques caractéristiques (traduction libre)

Caractéristiques du proctoringPSIMETTLPROCTORUEXAMITYVERIFICIENT
Utilisation de l’IA (Analytics)NonOuiMinimaleMinimaleOui
Intégration au LMSOuiOuiOuiOuiOui
Authentification des candidats en 3 pointsMinimalOuiMinimalNonOui
Enregistrement et accès ultérieurOuiOuiOuiOuiOui
Surveillance par un humainOuiOuiNonNonNon
Rapport automatiqueOuiOuiOui
Production d’un score d’intégritéNonOuiNonNonOui
Blocage des fureteurs de l’ordinateurOuiOuiOuiOuiOui

Il est clair que l’utilisation de tels logiciels pose de nombreux défis techniques notamment liés à l’intégration informatique au LMS ou à la plateforme utilisée pour l’examen. En conséquence, elle dépend généralement des institutions plutôt que des choix personnels des professeurs. Il est toutefois utile pour eux de savoir que de telles solutions technologiques existent.

En outre, les professeurs ne doivent pas oublier que mettre en pratique des stratégies préventives pour assurer l’intégrité est aussi très important, que l’on ait ou pas recours au proctoring. Ainsi assigner les questions de manière aléatoire aux candidats ou selon un ordre aléatoire permet d’éviter que les étudiants communiquent entre eux pour partager leurs réponses pendant l’examen, limiter le temps de réponse, empêcher les étudiants d’entrer plusieurs fois dans le même examen, ajouter au moins une question nécessitant un développement et varier le type de question sont aussi des stratégies à considérer dans les examens[3]. Ces stratégies sont utiles pour limiter les possibilités de tricherie[4].

Sites utilisés pour le classement des applications de proctoring

Best Online Exam Proctoring Software to Look Up

Top ten (11 listed) online test software solutions

Online Proctoring Services for Higher Education market

Best Exam Software for your business.

Best online Exam Software with remote proctoring

Références

Alessio, H. M., Malay, N., Maurer, K., Bailer, A. J., & Rubin, B. (2017). Examining the effect of proctoring on online test scores. Online Learning, 21(1), 146-161.

Daffin, Jr., L.W., & Jones, A.A. (2018). Comparing student performance on proctored and nonproctored exams in online psychology courses. Online Learning, 22(1), 131-145. doi:10.24059/olj.v22i1.1079

Foster, D. (2013) Online Proctoring Systems Compared, Caveon Test Security, Harry Layman, The College Board. Accessible à https://scholar.google.ca/scholar?hl=fr&as_sdt=0,5&q=%22Online+Proctoring+Systems+Compared%22

Steger, D., Schroeders, U., & Gnambs, T. (2020). A meta-analysis of test scores in proctored and unproctored ability assessments. European Journal of Psychological Assessment, 36(1), 174–184. https://doi.org/10.1027/1015-5759/a000494

Weiner, John A., & Gregory M. Hurtz. (2017). A comparative study of online remote proctored versus onsite proctored high-stakes exams, Journal of Applied Testing Technology 18(1), 13-20.

références

Reisenwitz, T. H. (2020). Examining the Necessity of Proctoring Online Exams. Journal of Higher Education Theory and Practice20(1).

Heilporn, G., & Denis, C. (2020). Dispositifs d’évaluation en ligne: des recommandations de la littérature scientifique à des décisions précipitées en pratique. e-JIREF, (1), 165-172. http://journal.admee.org/index.php/ejiref/article/view/229

Woldeab, D., & Brothen, T. (2019). 21st Century assessment: Online proctoring, test anxiety, and student performance.

Whitepaper online proctoring (avril 2020, donne des enjeux à considérer, du moins selon la table des matières) https://www.surf.nl/en/white-paper-online-proctoring-questions-and-answers-about-remote-proctoring

Report on Remote Assessment Procedures. Impact Study and Recommendations on the Implementation of Remote Assessment Procedures in Spanish Universities (avril,2020, discute d’évaluation en ligne, pas de proctoring ) https://library.educause.edu/resources/2020/4/report-on-remote-assessment-procedures


[1] https://safeexambrowser.org/about_overview_en.html

[2]  https://blog.mettl.com/assessment-technology/top-5-proctoring-solution-providers

[3] https://www.memphis.edu/um3d/resources/assessments.php

[4] Voir la section sur la tricherie dans ce site.

GRIÉMÉtic (28 février 2021) Surveiller ses étudiants à distance pendant un examen. Retrieved from https://griemetic.ca/fr/2020/07/15/surveiller-ses-etudiants-a-distance-pendant-un-examen/.
"Surveiller ses étudiants à distance pendant un examen." GRIÉMÉtic - 28 février 2021, https://griemetic.ca/fr/2020/07/15/surveiller-ses-etudiants-a-distance-pendant-un-examen/
GRIÉMÉtic 15 juillet 2020 Surveiller ses étudiants à distance pendant un examen., viewed 28 février 2021,<https://griemetic.ca/fr/2020/07/15/surveiller-ses-etudiants-a-distance-pendant-un-examen/>
GRIÉMÉtic - Surveiller ses étudiants à distance pendant un examen. [Internet]. [Accessed 28 février 2021]. Available from: https://griemetic.ca/fr/2020/07/15/surveiller-ses-etudiants-a-distance-pendant-un-examen/
"Surveiller ses étudiants à distance pendant un examen." GRIÉMÉtic - Accessed 28 février 2021. https://griemetic.ca/fr/2020/07/15/surveiller-ses-etudiants-a-distance-pendant-un-examen/
"Surveiller ses étudiants à distance pendant un examen." GRIÉMÉtic [Online]. Available: https://griemetic.ca/fr/2020/07/15/surveiller-ses-etudiants-a-distance-pendant-un-examen/. [Accessed: 28 février 2021]

Quelques avenues pour prévenir le plagiat

Sébastien Béland (Université de Montréal)

Isabelle Cousineau (Université du Québec à Montréal))

Le plagiat est un vol d’idée. L’Université de Montréal définissait d’ailleurs ce manque d’intégrité académique de la façon suivante : « Le plagiat est l’acte de faire passer pour siens les textes ou les idées d’autrui, volontairement ou non ». Se pose alors la question : est-ce grave? On peut aisément le deviner : les philosophes qui s’intéressent à la morale sont généralement contre l’idée du plagiat. Reprenons les sages paroles d’Emmanuel Kant : « agis de telle sorte que la maxime de ta volonté puisse toujours valoir en même temps comme principe d’une législation universelle (1888, p. 50) ». Pour le dire autrement, agis de telle sorte que la maxime (ou le motif) qui guide l’action d’un individu soit universalisable et valable pour toute l’humanité. Le concept de législation universelle est intéressant puisqu’il permet de mettre en lumière le caractère immoral du plagiat lors d’une évaluation des apprentissages qui se veut juste, égale et équitable. En effet, si tous les étudiants (ce que Kant entend par « humanité »), que nous supposons raisonnables, plagient à un travail de session, alors l’évaluation devient contradictoire et elle n’a plus de sens. Plagier n’est donc pas seulement enfreindre les règles, c’est aussi détruire l’idée même de règles communes. Hubick (2016) va plus loin : le plagiat viole l’expérience d’apprentissage authentique. Et celui qui plagie trompe surtout ses collègues de classe et porte atteinte à la réputation du diplôme délivré par son institution d’enseignement.

Pourquoi plagier?

Il y a évidemment une dimension intentionnelle derrière le plagiat. Par exemple, un étudiant peut vouloir plagier pour atteindre certains buts qu’il s’est fixés (Hubick, 2016) ou pour sauver du temps à cause d’une charge de travail élevée (Theart et Smit, 2012). Mais, il y a plus : le plagiat peut aussi être un acte involontaire. Belter et du Pré (2009) nous montraient que les étudiants sont nombreux à ne pas savoir comment bien citer. Même constat du côté de Kier (2014) : un peu plus de la moitié des étudiants ont été en mesure de bien reconnaître une série de phrases plagiées.

Il est impossible d’omettre le fait que la perception du plagiat a aussi une dimension culturelle importante. Bloch (2008) rapportait que « the link between originality and ownership, which often shapes the moral metaphors regarding “theft” related to discussions of plagiarism in the West, may not be as clear-cut in Chinese culture » (p. 220) Ainsi, le fait de reprendre les mots d’un auteur sans lui attribuer la paternité est un acte éminemment complexe.

Quoi faire pour prévenir le plagiat?

L’évaluateur qui a trouvé des sections plagiées dans un travail se bute parfois à l’étonnement sincère des étudiants. Il est donc important, selon nous, d’utiliser notre jugement professionnel en présence de plagiat. Ainsi, l’étudiant en est-il à sa première offense? Est-il un récidiviste? Comment explique-t-il la présence de plagiat dans son travail? À l’évidence, il n’y a pas de réponse facile, ici.

Les universités ont des règlements pour décourager les tentations de plagiat. Le GRIÉMÉtic croit que sensibiliser les étudiants à la problématique du plagiat est une stratégie à favoriser. Nous devons faire de nos étudiants de meilleurs méthodologues et, ce, le plus rapidement possible dans leur cheminement scolaire.

Il y a plusieurs avenues qui peuvent être adoptées. D’abord, il est possible de faire signer un code d’honneur aux étudiants en les encourageant à adopter une attitude d’intégrité académique dans le cours. Ce code d’honneur peut généralement tenir sur une seule page et pourrait être inséré, en annexe, des travaux déposés dans un cours.

Une autre alternative à explorer est le fait de rendre disponible de courts modules de formation en ligne sur le plagiat. Ceux-ci pourraient être accrochés aux plateformes utilisées dans chacun des cours et pourraient être même obligatoires pour les étudiants qui sont en première année d’un programme d’études.

Il existe de nombreux logiciels de détection (gratuits ou payants) permettant de détecter le plagiat dans les travaux scolaires. Nous croyons que leur utilisation est une bonne idée lorsque, par exemple, le style d’écriture dans un travail change radicalement sans raison valable. Pourquoi ne pas avertir les étudiants que vous allez utiliser un tel logiciel afin de tenter de décourager de potentiels plagieurs? Le lecteur curieux pourra consulter une liste non-exhaustive de ces logiciels, en annexe.

Enfin, il faut se questionner sur le rapport à la performance dans nos établissements d’enseignement. C’est un secret de polichinelle que l’anxiété de performance pousse certains étudiants à plagier. Une bonne façon de maîtriser ce type de « dérapage » est de proposer des évaluations formatives aux étudiants. En leur offrant des pistes de remédiation durant le processus de production d’un travail, il est plus facile d’intervenir pour sensibiliser les étudiants à de bonnes pratiques méthodologiques. L’utilisation de l’évaluation formative peut avoir comme effet de faire augmenter la moyenne des notes et réduire leur variance, mais le problème du plagiat doit être traité de façon sérieuse.

Références

Belter, R.W. & du Pré, A. (2009) A strategy to reduce plagiarism in an undergraduate course. Teaching of Psychology, 36, 257-261.

Bloch, J. (2008). Plagiarism across Cultures: Is There a Difference? In (Ed. Caroline Eisner, Martha Vicinus). Originality, Imitation, and Plagiarism. University of Michigan Press.

Hubick, J. (2016). A philosophical response to plagiarism. Teaching philosophy, 39, 453-481.

Kant, E. (1888). Critique de la raison pratique, Consulté le 29 avril 2019, URL : https://gallica.bnf.fr/ark:/12148/bpt6k5500006p/f112.item.r=triche

Kier, C. (2014). How well do Canadian distance education students understand plagiarism? The International Review of Research in Open and Distance Learning, 15, 227-248.

Theart, C. J., & Smit, I. (2012). The status of academic integrity amongst nursing students at a nursing education institution in the Western Cape. Curationis, 35, 27.

GRIÉMÉtic (28 février 2021) Quelques avenues pour prévenir le plagiat. Retrieved from https://griemetic.ca/fr/2020/07/15/quelques-avenues-pour-prevenir-le-plagiat-2/.
"Quelques avenues pour prévenir le plagiat." GRIÉMÉtic - 28 février 2021, https://griemetic.ca/fr/2020/07/15/quelques-avenues-pour-prevenir-le-plagiat-2/
GRIÉMÉtic 15 juillet 2020 Quelques avenues pour prévenir le plagiat., viewed 28 février 2021,<https://griemetic.ca/fr/2020/07/15/quelques-avenues-pour-prevenir-le-plagiat-2/>
GRIÉMÉtic - Quelques avenues pour prévenir le plagiat. [Internet]. [Accessed 28 février 2021]. Available from: https://griemetic.ca/fr/2020/07/15/quelques-avenues-pour-prevenir-le-plagiat-2/
"Quelques avenues pour prévenir le plagiat." GRIÉMÉtic - Accessed 28 février 2021. https://griemetic.ca/fr/2020/07/15/quelques-avenues-pour-prevenir-le-plagiat-2/
"Quelques avenues pour prévenir le plagiat." GRIÉMÉtic [Online]. Available: https://griemetic.ca/fr/2020/07/15/quelques-avenues-pour-prevenir-le-plagiat-2/. [Accessed: 28 février 2021]

Annexe

NomStatutInformations généralesLien
EduBirdieGratuitDétecteur de plagiat sur le web :
– Rapport de détection
https://ca.edubirdie.com/logiciel-anti-plagiat
PlagiarismaGratuitDétecteur de plagiat sur le webhttp://plagiarisma.net
Search Engine ReportsGratuitDétecteur de plagiat sur le web :
– Rapport de détection
https://searchenginereports.net/fr/plagiat
Small SEO ToolsGratuitDétecteur de plagiat sur le webhttps://smallseotools.com/fr/plagiarism-checker/
PlagTrackerGratuitDétecteur de plagiat sur le web :
– Rapport de détection
https://www.01net.com/services-en-ligne/plagtracker-119921/
PlagGratuit ou payantDétecteur de plagiat sur le web :
– Rapport de détection
– Correspondance en surbrillance
– Sources visualisables
– Détection de paraphrases et de mauvaises citations
https://www.plag.fr
Plagiarism DetectorGratuit ou payantDétecteur de plagiat sur le webhttps://plagiarismdetector.net/fr
ScribbrPayantDétecteur de plagiat sur le web :
– Sources Internet, publications académiques
– Rapport de détection interactif
https://www.scribbr.fr
TurnitinPayantDétecteur de plagiat sur le web :
– Sources Internet et contenu académique
– Outil de recherche d’auteurs
https://www.turnitin.com/fr

Documents d’aide (anglais uniquement) :
https://help.turnitin.com/ithenticate/ithenticate-home.htm
CompilatioPayant
*Démonstration gratuite
Prévention et détection de plagiat :
– Sources Internet et vos propres documents
– Rapport de détection
https://www.compilatio.net
UrkundPayant
*Démonstration gratuite
Aide à prévenir le plagiat (comment empêcher le plagiat)
– Quizz, conseils et guide sur le plagiat
https://www.urkund.com/fr/urkund-pour-les-etudiants/
Urkund – Enseignement supérieurPayant
*Démonstration gratuite
Système de prévention du plagiathttps://www.urkund.com/fr/urkund-pour-lenseignement-superieur/
PlagScanPayant
*Essai gratuit
Détecteur de plagiat sur le web :
– Sources Internet, revues scientifiques et vos propres documents
– Rapport de détection
– Identification des sources
https://www.plagscan.com/analyse-de-plagiat/?gclid=CjwKCAjwltH3BRB6EiwAhj0IUNA-GKJfV6ucLXI6HocgVRPJrChTsxt2uPsLodcifXQTGvYhI0etAhoCwzwQAvD_BwE

Pourquoi évaluer équitablement? Le cas de l’évaluation en ligne

Par Guillaume Loignon

Le contexte de la pandémie a amené plusieurs d’entre nous à réfléchir sur les principes et outils d’évaluation. Dans un article souvent cité, le philosophe Daryl Close introduit l’idée de d’évaluation équitable, qu’il définit comme une évaluation impartiale qui reflète la compétence de l’élève en lien avec le contenu du cours (Close, 2009). Selon Close, les enseignant-es ont la responsabilité de donner l’heure juste, de communiquer ce que le Conseil supérieur de l’éducation (2018) décrit comme « une information claire sur ce que la personne a réussi et ce qu’il lui reste à maîtriser ». Cela implique de créer des outils d’évaluation permettant de témoigner du niveau de maitrise de l’élève tout en respectant des principes d’équité. Dans ce billet, nous proposons d’établir quelques balises éthiques en évaluation. Nous vous suggérons de lire ensuite le billet portant sur la construction de grilles d’évaluation, qui sont un moyen contribuant à créer des évaluations équitables.

Premier principe : l’évaluation doit être impartiale

Une évaluation est impartiale lorsqu’elle s’appuie uniquement sur les critères du cours qui s’appliquent uniformément à tous les élèves. Cela ne signifie pas qu’on doive appliquer machinalement le même traitement à tous nos élèves, des mesures d’accommodements sont possibles. Il faut cependant s’assurer que, dans des circonstances similaires, tout élève aurait pu aussi recevoir le même accommodement. Prenons la vignette suivante:

Il reste quelques heures aux élèves pour me remettre leur travail de mi-session. J’ai déjà commencé à corriger et je réalise que, dans certains cas, la section intitulée « cadre théorique » a été très mal faite.  J’envoie donc un message à mes classes pour leur annoncer que cette section ne sera pas évaluée, et donc qu’ils n’ont pas à l’inclure dans leur travail.

Cette évaluation n’est pas impartiale, car la grille de correction a été modifiée en cours de route, avantageant les élèves qui n’avaient pas déjà remis leur travail. Les élèves ayant déjà déposé leur travail ont eu à produire cette section, et ont donc disposé de moins de temps et de ressources cognitives pour les autres sections. En raison de ce changement imprévu, on se retrouve avec deux catégories d’élèves faisant un travail différent. De plus, les élèves ayant bien réussi la section « cadre théorique » sont pénalisés par ce changement : on leur retire l’opportunité de témoigner de leur capacité à rédiger cette section alors qu’il s’agissait au départ d’un critère officiel du cours.

Deuxième principe : l’évaluation doit refléter le niveau de compétence de l’élève

Le deuxième principe peut s’énoncer ainsi : l’évaluation devrait informer l’élève, et possiblement les autres parties prenantes comme l’organisation scolaire ou les parents, du niveau de maitrise des connaissances et habiletés en lien avec le cours. Ces compétences et habiletés sont correspondent généralement aux compétences du cours, à ce que le cours vise à développer chez l’élève et qui sera requis pour réussir l’épreuve finale.

Daryl Close remarque que le cheminement vers l’évaluation équitable peut rapidement s’embourber dans de multiples critères de correction qui ne sont pas communiqués aux élèves. Ces critères implicites peuvent être l’effort déployé par l’élève, l’assiduité ou la ponctualité en classe, la participation aux discussions, etc. Dans les années 1990, un sondage mené dans 47 cégeps révélait que la majorité des enseignant-es considéraient à l’époque les résultats scolaires comme une sorte de salaire de l’élève, et ne voyaient pas d’inconvénient à modifier une note finale afin de punir ou récompenser certains comportements (Howe et Ménard, 1994). On peut s’interroger sur les raisons pouvant nous amener à évaluer le comportement de l’élève au-delà de ce qui est requis par le contenu du cours.

Revenant au principe selon lequel l’évaluation est un processus d’information au sujet de la maitrise des contenus du cours, on pourrait chercher des manières alternatives de décourager un comportement délinquant ou de récompenser une belle implication de l’élève, sans passer par l’évaluation. Dans les cas où il est pertinent d’inclure ce type de facteurs dans les évaluations, l’enseignant-e devrait l’annoncer ouvertement afin que la grille d’évaluation soit claire et connue des élèves. En général, les critères et la pondération des évaluations devraient être communiqués clairement et à l’avance. Considérons cette autre vignette :

Je viens d’apprendre que mon cours va se donner en ligne jusqu’à la fin de la session. Mes évaluations ne sont pas conçues pour un cours en ligne. J’ai donc décidé de ne pas enseigner le reste de la matière. Je vais prendre le 60% de points accumulés et de le compter pour 100% de la note finale. C’est équitable, car le changement est appliqué à tous les élèves.

Ce changement de pondération ne respecte pas le deuxième principe éthique, car, en décidant de ne pas évaluer le contenu du reste du cours, l’enseignant-e ne permet pas à l’élève de démontrer sa maitrise des tous les éléments de contenu. De plus, contrairement à ce qu’affirme l’enseignant-e de la vignette, on ne peut affirmer que cette décision est impartiale puisque les élèves qui auraient eu de belles habiletés à démontrer durant la seconde moitié du cours ne pourront le faire; ces élèves sont désavantagés par rapport à d’autres qui ont excellé au début, mais auraient peut-être eu de la difficulté ensuite. Par ailleurs, si les élèves avaient su à l’avance que l’ensemble de l’évaluation porterait sur la première moitié du cours, leur stratégie d’étude aurait été différente. Bien que des circonstances l’obligent parfois, ce type de changement est à éviter.

Le rôle de la rétroaction dans une évaluation équitable

En somme, un résultat équitable reflète une évaluation experte des accomplissements de l’élève en lien avec les objectifs du cours. Pour que cela soit possible, l’élève doit avoir l’opportunité de démontrer ses accomplissements réels. De même, l’enseignant-e doit exercer son jugement afin d’associer un score à la performance de l’élève. Dans le jargon de la mesure et de l’évaluation en éducation, on désigne comme inférences de notation (scoring inference) les raisonnements permettant à l’enseignant-e de traduire la performance en un score (Cook et al., 2015; Kane, 2013).

Les inférences de notation sont l’ensemble des raisonnements que l’enseignant-e émet pour passer de la performance de l’élève à un score.

Considérant que l’évaluation est une forme de communication à deux voies, il peut être intéressant d’inclure des inférences de notation dans les commentaires fournis à l’élève (rétroaction). La rétroaction demeure le meilleur moyen d’informer l’élève au sujet de son niveau de maitrise des compétences du cours. Comme le remarquait récemment le Conseil supérieur de l’éducation (Conseil Supérieur de l’Éducation, 2018), une note chiffrée a une « valeur informative pauvre ». Communiquer une rétroaction informative à l’élève répond aussi aux exigences de l’évaluation éthique en permettant à l’élève de comprendre pourquoi il ou elle a eu ce résultat, ce qui augmente la capacité de l’élève à agir pour améliorer ses résultats. Dans le contexte d’une évaluation en ligne, il peut être plus complexe pour l’élève d’obtenir de l’aide afin de s’améliorer. Lorsque cela est possible, la rétroaction pourrait être accompagnée de ressources aidant l’élève à relever les défis d’apprentissage communiqués par la rétroaction.

Conclusion

Nous avons défini l’évaluation comme une forme de communication, et avons décrit deux principes éthiques énoncés par Daryl Close : l’évaluation doit être impartiale, et elle doit refléter le niveau de compétence de l’élève. Nous avons vu comment une rétroaction efficace peut contribuer à évaluer dans le respect de ces deux principes. La rétroaction permet à l’enseignant-e de justifier les inférences de notations, qui sont les raisonnements par lesquels on passe de la performance de l’élève à son résultat. Dans la perspective de l’élève, la rétroaction permet de donner du sens au résultat chiffré, de savoir quels aspects améliorer, et comment les améliorer.

Ouvrages cités

Close, D. (2009). Fair Grades. Teaching Philosophy, 32(4), 361‑398. 10.5840/teachphil200932439

Conseil Supérieur de l’Éducation. (2018). Évaluer pour que ça compte vraiment: Rapport sur l’état et les besoins de l’éducation 2016-2018.

Cook, D. A., Brydges, R., Ginsburg, S. et Hatala, R. (2015). A contemporary approach to validity arguments: a practical guide to Kane’s framework. Medical Education, 49(6), 560‑575. 10.1111/medu.12678

Howe, R. et Ménard, L. (1994). Croyances et pratiques en évaluation des apprentissages, 7, 7.

Kane, M. T. (2013). Validating the Interpretations and Uses of Test Scores. Journal of Educational Measurement, 50(1), 1‑73. 10.1111/jedm.12000

GRIÉMÉtic (28 février 2021) Pourquoi évaluer équitablement? Le cas de l’évaluation en ligne. Retrieved from https://griemetic.ca/fr/2020/07/15/pourquoi-evaluer-equitablement/.
"Pourquoi évaluer équitablement? Le cas de l’évaluation en ligne." GRIÉMÉtic - 28 février 2021, https://griemetic.ca/fr/2020/07/15/pourquoi-evaluer-equitablement/
GRIÉMÉtic 15 juillet 2020 Pourquoi évaluer équitablement? Le cas de l’évaluation en ligne., viewed 28 février 2021,<https://griemetic.ca/fr/2020/07/15/pourquoi-evaluer-equitablement/>
GRIÉMÉtic - Pourquoi évaluer équitablement? Le cas de l’évaluation en ligne. [Internet]. [Accessed 28 février 2021]. Available from: https://griemetic.ca/fr/2020/07/15/pourquoi-evaluer-equitablement/
"Pourquoi évaluer équitablement? Le cas de l’évaluation en ligne." GRIÉMÉtic - Accessed 28 février 2021. https://griemetic.ca/fr/2020/07/15/pourquoi-evaluer-equitablement/
"Pourquoi évaluer équitablement? Le cas de l’évaluation en ligne." GRIÉMÉtic [Online]. Available: https://griemetic.ca/fr/2020/07/15/pourquoi-evaluer-equitablement/. [Accessed: 28 février 2021]