Utiliser Atelier

De MoodleDocs
Aller à :navigation, rechercher

Remarque : la traduction de cette page n'est pas terminée. N'hésitez pas à traduire tout ou partie de cette page ou à la compléter. Vous pouvez aussi utiliser la page de discussion pour vos recommandations et suggestions d'améliorations.

Objet de l'activité Atelier

L'atelier permet l'évaluation par les pairs et contient de nombreuses options permettant des scénarios pédagogiques complexes. Reportez vous à la page dédiée à la présentation de cette activité dans la documentation pour en comprendre l'intérêt.

Étapes de fonctionnement de l'atelier

L'activité atelier fonctionne selon un processus en cinq étapes. Le processus complet de travail dans un atelier peut se dérouler sur plusieurs jours voire plusieurs semaines. C'est l’enseignant qui décide de la commutation des différentes phases.

Le travail dans l'atelier suit un processus linéaire passant par les étapes suivantes : Mise en place, Remise des travaux, Évaluation, Notation de l'évaluation, et se termine par l'étape Fermé. Cependant, un processus par itérations successives reste possible.

La progression de l'activité peut être suivie dans l'écran de planification de l'activité. Celui-ci affiche les phases possibles de l'Atelier en surlignant la phase en cours. Les tâches à exécuter par le participant sont listées pour chaque étudiant avec une indication si la tâche est finie, à finir ou éventuellement invalidée.

Phase de mise en place

Dans cette première étape, les participants à l'atelier ne peuvent rien faire (ni corriger les travaux rendus, ni modifier leurs évaluations).

Atelier Etapes 1.jpg

Les enseignants, gestionnaires ou animateurs du cours utilisent cette phase pour configurer les paramètres de l'atelier et définir la stratégie d'évaluation avec les formulaires d'évaluation. Vous pouvez activer cette étape chaque fois que vous avez besoin de régler les paramètres de l'atelier ou d'empêcher les utilisateurs de modifier leur travail.

Préparer le formulaire d'évaluation

Les formulaires d'évaluation varient selon les 4 stratégies d'évaluation :

  • Évaluation cumulative : des commentaires d’évaluation et une note sont donnés sur différents aspects spécifiés.
  • Commentaires : des commentaires d’évaluation sont donnés sur différents aspects spécifiés.
  • Nombre d’erreurs : des commentaires d’évaluation sont donnés ainsi qu’une évaluation de type oui/non sur des aspects spécifiés.
  • Critères : des évaluations de niveau sont donnés sur différents aspects spécifiés.

Pour plus de détails, voir la page Stratégie_d'évaluation

Préparer les travaux exemplaires

Les enseignants peuvent déposer un ou plusieurs travaux exemplaires en exemple et une évaluation référentielle. Avec des travaux exemplaires, l'étudiant voit en quoi consistera le formulaire d'évaluation des travaux de ses pairs.

Sous le tableau des phases d'évaluation, on accède à l'endroit pour ajouter des travaux exemplaires.

Travaux exemplaires.png

  1. Cliquer sur Ajouter travail exemplaire
  2. Écrire le texte ou déposer un document selon les paramètres choisis dans l'activité Atelier
  3. Cliquer sur Continuer et fournir une évaluation correspondant à ce travail exemplaire selon le formulaire d'évaluation définie. Si désiré, cette évaluation référentielle peut être fournie plus tard en cliquant sur Évaluer

Phase de remise des travaux

L'enseignant clique sur Passer à la phase suivante.

Il peut fournir des instructions d'évaluation s'il ne l'a pas fait dans la définition des paramètres de l'atelier. L'étudiant verra ses instructions dans la fenêtre de dépôt.

Des dates de contrôle d'accès peuvent être définies de telle sorte que, même si l'Atelier est maintenu dans cette phase, la possibilité de remise des travaux est limitée à la période donnée. Il est possible d'indiquer une date (et heure) de début de remise du travail, ainsi qu'une date de fin, ou les deux. Ces dates sont présentes pour l'étudiant dans le tableau des phases.

Dépôt des travaux

Dans la phase de remise des travaux, les participants à l'atelier déposent leur travail et peuvent évaluer des travaux exemplaires si disponibles. Avec des travaux exemplaires, l'étudiant voit en quoi consistera le formulaire d'évaluation.

Remise atelier.png

Attribution des travaux

L'enseignant doit attribuer les travaux aux étudiants pour qu'ils puissent passer à la phase d'évaluation.

Trois modes sont possibles: attribution manuelle, attribution aléatoire et attribution programmée.

Attribution manuelle

Un enseignant peut choisir manuellement quels étudiants un étudiant aura à évaluer et qui l'évaluera. Un étudiant peut revoir son travail même s'il n'a rien soumis lui-même. Un étudiant peut être évaluateur même s'il n'a rien remis. Manuelle.png

Attribution aléatoire

L'enseignant dispose de 4 paramètres qui déterminent le fonctionnement de l'attribution aléatoire.

Aléatoire.png

  • Nombre d'évaluation: l'enseignant choisit entre 0 et 30 évaluation pour chaque soumission ou par évaluateur. C'est-à-dire que l'enseignant peut choisir de définir le nombre d'évaluation que chaque travail doit recevoir ou le nombre d'évaluation que chaque élève doit effectuer.
  • 'Note : Un paramètre qui est absent.' Empêcher les révisions par des pairs du même groupe: si l'enseignant souhaite que les élèves du même groupe ne vérifient jamais le travail de l'autre, car il s'agit probablement de leur travail aussi dans une soumission de groupe, alors ils peuvent cocher cette case et Moodle s'assurera qu'ils ne peuvent évaluer que d'autres étudiants en dehors du travail de leur groupe.
  • Supprimer les attributions actuelles: cocher cette case signifie que toutes les attributions manuelles qui ont été définies dans le menu Attribution manuelle seront supprimées.
  • Les participants peuvent évaluer sans avoir remis de travail : le fait de cocher cette case permet aux étudiants d'évaluer le travail d'autres étudiants sans avoir déjà soumis leur propre travail.
  • Ajouter des auto-évaluations: cette option, lorsqu'elle est cochée, permet de s'assurer qu'en plus d'évaluer le travail des autres élèves, ils doivent également évaluer le leur. C'est une bonne option pour enseigner aux élèves comment être objectifs par rapport à leur propre travail.
Attribution programmée

Si vous configurez l'atelier pour qu'il passe automatiquement à la phase d'évaluation une fois arrivée la date limite de soumission, l'activation de l'attribution programmée signifie que Moodle attribuera automatiquement (de manière aléatoire) les travaux à évaluer. Comme pour l'attribution aléatoire, vous pouvez spécifier le nombre d'évaluation, si les étudiants doivent ou non avoir soumis quelque chose pour pouvoir évaluer, etc.

Si le réglage Attribuer automatiquement les travaux à la fin de la phase de remise est activé, la méthode d'attribution programmée attribuera des travaux à évaluer, au terme de la phase de remise. La fin de la phase peut être défini au moyen du réglage Délai de remise de l'atelier.

À l'interne, la méthode d'attribution programmée est lancée avec les paramètres prédéfinis sur la page. Cela signifie qu'elle fonctionne de la même manière que si l'enseignant avait lancé manuellement l'attribution aléatoire au terme de la phase de remise des travaux avec les réglages ci-dessous dans l'image suivante.

Il est à noter que l'attribution programmée ne sera pas lancée si vous passez manuellement l'atelier a la phase d'évaluation avant le délai fixé pour la fin de la phase de remise des travaux. Dans ce cas, l'attribution doit être lancée manuellement. La méthode d'attribution programmée est particulièrement utile lorsqu'elle est couplée au passage automatique d'une phase à l'autre.

Programmée.png

Phase d'évaluation

Étape d'évaluation par les pairs

Si la configuration de l'Atelier prévoit l'évaluation par les pairs, c'est la phase où les participants à l'atelier évaluent les travaux qui leur sont soumis à évaluation.

Comme dans la phase de remise des travaux, l'accès à la phase d'évaluation à des périodes précises et limitées peut être programmé dans les paramètres de l'Atelier à Disponibilité. Mais la méthode d'attribution programmée devra être choisie.

Étape de notation des évaluations

L'objet principal de cette phase est de calculer deux notes finales. En effet, les participants reçoivent une note pour leur travail (calculée sur base des évaluations faites par les différents participants), ainsi qu'une note pour la qualité des évaluations qu'ils ont fournies.

Cette étape permet aussi de fournir les commentaires d'évaluations pour les auteurs et les examinateurs.

Les participants à l'atelier ne peuvent plus modifier leurs soumissions ou leurs évaluations pendant cette phase. Les gestionnaires de cours peuvent annuler manuellement les notes calculées. En outre, les soumissions sélectionnées peuvent être définies comme étant publiées afin qu'elles soient disponibles pour tous les participants à l'atelier dans la phase suivante. Voir la page des questions fréquentes sur l'activité Atelier pour obtenir des instructions sur la façon de publier des soumissions.

Fermeture de l'atelier

Chaque fois que l'Atelier passe à cette phase, les notes finales calculées au cours de la phase précédente sont insérées dans le cours Carnet de notes. Les notes de l'Atelier figurant dans le Carnet de notes et dans l'atelier. Les participants peuvent consulter leurs soumissions, leurs évaluations de soumissions et éventuellement d'autres présentations publiées dans cette phase.

Évaluation de l'atelier

Les notes pour l'activité Atelier sont obtenues progressivement à travers un processus de saisie et de calcul, puis elles sont finalisées et mémorisée dans le "Carnet de notes". Le schéma suivant illustre le processus d'élaboration des deux notes finales et fournit également les noms des tables de base de données dans lesquelles les valeurs sont mémorisées.

Schéma d'élaboration et calcul des notes de l'activité Atelier



Chaque participant obtient deux notes numériques pendant la phase d'évaluation. Ces notes sont ensuite enregistrée dans le cours "Carnet de notes". Pendant la phase d'évaluation, l'enseignant ou gestionnaire de cours peut laisser le module de l'atelier calculer ces notes finales, ou les éditer lui-même. Notez qu'il est possible de passer d'une phase à l'autre, même lorsque l'atelier a déjà été fermé. Ainsi, après la clôture de l'activité Atelier, vous pourriez y revenir pour annuler ou calculer à nouveau les notes. Une nouvelle fermeture de l'activité Atelier provoquerait la mise à jour des notes dans le cours "Carnet de notes". Par ailleurs, les notes peuvent être modifiées directement dans le "Carnet de notes" si nécessaire.


Pendant l'exercice de notation, le rapport des notes de l'atelier vous donne un aperçu complet de toutes les notes individuelles. Le rapport utilise divers symboles et syntaxes:

Valeur Signification
- (-) < Alice Un travail remis est soumis à l'évaluation d'Alice (attribution à Alice pour évaluation). Mais Alice n'a pas encore commenté ni noté ce travail.
68 (-) < Alice Alice a noté le travail avec 68 points. Mais la seconde note pour l'évaluation n'a pas encore été fixée.
23 (-) > Robert Le travail remis par Robert a été noté par un camarade, qui a attribué 23 points. La note pour cette évaluation n'a pas encore été fixée.
76 (12) < Jeanne Jeanne a noté le travail, attribuant 76 points. La note pour cette évaluation est fixée à 12.
67 (8) @ 4 < David David a noté le travail, attribuant 67 points ; la note pour cette évaluation est de 8. Son évaluation a un poids de 4 pour le calcul de la moyenne pondérée.
80 (20 / 17) > Eve Le travail remis par Eve a été évalué par un camarade, avec une note de 80. L'évaluation a elle-même été noté à 20, mais l'enseignant a revu à la baisse cette seconde note, la fixant à 17. Il a probablement donné une explication pour justifier cette baisse.

Évaluation du travail remis

La note finale de chaque travail remis correspond à la moyenne pondérée des notes d'évaluation particulières données par tous les examinateurs. La valeur est arrondie à un nombre de décimales défini dans le formulaire des paramètres de l'atelier.

Le gestionnaire du cours (l'enseignant) peut moduler la note selon deux possibilités :

  • En attribuant lui-même une note, à laquelle est fixé un coefficient de pondération supérieur à ceux donnés aux différents pairs examinateurs.
  • En corrigeant la note finale elle-même

Estimation de l'évaluation des pairs

La note d'évaluation permet d'estimer la qualité des évaluations que le participant a données ses pairs. Cette note est calculée par une formule cachée, parce qu'elle est supposée faire un travail dévolu à l'enseignant.

Au cours de la phase d'évaluation des travaux, un sous-module de l'activité Atelier est utilisé pour calculer les notes pour l'évaluation. Actuellement, par défaut, un seul sous-module standard est disponible ; il agit par "comparaison avec la meilleure évaluation". Notez que d'autres plugins d'évaluation de notation peuvent être trouvés dans bibliothèque de modules ou "plugins" de Moodle).

Voici la méthode utilisée pour le calcul par "comparaison avec la meilleure évaluation" :

Les notes pour l'évaluation sont affichées entre parenthèses () dans le rapport de l'atelier. La note finale pour l'évaluation est calculée comme la moyenne de ces notes particulières. La formule globale n'est pas simple à décrire, cependant elle est "déterministe" :

  1. La note la plus proche de la moyenne des notes est considérée comme étant "la meilleure" pas l’algorithme. On suppose que cette note serait consensuelle pour la majorité des examinateurs.
  2. A cette note de référence est attribué un poids de 100%.
  3. A chacune des autres notes, on attribue un poids inférieur à 100%, en proportion de l'écart (différence) constaté par rapport à la note de référence ("la meilleure").


La pertinence du calcul dépend de notre façon d'apprécier le rythme d'arrivée des notes particulières, en corrélation avec les écarts constatés par rapport à la note "la meilleure" :

S'il n'y a que deux évaluations par soumission, l'algorithme ne peut pas décider laquelle d'elles est «la meilleure». Imaginez que vous ayez deux critiques - Alice et Robert. Ils évaluent tous deux la présentation de Jeanne. Alice dit que c'est un travail pitoyable et Robert prétend à l'opposé que c'est excellent. L'algorithme n'a aucun moyen de décider qui est juste. Il attribue simplement une note de 100% à chaque évaluation. Afin d'éviter cela, vous avez deux options :

  • Soit vous fournissez une évaluation supplémentaire, de telle sorte que le nombre d'examinateurs devienne impair, et que l'algorithme puisse déterminer une note comme étant "la meilleure". Généralement, l'enseignant fournit sa propre évaluation.
  • Soit vous décidez de faire davantage confiance à l'un des participants aux évaluations. Par exemple, Alice ayant la réputation de fournir habituellement des évaluations plutôt pertinentes, vous décidez d'augmenter le poids de son évaluation, en le portant à 2 (par défaut, il est de 1). L'évaluation d'Alice sera alors prise en compte deux fois, comme si deux examinateurs avaient exactement la même opinion ; aussi cette évaluation est-elle susceptible d'être choisie comme la meilleure.


Nota 1 : Compatibilité ascendante des versions

En version 1.x de l'activité Atelier, ce cas spécifique où deux évaluateurs ont exactement la même pondération n'est pas résolu correctement et conduit à des résultats erronés. En effet, un poids de 100% n'est effectivement attribué qu'à un seul des évaluateurs, l'autre étant affecté d'un poids inférieur.

Nota 2 : ce ne sont pas seulement les notes finales qui sont comparées

Il est très important de savoir que le calcul de pondération réalisé par le sous-module de "comparaison avec la meilleure évaluation" ne se fait pas immédiatement sur les "notes finales" attribuées, mais sur chacun des critères permettant d'obtenir ces "notes finales" ; les critères étant définis selon la stratégie de classement utilisée.

En effet, selon la stratégie, chaque formulaire d'évaluation saisi peut être considéré comme un vecteur à n dimensions, remplies avec des valeurs normalisées, permettant d'élaborer la note finale. Ce sont d'abord toutes ces valeurs que le sous-module compare, les unes aux autres selon chaque dimension (le rang de la valeur dans le vecteur, correspondant à un critère ou une assertion du formulaire). Ensuite, l’algorithme calcule la "distance" entre deux valeurs, telle la différence de variance statistique.

A titre d'exemple, dans le cadre d'une évaluation par les pairs d'essais de recherche, supposons que vous utilisiez la stratégie de classement appelée "Nombre d'erreurs". Avec cette méthode, des commentaires sont donnés par les évaluateurs, ainsi qu'une évaluation oui/non sur des critères ou assertions présentés dans une liste. Disons que lors de la configuration du formulaire d'évaluation, vous avez définis une liste de trois critères :

  1. L'auteur indique-t-il clairement le but de la recherche? (Oui Non)
  2. La méthodologie de recherche est-elle décrite? (Oui Non)
  3. Les références sont-elles correctement citées? (Oui Non)

Lors de la configuration du formulaire, vous avez pu indiquer comment la note finale est calculée. Disons que lors de l'évaluation d'un travail remis, l'auteur obtient une note de :

  • 100% si l'ensemble des trois assertions est passée à "oui"
  • 75 % si deux critères sont passés à "oui"
  • 25 % si un seul critère est validé par "oui"
  • 0% si chacun des trois critères est passé à "non".

Maintenant, imaginons que le travail de Daniel est revu par trois camarades, Alice, Robert et Eve. Tous saisissent individuellement leurs propres réponses pour chacune des assertions :

  • Alice : oui / oui / non
  • Robert : oui / oui / non
  • Eve : non / oui / oui

Comme vous pouvez le calculer, chacun aura donc donné une note finale de 75% au travail de Daniel. Cependant Alice et Robert s'accordent également sur chacun des critères constituant l'évaluation, alors que l'appréciation détaillée d'Eve est différente. L'algorithme de «comparaison avec la meilleure évaluation» est un moyen permettant d'établir une note finale selon une méthode qui reflèterait une évaluation absolument équitable. Dans ses spécifications du programme, David explique qu'il s'est demandé comment Zeus aurait noté ce travail ?. Nous estimons (insidieusement) que la note ressemblerait à cela :

  • Zeus 66% oui / 100% oui / 33% oui

Alors nous cherchons quelles sont les évaluations les plus proches de cette estimation supposée objective. Nous comprenons qu'Alice et Robert sont les "meilleurs" et attribuons donc une note de 100% à leurs évaluations. Ensuite nous calculons la "distance" de l'évaluation d'Eve, par rapport à la meilleure évaluation (i.e. indifféremment celle de Robert ou celle d'Alice, puisqu'elles sont identiques). Comme dans l'évaluation faite par Eve, la valeur d'un seul critère correspond à la meilleure valeur, alors le poids de l'évaluation d'Eve ne sera pas très élevé.

La même logique s'applique à toutes les autres stratégies de classement, de façon adéquate.

En conclusion, la note donnée par le meilleur évaluateur n'est pas nécessairement la plus proche de la moyenne des notes, puisque les évaluations sont comparées au niveau des réponses individuelles et détaillées, non pas au niveau des notes finales.

Groupes et groupements

Quand l'activité Atelier est utilisée dans un cours proposant les fonctions de groupements et de groupes séparés ou visibles, alors il est possible de filtrer par groupe grâce à des menus déroulants présents dans certaines phases ou certaines pages de l'activité ( phase d'évaluation, page d'allocation manuelle, rapport sur les notes ...)

Fichier:workshopdropdown.png
Group filtering drop down

Voir aussi

  • Example workshop with data Log in with username teacher/password moodle and explore the grading and phases of a completed workshop on the Moodle School demo site.