Diferencia entre revisiones de «Usando Taller»

De MoodleDocs
({{Pendiente de traducir}})
(tidy up)
Línea 81: Línea 81:
=== Calificación por evaluación ===
=== Calificación por evaluación ===


La calificación por evaluación intenta estimar la calidad de la evaluación que el participante le hizo a los pares. esta calificación (también conocida como "calificación por calificar" es calculada por la Inteligencia Artificial oculta adentro del módulo de Taller conforme trata de hacer el trabjo típico del profesor.
La calificación por evaluación intenta estimar la calidad de la evaluación que el participante le hizo a los pares. Esta calificación (también conocida como "calificación por calificar" es calculada por la Inteligencia Artificial oculta adentro del módulo de Taller conforme trata de hacer el trabjo típico del profesor.


Durante la fase de calificación de la evaluación, Usted usa un sub-plugin del Taller para calcular calificaciones por evaluación. Al momento, solamente está disponible un sub-plugin estándar llamado Comparación con la mejor evaluación ''Comparison with the best assessment'' (pueden encontrarse otros suplementos de evaluación en el [https://moodle.org/plugins/browse.php?list=category&id=17 Moodle plugins directory]). El texto siguiente describe el método usado por este sub-plugin.
Durante la fase de calificación de la evaluación, Usted usa un sub-plugin del Taller para calcular calificaciones por evaluación. Actualmente, solamente está disponible un sub-plugin estándar llamado Comparación con la mejor evaluación ''Comparison with the best assessment'' (pueden encontrarse otros suplementos de evaluación en el [https://moodle.org/plugins/browse.php?list=category&id=17 Moodle plugins directory]). El texto siguiente describe el método usado por este sub-plugin.


Las calificaciones por evaluación son mostradas entre paréntesis () en el Reporte de calificaciones del Taller. La calificación final por evaluación es calculada como el promedio de calificaciones por calificar particulares.
Las calificaciones por evaluación son mostradas entre paréntesis () en el Reporte de calificaciones del Taller. La calificación final por evaluación es calculada como el promedio de calificaciones por calificar particulares.
{{Pendiente de traducir}}
There is not a single formula to describe the calculation. However the process is deterministic. Workshop picks one of the assessments as the ''best'' one - that is closest to the mean of all assessments - and gives it 100% grade. Then it measures a 'distance' of all other assessments from this best one and gives them the lower grade, the more different they are from the best (given that the best one represents a consensus of the majority of assessors). The parameter of the calculation is how strict we should be, that is how quickly the grades fall down if they differ from the best one.


If there are just two assessments per submission, Workshop can not decide which of them is 'correct'. Imagine you have two reviewers - Alice and Bob. They both assess Cindy's submission. Alice says it is a rubbish and Bob says it is excellent. There is no way how to decide who is right. So Workshop simply says - ok, you both are right and I will give you both 100% grade for this assessment. To prevent it, you have two options:
No existe una fórmula única para describir el cálculo. Sin embargo, el proceso es determinístico. El Taller elige a una de las evaluaciones como la ''mejor'' evaluación - la cual es la más cercana a la media de todas las evaluaciones - y le otorga una calificación del 100%. Entonces mide una 'distancia' de todas las demás evaluaciones desde esta mejor evaluación y les otorga la calificación más baja, cuanto más diferentes sean de la mejor (dado que la mejor representa un consenso de la mayoría de los evaluadores). el parámetro del cálculo es que tan estricto deberíamos de ser, lo que es que tan rápidamente las calificaciones caerán si difieren de la mejor.


* Either you have to provide an additional assessment so the number of assessors (reviewers) is odd and workshop will be able to pick the best one. Typically, the teacher comes and provide their own assessment of the submission to judge it
Si solamente hubieran dos evaluaciones por envío, el Taller no puede decidir cual de ellas es 'correcta'. Imagínese que USted tiene dos revisores - Alicia y Bob. Ambos dos evalúan el envío de Cindy. Alicia dice que es una porquería y Bob dice que es excelente. No hay forma de decidir quien está  correcto. Por eso, el Taller simplemente dice - bueno, ambos dos están correctos y les voy a dar a ambos dos calificación del 100% para esta evaluación. Para evitar que ocurra esto, Usted tiene dos opciones:
* Or you may decide that you trust one of the reviewers more. For example you know that Alice is much better in assessing than Bob is. In that case, you can increase the weight of Alice's assessment, let us say to "2" (instead of default "1"). For the purposes of calculation, Alice's assessment will be considered as if there were two reviewers having the exactly same opinion and therefore it is likely to be picked as the best one.


'''Backward compatibility note'''
* Ya sea que Usted tenga que proporcionar una evaluación adicional para que el número de evaluadores sea impar y el taller pueda elegir al mejor. Típicamente el profesor llega y proporciona su propia evaluación del envío para juzgarlo
* O Usted puede decidir qué tanto confía más en uno de los revisores. Por ejemplo, Usted sabe que Alicia es mucho mejor para evaluar que Bob. En ese caso, Usted puede aumentar la ponderación de la evaluación de Alicia, digamos que a  "2" (en lugar del ajuste por defecto de "1"). Para los propósitos de cálculo, la evaluación de Alicia será considerada como si hubiera dos revisores que tienen exactamente la misma opinión y por lo tanto es más probable que sean elegidos como el mejor.


In Workshop 1.x this case of exactly two assessors with the same weight is not handled properly and leads to wrong results as only the one of them is lucky to get 100% and the second get lower grade.
'''Nota de Retro-compatibilidad'''


'''It's not final grades what is compared'''
En la versión de Taller 1.x este caso de exactamente dos evaluadores con la misma ponderación no es manejado apropiadamente y conduce a resultados erróneos ya que solamente uno de ellos es afortunado de obtener 100% y el segundo obtiene una calificación más baja.


'''No son las calificaciones finales las que son comparadas'''
{{Pendiente de traducir}}
It is very important to know that the grading evaluation subplugin ''Comparison with the best assessment'' does not compare the final grades. Regardless the grading strategy used, every filled assessment form can be seen as n-dimensional vector of normalized values. So the subplugin compares responses to all assessment form dimensions (criteria, assertions, ...). Then it calculates the distance of two assessments, using the variance statistics.
It is very important to know that the grading evaluation subplugin ''Comparison with the best assessment'' does not compare the final grades. Regardless the grading strategy used, every filled assessment form can be seen as n-dimensional vector of normalized values. So the subplugin compares responses to all assessment form dimensions (criteria, assertions, ...). Then it calculates the distance of two assessments, using the variance statistics.


Línea 125: Línea 125:


==Grupos y Taller==
==Grupos y Taller==
When a workshop is used in a course using separate or visible groups and groupings, it is possible to filter by group in a drop-down menu at the Assessment phase, manual allocation page, grades report and so on.  
Cuando un Taller es usado en un curso usando [[Grupos]] y [[Agrupamientos]] visibles o separados, es posible filtrar por grupo en un menú desplegable en la fase de Evaluación, la página de asignación manual, reporte de calificaciones y otras más.  


[[File:workshopdropdown.png |thumb|none|upright=2.0|alt="Group filtering" | Menú desplegable de filtrado por Grupo]]
[[File:workshopdropdown.png |thumb|none|upright=2.0|alt="Group filtering" | Menú desplegable de filtrado por Grupo]]

Revisión del 17:05 12 nov 2018

Fases del taller

El flujo del trabajo para el módulo de Taller puede verso como que tuviera cinco fases. La actividad típica de Taller puede cubrir días e inclusive semanas. El profesor cambia la actividad de una fase a otra.

El taller típico sigue una ruta recta desde Configración a, Envío, Valoración, Calificación/Evaluación, y termina con la fase Cerrado. Sin embargo, también es posible una ruta avanzada recursiva.

El progreso de la actividad es visualizado en una herramienta de planeación del Taller. Muestra todas las fases del taller y resalta la fase actual. También enlista todos los trabajos que tiene el usuario en la fase actual con la información acerca de si el trabajo está terminado o no-terminado o inclusive reprobado/fallido.

Botones de Fase de Planeador del Taller

Fase de configuración

En esta fase inicial, los participantes del taller no pueden hacer nada (ni modificar sus envíos ni sus evaluaciones). Los facilitadores del curso usan esta fase para cambiar las configuraciones del Taller, modificar la estrategia para calificar o ajustar los formatos (formularios) de evaluación. Usted puede cambiar a esta fase en cualquier momento que Usted necesite cambiar las configuraciones del Taller y evitar que los usuarios modifiquen sus trabajos.

Fase de envío

En la fase de envío, los participantes del Taller envían su trabajo. Las fechas para control del acceso pueden configurarse de forma tal que aun y cuando el taller estuviera en esta fase, el envío está restringido a solamente al marco de tiempo dado. La fecha (y hora) de inicio del envío, la fecha ( y hora) de fin, o ambas, pueden especificarse.

¡Nueva característica
en Moodle 3.0!

El reporte de envíos del taller le permite a los profesores ver quienes han enviado y quienes no han enviado su trabajo, y filtrar por envío y por última modificación:

workshopsubmisisonsreport.png

¡Nueva característica
en Moodle 3.1!
Un estudiante puede eliminar sus envíos propios siempre y cuando el estudiante pueda editarlos y que aun no hayan sido evaluados. Un profesor puede eliminar cualquier envío en cualquier momento; sin embargo, si ya hubiera sido evaluado, al profesor se le advertirá que también se eliminará la evaluación y que pueden afectarse las calificaciones de los evaluadores.

Fase de evaluación

Si el Taller usa la característica de evaluación por pares, esta es la fase cuando los participantes del Taller evalúan los envíos que les fueron asignados para revisar. Igual que en la fase de envío, el acceso puede ser controlado por la fecha y hora especificadas en 'desde cuando' y en 'hasta cuando' está permitida la evaluación.

Fase de evaluación de la calificación

El trabajo principal durante esta fase es calcular las calificaciones finales para los envíos y para las evaluaciones y proporcionar retroalimentación para autores y revisores. Los participantes del Taller ya no pueden modificar más sus envíos o sus evaluaciones en esta fase. Los facilitadores del curso pueden anular manualmente las calificaciones calculadas. También, los envíos seleccionados pueden ser configurados como publicados, de forma tal que estén disponibles para todos los participantes del Taller en la siguiente fase. Vea Taller FAQ para las instrucciones sobre como publicar los envíos.

Cerrado

Un taller cerrado

Siempre que el taller sea cambiado hacia esta fase, las calificaciones finales que fueron calculadas en la fase anterior son empujadas al interior del Libro de calificaciones del curso. Esto resultará en que aparezcan las calificaciones del Taller dentro del Libro de calificaciones y dentro del Taller (nuevo a partir de Moodle 2.4 en adelante). Los participantes pueden ver sus envíos, las evaluaciones de sus envíos y eventualmente cualquier otro envío publicado en esta fase.

Calificación del taller

Las calificaciones para una actividad de Taller se obtienen gradualmente en diferentes etapas y después son finalizadas. El esquema siguiente ilustra el proceso y también proporciona la información sobre en cuales tablas de la base de datos están almacenadas.

El esquema de cálculo de calificaciones en Talller


Los participantes obtienen dos calificaciones que son calculadas durante la fase de Calificación de la Evaluación. el profesor puede editar estas calificaciones mientras todavía están en esta fase. No se irán al interior del Libro de calificaciones hasta después de que el taller sea cerrado en la fase final. Tenga en cuenta que es posible moverse entre las fases y aun y cuando el Taller estuviera cerrado, las calificaciones se pueden cambiar directamente adentro del Libro de calificaciones si fuera necesario

La tabla inferior explica como se visualizan las calificaciones:

Valor Significado
- (-) < Alicia Hay una valoración asignada por hacer por Alicia, pero no ha sido valorada ni evaluada todavía
68 (-) < Alicia Alicia valoró el envío, dando la calificación por envío de 68. La calificación por evaluación (calificación por calificar) aun no ha sido evaluada.
23 (-) > Bob El envío de Bob fue evaluado por un par, recibiendo una calificación por el envío de 23. La calificación para esta evaluación aun no ha sido evaluada.
76 (12) < Cindy Cindy evaluó el envío, otorgando la calificación de 76. La calificación por esta evaluación ha sido evaluada con 12.
67 (8) @ 4 < David David evaluó el envío, otorgando la calificación por envío de 67, recibiendo la calificación por esta evaluación de 8. Su evaluación tiene ponderación de 4
80 (20 / 17) > Eva El envío de Eva fue evaluado por un par. El envío de Eva recibió 80 y la calificación por esta evaluación fue calculada en 20. El profesor ha anulado la calificación por calificar a 17, probablemente junto con una explicación para el revisor.

Calificación por envío

La calificación final para cada envío es calculada como la media ponderada de las calificaciones de evaluaciones particulares dadas por todos los revisores de este envío. el valor es redondeado a un número de (lugares) decimales que está configurado en el formato de configuración del Taller.

Los facilitadores del curso pueden influenciar la calificación para un envío dado en dos formas:

  • al proporcionar su propia evaluación, posiblemente con una ponderación (peso) mayor que que tienen los pares evaluadores
  • al anular la calificación a un valor dado

Calificación por evaluación

La calificación por evaluación intenta estimar la calidad de la evaluación que el participante le hizo a los pares. Esta calificación (también conocida como "calificación por calificar" es calculada por la Inteligencia Artificial oculta adentro del módulo de Taller conforme trata de hacer el trabjo típico del profesor.

Durante la fase de calificación de la evaluación, Usted usa un sub-plugin del Taller para calcular calificaciones por evaluación. Actualmente, solamente está disponible un sub-plugin estándar llamado Comparación con la mejor evaluación Comparison with the best assessment (pueden encontrarse otros suplementos de evaluación en el Moodle plugins directory). El texto siguiente describe el método usado por este sub-plugin.

Las calificaciones por evaluación son mostradas entre paréntesis () en el Reporte de calificaciones del Taller. La calificación final por evaluación es calculada como el promedio de calificaciones por calificar particulares.

No existe una fórmula única para describir el cálculo. Sin embargo, el proceso es determinístico. El Taller elige a una de las evaluaciones como la mejor evaluación - la cual es la más cercana a la media de todas las evaluaciones - y le otorga una calificación del 100%. Entonces mide una 'distancia' de todas las demás evaluaciones desde esta mejor evaluación y les otorga la calificación más baja, cuanto más diferentes sean de la mejor (dado que la mejor representa un consenso de la mayoría de los evaluadores). el parámetro del cálculo es que tan estricto deberíamos de ser, lo que es que tan rápidamente las calificaciones caerán si difieren de la mejor.

Si solamente hubieran dos evaluaciones por envío, el Taller no puede decidir cual de ellas es 'correcta'. Imagínese que USted tiene dos revisores - Alicia y Bob. Ambos dos evalúan el envío de Cindy. Alicia dice que es una porquería y Bob dice que es excelente. No hay forma de decidir quien está correcto. Por eso, el Taller simplemente dice - bueno, ambos dos están correctos y les voy a dar a ambos dos calificación del 100% para esta evaluación. Para evitar que ocurra esto, Usted tiene dos opciones:

  • Ya sea que Usted tenga que proporcionar una evaluación adicional para que el número de evaluadores sea impar y el taller pueda elegir al mejor. Típicamente el profesor llega y proporciona su propia evaluación del envío para juzgarlo
  • O Usted puede decidir qué tanto confía más en uno de los revisores. Por ejemplo, Usted sabe que Alicia es mucho mejor para evaluar que Bob. En ese caso, Usted puede aumentar la ponderación de la evaluación de Alicia, digamos que a "2" (en lugar del ajuste por defecto de "1"). Para los propósitos de cálculo, la evaluación de Alicia será considerada como si hubiera dos revisores que tienen exactamente la misma opinión y por lo tanto es más probable que sean elegidos como el mejor.

Nota de Retro-compatibilidad

En la versión de Taller 1.x este caso de exactamente dos evaluadores con la misma ponderación no es manejado apropiadamente y conduce a resultados erróneos ya que solamente uno de ellos es afortunado de obtener 100% y el segundo obtiene una calificación más baja.

No son las calificaciones finales las que son comparadas

Nota: Pendiente de Traducir. ¡Anímese a traducir esta página!.     ( y otras páginas pendientes)

It is very important to know that the grading evaluation subplugin Comparison with the best assessment does not compare the final grades. Regardless the grading strategy used, every filled assessment form can be seen as n-dimensional vector of normalized values. So the subplugin compares responses to all assessment form dimensions (criteria, assertions, ...). Then it calculates the distance of two assessments, using the variance statistics.

To demonstrate it on example, let us say you use grading strategy Number of errors to peer-assess research essays. This strategy uses a simple list of assertions and the reviewer (assessor) just checks if the given assertion is passed or failed. Let us say you define the assessment form using three criteria:

  1. Does the author state the goal of the research clearly? (yes/no)
  2. Is the research methodology described? (yes/no)
  3. Are references properly cited? (yes/no)

Let us say the author gets 100% grade if all criteria are passed (that is answered "yes" by the assessor), 75% if only two criteria are passed, 25% if only one criterion is passed and 0% if the reviewer gives 'no' for all three statements.

Now imagine the work by Daniel is assessed by three colleagues - Alice, Bob and Cindy. They all give individual responses to the criteria in order:

  • Alice: yes / yes / no
  • Bob: yes / yes / no
  • Cindy: no / yes / yes

As you can see, they all gave 75% grade to the submission. But Alice and Bob agree in individual responses, too, while the responses in Cindy's assessment are different. The evaluation method Comparison with the best assessment tries to imagine, how a hypothetical absolutely fair assessment would look like. In the Development:Workshop 2.0 specification, David refers to it as "how would Zeus assess this submission?" and we estimate it would be something like this (we have no other way):

  • Zeus 66% yes / 100% yes / 33% yes

Then we try to find those assessments that are closest to this theoretically objective assessment. We realize that Alice and Bob are the best ones and give 100% grade for assessment to them. Then we calculate how much far Cindy's assessment is from the best one. As you can see, Cindy's response matches the best one in only one criterion of the three so Cindy's grade for assessment will not be as high.

The same logic applies to all other grading strategies, adequately. The conclusion is that the grade given by the best assessor does not need to be the one closest to the average as the assessment are compared at the level of individual responses, not the final grades.

Grupos y Taller

Cuando un Taller es usado en un curso usando Grupos y Agrupamientos visibles o separados, es posible filtrar por grupo en un menú desplegable en la fase de Evaluación, la página de asignación manual, reporte de calificaciones y otras más.

"Group filtering"
Menú desplegable de filtrado por Grupo

Vea también