Evaluaciones finales en el área de Humanidades y Ciencias Sociales de B@UNAM

Experiencias de bachillerato a distancia

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someonePrint this page

Evaluaciones finales en el área de Humanidades y
Ciencias Sociales de B@UNAM
Juan Oropeza Mota*

Resumen

B@UNAM promueve la generación de conocimientos y el desarrollo de habilidades en la formación de los alumnos de forma transversal y va aumentando en exigencia y complejidad conforme avanzan de módulo. Así, las evaluaciones deben medir la apropiación de los contenidos vistos en las asignaturas y, al mismo tiempo, el desarrollo de las habilidades que se promueven. En esta ponencia se habla de cómo se llevó a cabo el diseño de las evaluaciones finales en el área de Ciencias Sociales y Humanidades.

Palabras clave: bachillerato a distancia, evaluación, diseño instruccional, habilidades transversales, contenidos temáticos, Moodle.

 

Tradicionalmente la evaluación ha sido un punto polémico y fundamental en el proceso enseñanza-aprendizaje (González, M. P., 2000). Polémico porque siempre se han cuestionado los métodos empleados para tal fin, así como su  eficacia; y fundamental porque es necesario medir el avance y desarrollo que los alumnos van teniendo. De tal manera que diseñar instrumentos eficaces de evaluación  siempre ha resultado un reto, tanto para los expertos en contenido de las asignaturas o cursos a evaluar, como para los diseñadores instruccionales.

Esto se vuelve un poco más complicado  al diseñar instrumentos de evaluación para programas a distancia, como el Bachillerato a Distancia de la UNAM (B@UNAM), porque la interacción con el alumno es en otro plano y en otro nivel, a diferencia de los programas tradicionales presenciales donde si, por ejemplo, un reactivo está mal redactado o tiene errores de captura, el aplicador puede tomar acciones en el momento para que  la evaluación de los alumnos no se vea afectada.  Por lo tanto, en una evaluación a distancia se deben tomar en cuenta muchos aspectos que, en ocasiones, en los programas presenciales no son tan visibles pues el contacto directo y cotidiano con los estudiantes permite incluir en la evaluación elementos que no son palpables cuando la interacción es “virtual”.

Así pues, al diseñar instrumentos de evaluación en B@UNAM, específicamente en el área de Humanidades y Ciencias Sociales, debemos tomar en cuenta tanto los contenidos vistos en las asignaturas, como el módulo en el que se encuentran y, primordialmente, las habilidades que se promueven en este programa a distancia; habilidades tales como informáticas, matemáticas, metodológicas, colaborativas, metacognitivas y de estudio independiente; al mismo tiempo, tener presentes los alcances y las limitaciones de la plataforma educativa utilizada, en este caso Moodle.

En este sentido, hablando de Moodle, desde finales del año pasado en B@UNAM se planteó la necesidad de actualizar la versión ya que era la misma desde que se lanzó el programa de Bachillerato a Distancia de la UNAM en 2007, es decir Moodle 1.6.4. Esta versión, si bien se adecuó a las necesidades académicas de B@UNAM y era bastante funcional en su origen, debido a la creciente demanda —a septiembre de 2010  se atendían  a cerca de 12 mil alumnos en los diferentes proyectos que alimenta— resultó inoperante, por lo que se tomó la decisión de migrar a la versión 1.9.3 de Moodle.

Esta actualización constituyó el momento idóneo para crear nuevos exámenes finales de todas las asignaturas1, por dos motivos principales:

  1. Porque los anteriores exámenes estaban realizados en versiones2 para evitar en la medida de lo posible el copiado y/o plagio por parte de los alumnos. Pero por las características de la versión 1.6.4 de Moodle no era del todo tangible, puesto que ni eran suficientes versiones, ni tan seguras; ahora con la versión  1.9.3 que cuenta con aplicación de evaluaciones en modo seguro y permite crear un banco aleatorio de reactivos se fortalece la aplicación de exámenes seguros.

  2. Porque no estábamos del todo convencidos de que se midieran contenidos y habilidades al mismo tiempo.

Así, nos aventuramos a planear y desarrollar evaluaciones finales con reactivos completamente nuevos pero, ¿cómo lograr que los instrumentos de evaluación  midieran realmente lo que deben medir? O dicho de otra forma ¿cómo diseñar exámenes que evalúen conocimiento, midan el desarrollo de habilidades, se ajusten a lo que permite la tecnología y al mismo tiempo cuenten con confiabilidad, validez, objetividad y autenticidad?

Lo primero fue explorar los alcances, limitaciones y posibilidades que nos ofrece la versión 1.9.3 de Moodle, en cuanto a actividades, recursos y evaluaciones;  dicha labor la realizaron en conjunto los diseñadores gráficos-multimedia y el área de tecnologías. Posteriormente,  nos dimos a la tarea de convocar a los asesores mejor calificados en cada una de las asignaturas y a los desarrolladores de los contenidos de las mismas.

En conjunto con asesores y desarrolladores se revisaron los programas de cada asignatura para retomar las habilidades específicas a desarrollar, se contempló el mapa de habilidades transversales de B@UNAM3 y se revisaron las versiones de exámenes que existían y habían sido generadas para la versión anterior de la plataforma educativa. Paralelamente,  y ya teniendo un diagnóstico de las actividades y variantes de las mismas que podíamos utilizar, surgió una interrogante ¿cómo empatar lo tecnológico con lo académico? Por supuesto que la intención de este gran equipo fue en todo momento la de poner siempre las necesidades académicas por encima de las limitaciones tecnológicas.

Así, en B@UNAM se decidió en primera  instancia, que ya no habría versiones de examen, sino un banco de reactivos que alimentara en forma aleatoria una estructura prediseñada de examen. Dicha estructura se construyó con base en lo que los asesores y desarrolladores consideraron los aspectos más importantes de los contenidos así como de las habilidades a desarrollar en cada asignatura, sin dejar de lado el módulo al que pertenece cada asignatura (recordemos que no es el mismo nivel de exigencia en el primer módulo que en el último).

La labor no fue nada sencilla puesto que, si bien era el deseo de todos que las evaluaciones finales fueran lo suficientemente completas para alcanzar los objetivos marcados, también estábamos sujetos a lo que tecnológicamente se podía o no hacer, además de que no queríamos  aplicar exámenes finales con reactivos sólo de opción múltiple, puesto que no nos permiten percibir por completo el desarrollo de habilidades como la comunicación escrita, la argumentación, la redacción o la creatividad, elementos que son palpables en la construcción de un texto mediante una pregunta abierta. De tal suerte, tratamos de explotar todos los tipos de actividades que funcionaran para cada caso específico, quedando como opciones de actividad:

  • Opción múltiple

  • Falso / verdadero

  • Respuesta abierta (ensayo)

  • Respuesta abierta (corta)

  • Emparejamiento

  • Cloze (que permite utilizar o combinar las opciones anteriores)

Aunado al afán de evaluar contenidos y habilidades al mismo tiempo, decidimos utilizar —en la medida de lo posible y acorde a las necesidades de cada asignatura—, al menos dos o tres tipos de actividad en cada examen, con el fin de disminuirle al alumno lo tedioso y pesado que resulta un examen diseñado para contestarse en dos horas. Aquí lo interesante fue, además de la variedad de actividades, poder programar el examen en modo seguro y que fuera confiable, por este motivo se creó un banco de reactivos, donde por ejemplo, si un alumno tiene que responder cinco preguntas abiertas, en el banco se tengan mínimo 30, de las cuales el sistema automáticamente mandará en forma aleatoria cinco a cada alumno, con una baja probabilidad  de que a dos alumnos que presenten examen el mismo día, pudieran tener los mismos reactivos. Así, se procedió a elaborar los reactivos, teniendo siempre en cuenta los objetivos,  aunque ¡claro!, hubo muchas cosas que ajustar.

Por citar un ejemplo, las actividades que se pueden utilizar en Moodle no son suficientes para evaluar que un alumno entienda el concepto de línea de tiempo y la maneje adecuadamente, ya que para evitar el copiado y plagio, si se implementa  un examen las herramientas que se pueden utilizar se limitan: en este caso específico lo más práctico es pre-armar una línea de tiempo con elementos que el alumno pueda arrastrar y colocar en el lugar que le corresponde. Lo más conveniente es tener un documento descargable (archivo Word o PowerPoint) y  que  el alumno lo trabaje y lo adjunte en la plataforma. En este procedimiento,  sin embargo, cualquier persona que descargue ese archivo lo puede guardar en un dispositivo USB o enviarlo por correo electrónico, distribuirlo, convirtiendo ese reactivo seguro en uno de dominio público, como desafortunadamente sucedió con algún reactivo de los exámenes anteriores que se presentaban en versiones4.

Lo que se hizo para resolver esas situaciones fue diseñar la actividad de tal modo que el alumno vea la línea de tiempo en su conjunto, con algunos eventos y procesos históricos señalados y otros marcados con números y letras respectivamente, se añadieron espacios para colocar dicha letra o número dentro de una actividad denominada Respuestas incrustadas “Cloze”, mismas que Moodle define de la siguiente forma:

“Este tipo de pregunta es muy flexible y semejante al popular formato conocido como "Cloze". Las preguntas consisten en un pasaje de texto (en formato Moodle) que contiene varias respuestas incrustadas tales como respuestas de elección múltiple, respuestas cortas y respuestas numéricas” (Moodle 1.6.4, 2006)

Cabe señalar que la claridad en la instrucción es un aspecto importante para que este tipo de actividades funcione, pues lo que se pretende evaluar con este tipo de reactivos es la ubicación temporal y espacial (ver Ejemplo 1).

Con base en la siguiente línea de tiempo, escribe en los espacios la letra que corresponde a los periodos y el número a los acontecimientos que se te piden

Ejemplo 1. Reactivo sobre línea de tiempo en exámenes finales de B@UNAM en Moodle 1.9.3.5

Al incluir mapas, cuadros sinópticos o diagramas de flujo, pasaba algo similar a la línea de tiempo; entonces se tuvo que incluir una imagen con puntos resaltados y a continuación poner espacios —dependiendo de las características del reactivo—, para que el alumno rellenara o cajas de texto para que explicara y argumentara su respuesta.

Lo anterior se decidió con base en los acuerdos tomados en  las reuniones con los asesores y desarrolladores, en donde se debatió arduamente qué  se quería medir y cómo habría de hacerse. Pretendíamos no sólo  tener evaluaciones centradas en contenidos y habilidades, sino que fuesen equilibradas; esto es, que en todos los casos los alumnos encuentren reactivos en las cuatro unidades temáticas de cada asignatura, que midan todas las habilidades fomentadas y que,  además, sean equitativos en extensión y complejidad, aunado a que preferentemente también haya un equilibrio entre los reactivos que se califican en forma automática y los que evalúan manualmente los asesores6.

Finalmente, se probó  el banco de reactivos, tanto en su funcionamiento como en lo adecuado que pudieran o no resultar  los reactivos ya teniendo armada la evaluación final. Aquí es preciso reconocer (y agradecer) la participación de todos y cada uno de los asesores y desarrolladores de contenido que participaron en la elaboración, prueba y revisión de los reactivos; así como de los diseñadores gráficos-multimedia que armaron la estructura del examen y cargaron los reactivos al banco, además del área de tecnología que en todo momento apoyó cuando algo no funcionaba como esperábamos.
Así, confiamos en  que estos nuevos exámenes finales contribuyan no sólo a la evaluación de los alumnos, sino que les sean útiles como retroalimentación en cuanto a su proceso de aprendizaje y en desarrollo de habilidades y competencias.

 

Referencias

  • González, M. P. (2000) La evaluación en la toma de decisiones curriculares de aula. Bordón, Revista de pedagogía, ISSN 0210-5934, Vol. 52, Nº 2, pags. 189-196. España.

  • Moodle 1.6.4. (2006). MoodleDocs. Recuperado 11 de septiembre, 2010, de http://docs.moodle.org/es/Notas_de_Moodle_1.6.4

1 Las asignaturas del área de Humanidades y Ciencias Sociales del Bachillerato a Distancia de la UNAM cuentan con exámenes finales que representan el 40% del total de la calificación de los alumnos.

2 Anteriormente se contaba, en promedio, con cinco versiones de examen por asignatura, dentro de las cuales estaban contenidos todos los reactivos que conformaban la evaluación final de los alumnos.

3 El mapa de habilidades del Bachillerato a Distancia de la UNAM se puede consultar en el número especial de la Revista Mexicana de Bachillerato a Distancia en:
http://bdistancia.ecoesad.org.mx/cont/num_esp/mini-sit-unam/num_B-UNAM3.html

4 Desde la creación de B@UNAM se incorporaron evaluaciones finales que tenían, en la mayoría de los casos, cinco o seis versiones que al alumno se le asignaban de forma aleatoria, pero los reactivos dentro de cada versión nunca cambiaban, haciendo hasta cierto punto fácil su copia y distribución.

5 NOTA: Por cuestiones de seguridad el reactivo ha sido alterado.

6 Reactivos de evaluación automática son: opción múltiple, falso / verdadero y emparejamiento; de evaluación manual son: respuesta abierta (ensayo), respuesta abierta (corta) La actividad cloze dependiendo como se utilice, puede ser de evaluación automática o abierta.

*Juan Oropeza Mota, Diseñador instruccional,  B@UNAM, juan_oropeza@bunam.unam.mx