sábado, 14 de diciembre de 2013

Puertas que se abren y se cierran

Estas semanas del curso han sido muy intensas en materia de producción y reflexión. Por eso, quiero que esta síntesis final sea breve y condensadora. Veremos si sale.

Me gustaría cerrar el curso retomando la imagen de la sorpresa como foco de la evaluación, esta idea que proponía Marilina Lipsman y que tan bellamente rescataba Alfredo en su síntesis final.  Intuitivamente, desde la escuela aprendemos a asociar los momentos de evaluación con el miedo, la fatalidad, el castigo de encerrarse a estudiar, la incertidumbre de aprobar o desaprobar, el ansiado placer de terminar una materia y dejarla atrás. Sin embargo, creo que entender a la evaluación como una instancia primordial para (re)pensar nuestros aprendizajes puede ayudar  convertirla en un momento de descubrimiento, de exploración, de producción, de sorpresa (como lo ha sido este portfolio). Una puerta que se abre en lugar de una que se cierra. Una parada más en el curso para seguir haciendo y aprendiendo, en una espiral de aprendizaje que, como cada vez es más claro, nunca se termina.

Creo que este curso me ha resultado muy productivo a la hora de reconceptualizar  a la evaluación en estos términos. Mucha de esta mirada ya estaba presente en el modo de evaluar que usamos en Taller, pero pienso que la propuesta me ha ayudado a revalorizar esta manera de evaluar en oposición a otras y a reflexionar sobre nuevas maneras de seguir avanzando en esta dirección.

Fundamentalmente, rescato el valor de la comunidad de aprendizaje que se ha constituido en el curso a la hora de discutir  cada semana los temas propuestos y de alentarme a seguir participando. La diversidad de disciplinas de las que cada uno de nosotros proviene y nuestras diferentes experiencias y recorridos previos han enriquecido muchísimo el debate y siento que he aprendido mucho de cada uno. Pero, sobre todo y sin dudas, la grupalidad contiene y anima a continuar, como sostenía Sonix en el foro. Gracias por ayudarnos a seguir hasta el ¿final?

lunes, 2 de diciembre de 2013

Comentario sobre la rúbrica

Lo positivo de llegar un poco tarde a resolver las actividades es que puedo leer algunos trabajos de mis compañeros antes de empezar. Eso, a veces, cuando no estoy segura de cómo empezar a resolver una actividad, me ayuda.

Este es uno de esos casos y aquí me fue un alivio revisar el posteo de Javier, que daba cuenta de lo poco que lo motivaba realizar esta actividad y reflexionaba sobre ello. Me encontré coincidiendo ampliamente con él. Como aJavier, también me ocurrió que al leer la rúbrica coincidí con ella fácilmente. La delimitación de tres "áreas de evaluación" que agrupan los criterios (Conocimientos vinculados con la evaluación y las TIC, Reflexión metacognitiva acerca del proceso de aprendizaje propio, y Construcción del portfolio) la ordena y sistematiza. La escala de evaluación, en cuatro grados, de regular a excelente, me parece adecuada. Y, más allá de que se podría incorporar algún criterio del estilo de creatividad o atractivo del portfolio, imagino que no lo han hecho por considerar que algunas de las personas que están tomando el curso podrían tener mayores dificultades o menor experiencia en el manejo de herramientas TIC, lo cual podría condicionarlos a la hora de desarrollar un portfolio más creativo o atractivo, aunque esa fuera su intención.

Como otros compañeros comentan, yo también pasé por alto la rúbrica al comenzar el curso (o, más bien, la leí por arriba). Pero ahora, releyéndola con vistas al diseño de mi plan de portfolio, noté que la rúbrica me daba algunas pistas acerca de como podría o debería ser ese plan. Por ejemplo, dado que se valora la inclusión de recursos, conceptos o referencias teóricas no revisadas durante el curso, se me ocurre que el portfolio debería incluir, por ejemplo, links, citas o videos que den cuenta de nuevas fuentes al respecto de la evaluación. Y, si se valora la colaboración entre pares, entonces sería importante retomar los hilos de comentarios que se generaron con otros compañeros, ya sea en los foros o en los blogs. También, dado que se evalúa el uso de herramientas TIC novedosas o no requeridas específicamente por el curso, esto me moviliza a pensar y explorar qué herramientas nuevas me podrían servir para desarrollar el trabajo. Y así....

Nuevamente, también coincido con varios de mis compañeros en que la intensidad del curso y la carga semanal de trabajo complican un poco la posibilidad de volver hacia atrás, revisar, reflexionar acerca de lo transitado. O incluso explorar bibliografía alternativa o herramientas nuevas. Se me ocurre que necesitaríamos una pausa, un respiro. Es verdad, sin embargo, que esta misma intensidad nos ha ayudado a acumular en pocas semanas una gran variedad de materiales y de escritura para revisar y elegir. A un posteo o un comentario por semana no tendríamos demasiado que compilar en el portfolio. Pero a esta altura del año, no es fácil seguir el ritmo. Inspiración profunda y a seguir corriendo detrás de los módulos!

¡Hola, portfolios!

Encontrarme nuevamente con los portfolios en este curso no fue una sorpresa. Ya habíamos hablado de ellos en otros cursos del CITEP (el de ambientes personalizados de aprendizaje —PLE— y el de entornos virtuales de aprendizaje - parte 2, si es que no me estoy olvidando de algún otro, donde de hecho armamos un pequeño portfolio a través de una wiki en Moodle, si es que no me estoy olvidando de algún otro curso). Y, también, la herramienta me es familiar porque las carpetas que pedimos que los estudiantes entreguen en el taller dos veces por año son portfolios, en versión papel.

¿Entonces, qué es un portfolio, en términos educativos y evaluativos? Báscamente, una selección de trabajos que un estudiante realiza y compila, acompañándolas de una justificación y reflexión acerca de su elección —en taller nosotros trabajamos con índices comentados, en los que cada alumno acompaña el índice de su carpeta con reflexiones y explica por qué eligió ese determinado ordenamiento para presentar sus trabajos—, con el doble propósito de permitir que el estudiante se autoevalúe y tome conciencia de sus procesos de aprendizaje, a la vez que el docente hace un seguimiento de este proceso. Los criterios que orienten la selección realizada —indican Anijovich, Malbergier y Sigal— van a variar de acuerdo al objetivo que tenga el portfolio, al tipo de portfolio y al eje organizador elegido y aquí me parece que está lo rico de la herramienta: la posibilidad de hacer recortes, de elegir diferentes lentes a través del cual mirar el camino recorrido. Sobre todo, la opción de darle al estudiante la posibilidad de hacer esa elección.

En cuanto a los pasos a la hora de armar un portfolio, me gustó y me pareció muy clara la descripción que hacen Barberà et al:

"...podemos considerar que la estructura común de un portfolio electrónico formativo está caracterizada por tres fases complementarias y no necesariamente sucesivas: una primera, que es la presentación y el índice de portfolio electrónico; la segunda, que engloba la recogida, selección, reflexión y publicación de diferentes tipos de evidencias que ponen de manifiesto el aprendizaje del estudiante, y la tercera dimensión, no menos importante, es la de valoración general del portfolio electrónico."

Revisar los trabajos producidos (el portfolio obliga a volver a mirar, a releer, a repasar el camino recorrido), elegir, ordenar, construir un índice y publicar, dando cuenta de las reflexiones, del porqué de la elección y del ordenamiento.

Cuando un portfolio además es electrónico, se suman algunas posibilidades extra. Pienso, por ejemplo, en recorridos hipertextuales, en la posibilidad de trabajar con diferentes lenguajes (música, videos, imágenes).

Con estos pensamientos un poquito más ordenados, ahora sí, a construir mi portfolio!


jueves, 28 de noviembre de 2013

Rúbricas - Autoevaluación

Cuando leí la bibliografía referente a rúbricas, la primera cuestión que me vino a la mente fue que los textos hacían demasiado foco en las fortalezas o ventajas de las rúbricas y no tenían en cuenta sus debilidades o desventajas.

Venía ya comentando que, desde el Taller, nos ocurre que a nivel de cátedra existe una especie de grilla (no exactamente  una rúbrica, pero una herramienta similar) para orientar a los estudiantes a la hora de realizar devoluciones sobre textos a sus pares. En nuestra comisión no solemos usarla ya que lo que tiende a generar es que los estudiantes evalúen “completando el cuadrito”. De esta manera, por un lado, pierden la visión global del texto y, por otro lado, no ponen su  devolución en palabras.

Creo que redactar un buen comentario a un texto presenta desafíos para todos: tenemos que pensar qué decir y cómo decirlo: tenemos un cuidado en la forma en la que interpelamos al otro, habitualmente se empieza por señalar las fortalezas del texto, mientras que las dificultades suelen presentarse en el formato de interrogantes, se sugieren lecturas, etc. Todo eso se pierde cuando uno simplemente completa una grilla.

Por otro lado, como bien me comentaba Javier, la pertinencia del uso de una determinada rúbrica depende de los objetivos que nos planteemos a la hora de evaluar. En este caso, creo la principal dificultad es que  la grilla propuesta hace demasiado foco en cuestiones de la superficie textual (coherencia, ortografía, puntuación) que, si bien son importantes y necesarias, no son lo principal que miramos en el taller, porque en algún puesto se lo da por hecho. Por supuesto, existen estudiantes que tienen problemas con estas cuestiones y en ese caso, se les sugiere que revisen la normativa, refuercen la revisión del texto, pidan ayuda a compañeros más expertos, etc. Pero no explicamos normativa en el taller. Y sí, en cambio nos vas a interesar mucho más mirar cuestiones como la construcción del enunciador o del tono en el texto, el manejo de la intertextualidad, en fin, aspectos que van más allá de la escritura de un texto “correcto”.

Sin embargo, creo que las rúbricas presentan dos características interesantes. Por un lado, obligan al docente a hacer un ejercicio metacognitivo (¿o “metaevaluativo”?), al obligarnos a reflexionar y a poner en palabras cómo evaluamos y qué criterios tomamos en cuenta. Y, a la vez, hacen explícitos estos criterios a los estudiantes, ayudándolos a producir mejores trabajos en la medida en que se clarifica qué constituye un buen trabajo para su docente.


Ya que la grilla que actualmente tenemos en taller no refleja nuestros criterios de evaluación, pienso que podríamos proponer a la comisión el ejercicio de construir entre todos, colaborativamente, una rúbrica que dé cuenta de los aspectos que tenemos en cuenta al evaluar un texto. Creo que sería una actividad interesante desde el punto de vista metacognitivo, que serviría para que todos alinéaramos nuestras expectativas acerca de qué cuestiones contemplar al redactar un comentario o una devolución. 

Una consigna, dos rúbricas


Para la actividad 3B (Comentar la rúbrica de otro cursante), decidí comparar mi rúbrica con la de Pablo Mieres. En cuanto a los rasgos generales, ambos empleamos una variedad bastante amplia de categorías (Pablo utilizó 7 categorías, mientras yo distinguí 9) y utilizamos cuatro grados para la evaluación. Muchos de los criterios que empleamos son semejantes (básicamente, iguales, pero con denominaciones o matices diferentes), aunque ambas presentan algunas particularidades que las distinguen.

En cuanto al aspecto de la expresión oral, Pablo englobó bajo el título “Lenguaje corporal y emocionalidad” rasgos semejantes a los que yo propuse en las categorías “Expresión oral” y “Fluidez”, aunque esta denominación le da una preponderancia al aspecto emocional que yo no tuve en cuenta, mientras que él no evalúa la cuestión de la fluidez de la presentación de manera explícita. Además, Pablo incluye como categoría “Volumen, tono de voz y pausas”, que yo en cambio no consideré. Un aspecto interesante de la rúbrica de Pablo es que tiene muy presente al auditorio, al incluirlo en dos criterios de evaluación (“Atención del auditorio” y “Espacio de participación del auditorio”). Particularmente, la decisión de evaluar las posibilidades de interacción del auditorio que propone la presentación me pareció interesante y acertada. Es  uno de los aspectos que me gustaron más de la rúbrica y, si tuviera que revisar la mía, me gustaría incorporarlo.

 El criterio “Organización” que propone Pablo podría ser equivalente de “Claridad y organización de la presentación”. En mi caso, había pensado que sumar el componente de “claridad” equivalía a enfocarse un poco más en la audiencia, al evaluar qué tan comprensible resultaba el ordenamiento de la presentación para el espectador. También es equivalente su categoría “Dominio del contenido” con la que yo denominé “Contenido”. Por otro lado, Pablo incluye también el aspecto del “Vocabulario”, asociado a la utilización de vocabulario preciso y adecuado, que yo no tuve en cuenta.

Por último, hay cuatro aspectos que yo consideré y que me parece que no están contemplados en la rúbrica de Pablo:

  • Apoyos visuales, asociado al empleo de soportes visuales durante la presentación
  • Tiempo de presentación, vinculado a la correcta administración del tiempo destinado a la misma
  • División de tareas, que evalúa la distribución de tareas al interior del grupo
  • Escucha otras presentaciones, asociado a la capacidad de escuchar e interesarse en las presentaciones de los demás que muestra el grupo.

Creo de que el hecho de que no tuviéramos tan definida la consigna inicial contribuye a generar diferencias entre las rúbricas, ya que cada uno de nosotros, al elaborarla, terminó de configurar la consigna en su mente e imaginó quizás características diferentes (en mi caso, por ejemplo, la existencia de un lapso de tiempo límite para cada exposición o la posibilidad emplear diferentes soportes visuales durante la misma, del estilo de láminas, presentaciones de Power Point, etc.). Las características de la consigna condicionan los criterios de evaluación, al establecer el marco que delimita el desarrollo del trabajo.

sábado, 23 de noviembre de 2013

Mis criterios de evaluación


Empiezo a escribir y pienso que este posteo necesariamente dialoga con el que escribí hace unas semanas acercade cómo evaluamos en Taller 1. 

Dado que en la materia apelamos a carpetas tipo portfolio y trabajo por proyectos, uno de los principales factores que miramos es el proceso transitado por cada estudiante durante el año, el trabajo que ha logrado hacer en relación a sus dificultades y su conciencia de las operaciones metalingüísticas y metacognitivas que pone en juego al escribir. También valoramos la asistencia a clases, la participación activa (en el ámbito presencial y en los entornos virtuales) y el involucramiento de cada uno a la hora de leer y comentar productivamente los textos de los demás (entendiendo así la capacidad de resaltar fortalezas y debilidades de los textos, de un modo que pueda ayudar y orientar a su autor en la tarea de reescritura).
Por ende, no evaluamos solo los textos entregados, sino todo el proceso que pone en juego el estudiante al escribir y reescribir. En cuanto a los textos en sí, puede resultar orientadora la grilla existente a nivel de la cátedra, elaborada para orientar la edición colaborativa entre pares. No creo que la tabla enumere todo lo que se toma en cuenta al evaluar, sin embargo. Más allá de las cuestiones de superficie, tenemos muy presentes aspectos como la construcción del tono, los recursos expresivos que se ponen en juego (y la posibilidad de innovar y experimentar con ellos), las características enunciativas del texto construido, etc.
Con respecto a los procesos transitados, son muy distintos de estudiante en estudiante, como también lo es la situación inicial de la que parten al comenzar el taller. Por eso, comentaba que nos enfocamos en el trabajo que realiza cada uno durante el año, para mirar su proceso individual  y comparar la situación final a la que ha arribado con su punto de partida. De esta manera, no siempre quienes escriben mejor tienen las mejores calificaciones, porque quizás se han mostrado resistentes a retrabajar los textos o revisar sus áreas de dificultad, y así, sus trabajos se estancan, y/o dan cuenta de una mirada poco crítica de sus procesos de escritura. Y también, en alguna medida, comparamos a los estudiantes entre sí, aunque esto resulta más complejo (en general, tenemos a comparar a aquellos que tienen modos de trabajar o dificultades semejantes).  Por lo tanto, hay mucho de comparación en la evaluación (de los diferentes trabajos de un mismo alumno, y de los de diferentes estudiantes ante la misma consigna).
Quienes coordinamos el taller somos dos: la profesora titular de la comisión y su ayudante. Cada vez que tenemos que definir calificaciones, nos reunimos –previa lectura de los trabajos y escritura de anotaciones al respecto—y hacemos este ejercicio comparativo de modo conjunto: debatimos, armamos tablas con calificaciones para cada estudiante, hasta llegar a la nota final.

Semana 3 - Sintetizando

Aquí nuevamente corriendo para ponerme al día con el curso (inevitable a esta altura del año, lamentablemente)! Estas dos semanas trabajando en torno a evaluación y a los formularios de Google han sido intensas, de mucho trabajo. Por lo que vengo leyendo, creo que a muchos nos han servido para desmitificar una herramienta de evaluación (el cuestionario) que, de modo intuitivo, tendíamos a percibir como poco adecuada, para pensar en las múltiples posibilidades que brinda (como ocurre con la mayoría de las herramientas). La adecuación o no del cuestionario a nuestros fines dependerá, en definitiva, de cuáles sean estos fines (es fundamental empezar por definirlos y explicitarlos), de las preguntas que realicemos (en función de los objetivos planteados) y del uso que le demos a las respuestas.

Respondiendo a los cuestionarios y paseando por los blogs, me encontré con cuestionarios muy distintos, muchos de los cuales me parecieron muy bien diseñados. El ejercicio y el tiempo que demanda su elaboración también nos enfrentan con la complejidad de evaluar (o, al menos, de hacerlo "complejamente" o multidimensionalmente). La evaluación sin duda exige mucha reflexión previa, mucha planificación. Me resultó interesante también la experiencia de testear el cuestionario con algunos estudiantes, creo que es un ejercicio necesario con vistas a su aplicación, para poder mejorarlo. Me quedo pensando que la actividad propuesta por Ebel en "Diseño y construcción de una prueba" , consistente en aplicar el mismo cuestionario varias veces en una misma asignatura y con el mismo grupo de estudiantes, en condiciones diversas y con fines diversos, puede servir para ofrecer una retroalimentación hacia el docente al respecto del cuestionario diseñado. Y, de hecho, que el ejercicio de evaluar críticamente el propio instrumento de evaluación podría ser una actividad iunteresante para los alumnos (¿cuántas veces sentí que la formulación del examen que me tomaban en clase era inadecuada o me limitada a la hora de poner en juego mis conocimientos?). Valdría la pena probar...

*Dejo el link al cuestionario que diseñé, para contextualizar el posteo: https://docs.google.com/forms/d/1_DUvHR9xeP6mC6FrnqDkALX1O5htlmgj5rHxEfHeEG0/edit#