En la Odisea, dos monstruos mitológicos se turnaban para complicar el paso de los navegantes por un estrecho. Desde entonces, Escila y Caribdis son sinónimo de las tensiones que enfrentamos en nuestros tránsitos. El campo educativo tiene sus propios monstruos y estrechos, que en estos días se visibilizan a partir del debate público. ¿Cómo congeniamos propuestas pedagógicas situadas con evaluación estandarizada?
En los últimos años,
la formación docente se ha caracterizado por promover las prácticas
contextualizadas y el desarrollo de competencias interdisciplinarias, lo que
redunda en docentes que promueven estas perspectivas de la enseñanza y el
aprendizaje. Al mismo tiempo, se instalan cada vez con más fuerza los
operativos de evaluación estandarizada que miden, a través de pruebas de opción
múltiple, el desempeño de los estudiantes para construir índices de calidad que
se incluyen en rankings internacionales. De allí nacen afirmaciones como
“Argentina está en el puesto x en comprensión lectora”.
¿Qué grado de
alineación existe entre la enseñanza y el aprendizaje situados, vinculados a la
realidad de las personas y las comunidades, los diseños curriculares y los
tests objetivos que infieren y ponderan prácticas de, por ejemplo, lectura, de
igual modo en Argentina, Suecia y China? ¿Qué significa “saber leer” en cada
uno de esos casos? ¿Es una sola cosa?
Como cualquier
constructo estadístico, esas pruebas se fundan en una serie de ideas sobre el
lenguaje, las matemáticas, las ciencias sociales. ¿Sabemos cuáles son? ¿Por qué
se eligieron esas y no otras? Y en última instancia, ¿cómo se vinculan con las
ideas en circulación en cada uno de los países donde se aplican? Sabemos que
estas ideas no son universales ni únicas y que, además, cada contexto de
enseñanza y aprendizaje enriquece y nutre cualquier propuesta.
Esta idea de
deconstruir el constructo detrás de la estadística también podríamos aplicarla
a los rankings que clasifican universidades en función de su calidad académica,
medida principalmente a través de publicaciones de sus docentes e
investigadores. ¿Qué información nos dan esos rankings sobre las condiciones de
producción en nuestras universidades? ¿Son acaso las condiciones uniformes y
universales? ¿Son iguales en todas las disciplinas?
Lo que tienen en
común estas evaluaciones es que terminan constituyéndose en posiciones en un
ranking. Y que los supuestos detrás de los dispositivos de evaluación y
clasificación generan la ilusión de universalidad y comparabilidad. El
problema, entonces, no son los instrumentos en sí, sino los presupuestos sobre
los cuales se construyen. En un caso, se eluden las discusiones sobre los
presupuestos teóricos que subyacen a la enseñanza y aprendizaje; en el otro,
las diferencias disciplinares; y en ambos, las condiciones de producción
específicas y coyunturales que nos indican que, claramente, no es lo mismo la
comprensión lectora en todas las escuelas, así como tampoco las condiciones de
publicación de los investigadores en cualquier disciplina y país.
En principio sería
saludable comenzar por relativizar los resultados pensando críticamente desde
qué perspectivas fueron construidos. Para ello es necesario generar espacios de
crítica y reflexión en los que pensemos por qué y para qué evaluamos o nos
evalúan. En este sentido es fundamental que los docentes nos demos el debate
para evitar que Escila o Caribdis nos hagan naufragar.
Por Ana Brown
Ana
Brown: Magíster en Gestión de Lenguas y docente en el Laboratorio de
Idiomas, Facultad de Filosofía y Letras, Universidad de Buenos Aires
(UBA).
Fuente
https://www.pagina12.com.ar/290840-medicion-de-la-calidad-y-trayectos-pedagogicos
No hay comentarios:
Publicar un comentario