martes, 5 de enero de 2010

DIMENSIÓN TÉCNICO-METODOLÓGICA DE ANÁLISIS

Estándares de Aprendizaje Escolar Procesos en Curso en América Latina

Este informe queda estructurado en tres secciones. La sección I refiere a la Dimensión Política de análisis (publicado en un post anterior), y en él se abordan todos los temas relacionados a la construcción de una agenda sectorial en torno a los estándares, con especial énfasis en el debate entre actores y el alcance de acuerdos para la formulación e implementación de estos instrumentos.


La sección II centra la atención sobre la Dimensión Técnico-Metodológica de análisis, es decir en las características técnicas de los estándares que los hacen diferentes o novedosos respecto de otros modelos anteriores de reforma y prescripción curricular. El resto de las secciones será publicado en post sucesivos.


DIMENSIÓN TÉCNICO-METODOLÓGICA DE ANÁLISIS


Postulado 4


Los estándares presentan características técnicas distintivas que los diferencian de otras formas de prescribir currículo.


Aunque no existe un modelo técnico único para la elaboración de estándares, la bibliografía especializada y la experiencia internacional indican que los instrumentos deben cumplir al menos los siguientes requisitos: deben estar estructurados en función de las disciplinas, y los contenidos de cada disciplina y sus ejes se desagregan en estándares de contenido y estándares de desempeño.


Los estándares de contenido desagregan y operacionalizan los ejes o tópicos prioritarios de cada disciplina. Es decir, especifican muy claramente los elementos conceptuales y procedimentales que deben ser enseñados y aprehendidos en cada eje o tópico priorizado. Los conceptos son los elementos teóricos de un tópico determinado, y reconocerlos y recordarlos implica un saber de tipo declarativo. Los procedimientos indican aquello que los estudiantes pueden o deben hacer con el conocimiento conceptual mediante tareas prácticas o procesos de razonamiento: implican un tipo de saber denominado procedimental o procesual.


Los estándares de desempeño –también llamados indicadores de logro, indicadores progresivos de logro o benchmarks– son instancias o hitos en el proceso de aprendizaje a lo largo del tiempo, cuyo alcance por parte de los estudiantes debe ser monitoreado periódica y regularmente para determinar si los aprendizajes se acercan gradualmente a los fines esperados. Es decir, si se acercan al estándar acordado. Tres funciones básicas caracterizan a los estándares de desempeño:


• Determinan los niveles de desempeño posibles. Es decir, enuncian grados de complejidad en el conocimiento conceptual y procedimental que pueden ser alcanzados progresivamente en el tiempo. Esas definiciones permiten establecer "líneas de corte" entre saberes de nivel básico, nivel medio o nivel avanzado (o cualquier otra denominación que se elija), lo cual resulta fundamental para que docentes y evaluadores externos puedan diseñar instrumentos de evaluación adecuados y coherentes con los estándares de contenido acordados.


• Explicitan y ejemplifican la naturaleza de la evidencia de aprendizaje. En otras palabras, indican la forma y el medio en que el estudiante demostrará lo aprendido: redactando una carta de reclamo, utilizando determinados instrumentos en el laboratorio, defendiendo una posición en un debate oral; resolviendo un problema de trigonometría con el uso de calculadora científica.


• Desagregan, y así explicitan mejor, los contenidos conceptuales y procedimentales de cada estándar. Esto es particularmente importante, ya que la densidad conceptual de algunos estándares de contenido requiere un desagregado explícito para orientar a docentes, alumnos y evaluadores sobre la amplitud y profundidad que se espera en el tratamiento de un tema o problema determinado.


En Chile, los estándares de aprendizaje que ha elaborado el Ministerio de Educación distinguen entre estándares de contenido y estándares de desempeño. Los primeros son descritos como Mapas de Progreso del Aprendizaje en los ejes centrales de cada área curricular, y los segundos –denominados Niveles de Logro– se presentan como descripciones del desempeño que se considera adecuado o deseable en determinados momentos de la vida escolar de los estudiantes, específicamente para las áreas y los grados que son monitoreados por la medición nacional SIMCE. Tanto los niveles de los mapas, como los Niveles de Logro del SIMCE son descripciones cualitativas del aprendizaje demostrado.


En el caso de los Niveles de Logro, se operacionalizan además cuantitativamente en un puntaje de corte en la medición nacional. Los estándares de contenido y de desempeño se han elaborado articuladamente, tanto en términos institucionales como conceptuales, y se ha previsto asegurar la alineación con el currículo vigente, a la vez que alcanzar una mayor especificación de este último. Es decir, los estándares se han elaborado como un complemento al marco curricular y a los programas de estudio para reforzar la evaluación del aprendizaje que promueve el currículo.


Los Mapas de Progreso han mantenido el enfoque curricular vigente, pero han generado necesidades de ajuste de la secuencia curricular, de modo que está previsto introducir cambios al currículo, lo que sería consultado públicamente al momento de escribir este informe, para poder ser tramitados durante el año 2008. A su vez el SIMCE, que por disposición legal debe evaluar el currículo vigente, aún no incorpora a la medición las innovaciones al currículo que los mapas anticipan. De este modo, los niveles de logro y las pruebas incluyen aquellos aprendizajes que están presentes tanto en los mapas como en el currículo vigente. Una vez que entre en vigencia el currículo ajustado, se revisará la alineación de los niveles de logro con el nuevo currículo. La alineación entre la prueba, los niveles de logro, los mapas de progreso y el currículo se realiza a través de procesos de revisiones cruzadas entre los equipos del SIMCE y Currículo. Estas revisiones se realizan considerando que la autoridad en medición y estándares de desempeño está en el equipo de SIMCE y la autoridad curricular en el equipo de Currículo.


Los Mapas de Progreso se han trabajado en una primera etapa en las áreas de lenguaje, matemáticas, inglés, ciencias naturales y ciencias sociales. En una segunda etapa se están elaborando mapas para las áreas de educación tecnológica, educación artística, educación física y manejo y uso de las nuevas tecnologías de la comunicación y la información. En forma paralela se están elaborando Mapas de Progreso para la educación parvularia. Estos mapas están organizados de acuerdo a los ámbitos de desarrollo definidos para este nivel educativo, y donde corresponde se ha resguardado su intersección con los primeros niveles de los mapas de progreso.


Los Niveles de Logro para la evaluación nacional se han definido para las áreas evaluadas por el SIMCE, comenzando por lenguaje, matemáticas y ciencias, en relación a la prueba de cuarto año básico de 2006 y 2007. En los años siguientes se incorporará ciencias sociales, y se avanzará hacia octavo básico y segundo medio, abordando los tres niveles escolares en que se aplica la evaluación nacional.


Tres dimensiones claves del enfoque adoptado por Chile para la elaboración de los estándares son: la descripción del aprendizaje en progresión, su fundamento en evidencia empírica, y la importancia asignada a la comunicación y al uso de los estándares en la elaboración.


Descripción del aprendizaje en progresión


Tanto los Niveles de Logro del SIMCE como los Mapas de Progreso del aprendizaje se basan en el supuesto que el aprendizaje es un continuo que se enriquece a lo largo de la trayectoria escolar. Desde esta perspectiva, el aprendizaje no es una sumatoria de conocimientos que se van adquiriendo en forma discreta o aislada, como capas de información, sino que, desde el punto de vista del sujeto, es un proceso de desarrollo de capacidades, entendimientos, habilidades de realización que se van profundizando y ampliando desde niveles más simples a niveles más complejos. Esta noción del aprendizaje está estrechamente vinculada a la noción de competencia, entendida como un sistema complejo de acción que integra conocimientos, habilidades, actitudes, valores que se ponen en juego en contextos reales de ejecución.


Los mapas se organizan en niveles de aprendizaje o de desarrollo de una determinada competencia; esos niveles son descritos en términos cualitativos e ilustrados con ejemplos de acciones que realizan los alumnos cuando han logrado tal aprendizaje, y trabajos de alumnos característicos del nivel. Es importante señalar que los Mapas de Progreso y los Niveles de Logro parten del supuesto que en un mismo curso (grado, aula) se encontrarán alumnos en distintos niveles del mapa. Los profesores son conscientes de esta diversidad, pero suelen ordenarla definiendo un grupo de buenos alumnos, otro de alumnos regulares y otro de malos alumnos en base a sus propios criterios o parámetros. Lo que se pretende con este instrumento es que los profesores describan la diversidad a partir del mapa, para entender que sus alumnos no son "buenos


o malos alumnos", sino que se encuentran en un determinado nivel de aprendizaje, que el docente debe conocer para conducir a su alumno a su nivel de desarrollo próximo. El aprendizaje consiste en avanzar desde donde se está a un nivel más complejo y profundo de competencia. Describir el aprendizaje en progresión es muy relevante desde el punto de vista del mejoramiento, ya que lo que se busca no solo es describir si un alumno ha alcanzado o no determinado nivel, sino poder describir dónde está en relación al estándar y cuán lejos está de alcanzarlo. Este es el mismo concepto que está tras los Niveles de Logro que describe el SIMCE.


Fundamento en evidencia sobre logros de aprendizaje


En Chile, tanto la elaboración de los Mapas de Progreso como de los Niveles de Logro recurrió al análisis de evidencia sobre resultados en mediciones nacionales e internacionales. La elaboración implicó el constante diálogo entre el juicio experto sobre qué resulta alcanzable en determinadas etapas del trayecto escolar, sobre qué aprendizajes resultan más o menos complejos desde el punto de vista de la disciplina, con la evidencia acumulada y disponible a partir de pruebas internacionales y de la administración de pruebas SIMCE desde 1999. En específico, se revisaron tanto las descripciones de logro reportadas por las pruebas internacionales para distintos tramos de rendimiento (benchmarks) como preguntas específicas y sus respectivos datos sobre el logro alcanzado para cada una de ellas por parte de estudiantes chilenos cuando este dato estaba disponible (SIMCE y pruebas internacionales en que Chile ha participado), como por estudiantes de los distintos países si se trataba de mediciones nacionales o estatales.


Esta revisión de evidencia permitió: (i) examinar qué se valoraba (incluía) en las distintas mediciones nacionales e internacionales y sus respectivos estándares o descripciones cualitativas del logro alcanzado para contrastar los primeros borradores de los Mapas de Progreso y las dimensiones que se considerarían en los Niveles de Logro y tipos de pregunta que sería interesante incorporar en las pruebas SIMCE; (ii) ajustar el nivel de exigencia tanto de los estándares de contenido como de desempeño, considerando tanto las descripciones generales como los indicadores; (iii) alinear el nivel de exigencia entre las distintas áreas (por ejemplo, entre Matemática y Lectura); y (iv) afinar lo que hemos llama-do "identidad" del nivel u homogeneidad de su dificultad procurando que en un mismo nivel no se incluyeran logros que de acuerdo con lo que muestran las pruebas internacionales "pertenecen" a niveles de dificultad diferentes.


El fruto más relevante de esta etapa de revisión fue el entrenamiento de los equipos de trabajo que pasaron de una visión teórica sobre aquello que resulta más sencillo o más complejo, a la necesidad de contrastarla con aquello que la evidencia mostraba al respecto. Asimismo, el uso de datos sobre rendimiento en Chile y en otros países permitió confrontar las "subculturas" particulares de los distintos equipos de asignatura que en algunos casos podían tender a ser excesivamente exigentes o a tener expectativas demasiado bajas del logro de los estudiantes.


Importancia de la comunicación y uso de los estándares


La importancia de la comunicación y el uso de los estándares se hizo evidente tanto en el énfasis puesto en la claridad y síntesis de su formulación, como en las sucesivas validaciones que se realizaron para asegurar esta claridad y facilitar su uso respecto del lenguaje utilizado, así como de los formatos gráficos en que se iba a presentar la información del SIMCE. Para ayudar a los docentes a observar el aprendizaje de cada nivel, tanto los mapas de progreso como los estándares de desempeño de SIMCE se ilustran con ejemplos de desempeños (indicadores). Cada nivel de los Mapas de Progreso se ilustra además con ejemplos de trabajos realizados por los estudiantes y los estándares de desempeño se ilustran con preguntas de la prueba que los alum-nos de cada nivel son capaces de responder.


En Honduras también se siguió un modelo técnico de elaboración de instrumentos que define estándares de contenido y niveles de desempeño para la evaluación. Los Estándares Educativos Nacionales, elaborados bajo el Proyecto MIDEH a instancias de la Secretaría de Educación, par-ten del nuevo Diseño Curricular Nacional Básico (el DCNB) que data de los primeros años de esta década. El DCNB constituye el centro medular de una reforma educativa que se plantea como sistémica e incluye la definición de un Sistema Nacional de Evaluación de la Calidad de la Educación (SINECE), la evaluación de rendimientos académicos, la elaboración de libros de texto para Matemáticas y Lengua Española, y la definición de estándares, entre otros elementos.


El DCNB es considerado un avance importante en la transformación curricular en Honduras. Para la elaboración de estándares, este avance curricular representa una ventaja importante, ya que facilita la posibilidad de una alineación directa entre estándares y currículo y en consonancia con la visión de estándares a nivel internacional. El DCNB consta de una definición por grado de primero a noveno grado de la Educación Básica en cinco áreas (Comunicación, Ciencias Sociales, Educación Física, Matemáticas, y Ciencias Naturales) y de los siguientes elementos: expectativas de logro, contenidos conceptuales, contenidos actitudinales, y procesos y actividades.


El marco del DCNB establece una estructura basada en áreas curriculares, compuestas de bloques de contenido, que a su vez se componen de expectativas de logro. Los bloques de contenido son las sub-áreas de cada área curricular.


Con la finalidad de determinar los estándares, se aceptó la estructura más macro, la de áreas curriculares y bloques de contenido. Las expectativas de logro del DCNB fueron el objeto de análisis, comparación y ajustes, denominándolas al final del proceso estándares de contenido, y definidas como intencionalidades educativas por grado que expresan el desarrollo de las competencias conceptuales y de procedimientos correspondientes a un área curricular. En tal sentido, el punto de partida para el diseño de los estándares fueron las expectativas de logro curriculares del DCNB que durante todo el proceso se iban transformando en estándares.


Hubo necesidad de intercalar un nuevo nivel, entre bloques y objetivos, nivel que se llegó a denominar componentes, los cuales corresponden a un segundo nivel de organización de contenidos dentro de los bloques, que permite agrupar un número de estándares comunes a uno o más grados. Este nuevo nivel de análisis permitió la agrupación de objetivos (expectativas de logro en el currículo, estándares en el sistema de estándares) bajo temas determinados que forman distintos bloques de un área. Por ejemplo, uno de los bloques de Matemáticas es la geometría, que se compone de cuatro componentes: sólidos, líneas, figuras geométricas y ángulos.


Simultáneamente, el proyecto abordó la tarea de elaborar los estándares de desempeño que permitirían una mejor evaluación de los aprendizajes. Esta tarea dio lugar a una necesidad inicial de aclarar y definir el término estándar de desempeño. Se percibió una gran confusión entre los técnicos, tanto del Proyecto como de la Secretaría de Educación, respecto a las diferencias entre los estándares de desempeño y otros tipos de estándares. Básicamente la confusión surge de considerar (erróneamente) que los estándares de desempeño son los que hacen hincapié en destrezas (es decir, otra forma de estándares de contenido), mientras que los otros se enfocan en conocimientos. Se aclaró que los estándares que fueron elaborados con base en las expectativas de logro del DCNB son, de hecho, estándares de contenido basados en destrezas, reflejando así la perspectiva pedagógica del nuevo currículo. Esta aclaración dio lugar a una definición de los estándares de desempeño, los cuales tienen la función principal de ayudar a interpretar los resultados de los alumnos en las pruebas de acuerdo con una escala de desempeño de carácter cualitativo y en función de los estándares de contenido.


En la elaboración de los estándares de desempeño, el primer paso consistió en la conformación de una escala de desempeño. La escala consensuada entre todos los participantes fue la siguiente: Pre-Satisfactorio, Satisfactorio, Muy satisfactorio, y Avanzado. Dadas las características distintas en los estándares de contenido de Matemáticas y Lengua Española, se diseñaron estándares de desempeño para las pruebas formativas en Lengua Española por grado, ya que el logro de los mismos se espera realizar durante todo el grado; mientras que los de Matemáticas se esperan lograr mes por mes.


Colombia

, por su parte, formuló estándares por grupos de grados, para con ello facilitar su articulación con los Lineamientos Curriculares elaborados por el Ministerio de Educación entre 1998 y 2000. Se optó por llamarlos básicos y no mínimos para evitar enviar un mensaje equivocado, y no insinuar que se trata de nivelar por lo bajo

o esperar poco de los estudiantes, profesores e instituciones. Se trata más bien de:




Formular un criterio claro y público que permita valorar si un estudiante, institución o el sistema educativo en su conjunto cumplen con expectativas comunes de calidad.


Buscar lo fundamental, no lo mínimo.


Definir expectativas de aprendizaje retadoras, pero no inalcanzables; exigentes, pero razonables.


Organizar esas expectativas de manera secuencial y en complejidad creciente para facilitar su lectura y coherencia vertical y horizontal, en relación con los grupos de grados.


Las áreas curriculares seleccionadas para la elaboración de estándares fueron las de Lenguaje, Matemáticas; Ciencias (Sociales y Naturales); y Competencias Ciudadanas. En un proceso paralelo, conducido por equipos diferentes al del proyecto general, se elaboraron los estándares de inglés como lengua extranjera y de educación en tecnología. Cada área tuvo un tratamiento teórico distinto, respetando con ello la especificidad de las disciplinas. En todos, sin embargo, se hace énfasis en las competencias más que en otros aspectos como los contenidos temáticos, aunque sin excluirlos. Se trata de plantear unas competencias básicas que se van complejizando a medida que se va avanzado en los grupos de grados de la educación básica y media; es decir, no pueden entenderse o asumirse como sumatoria o acumulado de conocimientos a lo largo del tiempo.


En Guatemala, se define a los estándares como enunciados que establecen objetivos claros, sencillos y medibles de lo que los docentes deben de enseñar y los educandos deben saber y saber hacer. De las áreas curriculares que presenta el Currículo Nacional Básico (CNB), cuatro fueron seleccionadas por un equipo consultor y el Ministerio de Educación para la elaboración de estándares: Comunicación y Lenguaje L-1, Comunicación y Lenguaje L26, Matemática, Medio Social y Medio Natural. De esta última área se abordan las sub-áreas Medio Social y Natural para Preprimaria, y Ciencias Naturales y Tecnología, y Ciencias Sociales, para el Nivel Primario. De las competencias estipuladas en el CNB, se optó por trabajar en función de las declarativas y de procedimientos dejando de lado las vinculadas con actitudes.


Una vez definidas las cuatro áreas curriculares, los criterios técnicos utilizados para la elaboración de estándares fueron los siguientes: 1) concentración en el enfoque académico y en las disciplinas; 2) consideración por el tiempo escolar disponible para la enseñanza de los contenidos; y 3) referencia a estándares internacionales en materia de expectativas de aprendizaje.


El Ministerio de Educación de Guatemala (MINEDUC), con el apoyo del Programa Estándares e Investigación Educativa de la Agencia de los Estados Unidos para el Desarrollo Internacional (USAID/G), ha establecido como una de sus metas, el desarrollo de estándares educativos, referenciados a normas internacionales y alineados con la política curricular, evaluaciones, libros de texto y programas de capacitación de maestros de Guatemala. Se conformaron equipos por áreas académicas, que incluyeron: técnicos de la Dirección de Calidad y Desarrollo Educativo (DICADE) y la Dirección General de Educación Bilingüe Intercultural (DIGEBI), docentes en servicio y expertos de área. En el 2005 se inició la redacción preliminar de estándares de contenido de preprimaria (etapa de seis-años) y de primero a sexto grado de primaria, que incluye las áreas de: Comunicación y Lenguaje L-1, Comunicación y Lenguaje L-2 (Español como segunda lengua), Matemáticas, Ciencias Sociales, Ciencias Naturales y Tecnología.


Una de las acciones iniciales para lograr el desarrollo de los estándares educativos consistió en la revisión del currículo nacional y en la subsecuente redacción de la primera versión de estándares de contenido, con base en el Currículo Nacional Base (CNB) y en las Orientaciones para el Desarrollo Curricular (ODEC). Esta versión preliminar de estándares se revisó y ordenó de acuerdo con las competencias y los componentes que conforman las áreas curriculares. Dado que los componentes del CNB son muy generales, y en caso de ciencias, idiosincrásicos, se procedió a construir un nivel clasificatorio adicional entre el componente y el estándar, el subcomponente, con el propósito de lograr mayor ordenamiento disciplinar. El equipo de trabajo mantuvo un proceso iterativo de redacción y mejoramiento de esta versión preliminar.


Para recabar, analizar información y obtener recomendaciones sobre la versión preliminar de estándares educativos, se llevó a cabo una consulta con docentes, padres, alumnos, autoridades e instituciones relacionadas con la educación guatemalteca a nivel nacional. En esta consulta se llevaron a cabo 45 talleres y participaron aproximadamente 1.150 personas. También se realizó un Encuentro Nacional de Estándares Educativos, donde se reunieron expertos nacionales y especialistas en estándares a nivel internacional para revisar el proceso realizado. También participaron docentes, alumnos, padres, autoridades y representantes de instituciones relacionadas con la educación.


Posteriormente, especialistas de área, quienes hicieron una revisión de la versión preliminar y de los resultados, las observaciones y recomendaciones que se obtuvieron durante el proceso de consulta e introdujeron en forma conjunta con los técnicos del Programa Estándares e Investigación Educativa, las adecuaciones correspondientes para mejorar esta versión preliminar de estándares. Asimismo, esta versión preliminar fue revisada por otros expertos e instituciones nacionales relacionadas con la educación y por expertos internacionales en cada área y en estándares. Igualmente, con el programa digital Currículo Designer se comparó esta versión preliminar de estándares nacionales con estándares y pruebas estandarizadas usadas en ámbitos internacionales.


Los estándares educativos nacionales están estructurados por: áreas curriculares establecidas en el CNB, los componentes de área, por subcomponentes (sub-áreas generales) que sirven de eje organizativo a los estándares, y por grado. Se establecieron de diez a doce estándares que deben ser alcanzados por los y las estudiantes en cada área curricular. A cada componente del CNB corresponden dos o más subcomponentes asociados a uno o más estándares.


Según indica el informe nacional de caso, el desafío técnico principal fue el de alinear las competencias que pauta el CNB con los estándares, "tratando de establecer los puntos de relación entre unos y otros", frente a un referente curricular que muestra "ciertas competencias de área que simplemente no pueden ser traducidas a medición por estándares". Debido a ello, las matrices de estándares conservan relación con lo que el Currículo Nacional Base denomina contenidos declarativos y procedimentales. Se decidió desde el inicio no crear estándares relacionados a contenidos afectivos, debido a la dificultad de lograr acuerdos al respecto y a la dificultad de medición de aspectos de estas naturalezas.


Para establecer los estándares de desempeño se utilizó la metodología separador, o bookmark por su denominación en inglés. Se determinó que se quería poder ubicar a los alumnos en 4 categorías de desempeño en cada área evaluada. Los nombres de las categorías son: excelente, satisfactorio, debe mejorar e insatisfactorio. Luego de tener los nombres de las categorías, se reunió a varios expertos (entre 14 y 22) del área y del grado específico y se les entrenó en esta metodología. La metodología separador lleva su nombre porque es muy parecida a los separadores que se usan en los libros. La prueba que se aplicó en el sistema, basada en los estándares de contenido, se ordenó por dificultad ascendente y los jueces expertos señalaron poniendo un separador donde cada uno de ellos creía que debiera alcanzar un alumno determinado desempeño (excelente, satisfactorio, debe mejorar e insatisfactorio). Luego se discutieron los resultados del grupo completo y se volvieron a establecer los puntos de corte. La tercera vez que los jueces realizaron este procedimiento fue el definitivo. La mediana de las opiniones de los jueces para cada categoría de desempeño, determinó el punto de corte para la misma.


Como resultado de los procedimientos que permitieron definir estos niveles de desempeño, se obtuvieron opiniones de docentes, la relación de los ítemes con cada nivel de desempeño y con el estándar específico en evaluación. Estos son insumos que se están utilizando en el planteamiento de los estándares de desempeño. Para el ciclo básico del nivel de secundaria, se están utilizando los mismos subcomponentes como referencia, para favorecer la continuidad y gradualidad entre los estándares de cada grado y ciclo.


En Argentina, tal como se comentó en los primeros apartados, no existió un plan explícito de elaboración de estándares. Sin embargo, se han dado algunos pasos en dirección de una definición más clara y operacional de los aprendizajes esperados. Ese proceso de definición constó de dos instancias. Para los efectos de este análisis, podría decirse que la primera fue una instancia "oficial" en que, por acuerdos técnico-políticos entre provincias, se seleccionaron núcleos de contenidos, denominados NAP (Núcleos de Aprendizajes Prioritarios), que todas las jurisdicciones debían incorporar a sus diseños curricula-res. Una segunda instancia fue la de asesoría externa al Ministerio de Educación durante la cual cada uno de esos núcleos de aprendizajes fue re-enunciado y desagregado a modo de estándares de contenido, y acompañado por indicadores de logro debidamente ejemplificados. Esta tarea no incluyó, como se verá luego, la definición de niveles de desempeño.


A continuación se presenta una síntesis del trabajo realizado durante ambas instancias de elaboración, comenzando por la definición oficial de Núcleos de Aprendizajes Prioritarios.


Núcleos de Aprendizajes Prioritarios (NAP)


Los NAP fueron elaborados para los grados primero a noveno de la educación básica en las áreas curriculares de Matemática, Lengua, Ciencias Sociales y Ciencias Naturales. A su vez, cada una de las áreas queda organizada bajo diferentes ejes temático-conceptuales más o menos coincidentes con los definidos para los Contenidos Básicos Comunes en la década anterior.


Si bien los documentos oficiales disponibles (nor-mas y materiales difundidos) no hacen referencia a un modelo técnico particular que se haya adoptado para la redacción de los NAP, una lectura de sus contenidos permite realizar algunas descripciones sobre sus características principales:




Definen un conjunto acotado de enunciados de contenido (entre 1 y 6) al interior de cada eje.


No definen contenidos de tipo procedimental en forma diferenciada en el diseño, sino a modo de introducción para cada área.

• Proponen el alcance de conocimientos y competencias, definidos en términos muy generales, cada uno de los cuales puede involucrar un volumen importante de conceptos y capacidades no siempre especificados. Es decir, cada NAP muestra un alto nivel de agregación y densidad conceptual que puede dar lugar a diferentes interpretaciones.


• No incluyen indicadores de logro que orienten la evaluación de aprendizajes, o al me-nos que permitan una interpretación común respecto a la profundidad y extensión del tratamiento esperado durante el trabajo en aula.


Hacia fines de 2004, habiéndose aprobado los Núcleos de Aprendizajes Prioritarios del primer ciclo (grados primero a tercero) por resolución oficial, el Ministerio de Educación solicitó a IIPE-UNESCO Buenos Aires la realización de un material pedagógico que contribuyera a una mejor comprensión de los NAP y a facilitar su implementación en aula. Mientras tanto, el Ministerio avanzaría con el establecimiento de acuerdos federales para la elaboración de los NAP correspondientes a los demás grados de escolaridad.


Dado que los equipos centrales de Currículo estarían destinando sus esfuerzos a la producción de materiales pedagógicos centrados en facilitar a los docentes el abordaje didáctico de los NAP (Cuadernos de Aula), el equipo conformado en IIPE-UNESCO7 propuso la realización de un material complementario que pusiera el énfasis en el diseño de indicadores de aprendizaje que ayudara a los docentes a atender más sistemáticamente algunas de las evidencias posibles acerca de cómo los alumnos van alcanzando los saberes en juego.


La diferencia principal entre ambos tipos de materiales sería que mientras los Cuadernos de Aula centran la atención en la tarea de enseñanza, los indicadores pondrían el acento en las evidencias de aprendizaje de los alumnos como resultado de las diferentes intervenciones pedagógicas.


Una de las justificaciones para esta propuesta emana de la misma Resolución 214/04, la cual indica que "las prácticas de enseñanza deberán orientarse a la comprensión de indicios del progreso y dificultades de los alumnos […] esos indicios son diferentes manifestaciones de acciones y procesos internos y se expresan cotidianamente, en diversas actividades individuales o grupales de comprensión (al explicar, dar argumentos, ejemplificar, comparar, resolver problemas, etc.) y muy generalmente en el diálogo que se observa en la interacción con el docente durante el proceso pedagógico que tiene lugar en las instituciones escolares."


El proyecto APORTES trabajó sobre las cuatro áreas curriculares priorizadas por los NAP: Matemática, Lengua, Ciencias Sociales y Ciencias Naturales. Al interior de cada área, se respetaron los ejes temático-conceptuales definidos desde el Ministerio de Educación, aunque en algunos casos se introdujeron algunas variantes que pudieran facilitar la articulación horizontal (entre ejes) o vertical (entre años) de los contenidos. En cuanto a la cobertura, el proyecto abarcó todos los contenidos NAP de primero a sexto años de primaria.


Postulado 5


Los estándares se elaboran en estricta alineación –técnica e institucional– con los instrumentos de evaluación que medirán los logros de aprendizaje, orientarán las acciones de mejoramiento y contribuirán a la asignación de responsabilidades por los resultados.


Los estándares deben desarrollarse simultáneamente, o en articulación directa, con los instrumentos de evaluación que el sistema utilizará para medir su alcance por parte de todos los estudiantes. Las características básicas de un sistema idóneo de medición y evaluación alineado con los estándares, según Linn y Herman (1997), serían las siguientes:




Los instrumentos de evaluación deben estar referidos estrictamente a los estándares acordados.


Los instrumentos deben ser "referidos a criterios", es decir que comparan el rendimiento de cada estudiante con las metas de contenido y desempeño previamente establecidas.


• Los instrumentos incorporan nuevas formas de medición del logro conocidas como medición de desempeño, o medición auténtica, es decir el conocimiento medido a través de tareas específicas realizadas por los estudiantes (por ejemplo, resolución de problemas, escritura de un texto individual, realización de un experimento de laboratorio), y no solamente mediante respuestas a ítemes cerrados de opción múltiple.


Adicionalmente, las metodologías de evaluación deben prever formatos para la devolución de resultados que resulten útiles y claros para diferentes audiencias; es decir, que presenten los datos en distintos grados de agregación y con recursos adecuados (ejemplos, gráficos, análisis de respuestas) según los tipos de usuarios que utilizarán la información.


Entre los casos estudiados para este trabajo, Chile y Honduras muestran los mayores avances en materia de alineación entre estándares y evaluación. En gran medida esto puede atribuirse a que, en ambos casos, los equipos de profesionales participantes en la elaboración de estándares y de instrumentos de evaluación alineados trabajaron en forma conjunta, dentro de un mismo marco institucional y a partir de un modelo técnico que integraba ambos tipos de instrumentos en un mismo plan de elaboración.


En el caso de Chile, la elaboración de los Mapas de Progreso implicó desde un principio una reformulación de las pruebas nacionales SIMCE, las cuales incorporarían a partir de los estándares un nuevo esquema de medición de aprendizajes en torno a niveles de desempeño o niveles de logro. La actividad conjunta entre equipos de currículo y evaluación se ve favorecida, en este caso, por un esquema organizacional del Ministerio de Educación que integra en una sola unidad técnico-administrativa, la Unidad de Currículo y Evaluación, ambos tipos de procesos.


Como se vio en el apartado anterior, los estándares chilenos constan de estándares de contenido, materializados en forma de Mapas de Progreso, y estándares de desempeño o Niveles de Logro, elaborados a partir de esos mapas para medir los logros de los alumnos en las pruebas nacionales de aprendizaje. Los niveles de logro son descripciones del aprendizaje de los alumnos más finas y precisas que las que presentan los Mapas de Progreso. Estos niveles de logro tienen como propósito principal poder distinguir y describir categorías de logro en el grupo de alumnos evaluado por la prueba nacional, para poder informar a cada establecimiento y en forma agregada porcentajes de alumnos que alcanzan o no estos distintos niveles. El esfuerzo de la medición se concentra en informar sobre la diversidad de logros que presentan los alumnos en un determinado curso o grado escolar, para usar esa información en el diseño de los procesos de gestión escolar y pedagógica.


Hasta el momento el SIMCE ha informado públicamente un puntaje promedio, haciendo invisible que al interior de cada escuela hay una gran dispersión, y que en un mismo establecimiento hay alumnos que alcanzan muy altos puntajes y otros logran resultados extremadamente bajos.


El número de niveles de logro que se pueden definir dependerá de la capacidad métrica de la prueba para informar válida y consistentemente determinados logros. En el caso de Chile y de acuerdo a las características técnicas de la prueba (número de ítem y de formas), se puede describir dos niveles de logro, y por ende identificar tres categorías de desempeño para el conjunto de alumnos evaluados: los alumnos que no logran el primer nivel, una segunda categoría que alcanzan o superan el primer nivel (intermedio), y una tercera de los que logran o superan el segundo nivel (avanzado).


Los niveles de logro tienen un componente cualitativo y uno cuantitativo. El componente cualitativo es la descripción del tipo de trabajo que es capaz de producir, del tipo de problemas que puede resolver, del nivel de comprensión que muestra el alumno que alcanza el nivel de logro junto con indicadores más específicos e ilustraciones concretas de las preguntas o ítem que es capaz de responder. El componente cuantitativo, por su parte, define el puntaje mínimo que debería obtener un alumno en una prueba que evalúa su nivel de logro, para considerar que ha alcanzado dicho nivel. Es decir, el componente cuantitativo es el puntaje de corte que distingue entre los alumnos que alcanzan el nivel de logro esperado de los que no lo alcanzan.


A nivel nacional, el SIMCE tradicionalmente ha reportado los promedios de todas las escuelas del país, por grupo socioeconómico, dependencia, regiones, provincias y comunas. También ha entregado información para evaluar el impacto en aprendizajes de distintos programas de mejoramiento ministeriales (por ejemplo, Jornada Escolar Completa, Programa Escuelas Críticas, Programa Montegrande) y ha informado sobre la relación entre los resultados SIMCE y algunos factores intervinientes como, por ejemplo, las expectativas de los profesores, la cobertura curricular, la planificación de clases, entre otros. Para 4° básico el año 1999 también se reportó qué porcentaje de alumnos alcanzaba distintos niveles de desempeño; sin embargo, esta información solo podía reportarse a nivel nacional y solo correspondía a una descripción a posteriori de una prueba específica aplicada ese año. A partir del año 2006, junto con la información que tradicionalmente se ha reportado, el SIMCE informa qué porcentaje de alumnos alcanza distintos niveles de logro para cada escuela y para diferentes agregaciones territoriales, socioeconómicas, administrativas, etc. Esto permitirá monitorear las estrategias implementadas desde distintos niveles de administración según el nivel de aprendizajes que los alumnos están logrando.


Hasta ahora, las escuelas también han recibido información que les permite compararse con otras escuelas (similares y a nivel nacional) y con los resultados de la generación de alumnos que rindió la prueba SIMCE de 4° básico anterior. Además, se les entregaban porcentajes de respuesta correcta para algunas preguntas de la prueba SIMCE y los rangos de puntaje entre los que se encuentra la mayoría de sus alumnos.


A partir de la medición de 2006, las escuelas conocen cuántos de sus alumnos de 4° básico han alcanzado cada nivel de logro. También se ha considerado importante mostrar cómo se distribuyen los alumnos al interior de cada nivel.


Considerando que los niveles de logro son consistentes con los Mapas de Progreso, y estos a su vez están referidos al marco curricular nacional sancionado por un conjunto de autoridades públicas, el contenido de los niveles de logro no es problemático; es decir, no está en cuestión respecto de los logros que se valoran como aprendizaje. El problema aquí se relaciona con asegurar y hacer evidente y explícita su alineación con el currículo vigente, que es el aprendizaje que se valora.


Se pueden reconocer dos grandes tipos de procedimientos para determinar las características de los niveles de logro de un grado escolar específico: expectativas de desempeño a priori, que corresponden a las expectativas que educadores y expertos establecen para los grados señalados; y expectativas realistas basadas en la evidencia acumulada a través de pruebas nacionales e internacionales pasadas sobre los resultados alcanzados por los alumnos.


Dado que es importante que las expectativas de logro sean alcanzables, pero no tan "mínimas" que todos las alcancen –en cuyo caso los estándares no jugarían un rol movilizador del sistema– se consideró oportuno integrar ambos procedimientos al elaborar los niveles de logro para los grados 4º, 8° y 2° Medio: establecer niveles de logro que fuesen al mismo tiempo realistas (alcanzables) y desafiantes (movilizadores).



Esto se realizó analizando el tipo de tareas que eran capaces de resolver alumnos de 4º básico en distintos puntos de la escala según los resultados de SIMCE 2002 y el desempeño demostrado de los alumnos chilenos y de otros países en pruebas internacionales. A partir de estas descripciones preliminares se hizo una serie de simulaciones de resultados fijando los puntos de corte en distintos niveles de exigencia.


Considerando tanto la dimensión cualitativa (el tipo de tareas que requeriría resolver el alum-no en un determinado nivel de logro), como la dimensión cuantitativa (el número de alumnos que alcanzaría o no el nivel de logro de acuerdo al punto de corte que representaba esa descripción de logro en la escala), además del impacto consecuente en términos de ampliar o reducir la motivación por el aprendizaje, se acordó la descripción de los dos niveles de logro posibles de medir. El primero, de menor exigencia, se sitúa alrededor de lo que en mediciones previas lograba el 50% de los alumnos del país, y el segundo, de mayor exigencia, alrededor de lo que lograba entre el 15% y el 20% de los alumnos.



Esta decisión fue sancionada por el Ministro de Educación, durante el año 2005, lo que constituye un paso crucial en el proceso de definición de los estándares, ya que estos deben construirse contando con el respaldo político de las autoridades que deben hacerse cargo de los resultados de la prueba.


Con esta decisión técnico política tomada, se inició el trabajo de descripción precisa de los niveles de logro asociados a los puntos de corte definidos. Tal descripción se ha realizado a partir del análisis de los resultados de los alumnos en las pruebas SIMCE anteriores y en pruebas experimentales y piloto elaboradas especialmente para este proceso técnico. Las pruebas se han analizando mediante un ordenamiento de las preguntas de menor a mayor complejidad, con el fin de establecer los distintos niveles de rendimiento que alcanzan los alumnos y caracterizar así sus niveles de desempeño. Estos niveles de logro han sido sometidos a diversas instancias de retroalimentación para verificar su calidad técnica, su contenido, claridad y comunicabilidad.


En Honduras, mientras tanto, los esfuerzos por alinear los estándares con instrumentos de evaluación que permitan medir su logro están siendo realizados principalmente por los mismos equipos técnicos del proyecto MIDEH, al menos hasta que la Secretaría de Educación, a través de su propia unidad de evaluación, asuma esta responsabilidad con proyección y en forma sostenida.


El criterio para este nivel de logro más avanzado es describir una expectativa que sea equivalente al promedio internacional (basándose en Matemática, TIMSS) y que considere el nivel de logro implícito en el marco curricular de 4º básico.


El sistema de evaluación de los rendimientos académicos en Honduras está regido por el documento "Sistema Nacional de Evaluación de la Calidad de la Educación" (SINECE), que data del año 2000 y que tiene como finalidad "emitir nor-mas que encaucen los procedimientos legales de evaluación que se han de desarrollar en el Sistema Educativo Nacional para garantizar equidad, eficacia y eficiencia en los diversos componentes de la evaluación e impulsar el compromiso del docente, alumno, padres de familia y comunidad en general en la actividad educativa". Las funciones concretas del SINECE son:




Regular las evaluaciones en función de estándares educativos.


Definir indicadores para medición de logros.


Proveer criterios para evaluar el rendimiento de los estudiantes y el sistema educativo.

• Certificar la calidad educativa en los distintos niveles escolares.


• Medir y valorar el desempeño de los estudiantes y docentes.


El Diseño Curricular Nacional Básico (DCNB) contempla el SINECE como la forma legal y metodológica de asegurar, a través de la evaluación basada en estándares educativos, la transformación pedagógica en el aula. En Honduras, la falta de una cultura de evaluación pedagógica requiere de un plan a largo plazo de socialización, información y aplicación a nivel docente y entre los sectores no docentes, plan al que contribuye el Proyecto MIDEH con una serie de estrategias.


El objetivo principal del proyecto MIDEH es apoyar a la Secretaría de Educación en el diseño de pruebas formales, tanto formativas como sumativas, es decir, hacer realidad un sistema sostenible de evaluación, basado en estándares, de los rendimientos académicos. MIDEH no contempla otros componentes de la evaluación, igual de importantes y abarcados en el SINECE, tales como la evaluación cotidiana que realiza el docente, la evaluación de programas, instituciones o de docentes. Cabe destacar que todo el trabajo de diseño y desarrollo de las pruebas, tanto formativas como sumativas, es realizado por los dos grupos técnicos del proyecto MIDEH con la participación del personal técnico de la Secretaría de Educación.


La evaluación formativa constituye la parte pedagógica de la evaluación: pruebas administradas por el mismo docente durante el transcurso del año escolar y concebidas para ofrecer al docente, al alumno y a los padres de familia, información mensual sobre el logro de los estándares con vista a poder mejorar el aprendizaje del alumno de una forma periódica. También ofrecen, por su diseño, la posibilidad de aportar datos confiables de utilidad a nivel de centro educativo, dirección distrital o municipal de educación o dirección departamental de educación, así como la posibilidad de predecir y mejorar el desempeño de los alum-nos en las pruebas sumativas de fin de grado.


El conjunto de pruebas formativas consta de 8 instrumentos por grado para los grados 1° a 6°, tanto en el área de Matemáticas como en Lengua Española (lectura y escritura). Se ha impreso un volumen por grado, cada uno con las 16 pruebas formativas, y por alumno de dichos grados. Al momento de redactar este informe (2007) se estimaba su entrada en uso, tiempo en que se validarían en el aula para poder hacer cambios apropiados y volver a imprimir la versión validada para el año escolar 2008. No hay intención de cambiar los reactivos de año en año, quedando así los volúmenes estables hasta que haya una revisión a nivel de la Secretaría de los mismos estándares. Las pruebas formativas correspondientes a los grados 7° a 9°, que hasta la fecha no se han diseñado, se implementarán en el año 2008 y bajo las mismas condiciones y procesos de validación. El docente administra la prueba mensual, puntúa la prueba y convierte el puntaje en una calificación cualitativa de acuerdo a la escala de desempeño. Toda la información necesaria para puntaje y calificación cualitativa se encuentra o en el instructivo del docente o en el cuadernillo de pruebas del alumno, para todas las pruebas formativas.


La evaluación sumativa, por su parte, hace referencia a las pruebas que se aplicarán a fin de grado. Hubo discusión previa a todo el proceso de diseño de las especificaciones de estas pruebas, sobre una aclaración tanto de las funciones de estas pruebas como del mismo significado del término "evaluación sumativa". Para muchos profesionales involucrados en el tema, la evaluación sumativa significaba una suma de resultados parciales, concepto erróneo que se buscó modificar para evitar que los docentes utilizaran las pruebas mensuales formativas con el fin de ir sumando sus resultados para obtener un resultado de fin de grado. Se demostró que las pruebas formativas, tal como están concebidas y diseñadas, previsiblemente subestimarán las capacidades de los alumnos de lograr aprendizajes más complejos hacia el final de un grado, pues la intención de las pruebas formativas es la de permitir el mejoramiento continuo de las oportunidades de aprendizaje, y no la de calificar a los alumnos con fines de promoción.


Al determinar el nivel de dominio de los estándares a través de las pruebas formativas al final de mes, se debe ofrecer al alumno una retroalimentación adecuada para mejorar su dominio de los estándares, y así poder continuar con los pasos subsiguientes del proceso de aprendizaje. Al final del grado, se espera ver mejoras en el dominio de todos los estándares. Una vez aclarado el dilema, se aceptó colectivamente la necesidad de una evaluación sumativa, es decir con base en pruebas de fin de grado, y no como sumatoria de puntajes en pruebas mensuales.


Colombia tiene una larga tradición de evaluación estandarizada de aprendizajes. El diseño de las pruebas se ha basado en los criterios teóricos establecidos en los documentos curriculares vigentes. Una ley promulgada en 2001 estableció la obligatoriedad de realizar, al menos cada tres años, evaluaciones censales en las áreas básicas a los estudiantes de quinto y noveno grados (corresponden al final del ciclo de la básica primaria y básica secundaria, respectivamente). La primera evaluación censal se llevó a cabo en 2002/2003 y la segunda en 2005/2006. En la elaboración de las pruebas de esta última aplicación se incluyeron los estándares. Para el efecto, los equipos de profesionales encargados de los diseños de las pruebas de cada área revisaron los lineamientos y estándares y procedieron a ajustar los marcos teóricos de las mismas, de manera que respondieran a los estándares y guardaran coherencia con el Examen de Estado al que se someten los estudiantes que finalizan la educación media. En 2004 se crearon colegiaturas para cada una de las áreas, conformadas por representantes de la academia, docentes, del Ministerio de Educación y del ICFES, entidad encargada de realizar las evaluaciones. Los integrantes de estos grupos poseen fortalezas relacionadas con la pedagogía, los contenidos disciplinares y con la evaluación de los aprendizajes. Uno de los objetivos que le plantea el ICFES a estos grupos es el de lograr la alineación de los instrumentos de evaluación con los núcleos temáticos y las competencias que proponen los estándares.


Las colegiaturas, como mecanismo de construcción conjunta, están presentes en las nuevas pruebas de lenguaje, matemáticas, ciencias naturales y ciencias sociales que se formulan a partir del 2004. Su proceso de formulación (2004) y alineación (2005) con los estándares tuvo, en términos generales, los siguientes momentos:


• Cada colegiatura se reunió por separado según su propio cronograma y los diferentes integrantes presentaron ante el grupo el modelo técnico de evaluación del ICFES, los marcos teóricos de las pruebas, teorías sobre pedagogía y evaluación, y otras informaciones pertinentes (vg. proyectos internacionales de evaluación como PISA, TIMSS y SERCE).




Los diferentes grupos estudiaron los estándares de cada una de las áreas, para definir las competencias que serían evaluadas mediante las pruebas SABER y el Examen de Estado. Así, para las pruebas de grado 5°, se revisaron los estándares de los grados 1° a 5 °; para las pruebas de 9° se tuvieron en cuenta los estándares de 6° a 9°; y para el Examen de Estado, que se aplica a estudiantes del grado 11°, se consideraron los estándares de los grados 10° y 11°.


Durante estas reuniones se revisaron y discutieron diferentes propuestas de los participantes sobre la estructura, el contenido de las pruebas y el formato con el que se construirían los ítemes.


Dentro de cada uno de los grupos, y después en reuniones con delegados de todas las colegiaturas, se discutieron, analizaron y produjeron contextos integrados para las áreas dentro de las pruebas. Estos contextos integrados consisten en situaciones amplias de las que se desprenden preguntas para las diferentes áreas; uno de sus propósitos es plantearle al estudiante contextos que van más allá de los referentes propiamente disciplinares.

Como resultado del debate entre los equipos que formularon los estándares y los encargados de la construcción de las pruebas, se llegó a algunos acuerdos generales. El grado de acuerdo ha sido diferente en cada colegiatura, ya que las particularidades técnicas, metodológicas y conceptuales de cada área implican discusiones específicas.


A partir de las pruebas SABER se producen di-versos tipos de resultados, que son entregados a cada establecimiento educativo y publicados en la página de Internet del Ministerio de Educación:


(a) promedios de sus estudiantes en cada área y grado; (b) porcentaje de estudiantes ubicados en cada uno de los niveles de competencia establecidos en cada área; y (c) promedios en cada uno de los componentes de las pruebas (por ejemplo, para la prueba de matemáticas se presentan los promedios de los estudiantes en los componentes numérico-variacional, geométrico-métrico y aleatorio). Además, estos resultados pueden ser comparados con los del municipio, el departamento y el país, de manera que es posible conocer el estado de cada escuela con referencia a otros marcos. Los resultados por niveles de competencia son una buena base para que los docentes analicen las fortalezas y debilidades de los estudiantes, y elaboren planes de mejoramiento orientados a superar estas últimas. Varias secretarías de educación han realizado análisis más detallados de los resultados de sus establecimientos educativos, lo que les ha permitido diseñar estrategias precisas de acompañamiento a aquellos con más bajos logros. Los resultados también han posibilitado la priorización de la financiación de cursos de capacitación para los docentes de las áreas evaluadas, así como de la entrega de incentivos para aquellos que alcanzaron buenos promedios o un alto porcentaje de estudiantes ubicados en los niveles más altos de logro.


La próxima aplicación censal de las pruebas SABER se realizará en 2009. Con el propósito de fortalecer la alineación entre los estándares y la evaluación externa, desde ahora el ICFES, con asesoría del ETS, está trabajando en la elaboración de los ítemes a partir de matrices en las que se identifican los elementos de los estándares que serán objeto de evaluación. En este proceso participan equipos de profesionales que elaboraron los estándares, y expertos en psicometría y en elaboración de ítem.


En Guatemala, la evaluación de aprendizajes basada en estándares será responsabilidad de la Dirección General de Evaluación, Investigación y Estándares Educativos, la cual tiene como misión administrar el SINEIE (Sistema Nacional de Evaluación, Investigación y Estándares Educativos). Este Sistema está conformado por el conjunto de acciones de desarrollo, evaluación y difusión de resultados. Hasta el momento, este órgano ha diseñado pruebas diagnósticas para tercero y sexto grado de primaria, con la colaboración técnica del Programa Estándares e Investigación Educativa de USAID.


También se publicó, basado en una visión a mediano plazo, el calendario de evaluaciones para los próximos diez años. Esto incluye información sobre áreas, niveles y grado de vinculación de las evaluaciones con consecuencias a estudiantes y establecimientos. Este calendario, acompañado del informe de la primera reunión del Comité Técnico de dicho sistema, establecen el modelo evaluativo previsto y lo vinculan con el modelo conceptual de la calidad educativa propuesto por el MINEDUC.


El Programa Estándares e Investigación Educativa de USAID apoya al Sistema Nacional de Evaluación, Investigación y Estándares Educativos del MINEDUC, creando las pruebas que se usan para evaluar 1°, 3°, 6° primaria, 3° básico del nivel de secundaria, graduandos y maestros. Las pruebas de primaria tienen carácter diagnóstico y evaluativo del sistema, están basadas en muestras representativas a nivel departamental, por área urbana y rural, y actualmente son de bajo impacto. Se ha iniciado la cobertura tanto del sector público, como del privado. Los resultados se reportan por departamento, a nivel nacional, a nivel institucional y en el nivel medio, también a nivel individual. También se busca información sobre factores asociados a los logros del aprendizaje.


Las pruebas de primaria están basadas en los estándares educativos del grado y del área evaluada (matemática o lectura). Haber creado las pruebas alineadas a los estándares tiene el propósito de ayudar al sistema a monitorear la implementación de los mismos en el aula, detectando los aciertos y deficiencias del sistema.


Asimismo, se han creado pruebas en idiomas maya (desde el idioma, no traducción) para 1° y 3° primaria en los 4 idiomas principales (K’iche’, Q’eqchi’, Kaqchikel, Mam).


En el proceso de elaboración de las pruebas de primaria se construyen ítemes alineados de manera formal con los estándares. Para cada grado y área se construyen suficientes ítemes para "mapear" el tendido curricular que se alinea con los estándares respectivos. Por ejemplo, para matemáticas de primer grado se encontró que se necesitan al menos 100 ítemes para ma-pear los estándares susceptibles de ser medidos con pruebas de selección múltiple. Dado que la longitud de cualquier prueba que se entregue a los estudiantes está limitada por la capacidad de los estudiantes para resolver una prueba de este tipo, este contenido se "espiralea" dentro de varias formas y cada estudiante recibe solo una porción limitada del total de ítem, siguiendo un diseño matricial.


Para efectos de comparabilidad entre formas, se han usado dos diseños: grupos no equivalentes con ítemes comunes para las evaluaciones de primero de primaria; y grupos al azar con ítemes comunes, utilizado en tercero y sexto de prima-ria. Para la comparabilidad entre años, se usará la calibración del 2006 para calibrar las pruebas de los años subsiguientes. En cada año subsiguiente los ítemes ancla serán incluidos para permitir este proceso de equiparación (equating). Son los resultados del año 2006 los que fueron utilizados para establecer los niveles de desempeño, los cuales serán la base para la elaboración de los estándares de desempeño que se realiza actualmente.


En el caso del nivel secundario se han elaborado pruebas de lectura y matemática, y las evaluaciones han precedido a la formulación de estándares. En tercer año del ciclo básico se inició su desarrollo con base a la propuesta de transformación curricular, lo cual es un proceso aún bajo elaboración. En el nivel de secundaria diversificada, el desarrollo se ha basado en un marco de competencias para la vida, tomando en cuenta que existen áreas troncales que serán comunes a todos los estudiantes y posiblemente áreas especializadas. El marco de competencias para la vida se ha basado en el hecho por PISA.


Argentina

cuenta con un sistema nacional de evaluación de aprendizajes que funciona desde principios de la década anterior, y se encuentra actualmente a cargo de la DiNIECE (Dirección Nacional de Información y Evaluación de la Cali-dad Educativa). Si bien las pruebas que aplica la DiNIECE están referidas a los Contenidos Básicos Comunes (marco curricular nacional), históricamente no ha habido una relación de trabajo conjunto entre los equipos de evaluación y los de currículo.

Esta situación no fue diferente durante la elaboración de los Núcleos de Aprendizajes Prioritarios. El diseño de los NAP fue responsabilidad exclusiva de los equipos de currículo y el componente de evaluación no estuvo contemplado dentro del programa. Aun así, una vez aprobados los NAP del primer ciclo de primaria, la DINIECE produjo una publicación que recoge resultados de pruebas de años anteriores con una selección de ítemes referidos específicamente a los contenidos recientemente priorizados. Fuera de esta publicación, no hay información sobre otras acciones de evaluación articuladas específicamente con los Núcleos de Aprendizajes Prioritarios.


Un intento de diseño de instrumentos de evaluación alineados con los NAP fue realizado durante el trabajo de consultoría externa para la producción del material APORTES. El equipo consultor estaba comprometido por contrato a elaborar un conjunto de instrumentos de evaluación de aprendizajes de aplicación en aula. Tales instrumentos estarían estrechamente alineados con los desempeños e indicadores diseñados por los especialistas, y tendrían como objetivo "modelar" prácticas evaluativas que los docentes pudieran utilizar luego para elaborar sus propios instrumentos. Es decir, no se utilizarían para evaluar y calificar a los alumnos, sino para ofrecer pautas técnicas que permitieran desarrollar otros instrumentos similares adecuados a la programación curricular que cada docente realizara. El modelo que se elaboró para la construcción de instrumentos presentaba las siguientes características:


• El conjunto de ítemes para un eje curricular y año dados (por ejemplo, Sociedades a través del Tiempo en 2° año de primaria) podían abarcar uno o más desempeños con sus indicadores. Esto implicaba que los ítemes podían estar temáticamente concatenados, aunque los alumnos pudieran resolverlos individualmente y demostrar sus conocimientos y habilidades en forma diferenciada para cada actividad.


• Cada actividad de evaluación (por ejemplo, el análisis de un cuadro de época) podía incluir uno o más ítemes relacionados.


• Las actividades de evaluación requerían respuestas escritas y orales. En algunos casos, se presentaban ejercicios de opción múltiple en los que los alumnos debían justificar su elección de respuesta.


• Todas las actividades e ítemes especificaban exactamente a cuáles desempeños e indicadores estaban referidos.


• Los instrumentos se publicarían "resueltos", es decir con las respuestas ofrecidas por alumnos reales seleccionados de escuelas primarias. Para algunos ítemes, se ofrecerían respuestas de diferentes alumnos que evidenciaran distintos niveles de logro de esos aprendizajes. Tales respuestas estarían acompañadas de un análisis breve acerca de los aciertos y problemas evidenciados por los alumnos, y las implicancias de esas evidencias para el desarrollo de estrategias didácticas que ayudaran a superar los problemas.


Por razones ajenas al trabajo del equipo consultor, las autoridades ministeriales decidieron posteriormente que estos instrumentos no se publicarían. Aun así, el ejercicio de desarrollar este modelo y algunas pruebas de ensayo resultó muy útil para el equipo a modo de validación de los indicadores.


Postulado 6


Los estándares deben ser adecuadamente validados para garantizar mayores grados de legitimidad e institucionalización.


Para asegurar la legitimidad y viabilidad de los estándares, es preciso someterlos a validación por parte de diferentes actores. Las instancias de validación pueden clasificarse en:


• validación interna, es decir la que se realiza entre equipos de especialistas pertenecientes al órgano o agencia de elaboración responsable; y


• validación externa, es decir la que se realiza mediante consultas y encuestas a profesionales de la comunidad educativa, académicos y actores o instituciones representativos de la sociedad civil.


Validación interna.

Durante el proceso de escritura, las versiones del trabajo que se van avanzando pasan generalmente por instancias de consulta entre diferentes equipos. Las consultas pueden hacerse a los equipos de otras disciplinas, a profesionales contratados para tal fin, o a docentes en ejercicio cuya experiencia práctica puede ir orientando la definición y redacción de los estándares para hacerlos más comprensibles y adecuados al contexto nacional. En esta fase es cuando puede resultar especialmente útil recurrir a la recolección de muestras y elaboración de rúbricas, tal como se explicó en apartados anteriores. El propósito de la validación en esta fase es, precisamente, el de ajustar o calibrar las expectativas de aprendizaje y los niveles de desempeño sobre la base de evidencias empíricas que fortalezcan la calidad y legitimidad técnica de los estándares.

Validación externa.

Una vez terminadas las primeras versiones completas de los estándares de cada disciplina, es preciso someterlas a validación por parte de actores representativos de diferentes sectores del sistema educativo y de la sociedad civil. Si bien estos procesos de consulta han sido ensayados por algunos países de la región durante las reformas curriculares de los noventa (Ferrer, 2004), el caso de los estándares requiere de un rigor metodológico superior. Las instancias de validación externa pueden clasificarse según los dos grandes grupos de actores involucrados, es decir, profesionales de la educación y sociedad civil.

Validación profesional

. Esta instancia de consulta tiene como objetivos principales la realización de ajustes técnicos en el diseño, y la legitimación y apropiación de la propuesta por parte de los actores clave en la implementación posterior de los estándares. Entre los grupos de actores frecuentemente consultados suelen figurar los docentes (en forma individual o colegiada), expertos disciplinares y representantes de las distintas academias (de Ciencias Exactas y Naturales, de Letras, de Artes, de Historia, etc.), investigadores destacados de sindicatos docentes, universidades y otros centros académicos, y representantes de los órganos ministeriales del sector (dirección de evaluación educativa, dirección de formación y capacitación docente, oficina de publicaciones de materiales educativos, etc.). Las consultas de alto rigor metodológico generalmente se realizan mediante la recolección sistemática de opiniones y recomendaciones por parte de todos los actores invitados. Para tal fin, los estándares se hacen circular junto a varias planillas de registro, debidamente estructuradas, donde los participantes pueden apuntar comentarios específicos para cada uno de los estándares, así como sobre la secuenciación, coherencia y posibles superposiciones o vacíos en los contenidos. Adicionalmente, suele dejarse espacio para comentarios abiertos sobre aspectos más generales de la propuesta (enfoque epistemológico, alcance curricular, formato, etc.). El análisis sistemático de los aportes puede determinar la exclusión de algunos contenidos, la incorporación de otros, ajustes en la forma de presentarlos y, eventualmente, la realización de una segunda ronda de consultas. Durante este proceso se hace necesario que, tanto los equipos de liderazgo técnico como las autoridades políticas del sector, sepan balancear adecuadamente la demanda de cambios y modificaciones con la fidelidad a los objetivos de la propuesta. Dicho de otro modo, es imprescindible llevar a cabo una consulta de validación y legitimación, aunque esta puede poner en riesgo la naturaleza de la propuesta si la visión técnica y la voluntad política del proyecto no se mantienen firmemente.

Validación social.

En esta instancia, que puede ser simultánea o posterior a la de validación profesional, los estándares elaborados se presentan a diferentes grupos de la sociedad civil para su discusión. Los objetivos principales de esta fase son los de movilizar la opinión pública en torno a la propuesta, y asegurar mayores grados de adhesión por parte de actores clave para facilitar la implementación posterior. Los grupos o instituciones usualmente consultados son las organizaciones no gubernamentales vinculadas a la educación, representantes del empresariado local, organizaciones eclesiásticas, sindicatos docentes, representantes de partidos políticos y ciudadanos en general. Estos últimos pueden ser consultados mediante un llamado a la participación vía Internet (los materiales se ponen a disposición en el espacio web), o también mediante encuestas telefónicas a muestras representativas de la población (los materiales se envían por correo postal o electrónico a los participantes voluntarios de la muestra). Los mecanismos de consulta pueden ser la entrevista oral, respuestas sobre hojas de registro estructuradas, o foros de discusión en los que se registren sistemáticamente los aportes de los participantes. En algunos procesos de validación, como los realizados por Australia y durante el proyecto de estándares para Centroamérica liderado por la CECC (Coordinación Educativa y Cultural Centroamericana), se diseñaron fórmulas matemáticas de ponderación de los niveles de aceptación o rechazo recogidos durante las consultas. Esto permitió sustentar con mayor rigor las decisiones finales para dar más legitimidad y fuerza a los estándares. El uso de rúbricas para ejemplificar y sustentar las propuestas durante las consultas puede resultar una estrategia eficaz para argumentar frente a los participantes la validez y viabilidad de las expectativas de aprendizaje, toda vez que esas rúbricas corresponden a trabajos y respuestas realizados por alumnos "reales" del sistema. Las modificaciones sugeridas por los participantes consultados pueden dar lugar a la reformulación, incorporación o eliminación de contenidos, así como a ajustes en el formato de presentación y redacción de los estándares. Al igual que con la validación profesional, esta fase requiere de un delicado balance entre la atención a los cambios sugeridos durante las consultas, y la fidelidad a los fundamentos y conceptos básicos de la propuesta.

A partir de los casos nacionales analizados en este estudio, puede decirse que existen en la región diferentes concepciones acerca de qué significa "validar" instrumentos como los estándares. Quizás porque en todos los casos los estándares están comenzando a implementarse, y por tanto es muy pronto aún para adelantar conclusiones respecto de la recepción que tienen o tendrán estos instrumentos en las escuelas, las descripciones sobre la validación refieren mayormente a procesos de socialización y a las intenciones de ir recogiendo evidencias de su interpretación y aplicación en campo, tanto como para realizar ajustes y mejoramiento de los instrumentos en futuras revisiones.


En Chile, se realizaron procesos de validación diferentes para los Mapas de Progreso y para los Niveles de Logro del SIMCE, dado que su naturaleza y las características distintivas del proceso de construcción así lo exigían. Aunque en ambos casos se trabajó con grupos de profesores, la validación de los Mapas de Progreso habilitó procedimientos más abiertos y extensos, en tanto los niveles del logro del SIMCE requirieron procedimientos más restringidos y acotados temporalmente.


Para la validación de los Mapas, se conformaron en un primer momento comisiones de profesores y especialistas voluntarios que comentaron los ejes disciplinares identificados para cada área, y luego el primer borrador de un eje de cada disciplina a modo de experimento. Estas comisiones estuvieron integradas por entre 20 y 30 personas, y fueron introducidas en el tema directamente por la consultora principal y otras dos profesionales del ACER (Australian Institute for Educational Research). A fines del año 2004, los borradores de todos los mapas fueron sometidos a consulta con profesores de las cinco áreas curriculares, quienes se pronunciaron sobre la claridad, la progresión, la exigencia y la relevancia de las descripciones elaboradas para todos los ejes. Participaron en este proceso alrededor de 250 profesores de establecimientos de la Región Metropolitana y de las regiones aledañas. En estos procesos de consulta se recibieron múltiples e interesantes comentarios, pero se observaba principalmente las dificultades que tenían los profesores para entender de qué se trataban los Mapas, cuál era su relación con el currículo y de qué les servían a ellos en su tarea de aula.


Evaluando esta situación con los asesores australianos, resultó evidente que se debía revertir una decisión tomada a comienzos de 2004, que consistía en eliminar los ejemplos de trabajo de los alumnos para acelerar el proceso de construcción. Así, en 2005, se decidió realizar un trabajo "prepiloto" de experimentación sobre la mejor forma posible de comunicar los Mapas a los profesores, y de trabajarlos con ellos a la vez que se recolectaban trabajos de sus propios alumnos. Esta tarea se realizó en dos establecimientos subvencionados de la Región Metropolitana, que se seleccionaron por su tamaño (tres cursos por nivel), resultados en el SIMCE (por sobre el promedio) y por ser completos, es decir por tener cursos desde primero básico a cuarto medio. La idea fue trabajar con un grupo numeroso de profesores de todos los niveles (alrededor de 40 en cada establecimiento), en establecimientos públicos "relativamente buenos" según sus resultados en pruebas nacionales anteriores. La presunción consistía en que, si allí los Mapas no resultaban útiles, menos útiles aun resultarían en establecimientos con mayores problemas. El trabajo se realizó in situ, durante cinco sesiones de taller conducidas por integrantes de los equipos elaboradores, y organizados por sector curricular. En los talleres se analizaron los Mapas y trabajos de los propios alumnos recolectados por los profesores entre sesión y sesión.


A partir de los trabajos recolectados y de los comentarios de los profesores, los Mapas se revisaron profundamente. La mayor lección que se extrajo de esa experiencia es que los Mapas realmente se comprenden al usarlos para analizar el trabajo de alumnos concretos, preferentemente los propios alumnos, y así descubrir aspectos del aprendizaje que a menudo resultan invisibles si no se los observa y evalúa a la luz de este tipo de instrumentos.


Para el caso de los Niveles de Logro del SIMCE, los borradores se han consultado internamente con los equipos que están elaborando los Mapas de Progreso, para así asegurar la alineación curricular de ambas descripciones. Adicionalmente durante la elaboración se realizaron diferentes consultas a profesores, padres, directores, administradores de escuela y supervisores del Ministerio, tanto de la capital como de regiones del norte y sur del país. Estas consultas, en las cuales participaron un total de 320 personas, incluyeron docentes de educación básica, directivos y administradores de escuelas, padres, y supervisores del Ministerio de Educación. Hubo distintos tipos de consultas y verificación con actores del sistema.



En Colombia, si bien se dio un diálogo permanente entre los autores y distintos actores de la comunidad, se puede afirmar que el proceso tuvo dos momentos formales de validación, uno de carácter interno y otro de carácter externo. La validación interna estuvo presente desde el inicio de la formulación de los estándares, durante la cual la totalidad de los autores compartieron con sus colegas más inmediatos los avances y creando con ello debates y discusiones permanentes orientadas a buscar coherencia con los referentes teóricos planteados y la viabilidad de su incorporación, comprensión y apropiación en el contexto escolar.


En cuanto a la validación externa, se trabajó principalmente con lectores no vinculados directamente con los equipos de elaboración, seleccionados de universidades, instituciones de educación básica y media, centros de formación inicial y permanente de maestros, investigadores, maestros en formación, asociaciones académicas y científicas, profesionales de las secretarías de educación y algunos miembros del sector productivo.


A este proceso se sumaron voluntarios de instituciones educativas, padres de familia y redes de maestros que, habiéndose enterado del proceso de consulta, solicitaron sumarse a la iniciativa. En promedio, se contó con 100 lectores en cada área curricular, quienes recibieron las guías y formularios para la elaboración de sus comentarios y sugerencias, y que luego remitieron por escrito o vía electrónica en los plazos establecidos para el efecto.


Algunos lectores realizaron la tarea de manera individual, mientras que otros condujeron grupos focales con alumnos de la educación básica, maestros en formación de los últimos semestres de la carrera o con colegas, para luego sistematizar los resultados y enviarlos como aporte al proceso de formulación. La información remitida fue muy variada en cantidad, calidad y pertinencia, a pesar de la precisión solicitada para la valoración de los estándares. En términos generales, los lectores externos valoraron como positivo que los estándares se articularan con los lineamientos curriculares de las áreas elaborados y divulgados a finales de los noventa, resaltaron su formulación por grados de complejidad y grupos de grados, su coherencia y congruencia con los referentes teóricos elaborados, y su preocupación por las acciones del Estado y los centros de formación de maestros para su utilización inmediata por parte de los docentes en servicio o aquellos que estaban a punto de ingresar al mercado laboral. Una vez más, surgieron interrogantes relacionados con la pérdida de la autonomía curricular de las escuelas y la posible homogenización del currículo. Entre los comentarios recibidos con relativa reiteración, se encontraron referencias que solicitaban explícitamente hacer los estándares mucho más prescriptivos, e incluso proponían su desagregación en tareas.


Los resultados de cada uno de los procesos de validación fueron sistematizados por los coordinadores de las áreas y luego fueron objeto de análisis en una reunión presencial con la totalidad de los autores encargados de su formulación. En esta reunión final, de tres días de duración, los autores analizaron los aportes recibidos para establecer su pertinencia, coherencia y viabilidad, y luego proceder a realizar los ajustes necesarios hasta concretar la versión final de los estándares básicos de competencias para cada una de las cuatro áreas. Seguidamente, se contó con asesoría editorial especializada en textos educativos y las orientaciones de la Oficina Asesora de Comunicaciones del Ministerio de Educación, quienes sugirieron darle formato de cartilla, con textos introductorias sencillos y una sección final con orientaciones para su utilización en aula, además de una bibliografía referenciada y "links" a las páginas del Ministerio de Educación y otros sitios en la Web con información sobre estándares. Estos fueron redactados en primera persona, de manera que se presentan como si fueran "la voz del estudiante", indicando qué sabe y qué sabe hacer en cada área, al finalizar un determinado grupo de grados. Además de lo anterior, se realizó un trabajo de diseño gráfico para dar a las publicaciones identidad y unidad con la imagen corporativa del MEN.


Para el caso de Honduras, el proceso de validación técnica interna de los estándares quedó descrito con suficiente profundidad en el apartado correspondiente a las características técnicas de los instrumentos. Allí se relata con precisión las diferentes instancias de análisis del marco curricular nacional, de discusión y logro de acuerdos técnicos para darle coherencia y sustento teórico al modelo de elaboración de estándares, de intercambio entre diferentes equipos de especialistas, y de contrastar los contenidos curriculares con los de otros sistemas educativos mediante el uso de bancos de datos y programas informáticos de alta tecnología. Este proceso incluyó también la tarea, no menor, de consultar permanentemente a los especialistas de la Secretaría de Educación para evitar que el proceso técnico se percibiera como un trabajo externo y ajeno al ámbito oficial.


La consulta nacional de los estándares forma parte de un plan amplio de socialización y validación externa, realizada en cada uno de los 18 departamentos del país, entre los sectores docentes, no docentes y sociedad civil, y dirigido a asegurar la implementación y apropiación de los instrumentos. Según plantea el informe nacional de caso, el Proyecto MIDEH ha sido siempre consciente de la necesidad de una estrategia de inclusión amplia desde el inicio del proyecto, dada la cantidad de empeños nobles dirigidos a la transformación educativa que luego quedan en documentos archivados por falta de consideración de un plan coherente de mercadeo de los conceptos y productos.


Dos objetivos principales guiaron el proceso de consulta nacional sobre la versión borrador de los estándares:


• Socializar el concepto de estándares entre docentes, padres, alumnos, directores de centros y las direcciones departamentales de educación de la estructura descentralizada.


• Ofrecer a la misma muestra de participantes en la consulta, la oportunidad de evaluar los estándares para aportar recomendaciones o solicitar modificaciones.


La participación de actores no fue masiva, sino que se convocó a unas 50 personas por departamento (total de unas 900 personas a nivel nacional), con representación proporcional de docentes (aproximadamente el 80%), padres y madres de familia (el 10%), alumnos (el 5%) y a menudo con la presencia de uno o dos directores de centros educativos. Cada evento fue organizado y facilitado por personal de las direcciones departamentales de educación, capacitados por miembros de los equipos técnicos del Proyecto, con lo cual se dio inicio a la socialización de los estándares entre el personal de las mismas direcciones. De ninguna forma se consideró la consulta como una validación técnica de los estándares, sino más bien de socialización.


Las actividades de valoración de los estándares por parte de los participantes en la consulta permitieron extraer y registrar reacciones de los grupos, junto con las modificaciones sugeridas. Después de todas las consultas, se integraron los datos de todos los departamentos para llevar a cabo diferentes revisiones al documento. El análisis de los resultados de las consultas estuvo a cargo de los grupos técnicos del proyecto MIDEH, quienes consensuaron sus decisiones antes de realizar las modificaciones pertinentes.


Al momento de elaborar este informe se presentaba al año 2007 como el año de implementación oficial del DCNB, lo cual significa que la Secretaría de Educación impulsaría la integración y uso en el aula de los estándares educativos nacionales, las programaciones, los nuevos libros de texto, las pruebas formativas, el instructivo para el docente para administración de las pruebas formativas, y las pruebas sumativas de fin de grado. Esta implementación oficial, junto con un plan integrado de capacitación ya iniciado, representa una estrategia de gran envergadura hacia la transformación educativa desde una concepción sistémica. De acuerdo a esta estrategia, la Secretaría de Educación lideraría un plan de validación durante todo ese año, involucrando a los docentes y administradores a nivel descentralizado, de todos los insumos que constituyen el DCNB.


En Guatemala, desde que se inició el proceso de elaboración de estándares se involucró a diferentes grupos de docentes en servicio y a especialistas en cada una de las áreas (Comunicación y lenguaje, Matemáticas, Ciencias Sociales, Ciencias Naturales y Tecnología). Estas consultas fueron organizadas dentro del marco de comités técnicos de elaboración y revisión de los estándares. Esto permitió contar con perspectivas que surgen de diferentes personas relacionadas con la educación nacional.


Asimismo se realizó un proceso de consulta con docentes, padres, alumnos, autoridades e instituciones relacionadas con la educación guatemalteca a nivel nacional. Se diseñó un instrumento de consulta individual, en donde cada participante tuvo la oportunidad de revisar y opinar sobre los estándares de un área académica desde preprimaria hasta 6º primaria, de acuerdo con una serie de criterios establecidos. En la segunda parte de la consulta, se formaron grupos afines a su trabajo o tipo de participante, y discutieron y resolvieron un cuestionario abierto sobre el tema de estándares (información que fue presentada en un Encuentro Nacional de Estándares educativos). Posteriormente se hicieron reuniones con diferentes sectores (organizaciones magisteriales, maestros en servicio, padres de familia, etc.) para obtener información más específica sobre aspectos de los estándares que se evidenció mediante la consulta nacional que había que mejorar (claridad, pertinencia, temas específicos de contenido).


Los estándares también fueron revisados por especialistas internacionales en estándares y en áreas específicas; y por otros especialistas e instituciones relacionadas con la educación nacional. Asimismo, se realizaron comparaciones con estándares, currículo y pruebas internacionales utilizando una aplicación por computadora especializada para la actividad.


Para complementar el proceso de revisión, la comisión curricular del Ministerio de Educación se reunió con los especialistas de área para revisar los estándares y su relación con el currículo nacional. Para revisar y mejorar la lista preliminar de los estándares del ciclo básico de secundaria en mayo-junio 2007 se realizó una consulta a nivel nacional, en donde participaron más de 1.200 personas, que incluyen autoridades educativas, directores de centros, catedráticos de este nivel, estudiantes de 3º. Básico, estudiantes de profesorado, padres y madres de familia, ONGs e instituciones nacionales relacionadas con la educación. Los criterios que evaluaron de cada estándar incluyen: claridad, precisión, pertinencia, calidad, realismo y gradualidad. Además los consultados podían opinar sobre los contenidos que debían o no incluirse en los estándares. Adicionalmente se hizo otra consulta específica con docentes de todos los departamentos del país, especialistas de cada área, quienes evaluaron los estándares y la propuesta curricular. La consulta del ciclo básico también incluyó reuniones de trabajo con grupos específicos de las diferentes culturas del país (garífuna, xinca, maya y ladina) para obtener sus recomendaciones de la lista preliminar de los estándares y cómo estos se pueden mejorar e implementar.


En Argentina, el proceso de validación de los NAP estuvo circunscrito a las instancias de discusión y búsqueda de acuerdos entre las diferentes jurisdicciones provinciales respecto de cuáles aprendizajes se seleccionarían como prioritarios y comunes para todo el país. Este proceso se concretó en diferentes instancias a lo largo de los años 2004 y 2005, tal como se describe a continuación:


• En primer lugar, los equipos curriculares de la Dirección Nacional de Gestión Curricular y Formación Docente del Ministerio de Educación de la Nación, redactaron una primera versión de los NAP de Lengua, Matemática, Ciencias Sociales y Ciencias Naturales, seleccionando saberes considerados prioritarios que pudieran resultar pertinentes para todo el país. Esta selección de saberes se sustentó en el análisis de los respectivos diseños curriculares provinciales, encontrándose importantes coincidencias entre ellos así como también ciertas diferencias en algunos campos de conocimiento en cuanto al alcance y secuenciación de los contenidos. Cabe señalar que los NAP tienen como marco de referencia social, político y pedagógico los señalamientos enunciados en el Documento General acerca del sentido y condiciones para la enseñanza, en relación con los problemas de desigualdad y fragmentación que los mismos contribuirían a resolver.


• En el caso del Primer Ciclo EGB el primer Documento elaborado constaba de un capítulo con enunciados generales y abarcativos, y otro más detallado que desagregaba cada NAP en un conjunto de situaciones de enseñanza que ofrecerían ciertas "pistas" sobre saberes específicos o habilidades cognitivas posibles de ser desarrolladas en el aula.




El Documento fue enviado a los equipos técnicos provinciales en una primera instancia de consulta. Las devoluciones con comentarios se realizaron vía correo electrónico o postal, y con esas informaciones los equipos centrales construyeron para cada área curricular una planilla que sistematizaba los acuerdos, los desacuerdos (entre Nación y provincias, o entre provincias mismas), así como los comentarios y sugerencias respecto de diferentes aspectos de la propuesta.


La versión más detallada de los NAP redactada por los equipos centrales resultó más problemática para la búsqueda de acuerdos, y se decidió enunciar los NAP en un nivel de generalidad que permitiera albergar múltiples formas de resolución metodológica y pedagógica. Los esfuerzos subsiguientes para el Segundo y Tercer Ciclo EGB continuaron en esa línea de trabajo, postulada como la más fructífera para incluir las singularidades jurisdiccionales.


• Posteriormente, el Ministerio de Educación planificó y llevó a cabo una serie de reuniones técnicas en la ciudad de Buenos Aires con la participación de los equipos técnicos y políticos de todas las jurisdicciones del país. A esas reuniones se las denominó Seminarios Federales de Validación de los NAP. En ellas, los equipos del Ministerio nacional y los representantes federales de cada área de conocimiento (alrededor de 50 personas) compartieron mesas de trabajo para la discusión en torno de cada uno de los NAP con el fin de llegar a los acuerdos necesarios. Luego de esta instancia, ya en sesión plenaria, hubo también lugar para nuevos comentarios y preocupaciones que habilitaron cambios y correcciones finales. Luego del acuerdo técnico, se realizó en cada uno de los niveles de la escolaridad, la validación política de los NAP, en reuniones realizadas en el marco del Consejo Federal de Educación.


Vale mencionar que las actividades de validación al interior de las jurisdicciones (administraciones provinciales) quedaban bajo la esfera de decisión de cada equipo provincial, aunque el acceso a esas informaciones excede las posibilidades de indagación para este informe.


En cuanto a la validación del material APORTES, realizado como consultoría externa al ministerio, los procesos se enfocaron principalmente en la búsqueda de coherencia técnica dentro de las áreas y entre ellas. La producción de todos los materiales en un período de 12 meses impuso ritmos de trabajo que dejaron escaso margen de tiempo para la validación, tanto interna como externa. Además, desde el punto de vista institucional de producción, el equipo consultor no tenía responsabilidades formales respecto de la validez de los instrumentos más allá de respetar los contenidos disciplinares de los NAP y de sus principios pedagógicos subyacentes.


En este sentido, las principales actividades de validación fueron las de someter todos los materiales a revisión por parte de los especialistas de currículo del Ministerio de Educación para realizar modificaciones en todos aquellos aspectos que pudieran entrar en conflicto con los NAP. A tal efecto, se llevaron a cabo reuniones de intercambio, en cada área curricular, entre los especialistas del ministerio y los del equipo consultor. Una vez discutidas y anotadas las observaciones de los equipos oficiales, se revisó el material para ser sometido a nuevas lecturas y aportes finales. La publicación final del material incluyó todas y cada una de las modificaciones introducidas por los especialistas del Ministerio de Educación.


Por otro lado, el equipo consultor disponía de algunos recursos económicos para realizar consultas a expertos internacionales en currículo, estándares y evaluación de aprendizajes. También por razones de tiempo, esas consultas no llegaron a hacerse con toda la sistematicidad que se deseaba, pero aun así colaboraron en la revisión del material tres especialistas de Estados Unidos, Chile y Perú.


También se realizó una consulta a docentes de diferentes puntos del país para obtener opiniones y sugerencias respecto a la claridad y utilidad potencial del material.


 


Autor


Guillermo Ferrer es M.Sc. en Administración y Política Educativa y M.Sc. en Desarrollo Curricular y Tecnología Educativa de la Universidad del Estado de Nueva York en Albany. Miembro del Comité Gestor del Grupo de Trabajo sobre Evaluación y Estándares de PREAL (GTEE/PREAL).


Este documento resume parte del informe elaborado por Guillermo Ferrer para el GTEE/PREAL, "Estudio comparado internacional sobre procesos de elaboración e implementación de estándares de curriculum en América Latina", concluido en agosto de 2007, por lo cual no contempla avances o cambios experimentados en los países analizados después de esa fecha. El documento original, que profundiza más en diversos aspectos e incluye varios ejemplos de estándares e información adicional en anexos, se encuentra en www.preal.org (Actividades / Grupo de trabajo estándares y evaluaciones / Publicaciones).

No hay comentarios:

Related Posts Plugin for WordPress, Blogger...

Busca en mis blogs

Google+