viernes, 28 de mayo de 2010

La evaluación basada en competencias


¿Qué es una competencia?

Evaluación de competencias.

El conocimiento declarativo.

El conocimiento categorial.

El conocimiento procedimental.

La dimensión afectiva y valorativa.

La evaluación basada en competencias 2




Fuente
El reto de la Evaluación
Norma Reártegui
Milagros Arakaki
Carola Flores

Ministerio de Educación del Perú
GTZ Cooperación Técnica. República Federal de Alemania

jueves, 20 de mayo de 2010

Concepto de evaluación y sus funciones


Concepto de evaluación y sus funciones
¿Qué es la evaluación?
La evaluación como obtención de información.
La evaluación como juicio de calificación razonada.
La evaluación como toma de decisiones.
¿Qué es la medición?
Funciones de la evaluación.
La información sobre el desempeño.
El refuerzo.
La autoconciencia
Tipos de Evaluación.
La dimensión del contenido.
La dimensión de referencia.
La dimensión de modalidad.
La dimensión temporal.


Concepto de evaluación y sus funciones 1

miércoles, 12 de mayo de 2010

Evaluación educativa análisis histórico




Recomiendo especialmente leer
"Desde los tests hasta la investigación evaluativa actual. Un siglo, el XX, de intenso desarrollo de la evaluación en educación"
Publicado en el Vol. 9, nº 1 (2003) de la Revista Electrónica de Investigación y Evaluación Educativa (RELIEVE) http://www.uv.es/RELIEVE/,
Autor
Tomas Escudero Escorza

Catedrático de Métodos de Investigación y Diagnóstico en Educación
Instituto de Ciencias de la Educación
Universidad de Zaragoza
El texto que fuera oportunamente subido a SCRIBD fue escrito por Patricia Ávila Luna 13 noviembre 2009, tal como figura en el mismo y es resumen del trabajo de Tomás Escudero Escorza, recomendado anteriormente.

DESDE LOS TEST HASTA LA INVESTIGACIÓN EVALUATIVA ACTUAL UN SIGLO, EL XX, DE INTENSO DESARROLLO DE LA EVALUACIÓN EN EDUCACIÓN

PLANTEAMIENTOS CLÁSICOS
Madaus, Scriven, Stufflebeam

Establecen seis épocas: 1. De la reforma (1800 - 1900) 2. De la eficiencia y el testing (1900 - 1930) 3. De Tyler (1930 - 1945) 4. De la inocencia (1946 - 1956) 5. De la expansión (1957 - 1972) 6. De la profesionalización (desde 1973)

Cabrera y Salvador
Citan 3 grandes épocas, tomando como punto de referencia a Tyler: 1. De precedentes o antecedentes 2. De nacimiento 3. De desarrollo

Guba y colaboradores
Destacan distintas generaciones: 1. De mediación 2. De descripción 3. De juicio o valoración 4. Enfoque paradigmá

Evaluación en educación 2




ANÁLISIS HISTÓRICO
Precedentes
• Desde la antigüedad se han usado procedimientos para valorar, diferencias y seleccionar estudiantes. • El tratado más importante de evaluación de la antigüedad es el Tetrabiblos de Ptolomeo. • En la Edad Media se introducen los exámenes formales en las Universidades. • En el Renacimiento Huarte de San Juan planteó su examen de ingenios para las ciencias. • En el siglo XVIII se introducen las normas sobre utilización de exámenes escritos. • A principios del siglo XIX se establecen los sistemas nacionales de educación y aparecen los diplomas de graduación. • En 1845 Horace Mann utiliza las primeras pruebas tipo “test”. • En 1897 J. M. Rice realiza la primera investigación evaluativa en educación.

Los tests psicométricos
• A principios del siglo XIX se despierta el interés por la medición científica de las conductas humanas. • La actividad evaluativa es condicionada por los siguientes factores: 1. El florecimiento de las corrientes filosóficas positivistas y empíricas. 2. La influencia de las teorías evolucionistas de Darwin, Galton y Cattel. 3. El desarrollo de los métodos estadísticos. 4. El desarrollo de la sociedad industrial. • Se desarrolla una actividad evaluativa intensa conocida como testing, que tiene las siguientes características: 1. Medición y evaluación vistos como lo mismo. 2. El objetivo era detectar y establecer diferencias individuales. 3. Test de rendimiento es sinónimo de evaluación educativa, por lo que se olvidan de los objetivos educativos. • Uno de los test más conocidos fue el Stanford - Binet, que evaluaba las capacidades cognitivas. • El punto más alto del testing es de 1920 a 1930. • Según Guba y Lincoln el papel del evaluador es ser proveedor de instrumentos de evaluación.

La gran reforma tylerniana
• En los años 20 surge en Francia una corriente independiente conocida como decimología que criticaba el divorcio entre lo enseñado y las metas de instrucción. • Tyler es considerado el padre de la evaluación educativa, pues plantea la necesidad de una evaluación científica para perfeccionar la calidad de la educación. • Para él, el currículo está delimitado por: 1. Los objetivos que se desean conseguir. 2. Las actividades con las que éstos se alcanzarán. 3. Cómo organizar estas experiencias. 4. Comprobar si se lograron los objetivos. • Concibe la evaluación educativa como el proceso que determina en qué medida han sido alcanzados los objetivos establecidos, supone un juicio de valor sobre la información recogida y está condicionada por: 1. Proponer objetivos claros, definidos en términos de conducta. 2. Determinar las situaciones en las que se deben manifestar las conductas esperadas. 3. Elegir los instrumentos apropiados para evaluar. 4. Interpretar los resultados. 5. Determinar la fiabilidad y objetividad de las medidas. • La función del proceso evaluativo es informar sobre la eficacia del programa educacional y la educación continua del profesor. • Después de la segunda Guerra Mundial se da la etapa de la inocencia, en la que se produce un periodo de expansión y optimismo. Se extienden las taxonomías de los objetivos educativos y se extienden las instituciones y servicios educativos. La aportación de la evaluación a la mejora de la enseñanza es escasa en esta etapa. • Aspectos importantes del pensamiento de Tyler en sus últimos días: 1. El propósito más importante de la evaluación de los alumnos es guiar su aprendizaje. 2. El “portafolio” es un instrumento valioso de evaluación, dependiendo su contenido. 3. La verdadera evaluación debe ser idiosincrásica, adecuada a las peculiaridades del alumno y del centro. 4. Los profesores deben rendir cuentas de su acción educativa ante los padres de los alumnos.

El desarrollo de los sesenta
• Este movimiento se vio potenciado por el desarrollo de nuevos medios tecnológicos, por lo que serán años fructíferos en la demanda de evaluación en el ámbito educativo. • En el Acta de educación primaria y secundaria en 1965, se estipuló que los proyectos realizados con el apoyo federal debían ser anualmente evaluados. • A finales de los 60 aparece el movimiento de la rendición de cuentas (accountability), que se asocia con la responsabilidad personal del docente en el logro de los objetivos educativos establecidos. • También en los 60 comienza el movimiento de descentralización escolar. • El sujeto directo de la evaluación siguió siendo el alumno, pero también todos los factores que confluyen en el proceso educativo, así como su propio producto. • Se inicia un periodo de reflexión con el fin de clarificar la multidimensionalidad del proceso evaluativo, lo que da lugar al nacimiento de la investigación educativa. • Cronbach analiza las funciones y metodología de la evaluación sugiriendo: 1. Asociar el concepto de evaluación a la toma de decisiones. 2. Mejorar los programas mientras se están aplicando. 3. Poner en cuestión la necesidad de los estudios evaluativos de tipo comparativo. 4. Poner en cuestión los estudios a gran escala. 5. Propone que la evaluación debe incluir: Estudios de proceso, medidas de rendimiento y actitudes y estudios de seguimiento. 6. Las técnicas de evaluación no pueden limitarse a los tests de rendimiento. • Por su lado Scriven hace las siguientes aportaciones: 1. Diferenciar entre la evaluación como actividad metodológica, la meta de la evaluación y las funciones de la evaluación. 2. Señala que la evaluación tiene dos funciones: la formativa y la sumativa. 3. Critica el énfasis que la evaluación da a la consecución de objetivos previamente establecidos. 4. Distingue entre evaluación intrínseca y extrínseca 5. Defiende el carácter comparativo de los procesos de evaluación. • Según Guba y Lincoln la tercera generación se caracteriza por introducir el juicio como contenido intrínseco de la evaluación. El núcleo conceptual de la evaluación es la valoración del cambio ocurrido en el alumno. • Se comienza a prestar atención a los efectos laterales y los resultados o efectos a largo plazo. • El énfasis en los objetivos y su medida genera una nueva orientación de la evaluación denominada evaluación de referencia criterial, que suministra información real y descriptiva del sujeto respecto a los objetivos de enseñanza.


La consolidación de la investigación evaluativa
• En los años 40 surgen modelos de evaluación que expresan la propia óptica del autor. Esta época se caracteriza por la pluralidad conceptual y metodológica. • Varios autores consideran que los modelos son complementarios y que su estudio llevará al evaluador a adoptar una visión más amplia y comprensiva de su trabajo. • En este movimiento se distinguen dos épocas: 1. Consecución de metas: las propuestas seguían la línea expuesta por Tyler. Los objetivos propuestos siguen siendo el criterio fundamental de valoración. La evaluación debe estar al servicio de las instancias que deben tomar decisiones. 2. Modelos alternativos: enfatizan el papel de la audiencia (los participantes el programa) de la evaluación y la relación del evaluador con ella, la cual debe ser “transaccional y fenomenológica”. Es una evaluación de tipo etnográfica. • Algunos de los puntos más sobresalientes de la pluralidad conceptual son: 1. Diferentes conceptos de evaluación: por un lado la definición clásica de Tyler en contraste con la más amplia que surge desde os modelos orientados a la toma de decisiones. 2. Diferentes criterios: considerar la valoración desde la consecución de metas y la definición de objetivos, desde la perspectiva de las decisiones situadas en un contexto político, o bien, que el criterio fundamental de valoración sean las necesidades contextuales. 3. Pluralidad de procesos evaluativos. 4. Pluralidad de objetos de evaluación. 5. Apertura: para dar cabida a los efectos posibles de un programa educativo, respecto a la recogida de información en el proceso educativo y en la consideración de resultados a corto y largo plazo. 6. Pluralidad de funciones. 7. Diferencias en el papel del evaluador. 8. Pluralidad de audiencia. 9. Pluralidad metodológica. • Lo anterior resume las aportaciones de la época denominada por algunos autores como época de profesionalización, que más tarde debido a la profundización de los planteamientos teóricos y prácticos logró la consolidación de la investigación educativa.


La cuarta generación según Guba y Lincoln
• A partir de los 80 surge una nueva época denominada por Guba y Linoln como la cuarta generación, denominada como respondente y constructivista. En este tipo de evaluación las demandas, las preocupaciones y los asuntos de los implicados sirven como foco organizativo, lo cual es necesario debido a que: 1. Son grupos de riesgo ante la evaluación. 2. Los resultados pueden ser utilizados en su contra. 3. Son potenciales usuarios de la información resultante de la evaluación. 4. Pueden ampliar y mejorar el rango de la evaluación. 5. Se produce una interacción positiva entre los distintos implicados. • Las responsabilidades básicas del evaluador de la cuarta generación son: 1. Identificar a los implicados de riesgo. 2. Resaltar las demandas y preocupaciones de cada grupo de implicados. 3. Proporcionar un contexto y metodología hermenéutica. 4. Generar un acuerdo. 5. Preparar una agenda para la negociación. 6. Recoger y proporcionar la información necesaria 7. Formar y hacer de mediador en la negociación. 8. Desarrollar y elaborar informes. 9. Reciclar la evaluación. • Las fases de la evaluación en la cuarta generación son las siguientes: 1. Establecimiento de un contrato con el cliente. 2. Organización para reciclar la investigación. 3. Identificación de las audiencias. 4. Desarrollo de construcciones conjuntas. 5. Contraste y desarrollo de construcciones. 6. Clasificación de las demandas, preocupaciones y asuntos resueltos. 7. Establecimiento de prioridades. 8. Recogida de información. 9. Preparación de la agenda. 10.Desarrollo de la negociación. 11.Informes. 12.Reciclado / revisión. • Guba y Lincoln definen a la evaluación con base en los siguientes rasgos: • Es un proceso sociopolítico. • Es un proceso conjunto de colaboración. • Es un proceso de enseñanza / aprendizaje. • Es un proceso continuo, recursivo y altamente divergente. • Es un proceso emergente. • Es un proceso con resultados impredecibles. • Es un proceso que crea realidad.

El nuevo impulso alrededor de Stufflebeam
• En la segunda mitad del siglo XX Daniel L Stufflebeam propone el modelo CIPP, el cual parte de los 4 principios del Joint Committee, el cual propone que un buen trabajo de investigación evaluativa debe ser: • Útil • Factible • Apropiada, adecuada y legítima • Segura y precisa. • Para evaluar la educación en la sociedad moderna Stufflebeam propone los siguientes criterios básicos: • Las necesidades educativas • La equidad • La factibilidad • La excelencia como objetivo • Por otra parte, para llevar a cabo buenas investigaciones educativas y mejorar el sistema educativo nos da las siguientes recomendaciones: 1. Los planes de evaluación deben satisfacer los cuatro requerimientos del Joint Committee. 2. Las entidades educativas deben examinarse. 3. Las entidades educativas deben ser valoradas por su mérito, su valor y su significación. 4. La evaluación de profesores, instituciones y programas debe relacionarse con sus deberes, responsabilidades y obligaciones. 5. Los estudios deben ser capaces de valorar en qué medida los profesores e instituciones con responsables y rinden cuentas. 6. Deben proporcionar direcciones de mejora. 7. Deben tener un componente formativo y otro sumativo. 8. Deben promover la autoevaluación profesional. 9. La evaluación del contexto debe emplearse de manera prospectiva y retrospectiva. 10.La evaluación de las entradas debe emplearse de manera prospectiva. 11.La evaluación del proceso debe usarse de manera prospectiva y retrospectiva. 12.La evaluación del producto es el medio para identificar los resultados buscados. 13.Se deben apoyar en la comunicación y la inclusión sustantiva y funcional de los implicados. 14.Deben emplear múltiples perspectivas y medidas de resultados, así como métodos cuantitativos y cualitativos. 15.Deben ser evaluados, incluyendo metaevaluaciones formativas y metaevaluaciones sumativas.


Síntesis de enfoques modélicos y metodológicos
• Al construir un modelo de investigación evaluativa se deben considerar los siguientes aspectos: • Objeto de la investigación evaluativa • Propósito, objetivos • Audiencias / implicados / clientes • Énfasis / aspectos prioritarios o preferentes • Criterios de mérito o valor • Información a recoger • Métodos de recogida de información • Métodos de análisis • Agentes del proceso • Secuenciación del proceso • Informes / utilización de resultados • Límites de la evaluación • Metaevaluación • Arnal y otros ofrecen una calisifcación de lo que denominan diseños de la investigación evaluativa: • Empírico - analítica • Susceptibles de complementariedad • Humanístico - interpretativa • Por su parte, Castillo y Gento ofrecen una clasificación de métodos de evaluación: • Conductivista - eficientista • Humanístico • Holístico • Por último Scriven identifica seis visiones o enfoques alternativos en la fase “explosiva” de los modelos: • Visión fuerte hacia la toma de decisiones • Visión débil hacia la toma de decisiones • Visión relativista • Visión de la descripción fértil, rica, completa • Visión del proceso social • Visión constructivista de la cuarta generación • La perspectiva transdisciplinaria tiene dos componentes: • El conjunto de campos de aplicación de la evaluación. • El contenido de la propia disciplina. • Se orienta hacia el consumidor más que hacia el gestor o intermediario. Se trata de una visión generalizada y técnica

sábado, 1 de mayo de 2010

Determinantes de la calidad de la evaluación

Slide 1
Los Determinantes de la calidad de la Evaluación
www.evaluacion.edusanluis.com.ar
Slide 2
Criterios a tener en cuenta Veamos los criterios o requisitos que deben tenerse en cuenta en el momento de tomar decisiones acerca del programa de evaluación de un curso, por ejemplo, y sobre cada uno de los instrumentos de evaluación que lo integran. Las características generales que los instrumentos de evaluación deben reunir, aunque con distinto grado de relevancia, son cuatro: validez, confiabilidad, practicidad y utilidad. www.evaluacion.edusanluis.com.ar
Slide 3
Validez Se dice que un instrumento de evaluación es válido cuando evalúa lo que se pretende evaluar con él. Como un instrumento es utilizado para apreciar ciertos logros de aprendizaje de un cierto grupo de alumnos en una cierta circunstancia y en un cierto momento de su proceso de aprendizaje (al inicio, en el transcurso o al final), la validez de un instrumento no puede ser determinada de manera absoluta, sino siempre en relación con su adecuación a los propósitos y situación específica de su aplicación Se diferencian diversas clases de validez. Desarrollaremos sintéticamente sus principales modalidades.
www.evaluacion.edusanluis.com.ar





Slide 4
Validez de contenido Se dice que un instrumento tiene validez de contenido cuando representa una muestra significativa del universo de contenido cubierto por el curso o la unidad didáctica, la clase o una serie de clases. La validez de contenido, por lo tanto, requiere que la selección de contenidos que se ha efectuado para construir el instrumento sea equivalente a la de cualquier otro conjunto de contenidos que se hubiera podido seleccionar con ese fin. Se trata, por supuesto, en todos los casos de contenidos importantes por su significación en el aprendizaje de los alumnos 4 www.evaluacion.edusanluis.com.ar
Slide 5
Validez Predictiva Esta clase de validez se refiere a la correlación existente entre los resultados obtenidos en una o varias pruebas combinadas y el desempeño posterior del alumno en aquellos aspectos que corresponden al área evaluada por esas pruebas. Los instrumentos de evaluación que se emplean en la escuela deben tener validez predictiva escolar y extraescolar y deben contribuir a pronosticar los éxitos y dificultades de los sujetos del aprendizaje tanto en los aprendizajes posteriores de las asignaturas escolares cuanto en sus desempeños ocupacionales o en su actuación social en general 5 www.evaluacion.edusanluis.com.ar
Slide 6
Validez de Construcción El programa de evaluación y cada uno de los instrumentos que lo integran deben estar construidos de acuerdo con los principios de la o las teorías didácticas que sostienen el proyecto pedagógico. Debe haber coherencia entre las teorías y las estrategias de enseñanza que se han de emplear o que se han utilizado, las teorías generales y específicas que describen y explican los procesos de aprendizaje que el programa de enseñanza se propone que los alumnos desarrollen y las teorías que fundamentan las elecciones de los tipos de instrumento, la secuencia empleada, la articulación de la enseñanza y de las instancias de evaluación que conforman el programa de evaluación diseñado. Lo mismo ocurre con las normas técnicas que deben respetarse cuando se construye cada tipo de instrumento de evaluación. De la coherencia de las teorías y el buen uso de las normas técnicas depende la validez de construcción del programa y de los instrumentos de e valuación. 6 www.evaluacion.edusanluis.com.ar
Slide 7
Validez de convergencia Esta modalidad de la validez concierne a la relación que existe entre un programa de evaluación o un instrumento y otros programas o instrumentos de validez ya conocida. Cuando un programa o una prueba de evaluación son reemplazados por otros, por ejemplo, debe demostrarse que son, por lo menos, tan buenos o mejores que los empleados anteriormente. La validez de convergencia puede tener gran importancia, pues, cuando se modifican prácticas establecidas en la evaluación para mejorar su validez, su confiabilidad o su practicidad, o cuando se busca mejorarla ampliando el campo de los aspectos evaluados 7 www.evaluacion.edusanluis.com.ar
Slide 8
Validez manifiesta Esta modalidad de la validez no se refiere a la validez intrínseca del programa o del conjunto de las pruebas o de cada prueba, sino al modo en que ellos se presentan, aparecen, ante el público www.evaluacion.edusanluis.com.ar
Slide 9
Validez de significado El significado de la evaluación es el que se mide en respuesta a la siguiente pregunta: ¿las tareas de evaluación tienen significado para los estudiantes y los motivan para alcanzar su mejor rendimiento? www.evaluacion.edusanluis.com.ar
Slide 10
Validez de retroacción La evaluación tiene un efecto de retroacción sobre la enseñanza. Un caso clásico es el que se presenta en las evaluaciones externas, que ejercen una influencia normativa sobre lo que se enseña. Conocidos los contenidos y las técnicas empleadas en las evaluaciones, ellas se convierten para los docentes en los modelos de lo que se debe enseñar y aprender. Lo mismo ocurre, con frecuencia, con los aprendizajes encarados por los alumnos, que se conforman a las pautas establecidas por los docentes en las evaluaciones que administran. Es un efecto, en este caso no deseado, de la evaluación, por cuanto, en vez de ocupar el lugar de un apoyo para el mejoramiento del aprendizaje y de la enseñanza, la evaluación se convierte en la verdadera reguladora de esos procesos. Cuando esto ocurre, el peligro es grande, ya que, como dijimos antes, el dominio de los aprendizajes en la educación es mucho más amplio que el que se puede cubrir mediante la evaluación. 10 www.evaluacion.edusanluis.com.ar
Slide 11
Confiabilidad Se dice que un instrumento de evaluación es confiable cuando une exactitud en la medición y sensibilidad para la apreciación de la presencia y las diferencias de magnitud de los rasgos que mide. 11 www.evaluacion.edusanluis.com.ar
Slide 12
Practicidad Además de las características mencionadas -validez y confiabilidad- hay que considerar una tercera, de mucha importancia en los programas de evaluación. La practicidad de un programa o un instrumento resulta de la conjunción de tres aspectos: su administrabilidad, la facilidad de análisis e interpretación de sus resultados y elaboración de conclusiones y, por último, de la evaluación de la economía de tiempo, esfuerzo y costo de su utilización 12 www.evaluacion.edusanluis.com.ar
Slide 13
La administrabilidad de un programa o un instrumento es un producto de varias características: 1. el tiempo de trabajo de los docentes que insume su diseño y construcción; 2. el tiempo que exige su puesta en práctica; 3. la claridad de la/las consigna/s, es decir, de las directivas que se dan a los estudiantes; 4. los materiales, equipos y lugares especiales necesarios para su administración; 5. la cantidad y preparación de las personas indispensables para la administración, cómputo, análisis 13 www.evaluacion.edusanluis.com.ar
Slide 14
Utilidad La utilidad de una prueba resulta de su capacidad para satisfacer las necesidades específicas relacionadas con los procesos de enseñanza y aprendizaje. Si los resultados de la evaluación no son útiles para la orientación de los alumnos, del docente, de la escuela como institución, de los padres de los alumnos, de los sectores interesados en la calidad de la educación, poco importa que, en un marco restringido, el programa y cada instrumento sean confiables y prácticos. Para que la evaluación sea útil, la validez para alguno o algunos de esos públicos es indispensable. La pregunta esencial en el diseño de un programa de evaluación es, por lo tanto, ¿qué usos se les dará a los resultados obtenidos? Son los implicados en los procesos de evaluación quienes deben dar las respuestas. www.evaluacion.edusanluis.com.ar
Slide 15
Autor de la presentación: Alberto Christin
Fuentes
Estractado de: LA CALIDAD DE LOS PROGRAMAS DE EVALUACIÓN Y DE LOS INSTRUMENTOS QUE LOS INTEGRAN Autora: Alicia R. W. de Camilloni 15 www.evaluacion.edusanluis.com.ar
Related Posts Plugin for WordPress, Blogger...

Busca en mis blogs

Google+