evaluacion de programas educativos

44

Upload: adriana-palomo

Post on 14-Jul-2015

950 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Evaluacion de programas educativos
Page 2: Evaluacion de programas educativos
Page 3: Evaluacion de programas educativos

Seriepolíticas educativas 5

Evaluación de programas:estudios de gran escalay de pequeña escala.Algunas generalizaciones

Lorin W. AndersonT. Neville Postlethwaite

Page 4: Evaluacion de programas educativos

Seriepolíticas educativas

5Evaluación de programas:estudios de gran escalay de pequeña escala.Algunas generalizaciones

Page 5: Evaluacion de programas educativos

La Academia Internacional de la Educación y el Instituto Inter-nacional para la Planeación de la Educación están publicando con-juntamente la serie de folletos Políticas educativas. El propósito dela serie es resumir lo que se sabe, con base en la investigación, deselectos temas de políticas en el campo de la educación.

La serie se diseñó para que pudieran consultarla rápidamente,“al vuelo”, los funcionarios de alto nivel que toman decisiones enlos ministerios de Educación y que, por sus ocupaciones, rara veztienen tiempo de leer informes de investigación extensos, asistir aconferencias y seminarios o enfrascarse en largos debates acadé-micos con investigadores especializados en políticas educativas.

Los folletos a) se han centrado en temas de políticas que la Aca-demia considera de alta prioridad en muchos ministerios de Edu-cación, tanto en países desarrollados como en vías de desarrollo;b) están estructurados para lograr la mayor claridad posible, ycontienen una introducción con una visión general del problema;una discusión, basada en investigaciones, de unas diez cuestionesclave que se consideran críticas para el tema del folleto, y referen-cias que proporcionan datos de apoyo y lecturas adicionales rela-cionadas con la discusión de los temas; c) se han restringido encuanto a su extensión, ya que requieren entre 30 y 45 minutos detiempo de lectura, y d) tienen el tamaño para poder llevarse en elbolsillo del saco, lo cual ofrece la oportunidad de una consultafácil y accesible dentro o fuera de la oficina.

La Academia Internacional de la Educación escogió a los au-tores de la serie por sus conocimientos especializados sobre lostemas de los folletos y también por su habilidad reconocida paracomunicar resultados complejos de investigaciones en forma talque puedan comprenderse y utilizarse fácilmente para elaborarpolíticas.

PrefacioSerie Políticas educativas

I

Page 6: Evaluacion de programas educativos

Los folletos aparecieron primero en inglés, y poco después enfrancés y español. Se está planeando traducirlos a otros idiomas.

Se publicarán cuatro folletos cada año y se podrán descargargratuitamente del sitio de Internet del Instituto Internacional parala Planeación de la Educación. Poco después de la publicaciónelectrónica se preparará una edición impresa limitada.

II

Page 7: Evaluacion de programas educativos

Este folleto

III

Incumbe cada vez más a los ministerios de Educación integrar laevaluación en los nuevos programas, especialmente aquellos en losque se gastan cantidades importantes de dinero. Por lo general,cada programa plantea preguntas que atañen al impacto y la efec-tividad del programa. Por ejemplo, es posible que los ministeriosdestinen más recursos a las aulas y a las escuelas. Pregunta: “¿Losrecursos han llegado a los destinos deseados y han tenido algúnefecto sobre el aprovechamiento de los alumnos?”. O tal vez sehaya introducido un nuevo plan de estudios. Pregunta: “¿Cómose introdujo el plan de estudios y qué problemas se presentaroncuando se implementó?”. O tal vez se haya desarrollado un nuevoprograma para maestros en activo. Pregunta: “¿Los maestrosaprendieron lo que debían aprender? Y de ser así, ¿tuvo esto algúnefecto sobre lo que aprendieron los alumnos en términos de apro-vechamiento, actitudes o comportamiento?”. Estos son algunosejemplos para el caso de la educación escolar en general, pero lomismo es válido para los nuevos programas en preescolar, en lasescuelas para los minusválidos, en la educación vocacional, etcé-tera. Todos los programas educativos requieren que se les integrela evaluación, si ha de definirse el éxito del programa y si han deidentificarse y corregirse los errores del mismo.

Cuando se introducen nuevos programas educativos no es fácilvalorar si han tenido efecto en el aprendizaje de los alumnos. El ti-po de diseño de investigación necesario para encontrar la verdade-ra ‘causa’ de los cambios en el aprendizaje de los alumnos variaráde acuerdo con el tipo de aprendizaje que se especifica en las metasdel programa. Al mismo tiempo, sin embargo, existen algunassimilitudes en términos de diseños de evaluación sólidos y defen-dibles. Por ejemplo, siempre es importante que al principio delprograma se haga una medición (o más de una) del nivel de apren-dizaje de los alumnos. No se puede afirmar que los programassean eficaces si no hay cambios mensurables en el aprendizaje de

Page 8: Evaluacion de programas educativos

los alumnos en el decurso. Igualmente, debe incluirse en el estudioalgún grupo o grupos testigo de maestros y alumnos. Si hay cam-bios mensurables en el aprendizaje de los alumnos en el decurso,pero la magnitud de los cambios no difiere de los cambios queocurren en los alumnos que no participaron en el programa,entonces no se puede afirmar que el programa haya sido efectivo.

Este folleto tiene que ver con los estudios de evaluación de pro-gramas en pequeña y gran escala. En muchos casos, se necesitantanto los estudios de pequeña escala como los de gran escala en unproyecto de evaluación determinado. En este folleto, los autoressostienen que hacen falta ambas clases de estudios, siempre ycuando se llevan a cabo con apego a los estándares científicos.

Este folleto es el quinto en la serie Políticas educativas desarro-llada por la Academia Internacional de la Educación y el Institu-to Internacional para la Planeación Educativa. Cada folleto buscaaportar las pruebas que arroja la investigación sobre temas impor-tantes relacionados con la educación.

IV

Page 9: Evaluacion de programas educativos

V

Lorin W. Andersony T. Neville Postlethwaite

Lorin W. Anderson es profesor emérito dis-tinguido de la Universidad de Carolina delSur, donde se desempeñó como profesordurante más de 30 años. Sus intereses enmateria de investigación se han centrado enlos campos de la enseñanza eficaz, el aseso-ramiento afectivo y el diseño de programasde estudio. Es editor senior de A Taxonomyfor Learning, Teaching, and Assessing: ARevision of Bloom’s Taxonomy (Una taxo-nomía para aprender, enseñar y evaluar:una revisión de la taxonomía de Bloom)(Allyn y Bacon, 2001) y es miembro de laAcademia Internacional de la Educación.T. Neville Postlethwaite ha sido muy activoen la evaluación de la educación durante losúltimos 50 años y sobre todo en la evalua-ción de sistemas educativos. Desempeñó unpapel central en el establecimiento de laAsociación Internacional para la Evalua-ción del Aprovechamiento Educativo (IEA,por sus siglas en inglés). Es profesor eméri-to de la Universidad de Hamburgo, Alema-nia, y sigue involucrado con una gama deproyectos de investigación transnacionalesrelacionados con el monitoreo de la calidadeducativa. Es miembro de la AcademiaInternacional de la Educación.

Page 10: Evaluacion de programas educativos

Esta publicación ha sido producida por laAcademia Internacional de la Educación (AIE)y el Instituto Internacional para la PlaneaciónEducativa (IIPE). Puede reproducirse y tradu-cirse a otros idiomas sin ninguna restricción.Favor de enviar una copia de cualquier publi-cación que reproduzca este texto completo oen parte a la AIE y al IIPE. Esta publicaciónestá disponible en Internet en su forma impre-sa; diríjase a: http://www.unesco.org/iiep

Los autores son responsables de la elección ypresentación de los datos que contiene estapublicación y de las opiniones que en ella seexpresan, las cuales no son necesariamente lasdel IIPE (UNESCO) y no comprometen a la Or-ganización. Los términos empleados y la pre-sentación del material en esta publicación noimplican la expresión de ninguna opinión delIIPE (UNESCO) con respecto al estatus legal deningún país, territorio, ciudad o zona, ni de susautoridades, ni con respecto a la delimitaciónde sus fronteras o límites territoriales.

Publicado conjuntamente por:El Instituto Internacionalpara la Planeación de la Educación (IIPE)7-9 rue Eugène Delacroix75116 ParísFranciayLa Academia Internacionalde la Educación (AIE)Palais des Académies1, rue Ducale1000 BruselasBélgica

VI

Page 11: Evaluacion de programas educativos

1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

2. Diferencias entre los estudiosde gran escala y de pequeña escala . . . . . . . . . . . . . . . . . 4

3. La utilización de los estudios de pequeñaescala para diseñar herramientas de recopilaciónde datos y procedimientos para el manejode datos en los estudios de gran escala . . . . . . . . . . . . . . 7

4. Los estudios de pequeña escala son partede todo un procedimiento de evaluación. . . . . . . . . . . . . 9

5. Diseño de muestra y buenasherramientas para estudiosde gran escala y de pequeña escala . . . . . . . . . . . . . . . . 12

6. Presentación de estudios de evaluaciónde pequeña escala y de gran escala . . . . . . . . . . . . . . . . 14

7. Interpretación de resultados . . . . . . . . . . . . . . . . . . . . . . 16

8. Cómo redactar para distintos públicos . . . . . . . . . . . . . . 19

9. Riesgos inherentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

Conclusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

Índice

VII

Page 12: Evaluacion de programas educativos

Seriepolíticas educativas

5Evaluación de programas:estudios de gran escalay de pequeña escala.Algunas generalizaciones

Page 13: Evaluacion de programas educativos

Los ministerios de educación tienen que evaluar los nuevos pro-gramas que introducen. Si no lo hacen, no tienen idea de si el pro-grama se ha implementado tal como se diseñó y, si así fue, quéefecto ha tenido sobre el aprovechamiento, las actitudes y/o loscomportamientos de los alumnos. La evaluación se vuelve espe-cialmente importante cuando se invierten grandes sumas de dine-ro en un programa. Por lo general, esto significa integrar la eva-luación desde el principio del estudio con el fin de ver si elprograma ha tenido el efecto deseado o efecto alguno.

En la evaluación educativa se utiliza mucha jerga, por ejemplo“evaluación formativa y sumativa”, “diseño experimental”,“investigación de encuesta”, “estudios cuantitativos y cualitati-vos” y otros numerosos términos técnicos. Esta jerga puede sermuy confusa para el lector lego. En este folleto se han examina-do los conceptos y la terminología de los estudios de evaluaciónde gran escala y de pequeña escala dentro del marco de la evalua-ción de programas. Normalmente, los estudios de pequeña esca-la abarcan hasta 20 o 30 escuelas, mientras que los estudios degran escala pueden abarcar desde 100 hasta 4,000 escuelas y hasta100,000 alumnos. Sin embargo, no se ha hecho ninguna distinciónentre estudios cuantitativos y cualitativos porque éste será tema deotro folleto.

La evaluación programática se puede definir como la recopila-ción sistemática de información sobre las características, activida-des y resultados de programas con el propósito de formarse jui-cios sobre su eficacia, y sobre cómo mejorar su eficacia y/o aportardatos para el desarrollo de programas futuros (Centros para elControl y la Prevención de Enfermedades, 1999). Como sugiereesta definición, la evaluación de un programa puede centrarse ensus características, sus actividades, sus resultados o una combi-nación de éstas.

1

Introducción

Evaluación de programas: estudios de gran escala y de pequeña escala

Page 14: Evaluacion de programas educativos

Las “características” incluyen el contexto en que funciona elprograma, los recursos utilizados para apoyar el programa y el per-sonal que lo implementa. Las “actividades” incluyen aquellasacciones que deben tomarse para implementar el programa adecua-damente. Las estrategias de instrucción, las prácticas docentes, loscomportamientos de los maestros y de los alumnos, las interaccio-nes entre maestros y alumnos y el trabajo de éstos son sólo algunasde las actividades asociadas con los programas escolares. Los “re-sultados” se refieren al impacto del programa sobre aquellas per-sonas a quienes se destina. Estos resultados se pueden especificarpor adelantado (por ejemplo, como metas del programa) o puedenser resultados no intencionales del diseño o la implementación delprograma (que a menudo se conocen como “consecuencias”).

Además de las diferencias con respecto a las características, acti-vidades y resultados, las evaluaciones de programas pueden dife-rir por sus propósitos. La evaluación puede centrarse en la efecti-vidad del programa. A esto se le denomina típicamente como“evaluación sumativa” (Scriven, 1967). La evaluación también sepuede centrar en el mejoramiento del programa. A esto se le ha lla-mado tradicionalmente “evaluación formativa”. Por último, laevaluación puede centrarse en la orientación de decisiones sobre eldesarrollo futuro de programas. Esto implica típicamente tanto laevaluación formativa como la sumativa y le da más importanciaa quien toma las decisiones que a quien hace la evaluación. Paraeste propósito, es absolutamente indispensable una comunicaciónclara y significativa entre quien evalúa y quien toma las decisiones.

Por último, aunque se les denomina en general “evaluación deprograma”, los conceptos, principios y procedimientos de evalua-ción descritos en este folleto también conciernen a la evaluaciónde sistemas educativos. En muchos sentidos, se puede ver un sis-tema educativo como un conjunto de programas con metas com-plementarias que se organizan en varias unidades administrativasy son consistentes con (o facilitan) la misión general de un sistemaeducativo.

El propósito de este folleto consiste en describir el estado actualde los conocimientos respecto al campo de la evaluación de pro-

2 Serie políticas educativas 5

Page 15: Evaluacion de programas educativos

gramas. A lo largo del folleto se ha puesto el énfasis en conceptosy principios básicos y sobre las mejores prácticas que en lo gene-ral han sido aceptadas. Este folleto está organizado en torno a sieteprincipios de una evaluación de programas sólida y defendible. Seincluye una bibliografía de publicaciones relevantes al final delfolleto.

3Evaluación de programas: estudios de gran escala y de pequeña escala

Page 16: Evaluacion de programas educativos

Los estudios de evaluaciónde gran escala y de pequeñaescala difieren en sus propósitosy alcances, así como en el gradoen que puedan generalizarsesus resultados.

Cinco características fundamentales distinguen los estudios de eva-luación de gran escala de los de pequeña escala. Si bien la diferen-cia más evidente es el tamaño, los estudios también se distinguenpor su propósito, su costo, grado de generalización de los resul-tados y tipo y complejidad del análisis de datos.a) Tamaño de la muestra: Los estudios de pequeña escala por lo

general se hacen con muestras pequeñas. Pequeño normalmen-te significa no más de 30 escuelas o 60 grupos. Puesto que estono es suficiente para cubrir las variaciones en todo un gradoescolar en un país, los estudios de pequeña escala a menudocubren sólo una región o un distrito y no todo el país. Los estu-dios de gran escala por lo general abarcan más de 100 escue-las y unos 20 a 30 alumnos en cada escuela. La muestra deescuelas proviene de todo el sistema educativo.

b) Propósito del estudio: Los estudios de pequeña escala tiendena utilizarse con propósitos exploratorios y se centran en el des-arrollo de medidas, planes de estudio y libros de texto, nuevosmétodos de enseñanza, etcétera. Los estudios de gran escala sir-ven para describir el sistema como un todo y las partes que lointegran (por ejemplo, regiones dentro del sistema). Las descrip-ciones por lo general tienen que ver con logros en distintasmaterias, actitudes y comportamientos de alumnos y maestrosy, frecuentemente, con las relaciones entre muchos de los facto-res que operan en el sistema. Los estudios de pequeña escala

4

Diferencias entre estudiosde gran escala y de pequeña escala

Serie políticas educativas 5

Page 17: Evaluacion de programas educativos

suelen utilizarse en la evaluación formativa (véase más arriba),mientras que los de gran escala se emplean usualmente con pro-pósitos de evaluación sumativa (véase más arriba).

c) Costo: Los estudios de pequeña escala cuestan mucho menosque los de gran escala. Es muy costoso emprender la recopila-ción de datos en, digamos, 200 escuelas en todo el país, no sóloen términos de la recopilación misma de los datos, sino tambiénpor lo que respecta a su manejo (captura, depuración y análisisde datos). Por el mismo costo, un estudio de pequeña escala po-dría incluir muchas observaciones y variables, y así generar unadescripción más detallada de un número limitado de escuelas.

d) Grado de generalización de resultados: Si un estudio tiene comoobjetivo un solo grado escolar y una sola materia en un sistemaeducativo, y toma muestras de escuelas y/o grupos en ese gradoescolar y esa materia dentro del sistema, los resultados puedengeneralizarse para ese nivel y esa materia en todo el sistema conciertas limitaciones (los errores estándar de muestro). Paraconocer estas limitaciones, debe informarse de los errores demuestreo para todas las estimaciones que se incluyan en el estu-dio. Cuando se emplean estudios de pequeña escala, es difícil,si no imposible, hacer tales generalizaciones debido a que loserrores de muestreo son muy grandes.

e) Tipo y complejidad del análisis de datos: En los estudios degran escala con frecuencia se requieren análisis estadísticos máscomplejos. Por ejemplo, con grandes números de escuelas ymaestros se puede examinar el efecto simultáneo de muchasvariables sobre, digamos, el aprovechamiento. Este examen esposible incluso cuando las variables representan distintas uni-dades de análisis (por ejemplo, alumno, grupo y escuela). Estostipos de análisis son importantes para identificar las interaccio-nes de las variables y su efecto en el aprovechamiento. En losestudios de pequeña escala no es posible utilizar estos tipos deanálisis por la cantidad tan pequeña de escuelas o alumnos. Losestudios de pequeña escala que incluyen cantidades adicionalesde datos cualitativos a veces pueden volverse muy caros porquela recopilación de estos datos requiere de mucho trabajo.

5Evaluación de programas: estudios de gran escala y de pequeña escala

Page 18: Evaluacion de programas educativos

Ambas clases de estudios tienen su lugar en la evaluación de pro-gramas, a veces de manera independiente y otras combinadas. Ladecisión respecto a cuál de ellas utilizar debe basarse primordial-mente en las cinco características que se detallaron anteriormente.

6 Serie políticas educativas 5

Page 19: Evaluacion de programas educativos

Los estudios de gran escalay los de pequeña escala constituyenenfoques complementarios de evaluaciónmás que enfoques diametralmente opuestos.

Algunos evaluadores consideran incompatibles los estudios degran escala y los de pequeña escala. De hecho, los estudios de pe-queña escala son parte importante de un proceso de evaluacióngeneral porque pueden utilizarse para identificar lo que debe me-dirse, definir cómo medir lo que debe medirse, establecer los pro-cedimientos para la recopilación y captura de datos y hacer prue-bas preliminares de los factores ‘compuestos’ que se construyen.a) Identificación de lo que debe medirse: Un estudio de pequeña

escala puede usarse para observar grupos en varias escuelas dis-tintas, para encontrar factores que marquen una “diferencia”entre escuelas/grupos/alumnos que logran puntuaciones altasen las pruebas y escuelas/grupos/alumnos que obtienen pun-tuaciones bajas. Esta lista de factores puede emplearse luegopara generar hipótesis que puedan probarse en un estudio degran escala.

b) Definición de cómo medir: Es necesario medir los factoresimportantes que se identifican en un estudio de pequeña esca-la. Los estudios de pequeña escala permiten hacer una explora-ción de bajo costo de enfoques alternativos para realizar lamedición. Esto ofrece la oportunidad de probar la validez yconfiabilidad de cada medición y decidir la mejor forma demedir (por ejemplo, encuestas, entrevistas, observaciones).

c) Instrumentos de ensayo y procedimientos de recopilación dedatos: Es necesario ensayar en pequeña escala todos los instru-mentos que se utilizarán en estudios de gran escala y luegomodificarlos con base en el análisis de los datos de ensayo. Esto

7

La utilización de los estudios de pequeña escalapara diseñar herramientas de recopilación de datosy procedimientos para el manejo de datosen los estudios de gran escala

Evaluación de programas: estudios de gran escala y de pequeña escala

Page 20: Evaluacion de programas educativos

permite cambiar los procedimientos de recopilación de datospara asegurar una mejor recopilación en el estudio principal.Además, pueden ensayarse los libros de códigos que se requie-ren para la captura de datos antes de que se utilicen en el estu-dio principal.

d) Construcción de factores compuestos: En los estudios de granescala a menudo se emplean como variables independientesclave factores compuestos que se construyen a partir de ciertasvariables. Por ejemplo, el nivel de instrucción y el estatus laboralde los padres se combinan con frecuencia en un nuevo factorcompuesto denominado “estatus socioeconómico”. Los estu-dios de pequeña escala permiten ensayar cabalmente todos lospasos en el proceso de construcción antes del estudio principal.

8 Serie políticas educativas 5

Page 21: Evaluacion de programas educativos

Un ejemplo del uso de estudiosde pequeña escala para desarrollary probar nuevos materialesde planes de estudio.

Existen seis pasos principales en el desarrollo de materiales paraplanes de estudio.a) Establecimiento de metas y objetivos educativos: Por lo gene-

ral, los gobiernos establecen las metas de un sistema educativo.Sin embargo, estas metas a menudo son abstractas, y paraorientar el desarrollo de materiales de planes de estudio serequiere de consultas con grupos interesados para trazar metasy objetivos más específicos (susceptibles de volverse operacio-nales). Por ejemplo, para la clasificación de metas y objetivostal vez se empiece por consultar a pequeñas muestras de emple-adores, académicos, maestros y el público en general. Estas con-sultas proporcionarán información con respecto a conocimien-tos, habilidades y actitudes valoradas. Además, podrán hacerseestudios en pequeña escala para identificar cómo han cambia-do las situaciones y expectativas de distintas categorías de alum-nos (basadas en género, antecedentes socioeconómicos, ubica-ción geográfica, etcétera) y las implicaciones que tendrán estoscambios para las modificaciones en los planes de estudio.

b) Redacción de las unidades o módulos: Este paso no requiere deun estudio de evaluación, si bien el establecimiento de los pará-metros acordados (como por ejemplo la estructura, el conteni-do y el formato) tal vez exija un estudio de pequeña escala paradeterminar el grado de acuerdo.

c) Ensayo de materiales en pequeña escala: En este paso, por logeneral se efectúa un estudio de pequeña escala en seis a ochoescuelas cerca del centro de diseño del plan de estudios de

9

Los estudios de pequeña escala son partede todo un procedimiento de evaluación

Evaluación de programas: estudios de gran escala y de pequeña escala

Page 22: Evaluacion de programas educativos

manera que haya mucha interacción entre los desarrolladoresdel plan de estudios y los maestros en las escuelas “de ensayo”.Esta cobertura pequeña de escuelas permite la recolección deinformación “a fondo”. Por ejemplo, se desarrollan pruebaspara cada módulo de unidad con el afán de identificar los obje-tivos que no se están alcanzando plenamente y determinar lasrazones de ese mal desempeño. A los maestros se les preguntasobre los problemas que encuentran en cada parte de los mate-riales escritos y esta información se relaciona con los resultadosreales de las pruebas.

d) Evaluación a gran escala de los nuevos materiales: En este pasose lleva a cabo un estudio a gran escala en el que se elige unamuestra de unas 60 escuelas que representan la gama total deescuelas a las cuales estará destinado el plan de estudios. Losmaestros participantes reciben capacitación para que compren-dan y puedan implementar el nuevo plan de estudios adecuadao “fielmente”. En general, los desarrolladores del plan de estu-dio necesitan saber si un objetivo se está alcanzando bien (alre-dedor de 80 por ciento de los alumnos contestan correctamen-te los temas relacionados), moderadamente (alrededor de 50por ciento contesta correctamente los temas relacionados), omal (menos de 30 por ciento contesta correctamente los temasrelacionados). Se identifican las partes débiles del plan de estu-dios y se hacen las modificaciones necesarias. Además, se ter-minan y se documentan los materiales y procedimientos decapacitación de los maestros.

e) Implementación a gran escala (y a veces evaluación de los mate-riales de capacitación de los maestros): En este punto se capa-cita a los maestros y empieza la enseñanza de los nuevos mate-riales en las escuelas. En ocasiones los evaluadores integran unmecanismo de revisión para conocer la adecuación y eficacia delos materiales y procedimientos de capacitación de maestros enuna muestra grande de los mismos. Estos materiales deben ayu-dar a los maestros a comprender el plan de estudios y adquirirlas habilidades necesarias para implementarlo eficazmente talcomo fue diseñado. En este momento debe evaluarse la eficacia

10 Serie políticas educativas 5

Page 23: Evaluacion de programas educativos

de la capacitación en términos de los cambios logrados en losconocimientos y habilidades de los maestros.

f) Estudio de evaluación ‘global’ de gran escala: El último paso enel proceso se lleva a cabo dos o tres años después de que se hayaimplementado el plan de estudios en las escuelas. En estemomento se realiza una evaluación de gran escala. Este estudioconsiste en tomar una muestra de probabilidad de escuelas(véase más abajo) tal que no sean demasiado grandes los erro-res para estimar el aprovechamiento de los alumnos. Además,se identifican grupos testigo de maestros y alumnos y se hacenmediciones de valores de referencia de alumnos “dentro de pro-grama” y “fuera de programa”.

11Evaluación de programas: estudios de gran escala y de pequeña escala

Page 24: Evaluacion de programas educativos

Para diseñar estudios de evaluaciónde gran escala y de pequeña escalasólidos y defendibles es necesario poneratención a diversos asuntos técnicos.

Los estudios de gran escala por lo general se llevan a cabo conmuestras de escuelas y alumnos y no con todas las escuelas y todoslos alumnos en una población objetivo. Los estudios de pequeñaescala por lo general se basan en muestras de valor.a) Muestras de probabilidad para estudios de gran escala: Los

estudios de gran escala deben contar con muestras de proba-bilidad tales que cada persona en la población tenga una pro-babilidad diferente de cero de formar parte de la muestra. Típi-camente, los evaluadores educativos incluyen muestras de dosetapas, en las cuales las escuelas son las primeras en ser selec-cionadas con probabilidad proporcional al tamaño de la pobla-ción definida dentro de cada escuela. Luego se seleccionan losalumnos al azar dentro de cada escuela elegida. En ocasiones seutilizan muestras de tres etapas, en las que las regiones o distri-tos son la primera etapa y en consecuencia los primeros en serseleccionados. Puesto que los marcos de muestreo y las tasas derespuesta rara vez son perfectas, deben calcularse ponderacio-nes de muestreo por la variación de probabilidades y la falta derespuestas. Por último, debido a que hay muestras de escuelasasí como de alumnos, habrá cierto error de muestreo. Estoserrores deben calcularse para cada estimado que se dé en elinforme de evaluación.

b) Muestras de valor para estudios de pequeña escala: En los estu-dios de pequeña escala por lo general se eligen muestras de va-lor. Las escuelas muestra normalmente se seleccionan de mane-ra que proporcionen una buena cobertura de la variedad de

12

Diseño de muestra y buenas herramientaspara estudios de gran escala y de pequeña escala

Serie políticas educativas 5

Page 25: Evaluacion de programas educativos

escuelas de un sistema escolar. Antes de sacar las muestras esimportante que los evaluadores obtengan información relevan-te sobre las escuelas que tal vez se incluyan en el estudio. Si, porejemplo, el propósito del estudio es ver las diferencias en elaprovechamiento en matemáticas, entonces se eligen las escue-las de manera que abarquen las diferencias conocidas en elaprovechamiento en matemáticas. Si el estudio tiene la inten-ción de examinar las diferencias en los problemas de conductaen las escuelas, entonces la muestra debe basarse, por ejemplo,en la información de los inspectores respecto a la gravedad delos problemas de conducta. Con frecuencia se toman muestras“rectangulares” para poder probar el desempeño de los alum-nos en los extremos de la distribución.

c) Las pruebas, cuestionarios y cualesquiera otras herramientasutilizadas en todos los estudios de evaluación deben dar comoresultado mediciones con un alto grado de confiabilidad y vali-dez. Cuando se usa la observación, el programa de observacióndebe prepararse de tal forma que cualquier observador capa-citado pueda utilizarlo para producir registros o codificacionesprecisos basados en las observaciones. Además, debe existir unalto grado de confiabilidad entre observadores (es decir, con-senso entre ellos). Cuando se espera que el observador describalo observado, en lugar de hacer inferencias sobre ello, la confia-bilidad entre observadores debe ser sumamente alta (no menosde 0.90). Cuando se requiere de la inferencia por parte de losobservadores, la confiabilidad entre observadores por lo gene-ral es menor, pero no debe ser menos de 0.80.

13Evaluación de programas: estudios de gran escala y de pequeña escala

Page 26: Evaluacion de programas educativos

La calidad del informe debe apegarsea cierto estándar, independientementedel tipo de estudio que se lleve a cabo.

Una de las cuestiones más importantes en la elaboración de un estu-dio de evaluación es el informe de la investigación que se ha llevadoa cabo. Es importante que este informe contenga suficiente detalle,de manera que otros evaluadores puedan duplicar el estudio. El in-forme sobre el estudio de evaluación debe tratar los siguientes temas:a) Propósitos del estudio: Los propósitos del estudio y las pregun-

tas de investigación relacionadas con él deben quedar muy cla-ros y su relevancia debe ser evidente. Debido a que el énfasis enmuchos estudios de evaluación de programas se pone en la efec-tividad del programa, esto significa diseñar un estudio que per-mita al evaluador atribuir los cambios en el aprendizaje de losalumnos (aprovechamiento, actitudes y/o conductas) al progra-ma en sí, y no a toda una serie de factores ajenos (por ejemplo,diferencias en el aprendizaje anterior de los alumnos, diferen-cias en la calidad de los maestros, diferencias en la estructuraorganizacional de la escuela, etcétera).

b) Cuestionarios: Las preguntas que se incluyan en el cuestionariodeben ensayarse plenamente. En caso de que se construyan escalasa partir de grupos de preguntas, deben existir pruebas claras deque la confiabilidad de la escala es alta y de que la escala presen-ta una valoración válida de la hipótesis que se está considerando.

c) Pruebas: Hay que definir claramente los objetivos cognitivosespecíficos antes de empezar a redactar las preguntas. Las pre-guntas deben redactarse, revisarse y luego ensayarse, y debendesecharse las malas. La estructura final de la prueba (en sutotalidad o en sus partes) debe concordar con las preguntas deinvestigación.

14

Presentación de estudios de evaluaciónde pequeña escala y de gran escala

Serie políticas educativas 5

Page 27: Evaluacion de programas educativos

d) Muestreo: La población objetivo del estudio debe describirse conprecisión. Si se requiere de una muestra de valor, debe quedarclaro si se trata de una distribución rectangular. Si se requiere deuna muestra de probabilidad, debe quedar clara la tolerancia deerror (típicamente, no debe ser mayor de 5 por ciento en el casode un porcentaje). Además, es necesario proporcionar informa-ción sobre la forma en que se obtuvo la muestra y cómo se cal-cularon las ponderaciones de la muestra (si es que hubo). Debenestablecerse las reglas con que se decidirá la exclusión del estudiode alumnos que pertenecen a la población definida, y no debepermitirse la exclusión de la población deseada de más de 5 porciento de los alumnos pertenecientes a la población definida.

e) Realización del estudio: Deben hacerse explícitos los pasos paraproducir los instrumentos de recopilación de datos, contactarlas escuelas, seguirle la pista a las escuelas, los maestros y losalumnos, seleccionar y capacitar a los recolectores de datos,administrar los instrumentos y devolverlos a un lugar central.

f) Captura y depuración de datos: Deben quedar claros la prepa-ración del programa de captura de datos, la capacitación dequienes van a capturar los datos, los pasos involucrados en lacaptura y depuración de los datos y las reglas utilizadas paratomar decisiones respecto a los datos.

g) Análisis de los datos: Los distintos tipos de análisis de datos quese llevarán a cabo deben ser claros y apropiados para respon-der a las preguntas de investigación. Además, los tipos de aná-lisis de datos deben especificarse en una etapa temprana delproceso de planeación. Se pueden practicar análisis de datosadicionales según los justifique la situación.

h) Diseminación de resultados: Es muy útil producir distintosinformes. Uno es el mismo informe de investigación, que loexplica todo. Otro es un informe breve para los elaboradoresde políticas de mayor jerarquía. El tercero, para el público engeneral, no es fácil de redactar porque tiene que escribirse consencillez, pero sin distorsionar los resultados. Los resultados dealgunos de los estudios de evaluación de mayor éxito se handifundido mediante la televisión y, cada vez más, por Internet.

15Evaluación de programas: estudios de gran escala y de pequeña escala

Page 28: Evaluacion de programas educativos

Los resultados de los estudios nohablan por sí mismos; deben serinterpretados para beneficio de loselaboradores de políticas y otraspersonas interesadas.

La interpretación es el proceso de darle sentido a los datos que serecopilaron, analizaron y reportaron. Con demasiada frecuencialos datos se reúnen y analizan, pero el siguiente paso (poner losresultados dentro de un contexto y darles un sentido antes dedifundirlos) no se da. Por ejemplo, ¿qué significa que el 45 porciento de los adolescentes que respondieron a un cuestionariocreen que beber alcohol y consumir drogas es dañino para susalud? ¿Eso es bueno? El porcentaje, ¿está aumentando o dismi-nuyendo? ¿Cómo comparar esto con otras escuelas, agencias deeducación locales o países? ¿Qué significa en términos de salud yseguridad? ¿Qué significa en términos de la eficacia de un progra-ma para prevenir el consumo de drogas y alcohol? Cuando seatienden las inquietudes respecto a la interpretación, deben seguir-se algunos lineamientos generales.a) Paradigmas: La interpretación siempre requiere que se exami-

nen los datos a través de una lente, un marco de referencia,algún modelo o paradigma. Los datos que se recopilan duran-te las observaciones que se hacen en las aulas pueden interpre-tarse desde la perspectiva del marco de referencia del modeloproceso-producto (en el que se cree que las conductas del maes-tro influyen directamente en el aprovechamiento del alumno) odel modelo de mediación del proceso (en el que se cree que laspercepciones y las conductas de los alumnos median o intervie-nen entre las conductas del maestro y el aprovechamiento delalumno). Si bien los datos son los mismos, las interpretaciones

16

Interpretación de resultados

Serie políticas educativas 5

Page 29: Evaluacion de programas educativos

de esos datos serán distintas, de acuerdo con el modelo (lente)a través del cual se ven o se examinan los datos.

b) Uso de comparaciones: La interpretación casi siempre implicaalgún tipo de comparación. Los datos de referencia, los grupostestigo o de comparación, los estándares de desempeño espera-do predefinidos y los estándares que indican un significado esta-dístico son todos ejemplos de comparaciones potencialmenterelevantes. El uso de valores de referencia significa que los datosse recopilan antes de adoptar e implementar un programanuevo o modificado. Los datos que se obtienen posteriormen-te a la implementación se comparan con los valores de referen-cia para determinar el cambio en el decurso. Los grupos testigoo de comparación son grupos de alumnos que no participan enel programa que se está evaluando, pero que son similares enmuchos aspectos a los que participan en el programa (por ejem-plo, en género, raza y aprovechamiento anterior). La compara-ción, digamos, de las puntuaciones que obtienen en las pruebaslos alumnos que participan en el programa con las puntuacio-nes obtenidas por los que no participan permite llegar a una in-terpretación del impacto que tiene el programa en el aprovecha-miento de los alumnos. Los estándares de desempeño esperadopredefinidos son niveles de desempeño que indicarán el éxito oeficacia del programa. Por ejemplo, se podrá afirmar que unprograma vocacional técnico ha sido “exitoso” si 80 por cien-to de los alumnos están trabajando en un empleo relacionadocon el programa dentro de los seis meses posteriores a la gra-duación. Por último, los estándares de significado estadístico seutilizan conjuntamente con los valores de referencia y los gru-pos testigo o de comparación. El significado estadístico indicasi la diferencia entre los valores de referencia y los datos pos-teriores a la implementación o entre los alumnos del progra-ma y los de comparación es lo suficientemente grande que nopueda atribuirse a acontecimientos aleatorios o “al azar”.

c) Relevancia estadística y relevancia sustantiva: Cuando se hacenevaluaciones cuantitativas es importante recordar que relevan-cia estadística no siempre significa relevancia sustantiva. Ganar

17Evaluación de programas: estudios de gran escala y de pequeña escala

Page 30: Evaluacion de programas educativos

la batalla con respecto a la relevancia estadística no es lo mismoque ganar la guerra de políticas públicas o de relevancia prác-tica. Una reducción de uno o dos por ciento en la tasa de anal-fabetismo no resultará tan persuasivo para los elaboradores depolíticas como un cambio de 10 por ciento, independientemen-te del nivel de relevancia estadística asociado con los resultados.

d) Fuentes múltiples de datos: La interpretación mejora cuandoexisten y se toman en cuenta fuentes múltiples de datos. Si, porejemplo, un programa se centra en disminuir el número dealumnos que desertan antes de terminar sus estudios, los datosadicionales a las tasas de deserción mejorarán nuestra compren-sión respecto a la eficacia del programa. Ejemplos de estosdatos tal vez incluyan el desempeño académico del alumno, susentido de pertenencia, su nivel de participación en la vida esco-lar y sus patrones de amistad dentro y fuera de la escuela.

e) Grado de generalización: Deben discutirse los alcances y lími-tes del grado de generalización de los resultados de evaluación.Una evaluación rigurosa, libre de grandes errores y que revelaresultados importantes, puede ayudar a demostrar que un pro-grama ha funcionado en un contexto particular. Desafortuna-damente, ninguna evaluación por sí sola puede demostrar queel programa funcionará igualmente bien en otro contexto.

f) Perspectivas distintas: Como la interpretación depende de lalente o marco de referencia de la persona que hace la interpre-tación, por lo general redunda en una mayor comprensióncuando varias personas examinan y comentan los datos. Real-mente se consigue un resultado muy valioso cuando personasque trabajan desde distintas perspectivas llegan a la mismainterpretación.

18 Serie políticas educativas 5

Page 31: Evaluacion de programas educativos

En la elaboración de los informesde evaluación, hay que poner atenciónal público al que va destinado el informe.

Si bien los informes de evaluación los redactan evaluadores, noson éstos típicamente los destinatarios. En general, los informes deevaluación van dirigidos a tres públicos: educadores, políticos y elpúblico en general (incluyendo los integrantes de los medios noti-ciosos). Con pocas excepciones, los integrantes de estos públicosno poseen una comprensión de las cuestiones técnicas ni estánfamiliarizados con la terminología que emplean los que realizan ydifunden las evaluaciones. Cuando se escribe para estos públicos,deben seguirse estos lineamientos.a) Públicos destinatarios: El informe debe redactarse para un

público destinatario de lectores comunes que tal vez no esténfamiliarizados con los problemas y los temas materia de lainvestigación. Para aumentar la probabilidad de alcanzar estameta, hay que incluir a “lectores comunes” en el grupo de per-sonas entre quienes circulan los borradores del informe. Ade-más, los resultados deben presentarse en un lenguaje accesible,directo y conciso. Evítese el uso de terminología técnica hastadonde sea posible, y si es necesario usar esta terminología,tómese el tiempo para definir los conceptos.

b) Contextos: Hay que asegurarse de incluir información sobre elcontexto dentro del cual se llevó a cabo la evaluación. La infor-mación contextual es necesaria para ayudar a los públicos ainterpretar la evaluación. El contexto deberá describirse consuficiente detalle para que los integrantes de los diversos públi-cos puedan determinar el probable impacto del contexto sobrela implementación y la eficacia del proyecto.

19

Cómo redactar para distintos públicos

Evaluación de programas: estudios de gran escala y de pequeña escala

Page 32: Evaluacion de programas educativos

c) Objetivos y propósitos: Hay que vincular los resultados con elpropósito y los objetivos para los cuales se realizó la evaluación.Con frecuencia el formato de preguntas y respuestas es útil eneste sentido; las preguntas se derivan del propósito y de losobjetivos planteados y las respuestas de los datos que se reco-pilaron, analizaron e interpretaron.

d) Equilibrio entre formatos informativos: Debe evitarse la depen-dencia total de la narrativa o de tablas y cuadros. Hay que bus-car el equlibrio entre ambos formatos. Cuando se incluyentablas y/o cuadros, conviene utilizar la narrativa para “llevar dela mano” al lector en la revisión de los datos que se incluyan ose resuman en las tablas y cuadros para mejorar su comprensión.

e) Honradez: La mayoría de las evaluaciones producen una mezclade resultados positivos y negativos que deben presentarse enforma equilibrada. Cuando los resultados son contradictorios oinconsistentes con los de evaluaciones similares, hay que dar ex-plicaciones razonables de tales contradicciones e inconsistencias.

f) Vinculación de resultados y recomendaciones: Hay que resaltarel vínculo entre las recomendaciones propuestas y los resulta-dos de la evaluación. Siempre que sea posible, antes de emitir elinforme final conviene revisar las recomendaciones propuestascon aquellos que serán responsables de implementarlas.

g) Resumen ejecutivo: Inclúyase siempre un resumen ejecutivo.Los políticos, sobre todo, a menudo no tienen el tiempo paraleer el informe completo. El resumen ejecutivo debe incluir,como mínimo, los propósitos del estudio y las preguntas deinvestigación relacionadas con ellos, los métodos utilizadospara realizar el estudio, los principales resultados del estudio ylas recomendaciones que se derivan de los resultados para laelaboración de políticas, para la práctica y para la investigación.

h) Conflictos en la interpretación: Si elabora el informe un equipode evaluadores, hay que aclarar cualesquier diferencias que sur-jan entre ellos en cuanto a la interpretación o el punto de vistadel informe, y esas diferencias o bien deben resolverse o incluir-se en el informe como comentarios en el texto o en una sección

20 Serie políticas educativas 5

Page 33: Evaluacion de programas educativos

especial. Sin embargo, sólo una persona debe ser responsablede la calidad y exhaustividad del informe escrito final.

i) Pulimento y revisión: Asegúrese de revisar y de “pulir” el borra-dor final del informe antes de difundirlo. Es común que serequieran varios lectores para pescar todos los errores y mejo-rar la redacción en general del informe. Aunque es tediosa, lacorrección de pruebas contribuye en mucho a dar la impresiónde que se trata de un estudio y de un informe de calidad.Muchos de los que desean criticar el estudio, el informe y/o lasrecomendaciones a menudo buscarán cualquier razón, sinimportar lo trivial que sea, para justificar sus críticas.

21Evaluación de programas: estudios de gran escala y de pequeña escala

Page 34: Evaluacion de programas educativos

Existen riesgos inherentesa todos los estudiosde evaluación.

Los estudios de evaluación con frecuencia cuestionan los procedi-mientos y las prácticas establecidos; por lo tanto, es posible que sevean negativamente o con gran suspicacia. Esto puede dar pie aciertos riesgos que quizá impidan que se utilice el informe de eva-luación para los fines que lo motivaron. A continuación se ennu-meran algunos de los riesgos inherentes que se presentan conmayor frecuencia en los estudios de evaluación.a) Supresión de resultados: Puede suceder que algunos burócratas,

que están actuando en nombre de los gobiernos, decidan quéaspectos del estudio deben o no deben hacerse públicos. Se hasabido de casos en que una sola persona lee y tacha con tintaroja aquellas partes del borrador que no deben incluirse en elinforme final. La razón de esta práctica es que la persona temeque un resultado en particular podría incomodar al gobierno.También puede suceder que un gobierno impida la publicaciónde los resultados de un estudio de evaluación y dé una serie dejustificaciones de su actitud. Entre las razones que dan están lassiguientes: (i) el estudio deja sin responder algunas dudasimportantes; (ii) muchas de las pruebas no son concluyentes;(iii) las cifras se prestan a múltiples interpretaciones; (iv) ciertashallazgos son contradictorios, y (v) se han puesto en tela de jui-cio algunas de las conclusiones y recomendaciones principales(véase Lynn y Jay, 1985). Otra forma más de supresión consis-te en decir que es necesario duplicar los resultados antes de quese puedan publicar los resultados del estudio actual.

b) Jerarquización (ranking) de países y regiones o escuelas: Cuan-do se han incluido todas las escuelas de un país en los estudios

22

Riesgos inherentes

Serie políticas educativas 5

Page 35: Evaluacion de programas educativos

de evaluación, a veces se acostumbra clasificar las escuelas oregiones en orden de resultados, y estos resultados se hacen delconocimiento público. Esto se basa en el fundamento de que“los padres de familia desean conocer los resultados”. Es fácilpara los maestros de una escuela en una zona socioeconómicaalta lograr que los alumnos aprendan mucho y se desempeñenbien. Es mucho más difícil para los maestros de escuelas enzonas socioeconómicas muy pobres lograr que sus alumnosalcancen este mismo nivel de desempeño. En consecuencia,algunos países producen clasificaciones sólo después de tomaren cuenta (o “controlar”) las diferencias socioeconómicas.Tiene poca utilidad ordenar jerárquicamente a las escuelas enestudios donde sólo se tomó en cuenta una muestra de escue-las. Sin embargo, cuando en un estudio se han incluido todaslas regiones y si las estimaciones, digamos, de aprovechamien-to son válidas y precisas, es razonable utilizar los datos para cla-sificar las regiones. Desde luego, la conveniencia de hacerlo seconvierte en una cuestión política.El lugar que le corresponde a un país en un estudio internacio-nal de aprovechamiento es meramente resultado de qué otrospaíses se incluyeron en el estudio. Mucho más importante quesimplemente clasificar los países es comprender las razones delas diferencias entre ellos. Con esta información se hace posiblemejorar los sistemas educativos de los países que tienen un bajonivel de aprovechamiento.

c) Basar generalizaciones sobre unas cuantas escuelas: Es muyposible que se dé el caso en que se lleve a cabo un estudio muybueno sobre, digamos, 12 escuelas. Sin embargo, no es posibleque 12 escuelas representen una buena muestra de todas lasescuelas, salvo en un país pequeño en el que todas las escuelasson muy similares en términos de varios factores demográficos(por ejemplo, tamaño, estatus socioeconómico de los alumnos,etcétera). Debido a que éste no es por lo general el caso, hay quetener mucho cuidado de NO generalizar los resultados de unestudio que contenga muy pocas escuelas con respecto a todauna región o todo un país.

23Evaluación de programas: estudios de gran escala y de pequeña escala

Page 36: Evaluacion de programas educativos

d) Estudios de evaluación que incluyan pruebas de alto impacto(high stakes testing): Las pruebas de alto impacto son aquellascuyos resultados se utilizan para tomar decisiones que cambianla vida. Las decisiones pueden referirse a una escuela, a unamaestra o incluso a un alumno. Por ejemplo, en algunos siste-mas escolares es posible que se clausure un plantel o que sereemplace a todo su personal si tiene muy pobres resultados deaprovechamiento durante tres o cuatro años. De manera seme-jante, tal vez se determine que hay que ponerle atención espe-cial a una maestra que ha tenido invariablemente muy pobresresultados con sus alumnos durante un periodo similar. Cuan-do se realizan pruebas de alto impacto (high stakes) (i), todoslos alumnos de todas las escuelas en un grado escolar determi-nado deben incluirse en el estudio y (ii) los resultados del estu-dio deben ser consistentes a lo largo de un periodo razonable(por ejemplo, de tres a cinco años).

e) Confusión entre correlación y causalidad: El propósito de lamayoría de las evaluaciones de programas es vincular la imple-mentación del programa con alguna medición de aprendizajeestudiantil. Sin embargo, en la mayoría de las circunstanciasexisten factores independientes del programa que podríaninfluir en el aprendizaje de los alumnos. Si la implementacióndel programa es uno de varios factores asociados con el aumen-to en el aprendizaje de los alumnos, puede afirmarse que talimplementación se correlaciona con el aprendizaje de los alum-nos. Sin embargo, a menos que se eliminen los otros factores,no puede afirmarse que la implementación provocó el aumen-to en el aprendizaje de los alumnos. Los estudios de evaluaciónque no están bien diseñados pueden conducir a una confusiónentre correlación y causalidad. Es necesario contar con estudiosde evaluación bien diseñados para desenredar adecuadamentela correlación de la causalidad.

24 Serie políticas educativas 5

Page 37: Evaluacion de programas educativos

En este folleto se ha hecho hincapié en que los estudios de evalua-ción de programas, ya sean de gran escala o de pequeña escala,deben planearse desde el principio del programa y es imprescindi-ble que se realicen con rigor científico. Ambos tipos de estudio porlo general forman parte de todo un paquete de evaluación de unprograma en particular. Se dio un ejemplo del uso de ambos tiposde estudio en un programa para desarrollar materiales de planesde estudio. Sin embargo, sería igualmente cierto con referencia ala evaluación de cualquier programa de gran escala.

Los estudios de pequeña escala se utilizan para identificar varia-bles o factores importantes que deben incluirse en un estudio gran-de, para ensayar elementos de pruebas y preguntas de cuestiona-rios, para decidir la mejor manera de elaborar factores o hipótesisy para contar con algunos ejemplos detallados de puntos genera-les que tal vez surjan de un estudio grande. Los estudios de peque-ña escala también se usan para ensayar procedimientos que seemplearán en estudios de mayor escala. Sin embargo, es imposi-ble generalizar a partir de estudios de pequeña escala. Las genera-lizaciones sólo pueden hacerse a partir de estudios de gran escalabasados en muestras de probabilidad.

El rigor científico que debe aplicarse en ambos tipos de estudioquedó ejemplificado con los buenos procedimientos de muestreo,ya sea para muestras de probabilidad o para muestras de valor. Sehicieron algunas sugerencias para la presentación de los estudiosde evaluación y para el cuidado que debe tenerse en la interpre-tación de los resultados.

Cualquiera que sea el tipo de estudio que se realiza, los infor-mes a menudo se redactan para distintos tipos de públicos. Laredacción de estos informes debe hacerse con cuidado. Se ofrecie-ron consejos basados en las experiencias de los dos autores. Por

25

Conclusión

Evaluación de programas: estudios de gran escala y de pequeña escala

Page 38: Evaluacion de programas educativos

último, existen algunos riesgos inherentes cuando se realizan estu-dios de evaluación. Se dieron algunos ejemplos de los tipos de ries-gos y se sugirieron maneras de enfrentarlos.

26 Serie políticas educativas 5

Page 39: Evaluacion de programas educativos

Centers for Disease Control and Prevention. (1999). Framework for pro-

gram evaluation in public health (Marco para la evaluación de progra-

mas en salud pública). Atlanta, GA: Author.

Lewy, A. (Ed.). (1977). Handbook of curriculum evaluation (Manual de

evaluación de planes de estudio). Paris: IIEP-UNESCO.

Lewy, A. (1991). National and school-based curriculum development (De-

sarrollo de planes de estudio nacionales y basados en la escuela). Fun-

damentals of Educational Planning Series Núm. 40. Paris: IIEP-UNESCO.

Lynn, J. and Jay, A. (1985). Yes, Prime Minister (Sí, Primer Ministro).

London: BBC.

Kish. L. (1987). Statistical design for research (Diseño estadístico para

la investigación). New York: John Wiley & Sons.

OECD (2005). PISA 2003 Technical report (Informe técnico). Paris: OECD.

OECD (2005). PISA 2003 Data Analysis Manual (Manual de análisis de

datos). Paris: OECD.

Patton, M.Q. (1997). Utilization-focused evaluation: The new century

text (Evaluación centrada en la utilización: texto para el nuevo siglo).

Thousand Oaks, CA: Sage.

Payne, D.A. (1994). Designing educational project and program evalua-

tions: A practical overview based on research and experience (Diseño

de evaluaciones de proyectos y programas educativos: una visión gene-

ral práctica basada en la investigación y la experiencia). Boston: Klu-

wer Academic Publishers.

Schubert, W. H. (1986). Curriculum: perspective, paradigm, and possibi-

lity (Planes de estudio: perspectiva, paradigma y posibilidad). New

York: MacMillan.

Scriven, M. (1967). The methodology of Evaluation (La metodología de

la evaluación), in R. W. Tyler, R. Gagné & M. Scriven (Eds.), Perspec-

tives of curriculum evaluation (Perspectivas de la evaluación de planes

de estudio) (AERA Monograph Series on Curriculum Evaluation, Núm.

1. Chicago: Rand McNally.

27

Referencias

Evaluación de programas: estudios de gran escala y de pequeña escala

Page 40: Evaluacion de programas educativos

Wolf, R. M. (1990). Evaluation in education, 3rd edition (Evaluación en

la eduación, 3ª. ed.). Westport, CT: Praeger Publishers.

Payne, D.A. (1994). Designing educational project and program evalua-

tions: A practical overview based on research and experience (Diseño

de evaluaciones de proyectos y programas educativos: una visión gene-

ral práctica basada en la investigación y la experiencia). Boston: Klu-

wer Academic Publishers.

28 Serie políticas educativas 5

Page 41: Evaluacion de programas educativos

La Academia Internacional de la Educación (AIE) es una asociación cien-tífica sin fines de lucro que promueve la investigación educativa, su difu-sión y la aplicación de sus resultados. Fundada en 1986, la Academia sededica a fortalecer las aportaciones de la investigación, resolver los pro-blemas críticos de la educación en todo el mundo y proporcionar unamejor comunicación entre los responsables de elaborar las políticas, losinvestigadores y los profesionales de la educación. La sede de la Acade-mia se encuentra en la Academia Real de Ciencia, Literatura y Artes, enBruselas, Bélgica, y su centro de coordinación está en la Universidad Tec-nológica Curtin, en Perth, Australia.

El propósito general de la Academia consiste en fomentar la excelenciaacadémica en todos los campos de la educación. Para lograr este fin, laAcademia proporciona síntesis oportunas de resultados de investigacionesde importancia internacional. También hace evaluaciones de investigacio-nes, de sus bases probatorias y de sus aplicaciones a las políticas públicas.

Los miembros de la Junta de Directores de la Academia son:• Erik De Corte, Universidad de Leuven, Bélgica (Presidente);• Barry Fraser, Universidad Tecnológica Curtin, Australia (Director Eje-

cutivo);• Monique Boekaerts, Universidad Leiden, Países Bajos;• Jere Brophy, Universidad Estatal de Michigan, Estados Unidos de Nor-

teamérica;• Eric Hanushek, Instituto Hoover, Stanford, Estados Unidos de Norte-

américa;• Denis Phillips, Universidad Stanford, Estados Unidos de Norteamérica;• Sylvia Schmelkes, Departamento de Investigaciones Educativas, México.

Los siguientes individuos, todos ellos miembros de la Academia, pertene-cen al Comité Editorial para la serie Políticas educativas.

• Lorin Anderson, Universidad de Carolina del Sur,Estados Unidos de Norteamérica;

• Eric Hanushek, Instituto Hoover, Stanford,Estados Unidos de Norteamérica;

• T. Neville Postlethwaite, Universidad de Hamburgo, Alemania;• Kenneth N. Ross, Instituto Internacional

para la Planeación Educativa, París, Francia.

http://www.smec.curtin.edu.au/iae/

La Academia Internacionalde la Educación

Page 42: Evaluacion de programas educativos

El Instituto Internacional para la Planeación de la Educación (IIPE) se esta-bleció en París en 1963 bajo los auspicios de la UNESCO y con ayudafinanciera inicial del Banco Mundial y la Fundación Ford. El gobiernofrancés proporcionó recursos para el edificio y el equipo del IIPE. En añosrecientes, el IIPE ha recibido apoyo de la UNESCO y de una amplia gamade gobiernos y organismos.El IIPE es parte integral de la UNESCO y lleva a cabo actividades de inves-tigación y capacitación que atienden las prioridades del programa gene-ral de educación de la UNESCO. Goza de autonomía intelectual y adminis-trativa y funciona de acuerdo con sus propios estatutos. El IIPE tiene supropia Junta de Gobierno, que determina la orientación general de lasactividades del Instituto y aprueba su presupuesto anual.La misión del IIPE es el desarrollo de competencias en la planeación yadministración educativas. Para lograr este fin, el IIPE utiliza diversasestrategias: la capacitación de planificadores y administradores educati-vos; el apoyo a instituciones de capacitación e investigación nacionales;el fomento de un ambiente que favorezca y apoye el cambio educativo,y la cooperación con países en el diseño de sus propias políticas y planeseducativos.La sede del IIPE en París está encabezada por un director, que cuenta conla asistencia de alrededor de cien profesionales y personal de apoyo. Sinembargo, éste es apenas el núcleo del Instituto. A lo largo de los años, elIIPE ha desarrollado con éxito asociaciones con redes de individuos e ins-tituciones regionales e internacionales, tanto en países desarrollados comoen vías de desarrollo. Estas redes apoyan al Instituto en sus distintas acti-vidades de capacitación y también ofrecen oportunidades para extenderel alcance de sus programas de investigación.

http://www.unesco.org /iiep/

El Instituto Internacionalpara la Planeación de la Educación

Page 43: Evaluacion de programas educativos
Page 44: Evaluacion de programas educativos