stuflebeam y el modelo cipp
Post on 26-Dec-2014
2.066 Views
Preview:
DESCRIPTION
TRANSCRIPT
MODELOS DE
EVALUACIÓN
Daniel L. Stufflebeam
Seminario de Fundamentos de Evaluación
Bogotá D.C. 2013Ma. Denis Cortes, Milton Rojas, Alexis Monsalve
Mery Rocha Cuan, Flor Patricia Pedraza, Rubén D. Hernández,
Oscar Benavidez, Gilberto Narváez, José Díaz Henao,
Yenny Méndez, Sandra C. Jerez, Julio R. Castro
PREGUNTA 9. CUAL HA SIDO EL CONTEXTO
HISTÓRICO Y SOCIAL EN QUE SE HA DESARROLLADO LA PRODUCCIÓN DE DANIEL
STUFFLEBEAM?Ma. Denis Cortes
Milton Rojas Alexis Monsalve
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
Evaluación orientada al perfeccionamiento
Su modelo CIPP fue concebido como respuesta a las necesidades y vacíos de la evaluación educativa en la decada de los 60’s.
Las limitaciones encontradas al enfoque tyleriano de evaluación educativa centrada en el diseño experimental, que se había aplicado por más de 30 años.
Principalmente por
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
NContexto 1965, Estados Unidos
Programa ESEA que asignaba recursos a los distritos escolares de Estados Unidos con el propósito de mejorar la educación de los más atrasados y, por ende, mejorar el nivel de todo el sistema de educación elemental y secundaria.
este programa requería docentes que evaluaran sus proyectos
las instituciones escolares no podrían recibir los recursos hasta que presentaran un plan de evaluación de los proyectos que estaban adelantandoUtilizando el método tyleriano, estas
escuelas intentaron determinar si los proyectos habían alcanzado sus objetivos
Algunas Universidades y agencias de servicios crearon programas para apoyar y asesorar estas evaluaciones en los distritos
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
• Supuestos nada realistas: los docentes no estaban capacitados para realizar la evaluación de los proyectos que habían elaborado.
• Los objetivos de los proyectos no proporcionaban datos útiles sobre los estudiantes
• Los objetivos son elaborados por personas ajenas al proceso con los estudiantes
• Las necesidades de los estudiantes no coinciden con las identificadas en el
• proyecto
• Las pruebas aplicadas para evaluar el cumplimiento de los objetivos no se adaptaban a las necesidades y estados de los estudiantes más atrasados
• El desarrollo de estos test no era viable
• La periodicidad en la entrega de informes era cada año, por lo que los resultados eran inoportunos
• Los proyectos no se estaban implementando realmente en
• las aulas
Stufflebeam dirigió un Centro para promover la teoría y práctica de la evaluación y contactó a las escuelas públicas de Ohio para evaluar los proyectos ESEA que se habían propuesto y encontró que “la evaluación sufría una grave enfermedad”:
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
Como consecuencia de este fracaso, Stufflebeam propone, en 1966, la evaluación como un proceso mediante el cual se proporcionara información útil para la toma de decisiones. Su propuesta fue apoyada ampliamente en le sector educativo.
En 1969, Phi Delta Kappa creó un comité de estudio nacional sobre la evaluación, con Stufflebeam como presidente, para valorar el estado de la evaluación educacional y crear un plan general para la realización de evaluaciones solventes.
Durante los siguientes años desarrolló los principios de su enfoque de evaluación, basándose en su experiencia en Ohio:• Identificar los tipos de decisiones que deben afrontar • Genera a partir de estos las estrategias evaluativas• Introduce el concepto de evaluación de proceso, distinta a la
evaluación de producto de Tyler• Reconoce la importancia de la selección de las metas
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
• Ausencia de esfuerzo a la hora de evaluar los programas• Preocupación sobre la evaluación porque el proceso es
ambiguo, inadecuado, superficial y tendencioso• Escepticismo sobre las visiones de los expertos en
evaluación• Ausencia de directrices para satisfacer los requerimientos
evaluativos• Malos sistemas para realizar las evaluaciones en su propio
marco• Síndrome de la diferencia no significativa• Ausencia de una teoría pertinenteConclusiones del comité:
• No identificar la evaluación con sus métodos: valoración, juicio profesional, diseño experimental, objetivos y resultados.
• Aunque todos tienen ventajas, individualmente tienen serias limitaciones.
• Especificaron cinco problemas que debían ser resueltos con el perfeccionamiento de la teoría evaluativa del CIPP
El informe fue publicado en 1971, y afirmaba que “la evaluación era víctima de una grave enfermedad”:
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N¿CUÁL HA SIDO EL CONTEXTO HISTÓRICO Y SOCIAL EN QUE SE HA DESARROLLADO LA PRODUCCIÓN DE DANIELSTUFFLEBEAM”?
Fue fundador del Centro de Evaluación de la Universidad Estatal de Ohio en 1965 y fue director del mismo hasta el 2002.
• Profesor de Educación del Centro de Evaluación de la Universidad de Michigan occidental y Director, Kalamazoo, 1973.
• Condecorado con el Premio para el destinatario Paul Lazersfeld Modelo de evaluación de sociedad de investigación de evaluación, 1985.
• Miembro American Educational Research Association, Consejo Nacional sobre evaluación en la educación, Asociación de evaluación.
• Autor del Modelo de evaluación CIPP (Contexto, Imput, Proceso, Producto) y se caracteriza por estar orientado a la toma de decisiones.
Stufflebeam es colaborador de renombre en el campo de la
evaluación.
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
• Nacimiento del evaluador como profesión• Evaluación de metas, prestación del servicio, planes de
perfeccionamiento, utilidad del programa• Ética del evaluador.• Vinculación entre la evaluación y el currículo. • Fondos públicos ayudan con investigación• Evaluación anual del rendimiento• Mejora el sistema educativo• Responsabilidad del docente en el logro de objetivos• Intervención desde la infancia temprana
• Juicio de expertos o profesionales
• Toma de decisiones
• Proceso
• Michael Scriven• Eisner• StuflebeamEntre otros
Fuente:-ESTUDIO DE LA EVALUACIÓN CURRICULAR PARA EL MEJORAMIENTO DE LA FORMACIÓN PROFESIONAL EN POSGRADO. Arenas de Ruiz, Bettys -Evaluación de programas, modelos y procedimientos. Martínez Mediano, Catalina 2007,http://www.xtimeline.com/evt/view.aspx?id=1218541
Época de Expansión – Realismo, 1958-1972
• Características • Enfoque representantes
• Principios de la década de 1950 Punto de vista de Tyler en evaluación fueadoptado rápidamente.
• (1956) Se publicó la Taxonomía de la Educación Objetivos.
• NO había una mejora y ampliación de oferta educativa, personal e instalaciones.
Bloom, Engelhart, Furst, Hill y Krathwohl.
Época de la Inocencia desde 1946 hasta 1957
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
• Evaluación distinta a la investigación• Estudios sobre evaluación y su teoría • Estándares para la evaluación• Sistematización de la meta-evaluación• Debate entre los enfoques
positivistas/cuantitativo y fenomenológico/cualitativo
• Especialización de la evaluación y los evaluadores
• Toma de decisiones • Proceso• Explicación y
comprensión de los hechos
• Scriven• Stufflebeam• Guba• LincolnEntre otros
ÉPOCA DE PROFESIONALISMO , 1973 – PRESENTE
Fuente:-ESTUDIO DE LA EVALUACIÓN CURRICULAR PARA EL MEJORAMIENTO DE LA FORMACIÓN PROFESIONAL EN POSGRADO. Arenas de Ruiz, Bettys -Evaluación de programas, modelos y procedimientos. Martínez Mediano, Catalina 2007,
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
Fuente: COMPARTIENDO EXPERIENCIAS DE EVALUACION
PREGUNTA10. ¿CUÁL ES EL
PRINCIPAL ENFOQUE
CONCEPTUALES DE DANIEL
STUFFLEBEAM?Mery Rocha Cuan
Flor Patricia PedrazaRubén D. Hernández
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
MODELO STUFFLEBEAMEVALUACIÓN SISTÉMICA El modelo Stufflebeam es conocido como CIPP (Contexto,
Input, Proceso y producto y se caracteriza por estar orientado a la toma de decisiones.
Contexto: Esta dimensión se nutre de los datos.
Imput: Identifica y valora los recursos disponibles ANTES del programa.
Proceso: Incluye la interrelación dinámica entre las estructuras del programa y los diversos actores, generando un SISTEMA vincular.
Producto: Los productos (indicadores) se pueden caracterizados por: eficacia, eficiencia, cobertura, pertinencia, adecuación y coherencia
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
EL EVALUADOR “Debe actuar de acuerdo a principios
aceptados por la sociedad y a criterios de profesionalidad, emitir juicios sobre la calidad y el valor educativo del objeto evaluado y debe asistir a los implicados en la interpretación y utilización de su información y sus juicios. Sin embargo, es también su deber, y su derecho, estar al margen de la lucha y la responsabilidad política por la toma de decisiones y por las decisiones tomadas”
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
PARA QUE DE LA EVALUACION Para mejorar y no como un proceso
sancionador, calificativo. Así en muchas ocasiones es el percibido por los alumnos/as sobre este proceso. En la evaluación el proceso está centrado en el alumno más que en el profesor.
A nivel amplio se hace para ayudar a un grupo de clientes a juzgar y/o perfeccionar el valor y/o el merito de algún objeto: “En efecto, su meta esencial es determinar el valor
de algo que está siendo enjuiciado. De acuerdo con esta definición, si un estudio no informa de cuán buena o mala es una cosa, no se trata de una evaluación”.
11. ¿CUÁLES SON LAS
PRINCIPALES OBRAS DE
STUFLEBEAM”?Oscar BenavidezGilberto NarvaezJosé Díaz Henao
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
OBRAS DE STUFFLEBEAM 1. Dirección participativa y evaluación de
centros (1996), junto a otros investigadores.
2. Evaluación sistémica. Guía teórica y práctica (1993), junto a Shinkfield.
3. Guía profesional para la mejora de los sistemas de evaluación del profesorado (1998), junto a McKenna, Nevo y Thoma.
4. Evaluación de la actuación profesional en la supervisión educativa. Práctica y orientación (1998), junto a Candolfi y Cullen.
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
OBRAS DE STUFFLEBEAM 5. Estándares de evaluación de personal. Cómo
evaluar sistemas de evaluación de educadores (2002), fue coordinador de la publicación.
6. Evaluation Theory, Models and Applications, junto a Shinkfield.
7. International Handbook of educational evaluation, junto a Kellaghan.
8. Evaluación sistemática – guía teórica y practica.
9. Son 10 unidades en donde se expone el panorama de la evaluación. Y 8 modelos escogidos de trabajo evaluativo. Este libro se dirige al perfeccionamiento y calidad de los programas ofrecidos por las instituciones.
PREGUNTA12. ¿EN QUÉ
CONSISTE EL MÉTODO CIPP
(CONTEXT, INPUT, PROCESS, PRODUCT)?
Sandra Cristina Jerez
Yenny Angélica Méndez
Julio Roberto Castro
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
MODELO DE EVALUACIÓN CIPP STUFFLEBEAM Se requería una visión de evaluación mas amplia, que
más allá de evaluar el alcance de objetivos y metas, permitiera administrar y perfeccionar los programas: Brindando información útil para la toma de decisiones. Decisiones de realización Decisiones de reciclaje Decisiones de planificación Decisiones de estructura
“La evaluación es el proceso de identificar, obtener y proporcionar información útil y descriptiva acerca del valor y el merito de las metas, la planificación, la realización y el impacto de un objeto determinado, con el fin de servir de guía para la toma de decisiones, solucionar los problemas de responsabilidad y promover la comprensión de los fenómenos implicados
MODELO DE EVALUACIÓN CIPP STUFFLEBEAM
Es una estructura integral que cubre: Contexto, Insumos, Procesos y Productos
con canales de perfeccionamiento iterativo.
Además, fue desarrollada bajo esta misma premisa
Operaciones regulares del sistema (que incluyen distintas actividades
evaluativas)
Justificación de un cambio
Evaluaciones periodicas del
contextoSi
No
Definición de problemas y
formulación delos objetivos
¿Existe una solución
satisfactoria?
Si
Aplicación de la solución
No
Evaluación de entrada
¿Se ha encontrado una estrategia prometedora?
¿Necesidad de desarrollo o
comprobacion?SiNo
No
Si
Realización de un proyecto especial
Evaluación de proceso o de
producto
¿rendimiento satisfactorio?
¿Merece el proyecto otro intento?
¿Aun necesita o desea una solucion?
FRACASO
Si
Si
Si
No
No
Orientación• Identificar virtudes o defectos del “objeto”• Proporcionar una guía para su
perfeccionamiento
Objetivos• Valorar el estado global• Identificar deficiencias• Identificar virtudes que permitan subsanar
esas deficiencias• Diagnosticar los problemas cuya solución
pueda mejorar el estado del objeto• Caracterizar el marco en que se
desenvuelve el programa• Validar sí las metas y prioridades están en
consonancia con las necesidades a satisfacer
• Proporcionar una base solida para el ajuste de planes y programas
• Establecer metas y prioridades y designar los cambios requeridos.
Valoraciones AnálisisEntrevistas a clientes del estudio
Acceder a puntos de vista sobre las virtudes, defectos y problemas
Audiencias y Reuniones de comunidad + entrevistasMuestra cuidadosa de clientes
Generar hipótesis adicionales acerca de los cambios necesariosConstrucción de instrumentos de trabajoProporcionar datos de entrada y realizar la contrastar la respuesta de ambos grupos: comunidad y muestra de clientes
Informes existentes Identificar los modelos de trabajo y la información previa
Test diagnostico especial y Experto
Observe y juzgue el valor y el merito del programa
Comité asesor Brinde claridad sobre los aspectos evaluativos y apoye la interpretación de resultados
Técnica que tienda al consenso (Delphi)
Asegurar acuerdos sobre: necesidades prioritarias
Taller con clientes Estudio y aplicación de los resultados
EVALUACIÓN DE CONTEXTO
Utilidad• Autoridades educativas comuniquen lo referente al estado de desarrollo de un programa. (virtudes, defectos, necesidades, oportunidades
y necesidades prioritarias)• Convencer sobre la conveniencia de invertir recursos en el programa a desarrollar sobre las necesidades identificadas.• Formular objetivos y metas para el desarrollo del personal o la revisión curricular• Realizar acciones focalizadas sobre centros educativos, programas , estudiantes, padres entre otros que requieran atención en áreas
especificas de desarrollo, valorar lo que se ha conseguido durante el proceso de perfeccionamiento.• Decidir sobre la finalización de un plan, programa o proyecto.• Optimizar el uso de recursos o para fortalecer una institución haciéndola mas pequeña, Juzgar los resultados frente a las necesidades
atendidas. Defender la eficacia de los programas, metas y prioridades entre otros.
Orientación• Ayuda a prescribir un programa
mediante el cual se efectúan los cambios necesarios, identificando y examinando críticamente los métodos potencialmente aplicables
Objetivos• Prever el éxito, fracaso y eficacia de
un cambio.• Identifica y valora los meritos y
posibilidades de realización de un proyecto de cambio por parte del equipo planificador.
• Identificar y valorar los métodos aplicables, además de fundamentar las razones de su selección desde el un examen detallado.
• Identificar las limitaciones y recursos potencialmente utilizables para el programa.
• Considerar las estrategias alternativas en el contexto de las necesidades y condiciones ambientales; además de desarrollar un plan que sirva para este propósito.
Etapas AnálisisRevisión de literatura, consulta a expertos, servicios de información, propuestas del personal implicado
Revisión del estado de la practica con relación a la satisfacción de las necesidades
Grupo especial de estudio
Organizar la información de la anterior fase que se somete a una investigación para valorar si existen estrategias de soluciones potencialmente aceptables, los métodos propuestos y su efectividad y aconsejar a los involucrados en la búsqueda de una solución.
Búsqueda de renovación por clientes y evaluador
Definir los criterios que debe cumplir la innovación, Estructurar una solicitud de propuestasObtener diversas propuestas y valorarlas según su efectividad y viabilidad potencial.
Análisis por Evaluadores
Audición
Analizar y evaluar propuestas y sugerir como pueden combinarse las mejores características de cada unaPersonal y administradores expresan sus intereses y estiman recursos y barreras, que han de abordarse en la búsqueda de una solución
Técnica del grupo asesorValoraciones por parte de plantel de expertos o test piloto
Dos o mas grupos de expertos fijan los objetivos que justifican la necesidad de un programa, proporcionan especificaciones para la planificación de las propuestas y orientan hacia los criterios de juicio de las diversas respuestas.
EVALUACIÓN DE ENTRADA
Utilidad• Preparar una propuesta para someterla a su valoración por parte del gobierno, quien la financie o quien promueva su operacionalización.• Valorar un programa ya existente y establecer si se opone a lo que se realiza en otras partes o lo que propone la literatura.• Evaluar la relación costo/ beneficio, proporcionar una estructura y un tribunal que decida en situaciones antagónicas sobre la ejecución de
algún tipo de acción. En si a escoger un tipo de acción entre otras posibilidades
Orientación• Comprobación continua de un plan• Proporcionar una guía para su
perfeccionamiento
Objetivos• Proporcionar continua información sobre el
ritmo de desarrollo de las actividades si se ajustan a lo planeado, y el uso eficiente de los recursos.
• Proporcionar una guía para modificar el plan ya que no siempre es posible definir todos los aspectos de un plan.
• Valorar hasta que punto los participantes aceptan y son capaces de desarrollar sus funciones.
• Proporcionar un extenso informe del programa que se esta desarrollando comparándolo con lo planificado, establecer sus costes, saber como se juzga la calidad del trabajo por parte de observadores y participantes
Valoraciones AnálisisEvaluador del proceso (eje central)
Reuniones de personal y grupo asesor
Evaluador el proceso y grupo asesor
Sesiones informativas
Proceso interactivo
Realizar observaciones sobre la marcha, y encontrar información y documentación continua.Revisar el plan del programa y cualquier evaluación anterior en la que pueda apoyarse para identificar aspectos relevantes del programa con fines de controlIdentificar problemas y cuestiones que deben plantearseDesarrollar un esquema general de la recopilación de datos.Trazar un panorama sobre el funcionamiento del programaPreparar un informe donde se analice lo que se esta aprendiendo y evidencie los problemas clave.Analizar junto con los involucrados sus planes de recopilación de datos.En si ayudar al personal a llevar a cabo su programa a través de un proceso de cualificaciónDescribir las posibles desviaciones del plan originalProponer ajustes al plan que se desarrolla.Documentar las variaciones y el efecto que presentan
EVALUACIÓN DE PROCESO
Utilidad• Obtener información continua sobre el programa para poder desarrollarlo conforme a lo planeado o decidir si se modifica por
considerarse inadecuado.• Convertirse en medio para mantener al personal alerta y al corriente de sus responsabilidades• Establecer si las inversiones se han realizado como se habían propuesto• Proponer su aplicabilidad en otros contextos o instituciones• Constituirse en fuente de información vital para interpretar los resultados de la evaluación del producto
Orientación• Valorar, interpretar y juzgar
los logros de un programa incluyendo los efectos a largo plazo
Objetivos• Valorar el nivel de alcance de
un programa en cuanto a la satisfacción de necesidades que pretendía atender
• Establecer los efectos y resultados de un programa
• Recoger y analizar juicios acerca procedentes de una amplia gama de personas relacionadas con un programa en relación con su éxito.
• Comparar los resultados de un programa con los de otro alternativo
• Examinar los resultados desde muchos puntos de vista.
Valoraciones AnálisisCombinación de técnicas
Obtener una visión amplia de los efectos y proporcionar comprobaciones de los diversos resultados
Test de rendimiento Valorar el trabajo con relación a unas normas previamente escogidas
Valoraciones del trabajo
Valorar los productos del trabajo y compararlos con los esquemas de las necesidades previamente fijadas por los destinatarios del programa
Audiciones o entrevistas
Búsqueda intensiva de resultados inesperados para generar hipótesis acerca de la gama completa de resultados
Investigaciones clínicas
Destinadas confirmar o desmentir las hipótesis elaboradas en el proceso anterior
Encuesta telefónica o por correo
Obtener opiniones y puntos de vista acerca de los resultados del proyecto o programa, presentando ejemplos concretos.
Grupos de cotejo Examinar el trabajo del programa obteniendo los pros y contras de las contribuciones. Identificar y examinar los resultados con relación a un amplio inventario de resultados observados en programas similares
Juicio con jurado Presentar y examinar todas las evidencias disponibles que reflejan el éxito o fracaso de un programa.
Informe sobre resultados
Los informes intermedios: durante cada ciclo para plantear hasta que punto están siendo satisfechas las necesidades fijadas Informe final de ciclo: presentados al finalizar cada ciclo del programa; resume los resultados alcanzados e interpretarlos a la luz de: necesidades, costes, cumplimiento de tareas, los efectos logrados
EVALUACIÓN DE PRODUCTO
Utilidad• Evaluar si un programa merece ser prolongado en el tiempo, repetirse o ampliarse a otros ámbitos.• Implicaciones psicológicas: reforzar el trabajo del personal o de los beneficiarios, puede reducir el entusiasmo si los resultados son
deficientes,• Informe de presupuesto y contabilidad para evitar inversiones infructuosas o decidir sobre la conveniencia de abordar una acción similar
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
MODELO CIPPEvaluación de
contextoEvaluación de
entradaEvaluación de
procesoEvaluación de
producto
Toma de decisiones (orientación formativa)
Guía para la elección de objetivos y asignación de prioridades
Guía para la elección de la estrategia del programaEntrada de datos para la designación del plan de procedimientos
Guía para la aplicación
Guía para la finalización , continuación, modificación o entrega
Responsabilización (orientación sanativa)
Relación de objetivos y bases para su elección junto con una relación de necesidades, oportunidades y problemas
Relación de la planificación y la estrategia escogidas y las razones de esa elección entre otras alternativas
Relación del proceso real
Relación de los logros y de las decisiones recicladas
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
MODELO CIPPEvaluación de contexto Evaluación de
entradaEvaluación de
procesoEvaluación de
producto
Objetivo Definir el contexto institucional, Identificar y valorar la población y objeto de estudio y valorar sus necesidades, identificar las oportunidades de satisfacer las necesidades, diagnosticar los problemas que subyacen en las necesidades y juzgar si los objetos propuestos son lo suficientemente coherentes con las necesidades valoradas.
Identificar y valorar la capacidad del sistema, las estrategias de programa alternativas, la planificación de procedimientos para llevar a cabo las estrategias, los presupuestos y los programas.
Identificar o pronosticar, durante el proceso, los defectos de la planificación de procedimiento o de su realización, proporcionar información para las decisiones preprogramadas y describir y juzgar las actividades y aspectos del procedimiento.
Recopilar descripciones y juicios acerca de los resultados y relacionados con los objetivos y la información proporcionada por el contexto, por la entrada de datos y por el proceso, e interpretar su valor y su mérito.
Método Utilización de métodos como el análisis de sistemas, la inspección, la revisión de documentos, las audiciones, las entrevistas, los test diagnósticos y la técnica Delphi.
Inventariar y analizar los recursos humanos y materiales disponibles, las estrategias de procedimiento referentes a su aplicabilidad, viabilidad y economía. Y utilizar métodos como búsqueda de bibliografía, las visitas a programas ejemplares, los grupos asesores y ensayos piloto.
Controlar las limitaciones potenciales del procedimiento y permanecer alerta ante las que no se esperaban, mediante la obtención de información específica de las decisiones programadas, la descripción del proceso real, la continua interacción con el personal del proyecto y observación de sus actividades.
Definir operacionalmente y valorar los criterios de los resultados, mediante la recopilación de los juicios de los clientes y la realización de análisis cualitativos y cuantitativos.
Relación con la toma de decisiones en el proceso de cambio
Definir el marco que debe ser abarcado, las metas relacionadas con la satisfacción de las necesidades o la utilización de las oportunidades y los objetivos relacionados con la solución de problemas.por ejemplo, la planificación de los cambios necesarios. Y proporcionar una base para juzgár los resultados.
Seleccionar los recursos de apoyo, las estrategias de solución y las planificaciones de procedimientos, esto es, estructurar las actividades de cambio. Y proporcionar una base para juzgár los resultados.
llevar a cabo y perfeccionar la planificación y los procedimientos del programa, esto es, efectuar un control del proceso. Y proporcionar un esbozo del proceso real para utilizarlo más tarde en la interpretación de resultados.
decidir la continuación, finalización, modificación o readaptación de la actividad del cambio. Y presentar un informe claro de los efectos (deseados y no deseados, positivos y negativos).
MA
ES
TR
IA E
N E
VA
LU
AC
ION
Y
CA
LID
AD
DE L
A E
DU
CA
CIO
N
FUENTES Stufflebeam, D.L. y Shinkfield, A.J. (1987). Evaluación
sistemática: Guía teórica y práctica. Madrid: Paidós-M.E.C.
http://evaluacionmaestrias.wikifoundry.com/page/Tabla+Comparativa+de+Modelos+de+Evaluaci%C3%B3n
http://educacionplanetaria.blogspot.com/2010/10/el-modelo-de-evaluacion-educativa-cipp.html
http://evaluacionparaelperfeccionamiento.blogspot.com/
http://www.uam.es/personal_pdi/stmaria/jmurillo/InvestigacionEE/Presentaciones/Curso_10/Inv_evaluativa_trabaajo.pdf
Ronald Brandt. On evaluation: An interview with Daniel L. Stufflebeam. January 1978.
top related