EVALUACION-DE-POLITICAS-PUBLICAS... Rocoo_ Evaluación de Políticas Públicas 4º Doble Grado en Derecho y Ciencias Políticas y de la Administración Facultad de Ciencias Políticas y Sociología Universidad de Granada Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. EVALUACIÓN DE POLÍTICAS PÚBLICAS Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 TEMA 1: LA EVALUACIÓN EN EL ANÁLISIS DE POLÍTICAS PÚBLICAS ........................................................ 3 1. 2. 3. 4. 5. 6. DEFINICIÓN Y CONCEPTO DE EVALUACIÓN.................................................................................................. 3 1.1. Introducción ............................................................................................................................ 3 1.2. Razones para evaluar políticas públicas ................................................................................. 4 1.3. Definición de la evaluación ..................................................................................................... 4 1.4. Evolución de los estudios sobre evaluación (Ruíz Viñals, 2004) .............................................. 5 OBJETIVOS DE LA EVALUACIÓN ................................................................................................................ 5 2.1. Motivación o actitudes del proceso evaluador (Many y Thoening, 1995) .............................. 5 2.2. Objetivos de la evaluación (Martínez del Olmo, 2006) ........................................................... 5 2.3. Propósitos de la evaluación (Ballart, 1997) ............................................................................ 6 2.4. Fases de la evaluación (Ballart, 1997) .................................................................................... 6 2.5. Análisis posibles con la evaluación ............................................................................................... 7 2.5. ¿Cambio de Política? Policy Shift ............................................................................................ 7 TIPOLOGÍAS DE EVALUACIÓN................................................................................................................... 7 3.1. De acuerdo con la procedencia del evaluador/evaluadores ................................................... 7 3.2. De acuerdo con su temporalización ........................................................................................ 9 3.3. Según su finalidad en relación con la temporalización ........................................................... 9 3.4. De acuerdo con su objeto ..................................................................................................... 10 3.5. Nivel de asistencia ................................................................................................................ 11 3.6. De acuerdo al modelo ........................................................................................................... 11 3.7. De acuerdo con la metodología ............................................................................................ 11 DISEÑO (TEMA 7) ............................................................................................................................... 11 INSTRUMENTOS DE MEDICIÓN ............................................................................................................... 12 5.2. Tipos de evaluación según la fase de la política pública según Tamayo (2001) ......................... 12 LIMITACIONES INSTRUMENTALES ........................................................................................................... 12 TEMA 2: DEFINICIÓN Y CONCEPTO DE EVALUACIÓN ............................................................................ 12 1. 2. 3. 4. INTRODUCCIÓN .................................................................................................................................. 12 SUBACTIVIDADES DE LA EVALUACIÓN ...................................................................................................... 13 OBJETIVOS DE LA EVALUACIÓN .............................................................................................................. 13 CRITERIOS ......................................................................................................................................... 14 TEMA 3: TIPOS DE EVALUACIÓN .......................................................................................................... 14 1. 2. 3. SEGÚN EL MOMENTO (FUNCIÓN DE LA EVALUACIÓN) ................................................................................. 15 SEGÚN LA PROCEDENCIA DE LOS EVALUADORES ........................................................................................ 15 SEGÚN LA NATURALEZA DE LO EVALUADO ................................................................................................ 15 A. Evaluación de necesidades ........................................................................................................ 15 B. Evaluación del diagnostico ........................................................................................................ 18 C. Evaluación del diseño ................................................................................................................ 18 D. Evaluación de la implementación ............................................................................................. 19 E. Evaluación de resultados .......................................................................................................... 20 F. Evaluación de impacto .............................................................................................................. 20 G. Otros tipos de evaluación.......................................................................................................... 20 TEMA 4: ¿QUÉ SE EVALÚA EN UN PROGRAMA O POLÍTICA PÚBLICA? LOS CRITERIOS EVALUATIVOS... 20 PRIMERA PARTE: CRITERIOS DE EVALUACIÓN ................................................................................................ 20 1. CRITERIO DE RELEVANCIA ..................................................................................................................... 21 2. CRITERIO DE PERTINENCIA .................................................................................................................... 22 3. CRITERIO DE COHERENCIA INTERNA ........................................................................................................ 22 4. CRITERIO DE COHERENCIA EXTERNA ........................................................................................................ 23 5. CRITERIO DE EFICACIA .......................................................................................................................... 23 6. CRITERIO DE EFICIENCIA ....................................................................................................................... 24 7. CRITERIO DE SOSTENIBILIDAD ................................................................................................................ 25 Página 1 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 8. CRITERIO DE EQUIDAD ......................................................................................................................... 25 SEGUNDA PARTE: PREGUNTAS .................................................................................................................. 26 1. EN LA FASE DE DIAGNÓSTICO (NECESIDADES) ........................................................................................... 26 A. El problema ............................................................................................................................... 26 B. Desarrollo y selección de instrumentos y procedimientos: ....................................................... 26 C. La interpretación ....................................................................................................................... 26 2. EN LA FASE DE FORMULACIÓN (FASE DE DISEÑO). ...................................................................................... 26 3. EN LA FASE DE IMPLEMENTACIÓN. ......................................................................................................... 27 4. EN LA FASE FINAL O DE RESULTADOS. ...................................................................................................... 27 TEMA 6: EL PROCESO EVALUATIVO ...................................................................................................... 27 1. 2. 3. 4. 5. 6. 7. 8. 9. INTRODUCCIÓN .................................................................................................................................. 27 DEFINICIÓN DEL MARCO DE REFERENCIA .................................................................................................. 28 2.1. Diagnóstico del proyecto ...................................................................................................... 28 2.2. Formulación del proyecto ..................................................................................................... 29 DEFINICIÓN DEL TIPO DE EVALUACIÓN..................................................................................................... 30 3.1. Objeto y elección del modelo evaluativo .............................................................................. 30 3.2. Determinación de las variables a medir ............................................................................... 30 3.3. Definición de unidades de medida ........................................................................................ 31 3.4. Definición de la periodicidad ................................................................................................ 31 3.5. Elección de instrumentos para recoger información ............................................................ 31 3.6. Recursos ................................................................................................................................ 31 IMPLEMENTACIÓN DE LA EVALUACIÓN .................................................................................................... 32 Una vez que tenemos la implementación pasamos a los siguientes pasos que conllevan la ejecución del proyecto. ...................................................................................................................................... 32 APLICACIÓN DE LAS MEDICIONES ........................................................................................................... 32 ANÁLISIS DE LOS RESULTADOS ............................................................................................................... 32 FORMULACIÓN DE LAS CONCLUSIONES .................................................................................................... 32 ADOPCIÓN DE LAS MEDIDAS DE RETROALIMENTACIÓN................................................................................ 32 INTRODUCCIÓN DE LAS MEDIDAS EN EL PROCESO ...................................................................................... 32 TEMA 7: MODELOS O DISEÑOS EVALUATIVOS ..................................................................................... 32 1. 2. EXPERIMENTACIÓN ............................................................................................................................. 33 DISEÑOS EVALUATIVOS ........................................................................................................................ 33 2.1. Diseños o modelos experimentales ....................................................................................... 34 2.2. Diseños o modelos causiexperimentales .............................................................................. 34 2.3. Modelos no experimentales.................................................................................................. 35 TEMA 8: EL PROCESO DE MEDICIÓN..................................................................................................... 36 1. 2. 3. 4. INTRODUCCIÓN .................................................................................................................................. 36 EL PROCESO DE MEDIDA ....................................................................................................................... 36 EL DISEÑO DE INDICADORES .................................................................................................................. 36 PROCESO DE MEDICIÓN A TRAVÉS DE INDICADORES ................................................................................... 37 TEMA 10: RETROALIMENTACIÓN ......................................................................................................... 37 1. PROCESO DE CONTROL ........................................................................................................................ 37 1.1. Medidas correctivas .............................................................................................................. 37 1.2. Grupo Activante .................................................................................................................... 38 TEMA 11: EL PROYECTO DE EVALUACIÓN ............................................................................................ 39 1. 2. 3. DEFINICIÓN DE LA EVALUACIÓN ............................................................................................................. 39 OBJETIVOS DE LA EVALUACIÓN .............................................................................................................. 40 METODOLOGÍA DE LA EVALUACIÓN ........................................................................................................ 42 Página 2 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 4. PLAZOS Y PRESUPUESTOS ..................................................................................................................... 43 TEMA 12: EL INFORME DE EVALUACIÓN .............................................................................................. 44 1. 2. 3. 4. 5. INTRODUCCIÓN .................................................................................................................................. 44 CARACTERÍSTICAS DEL INFORME FINAL .................................................................................................... 44 ESTRUCTURA DEL INFORME FINAL .......................................................................................................... 44 EL INFORME EJECUTIVO ....................................................................................................................... 45 CRITERIOS DE CALIDAD DE LOS INFORMES DE EVALUACIÓN .......................................................................... 45 TEMA 1: LA EVALUACIÓN EN EL ANÁLISIS DE POLÍTICAS PÚBLICAS 1. Definición y concepto de evaluación Ciclo de las PP: Definición del problema Entrada en la Agenda Toma de decisiones Implementación/Ejecución Evaluación En esta asignatura estudiaremos la última fase del ciclo, la evaluación. La evaluación normalmente como una auditoria, pero estas no establecen recomendaciones. En el caso de las evaluaciones sí que tendríamos unas recomendaciones que reformulen la PP. al establecerse esa serie de recomendaciones se conecta con la parte siguiente: definición de nuevos problemas. De manera que estamos ante un ciclo continuo. Tenemos un problema social y para ello creamos una PP, posteriormente se implementa y después por último se evalúa. Primeramente la evaluación era de esta última fase. Sin embargo, con el paso del tiempo la evaluación se conecta con todas las diferentes fases del ciclo. Evaluación de la implementación, de los objetivos, evaluación de la evaluabilidad (si la PP es evaluable), etc. 1.1. Introducción La evaluación es importante por la falta de certitud a la hora de llevar a cabo una PP. la información es imprecisa, solo conocemos parte de la sociedad o contexto. La falta de información se suple con la información que conseguimos a través de la evaluación. Es la última fase del proceso de las PP, pero al ser un ciclo retroalimenta a la primera fase (definición del problema). Es un instrumento técnico y una herramienta política de primer orden. La justificación última de la evaluación sería el ejercicio de la responsabilidad política y la búsqueda de lo que se ha denominado la eficacia democrática. (Bañón y Carrillo, 1994). Los estudios de evaluación, además incluye estudios de percepción de los ciudadanos. Cuando se evalúa una PP, normalmente los beneficiarios son los ciudadanos, por lo que normalmente en los estudios de evaluación también se estudia el impacto que tendrá sobre la población la PP. Ecuación: escasez de recursos y necesidad de eficacia que demanda la sociedad. Los recursos son escasos y para hacer una gestión eficaz de los mismos se tiene que realizar la evaluación. Los beneficios derivados de la evaluación superan a los costes. Hay estudios que justifican la evaluación estableciendo que el gasto y beneficio de la misma no supera el coste. Para remediar este fallo encontramos fondos europeos que llevan evaluaciones. La UE pretende fomentar una mayor cultura de la evaluación Página 3 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Tanto los modelos como los enfoques han ido evolucionando paralelamente al desarrollo del Análisis de Políticas Públicas. 1.2. - Razones para evaluar políticas públicas Los procesos sociales sobre los que se quiere influir se conocen solo parcialmente. La información es imperfecta: base de la definición de problemas y elección de alternativas. Condicionamientos políticos = búsqueda de consenso y soluciones de compromiso. Desviación de objetivos (es decir: en conocimientos y habilidades de la organización). Impactos imprevistos de las políticas. La PP buscaba unos resultados, pero también provoca unos impactos; algunos pueden ser previstos, pero otros no. 1.3. Definición de la evaluación La evaluación va de la mano del ámbito educativo. Las primeras evaluaciones que se realizaron fueron con respecto a formaciones educativas en EEUU. Posteriormente la psicología también tendrá un gran impacto. Es complicado sinterizar una definición unánime sobre la evaluación, incluso tenemos una definición terminológica. Tomamos la definición de Joint Committee Standard Education: “Recoger y analizar sistemáticamente una información para poder determinar el valor o mérito de una intervención”. Tenemos una parte importante que es la de metodología (valor/mérito). Se establece un indicador para una intervención (en este caso el ámbito educativo), posteriormente recabamos datos para analizar dicho indicador (valor/mérito). Tyler, 1950: “Es el proceso de determinar en qué medida los objetivos de un programa se han alcanzado”. Joint Committee for Educational Evaluation, 1981: “Investigación sistemática del valor o mérito de un objetivo”. Investigación sistemática: la aplicación de una metodología para la obtención de una información o un resultado. Cronbach, 1981: “La provisión de información para la toma de decisiones sobre una intervención”. Tenemos una intervención y buscamos información sobre la misma, evaluamos en cierta medida como se ha llevado a cabo dicha intervención. Chelimsky, 1985: “La aplicación de métodos de investigación sistemáticos para la evaluación del diseño, la implementación y la eficacia de un programa”. Si al principio nos centrábamos en el resultado final, en este momento ya nos centramos también en las otras fases previas al resultado final: diseño e implementación. Viveret, 1989: “Emitir un juicio sobre el valor de la acción pública”. Se refiere a un juicio objetivo, se establece una especie de baremo que cuenta con diferentes indicadores y a través de ese juicio se determina el grado de cumplimiento de la política. Monnier, 1995: “Iniciativa pluralista cuyo núcleo es el sistema de los actores implicados y cuyo propósito estriba en valorar la fundamentación de una intervención pública, basándose en la comparación de sus efectos con los sistemas de valores vigentes”. Sistema de valores vigente en esa sociedad concreta y dentro de ese contexto. Roth, 2002: “Práctica seria de argumentación basada en información pertinente sobre los efectos de una política”. Práctica = investigación sistemática (método). Página 4 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Definición de evaluación de Ballart Productor de información que sirva a los gestores públicos (políticos, técnicos, funcionario, etc.) para tener una idea sobre la calidad de los servicios que están produciendo, en función de lo que se estime como valor. La idea sería establecer este valor en términos numéricos. De esta forma instrumentalizamos el valor en un sistema que nos permita conocer en qué punto se encuentra la PP en términos de calidad. El valor tendremos que operacionalizar. Evaluación como técnica que busca producir información útil a las AP para mejorar: - Los procesos de decisión y planificación. El funcionamiento y la gestión de las operaciones diarias. Los resultados finales en relación a los recursos invertidos. 1.4. Evolución de los estudios sobre evaluación (Ruíz Viñals, 2004) Comienzan en los años cincuenta: - - Primera etapa: análisis de los resultados o impactos de la política pública. identificar los efectos de una acción (cuantificada). Se centraba en políticas públicas ya finalizadas (Técnico). Segunda etapa: no se centra solo en PP ya finalizadas, sino también en curso (se introduce un carácter más técnico y político). Tercera etapa: Evaluación comprehensiva (más amplia, no solo centrada en el carácter finalista, sino también centrada en implementación, diseño, etc.). Evaluación global: concepto, diseño, implementación y utilidad de los programas de intervención social (Esencialmente política). 2. Objetivos de la evaluación 2.1. - - - Motivación o actitudes del proceso evaluador (Many y Thoening, 1995) Actitud descriptiva: registrar las variaciones que se dan en un medio social como consecuencia de la política pública puesta en marcha. Actitud clínica: explicar los cambios sociales que se han provocado por la política pública. También encajan aquí los efectos inesperados (externalidades producidas). Actitud normativa: se indica como el evaluador cree que el medio social debería reaccionar ante una política concreta. En este caso el evaluador establece su propio juicio de valor. Actitud experimental: se busca explicitar las relaciones causales para explicar el éxito o el fracaso de la aplicación de una PP. Relación causal: A provoca un efecto en B, para ello A debe ser previo a B; solamente en ese contexto tenemos A y B porque en caso de que influyese otra opción (C), ya no tenemos causalidad. 2.2. Objetivos de la evaluación (Martínez del Olmo, 2006) Si el objetivo es proporcionar una información útil que facilite el proceso de toma de decisiones que mejore la acción de los poderes públicos, podemos distinguir tres grandes objetivos o funciones. La motivación por la cual se establece la evaluación es diferente para cada autor. Algunos incluso tomarán varios tipos de motivaciones. 1. La evaluación como base para mejorar o perfeccionar. Las preguntas irán en la dirección de cómo mejorar la efectividad y eficiencia de un programa o política. 2. Evaluación como rendimiento de cuentas. Facilitar información a los responsables para la toma de decisiones respecto a la continuación o no del Página 5 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 proyecto, asignación de recursos o modificación de la política. Lo que se intenta hacer es conocer el nivel de cumplimiento de las tareas asignadas en esa política pública. Los ciudadanos se ven como posibles clientes. 3. La evaluación como generador de conocimiento. Como proceso político, puede tener otras intenciones: control e inspección por fines determinados, legitimación de un programa, justificar una decisión ya tomada anteriormente, etc. Entre ellos pueden estar mezclados y relacionados entre sí; es decir, están interconectados. No tiene por qué darse uno de ellos solo. Los objetivos que establece Martínez del Olmo coinciden con los “propósitos” de Ballart (1997): Comprensión, ilustración; Rendimiento de cuentas (carácter político, económico y social – actividades llevadas a cabo con fondos públicos); Mejora. 2.3. Propósitos de la evaluación (Ballart, 1997) 1. Ilustración, compresión: ilustrar, aclarar, dar luz, comprender qué está pasando y cómo funciona el programa. La evaluación suele producir un cambio, dota de nuevos significados sobre la realizad del programa y de su intervención. 2. La retroalimentación o mejora: es una manera de recibir “feedback” sobre las acciones, intervenciones o programas que se llevan a cabo, un modo de mejorar y progresar. La evaluación puede ser un proceso de aprendizaje de la propia intervención. 3. El control de responsabilidades y rendimiento de cuentas: “Rendir cuentas en la aceptación más flexible del término, no se restringe exclusivamente a los aspectos económicos sino también a la responsabilidad social y política, especialmente si las actividades llevas a cabo se financian con fondos públicos, ya que el contribuyente tienen derecho a saber en qué y cómo se está empleando el dinero público. 2.4. Fases de la evaluación (Ballart, 1997) 1. Motivación para evaluar. Si estamos ante una investigación partimos desde el problema de la investigación. 2. Definición de unidad y análisis de contexto. Aquí encontramos el tema del diagnóstico, la realidad donde opera la política pública (contexto). 3. Necesidades informativas. Necesidades/información necesaria para poder realizar la información. Qué información, documentaciones y cuestiones son relevantes para realizar la evaluación. 4. Criterios de valor (forma de enjuiciar o establecer el objetivo último de la evaluación de forma cuantitativa), preguntas relevantes (el objetivo tiene relación con estas preguntas). 5. Operacionalización de criterios a indicadores. Pasar los criterios de valor establecidos en la fase 4 a una serie de indicadores que nos ayuden con la medición Operacionalización. 6. Diseño metodológico. Cada uno de los diferentes diseño evaluativos diferentes empleados. Cada evaluación responde a un diseño diferente Modelo experimentales, modelos cuasi-experimentales o modelos no experimentales. 7. Búsqueda de fuentes y diseño de técnicas. Una vez que tenemos los indicadores y el diseño metodológico pasamos a recabar los datos. Diseñaremos las técnicas relevantes para recabar los datos (encuesta, entrevista en profundidad, etc.) 8. Trabajo de campo. Aplicación de los cuestionarios o guion creado en la fase anterior, ello nos ayudará a recabar información y datos para la evaluación. 9. Datos. Descodificar los datos, aclararlos, limpiarlos, etc. Página 6 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 10. Interpretaciones. Podemos asimilarlo a la fase de análisis, después establecemos los juicios. 11. Juicios. Valorar el cumplimiento de los objetivos en base a las interpretaciones previas. 12. Recomendaciones. Sobre cómo se debe actuar ante esa política pública: qué mejorar en la formulación, diagnostico, su implementación, etc. Ello implica a los diferentes actores participantes en la política pública. 13. Comunicación de resultados. Presentación de un informe final. *Marco previo de referencia: Primer bloque de fases (Diagnóstico y formulación del proyecto). Es importante para conformar la evaluación. 2.5. Análisis posibles con la evaluación Se ajusta el programa o dispositivo a las necesidades prioritarias de la población. Si no es así, ¿cuáles son las dificultades con las que se encuentra? Se explicita el análisis de causalidad que sustenta la intervención que a veces está implícito. El programa contribuye a logar los cambios deseados. Se constata la congruencia del modelo, ¿es lógico? Análisis de la coherencia interna Revisión de sus componentes: ¿son necesarios? ¿son suficientes? ¿Implementación correcta? ¿Recursos adecuados? 2.5. ¿Cambio de Política? Policy Shift Revisión del estado del problema/política pública: Continuación de política existente. Revisión de política. La política se mantiene pero se modifican ciertas cuestiones. Terminación de la política. Hay dos opciones: que la política se haya culminado con éxito (consecución del objetivo) y que la política haya fracasado (que no se haya cumplido con el objetivo marcado). Nueva política. En caso de que no se haya conseguido el objetivo de la política anterior, se creará una nueva que sustituya a la anterior. 3. Tipologías de evaluación Encontramos diferentes tipologías en función de diferentes dimensiones: tiempo, objetivo, finalidad, etc. 3.1. De acuerdo con la procedencia del evaluador/evaluadores Tenemos una PP formulada por el legislador o actor político, esta será implementada por unos técnicos y finalmente, tendremos que decidir quién hace la evaluación. En función de esta decisión encontramos tres tipos posibles: Evaluación interna: se realiza por el organismo que ha ejecutado, desarrollado e implementado la política pública. Ej. El Ayuntamiento de Granada crea unos talleres deportivos por las tardes, en el caso de la evaluación interna, es el propio ayuntamiento de Granada el que realiza la evaluación. Evaluación externa. El evaluador es ajeno a los órganos de ejecución de la PP (hay una contratación por parte del organismo público). Puede ser una consultora, un autónomo que se dedique a ello, etc. De manera que el evaluador no tiene conocimiento a priori de la PP que se va a evaluar. Página 7 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Evaluación mixta. Tenemos un equipo evaluador (más de dos personas involucradas en la evaluación) que se compone por personal interno y externo. A. Ventajas y desventajas Evaluación Interna Ventajas El conocimiento que se tiene sobre la PP es más profundo (conoce mejor los objetivos) que en la evaluación externa. Los resultados de la evaluación son más fácil de trasponer al programa. Es decir, se detectamos cualquier problema en la implementación, es más fácil que se implementen las mejoras sobre la macha. Son más económicas que las externas, tienen un menor coste. Desventajas Pérdida de objetividad porque el equipo que ejecuta es el mismo que se evalúa. Es decir, la perdida de objetividad puede ser mayor. Pérdida de imparcialidad. Cuestión económica. Tenemos que tener en cuenta que muchas políticas públicas dependen de fondos públicos para ser llevadas a cabo. Podría manipularse la evaluación para no perder estos fondos. Los evaluadores no estén especializados en evaluación de políticas públicas – falta de conocimiento. Evaluación Externa Ventajas Mayor independencia del evaluador, este es completamente independiente del órgano que ha diseñado e implementado la PP. Ello supone una mayor objetividad y se garantiza su imparcialidad. Desventajas Los resultados de la evaluación son más difíciles de transponer al programa. Al no estar dentro del proyecto, es más complicado introducir sobre la marcha las posibles mejoras que van surgiendo. Reticencias por parte del personal que está siendo evaluado a tener un evaluador. Reticencias en el momento de la evaluación (aportar los datos). No cuentan con el mismo conocimiento que aquellos que estén dentro del proyecto. Empleo de datos secundarios o la observación. Es más cara que la interna, hay que hacer nuevas contrataciones. Evaluación Mixta Se equilibran las ventajas e inconvenientes que hemos mencionado anteriormente. B. Criterios de elección Si el organismo que ejecuta la PP tiene una cultura evaluadora y hay dinero suficiente, se realiza una evaluación externa. En caso de que los fondos europeos (cohesión, estructurales, FEDER, etc.) la UE pide que sea una evaluación externa; a no ser que sea un proyecto piloto. A pesar de que esto es lo que ocurre en la práctica, tenemos una serie de criterios técnicos: Página 8 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 - - - Momento en el que se produce la evaluación: si queremos valorar el proyecto mientras se está implementando, diseñando, etc., lo normal es elegir la evaluación interna (podemos mejorarla mientras sigue en funcionamiento). Si el proyecto ya está finalizado elegiremos la evaluación externa. Incidencia de los resultados de la evaluación: si queremos introducir mejoras constantes lo ideal sería que la evaluación sea interna. En caso de que se quiera ver cómo ha funcionado la PP se elige una evaluación externa. Garantías de objetividad requeridas: si queremos que la evaluación sea más objetiva se elige la evaluación externa; además, el equipo tendrá los conocimientos técnicos. 3.2. De acuerdo con su temporalización ¿Cuándo evaluar esa PP? Este criterio determina cuándo llevaremos a cabo la evaluación. Las posibles respuestas a esta pregunta nos proporcionan otras variables. Evaluación en relación a la puesta en marcha del proyecto de evaluación - - Ex ante: se realiza con anterioridad a la ejecución del proyecto. Las motivaciones de esta evaluación son evaluar o conocer las necesidades de la PP y el éxito de la misma. Garantizamos de esta forma que lo que queremos obtener con esa PP se va a conseguir. Conoceremos si se van a cumplir los objetivos establecidos. In Intinere/Intermedia: se realiza en mitad de la ejecución del proyecto. Observamos si se están consiguiendo los objetivos por los cuales se puso en marcha dicha PP. Se hace un control de cómo van los objetivos para saber si estos tienen que ser reforzados o no. Pueden darse varias evaluaciones intermedias. Ex post/Final: se realiza una vez finalizada la política pública, analizaremos los outputs (resultados del proyecto) y los inputs (impactos que ha tenido el proyecto). Evaluamos si se han conseguidos los objetivos y los impactos y efectos que haya podido generar. Ya no se pueden introducir mejoras ni modificaciones en el proyecto. 3.3. - - - Según su finalidad en relación con la temporalización Inicial o diagnóstica: nos centramos en la fase de diagnóstico previa a las fases de formulación. Nos ayuda a ver el grado de alcance de los objetivos propuestos por el proyecto. Continua (o también llamada procesual, sucesiva y/o formativa): encontramos diferentes interpretaciones, por ello los diferentes términos (todos sinónimos). Se establece en función de una perspectiva de corte dinámico y diacrónico (diferentes cortes temporales que se realizan a lo largo del tiempo). Se observa cómo se van desarrollando los objetivos y los progresos del proyecto. Final o diferida: Se realiza una vez se haya finalizado la política pública. Se trata de evaluar si se han cumplido los objetivos marcados. Relación entre finalidad (I) y momento evaluativo Finalidad Diagnostica Momento Inicial o ex ante Objetivos Identificar las características de los participantes (intereses, necesidades, exceptivas) Identificar las características del contexto (posibilidades, limitaciones, necesidades, etc.) Valorar la pertinencia, adecuación y viabilidad del proyecto Página 9 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Formativa Continua Sumativa Final o ex post Mejorar las posibilidades personales de los participantes Dar información sobre la evolución y progreso Identificar los puntos críticos en el desarrollo del proyecto Optimizar el proyecto en su desarrollo Valorar la consecución de los objetivos así como los cambios producidos, previstos o no Verificar la valía de un proyecto de cara a satisfacer las necesidades previstas Según la finalidad (II) Tipo de evaluación También conocida como Diagnostico Inicial Diseño Predictiva o de Pronostico Antes de la intervención social Nos permite conocer la adecuación del programa de intervención social a las necesidades de la población Implementación Orientadora o formativa Durante de la intervención social Proporciona la información para saber cómo se está aplicando el programa Final de la intervención social Permite saber qué efectos/consecuencias ha tenido la intervención social (programa) sobre el contexto social intervenido Resultados 3.4. Sustantiva o de control Momento de su aplicación Finalidad Se utiliza para conocer las Antes de la intervención necesidades o problemas de la social ciudadanía De acuerdo con su objeto Visto anteriormente (tabla de arriba) - Evaluación de contexto Evaluación de diseño del programa Evaluación de proceso o implementación Evaluación de productos: valorar e interpretar los logros del proyecto Evaluación de resultados o efectos inmediatos: valorar los cambios planificados y los cambios imprevistos Evaluación de impactos: efectos producidos en el entorno social Página 10 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 - Evaluación de costes: referido al carácter económico Inicial Diagnostico 3.5. Formativa Ev. Continua Sumativa/control finalista Nivel de asistencia El nivel de asistencia a la toma de decisiones: - - Proactiva: indica una mayor actividad. La política pública está viva, ello le da un mayor dinamismo. Si realizamos una evaluación para ir implementando mejoras estamos ante un modelo pro-activo. Re-activa: si el carácter de la evaluación se centra más bien en la contabilización de logros o efectos de la PP. estas se usan para justificar las asignaciones presupuestarias. La mayoría de las intervenciones tienen una mezcla de ambos modelos. Se presentan elementos tanto proactivos (ayuda en la toma de decisiones) y reactivos (nivel de contabilización). 3.6. - 3.7. - - - De acuerdo al modelo Método cuantitativo: cuando la mayoría de indicadores de evaluación son de carácter cuantitativo (encuestas, datos micro, macro, etc.) Método cualitativo: cuando empleamos indicadores cualitativos (entrevista, observación participante, etc.) Enfoque pluralista/mixto: la mayoría de evaluaciones deberán de ser mixtas. De acuerdo con la metodología Constructivista o libre de objetivos: inexistencia de objetivos cuantificados o cuantificables. El modelo de evaluación cosiste en no tener indicadores basados en objetivos. Este tipo de evaluación se emplea para alcanzar una dimensión de corte más dinámico. Son muy complicadas de realizar, se requiere de personal que conozca bien la metodología de evaluación. Evaluación formativa: evaluación continua que se basa en que los participantes vayan conocimiento el proyecto y mejorar sobre la marcha. Evaluación participativa: participación de los grupos de interés implicados en esta PP. Por ejemplo sería algo similar a los presupuestos participativos, pero llevado al ámbito de la evaluación. Evaluación integral y holística: la evaluación no se ve como una evaluación final Sumativa, se tiene en cuenta todo el análisis y el conjunto de la PP. Debe abarcar todos los elementos relevantes de los proyectos. Se mezclan técnicas cualitativas y cuantitativas. Se abarca todo el proceso. 4. Diseño (tema 7) - Diseño Preordenado ≠ Diseño Respondiente Preordenado: estrategia o plan que va a guiar al proceso evaluativo. El propósito es un diseño detallado de todos los elementos de ese proceso evaluativo, todos ellos previamente diseñados y elaborados, no me salgo de ese guion. Responden a evaluaciones de carácter sumativo o finalista (quiero ver los impactos y resultados). Respondiente: evaluación de carácter participativo, sin serlo busca una mayor participación de los implicados. El diseño no se encuentra previamente realizado, es más flexible. Metodología más cualitativa/interpretativa. Me voy adaptando a la realidad. Página 11 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 - - Selectivos (o no experimentales), cuasiexperimentales, experimentales No experimentales: se sabe a quién se debe seleccionar o no. Cuasiexperimentales: podrían ser comparativos o no Experimentales: Son diseños comparativos porque tendremos grupo de control. Comparativos ≠ No comparativos Comparativo: emplea un elemento de comparación que puede ser un grupo preexistente o un grupo de control creado sobre la marcha. Normalmente se suele emplear un grupo de control. No comparativo: muchas veces no es posible tener grupo de control. El evaluador llega tarde al proceso o es inviable su creación. 5. Instrumentos de medición Técnicas - Observación no participante (cualitativa) Observación participante (cualitativa) Visitas de seguimiento (cualitativa) Entrevistas en profundidad (cualitativa) Cuestionarios/encuestas/sondeos (cuantitativa) Test (cuantitativas/cualitativas) Escalas (cuantitativas/cualitativas) Revisión documental (cualitativas/cuantitativas) Grupos de discusión/focus group (cualitativas) Método de investigación - Estudios de casos (cuantitativas/cualitativas) 5.2. Tipos de evaluación según la fase de la política pública según Tamayo (2001) Fase política pública Definición del problema Formulación y adopción alternativas Implantación altervativas Evaluacion de resultados 6. Tipo de evaluación Anticipativa De evaluabilidad De necesidades Teorías y diseño Viabilidad política/contexto Implantación Seguimiento de programas De impactos De calidad Limitaciones instrumentales Las técnicas de explotación de la propia información Dificultad de aislar los efectos Dimensión temporal Escasa cultura evaluativa organizacional TEMA 2: DEFINICIÓN Y CONCEPTO DE EVALUACIÓN 1. Introducción (Definiciones Tema 1) Página 12 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 La evaluación se aplica en diferentes contextos, aunque nosotros nos centraremos en la evaluación de las políticas públicas. De esta forma, evaluar es “comparar en un instante determinado lo que se ha alcanzado mediante una acción con lo que se debería haber alcanzado de acuerdo con una programación previa”. Esta definición lleva implícitos tres elementos: - - Existencia de una situación previa sobre la que se pretende actuar. Vendría recogida en una programación Existencia de una situación real (momento determinado en el que nos encontramos). Esta situación real se encuentra configurada por los acontecimientos ocurridos. Proceso de comparación entre las dos situaciones, esta nos hará ver si hay una igualdad o desigualdad entre dichas situaciones. También entenderemos cómo se ha llegado de una situación a otra. La evaluación va a establecer cual es grado de éxito o fracaso de una acción, teniendo en cuenta la comparación entre las situaciones. Concepto de evaluación según la RAE “Evaluar es señalar el valor de la cosa” Para señalar el valor de algo es necesario medir y solo es posible medir cuando se tienen puntos de referencia (nos permiten realizar la comparación). La comparación no implica necesariamente el uso del método comparativo. Para comparar una cantidad con su respectiva unidad (cuántas veces se da la cantidad en su respectiva unidad). Definición de evaluación de la OMS “Un medio sistemático de aprender empíricamente y de utilizar las lecciones aprendidas para: a) El cambio o mejora de las actividades de un programa. b) El fomento de la planificación y la toma de decisiones más racional.” Un medio sistemático es un proceso sistemático: secuencia de fases que tienen un sentido y una lógica que deben de ser seguidas para llegar a un fin, como por ejemplo el método científico. 2. Subactividades de la evaluación Hemos visto que en la evaluación comparamos la situación previa con la real, ello conlleva cuatro tipo de actuaciones: 1. 2. 3. 4. Especificación de los criterios de evaluación Medición que rebosa sobre una técnica de análisis Realización del análisis a través del uso de una metodología Recomendaciones, formas en las que se puede mejorar una actuación. Las PP tienen una lógica de mejora, por lo que es necesario que se den las mismas. Las recomendaciones son la partes substantiva de la evaluación. 3. Objetivos de la evaluación Normalmente en la evaluación encontramos dos objetivos principales: 1. Medir el grado de: - Eficacia: la capacidad de lograr el efecto que se espera o se desea. Cumplir con el objetivo en el tiempo señalado. Página 13 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 - 2. - Eficiencia: conseguir el objetivo con el menor coste posible o con la menor utilización de recursos (índice de productividad). - Efectividad: capacidad que tienen esas actividades y tareas del proyecto para conseguir las metas y objetivos del proyecto. - Idoneidad: capacidad que tiene el proyecto para solucionar el problema que lo originó. Mejorar la toma de decisión: Mejorar las prácticas y procedimientos de la PP Añadir técnicas en relación con lo que se está empleando Modificar estrategias Continuar o no con el proyecto que se está evaluando Establecer proyectos semejantes en realidades similares Asignar los recursos entre los proyectos que compiten entre sí, a aquellos proyectos que sean más idóneos, eficientes o eficaces. El principio último de la evaluación sería el de utilidad (principio de utilidad), es decir, la evaluación debería de ser útil para generar conocimiento científicos, para los decisores, para la implementación de PP en situaciones similares, porque mejora la PP, etc. De esta forma podremos conocer si se continua o no la marcha de un proyecto. Si va bien el proyecto lo mejoramos y continuamos con el mismo; en caso de que no vaya bien, se descarta. 4. Criterios Criterios clave 1. Estructurar el problema 2. En qué grado y cómo se ha resuelto tenemos una medición con respecto a una unidad de medida y veremos cómo se ha resuelto el mismo. Aquí sería clave el papel de la evaluación. Criterios aplicables ¿Es eficaz? ¿Se han conseguido los objetivos? ¿Es eficiente? ¿Cuánto esfuerzo ha requerido el resultado? ¿Es adecuado? ¿En qué proporción se ha resuelto el problema? ¿Es equitativo? ¿Se han distribuido los costes y beneficios? ¿Es responsable? ¿Satisface necesidades, preferencias y valores? ¿Es apropiado? ¿Los resultados deseados (objetivos) son actualmente valiosos? TEMA 3: TIPOS DE EVALUACIÓN Ya hablamos de los diferentes tipos en el primer tema. En este tema nos centraremos en diferentes cuestiones dentro de cada tipo de evaluación. Además, entraremos en temas más de fondo de la evaluación. Los temas sobre el proyecto e informe de evaluación (tema 11 y 12) los veremos ahora porque son parte de las prácticas. Criterios: 1. Según el momento (función) de la evaluación: Formativa Página 14 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Sumativa o final 2. Según la procedencia de los evaluadores: Interna Externa Mixta 3. Según la naturaleza de la evaluado Evaluación de necesidades Evaluación del diseño Evaluación de la implementación Evaluación de impacto 1. Según el momento (función de la evaluación) Formativa: se realiza durante el desarrollo del proyecto. Tenemos una PP y realizamos la evolución conforme se desarrolla el proyecto. Sirve para retroalimentar el proyecto, busca la mejora. Se puede aplicar en las diferentes fases del proyecto (diagnostico, formulación, implementación). Sumativa o final: se busca una rendición de cuentas, sin intención de realizar mejoras en el proyecto. Tiene un carácter finalista, normalmente se hace en la fase de finalización del proyecto de la PP. Aunque también se puede hacer por ciclos o cortes evaluativos. 2. Según la procedencia de los evaluadores Tenemos una PP formulada por el legislador o actor político, esta será implementada por unos técnicos y finalmente, tendremos que decidir quién hace la evaluación. En función de esta decisión encontramos tres tipos posibles: Evaluación interna: se realiza por el organismo que ha ejecutado, desarrollado e implementado la política pública. Ej. El Ayuntamiento de Granada crea unos talleres deportivos por las tardes, en el caso de la evaluación interna, es el propio ayuntamiento de Granada el que realiza la evaluación. Evaluación externa. El evaluador es ajeno a los órganos de ejecución de la PP (hay una contratación por parte del organismo público). Puede ser una consultora, un autónomo que se dedique a ello, etc. De manera que el evaluador no tiene conocimiento a priori de la PP que se va a evaluar. Evaluación mixta. Tenemos un equipo evaluador (más de dos personas involucradas en la evaluación) que se compone por personal interno y externo. 3. Según la naturaleza de lo evaluado A. Evaluación de necesidades Se trata de la situación-problema que nace del diagnóstico. Veremos cómo se configuran las necesidades en la situación de la que partimos para formular un programa de acuerdo a ciertas cuestiones. Estamos en un contexto en el que hay escasa información. De manera que será necesaria la evaluación de las necesidades del colectivo al que le es aplicable la PP. Página 15 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Evaluación de necesidades: una necesidad sería una diferencia/desigualdad por la vía de comparación de cosas. Unos autores británicos en los años 70 hablan de la necesidad como discrepancia por la vía de la comparación. En este ámbito de la formación se evalúan las necesidades constantemente (necesidades educativas/formativas). Se habla de modelos de discrepancia (diferencia/vacío/desigualdad entre el nivel deseado y el que realmente existe), establecen los siguientes déficit/discrepancia/necesidades: Déficit de objetivos Discrepancia entre lo ideal y lo actual. Déficit de expectativas Discrepancia entre lo que se espera y lo actual. Déficit normativo Discrepancia entre la norma y lo actual Déficit básico Discrepancia entre el estándar mínimo y lo actual. ¿Cómo se organizan este tipo de acciones? Normalmente estas discrepancias generan una serie de necesidades. Jonathan Bradshaw es el autor que habla sobre las necesidades. Constituyen una diferencia/vacío entre un nivel deseado y un nivel existente. Encontramos necesidades básicas Los autores generan cuatro tipos de necesidades: Necesidades normativas: provienen del déficit normativo. Discrepancia que da pie a una necesidad cuando se compara la situación de la norma con la situación actual. Necesidades sentidas: pueden provenir de varios tipos de déficits. También se conocen como necesidades experimentadas, hacen referencia a experiencias y son relativas a lo que sienten los seres humanos. Eso sí, no tienen por qué ser ver verbalizadas por la persona. El individuo puede tener dicha necesidad pero no necesariamente ha de expresarla. Expresión subjetiva de la carencia de algo. Necesidades expresadas: pueden provenir de varios tipos de déficits. Son necesidades expresadas o demandadas. Normalmente demandadas al programa o a los servicios sociales, cualquier entidad que pueda solucionar el problema. Se hará a través de la solicitud en la que se exprese la necesidad de cubrir esta cuestión. Necesidades relativas: pueden provenir de varios tipos de déficits. También se llaman necesidades comparadas. Se da cuando los miembros que tienen las características de beneficiarios del programa, pero NO acaban siendo beneficiarios del mismo por una serie de cuestiones. estos individuos, a través Página 16 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 de la comparación, entienden que ellos tienen dicha necesidad. De manera que se hace una comparación entre los que son beneficiarios y aquellos que no lo son pero podrían serlo. Esto lleva a Provus (dedicado a evaluar proyectos económicos) a entender que hay que evaluar en cuatro pasos/fases: - Definición: delinear/definir claramente el programa y los componente para ser evaluados. Instalación: Ver si el programa se implanta o no. Proceso: ver si los objetivos se están cumpliendo durante el proceso. Producto: si se logran los objetivos en términos de resultados. Costos: análisis de costes (etapa adicional) Normalmente para que este modelo funcione tenemos que tener programas y ejecución muy estandarizados. De manera que podremos comparar los estándares con la ejecución y podremos establecer ajustes antes de pasar a la siguiente fase. Por ejemplo, si en la fase de instalación encontramos discrepancias, que estas puedan ser corregidas antes de pasar a la siguiente fase. Fases de la evaluación de necesidades: 1. Inventario de recursos: veremos los recursos disponibles 2. Identificación de necesidades: características beneficiarios, localización, tendencia 3. Identificación de afectados 4. Estudio del entorno de los servicios 5. Análisis de los factores de riesgo 6. Evaluación - estudios anteriores 7. Aportaciones de posibles soluciones volumen, No solo es necesario la detección de la presencia de esas necesidades, sino que estas deben ser evaluadas para conocer cuáles van a ser prioritarias. La evaluación de necesidades se encuentra normalmente en el estudio del contexto previo a la intervención. Nos ayudará a tomar decisiones sobre la comparativa entre el estado actual y lo esperado. También nos ayudará a proporcionar las claves sobre medios y recursos. De manera que deben de considerarse las necesidades iniciales de los Página 17 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 destinatarios. La idea aquí seria que la evaluación sea una fase previa para la planificación de un programa aunque no constituye una evaluación del programa en sí. Nos permite ver la adecuación de la necesidad a la relación contextual que posteriormente se desarrollará. Veremos si se responderá o no a las necesidades detectadas. Se emplearán técnicas/instrumentos como las entrevistas, encuestas, etc. para la detección de necesidades (análisis en profundidad). Visión triangular: participantes-expertos-otros actores. B. Evaluación del diagnostico Elementos: 1. El problema: si el problema está bien acotado para la intervención. 2. El desarrollo y selección de instrumentos y procedimientos: En el diagnostico tenemos que ver si se ha definido bien el problema a partir de la evaluación de necesidades previas y, por otro lado, comprobar que se hayan empleado los instrumentos adecuados. 3. Interpretación (conclusiones) C. Evaluación del diseño En el ciclo de la PP se detecta una necesidad y se crea una PP. Se encuentra después de la fase de formulación del proyecto. Se evalúa principalmente la factibilidad e idoneidad. Entendemos por idoneidad que las acciones propuestas sean coherentes con las metas/objetivos de la PP, es decir, la capacidad que tiene le proyecto de hacer posibles las metas de la PP. La factibilidad guarda relación con el empleo de los recursos y las acciones, es decir, capacidad que tiene el proyecto para ser ejecutada en el tiempo que se ha determinado y con los recursos disponibles. En este caso la evaluación versa sobre el programa, de manera que encontramos dentro del mismo: Evaluación de la factibilidad (Acciones Problema): que las acciones den pie a la resolución del problema. Pertenecía: que los objetivos sean adecuados. Evaluación de la pertinencia (Objetivos Problema) Evaluación de la coherencia interna (Acciones Objetivos): que las acciones responsan a los objetivos. Evaluación técnica y económica de un proyecto y su relación con las necesidades detectadas. Hay autores que considera que la evaluación del diseño es una evaluación de los inputs. Por ello se denomina “evaluación de entrada o del input”. Tendremos que evaluar los métodos empleados, la asignación de recursos, buscar las barreras en el marco contextual o ayudar a los responsables a la hora de llevar a cabo los programas que acabarían en fracaso por la escasez de recursos. La capacidad de este diseño puede evitar esfuerzos y gastos innecesarios. Muchas veces, conlleva que si el proyecto no se diseña bien no puede ser evaluado. Si no se plantean bien los objetivos, métodos, recursos, etc. no se puede evaluar. Por eso la evaluación del diseño ayuda a la posterior evaluación. Esto es lo que se denomina “evaluación de la evaluabilidad”. Es decir, si ese programa o política pública es evaluable, de manera que nos garantizamos que la misma sea evaluable. También nos permite saber si es coherente. Nos centraremos: - Objetivos Página 18 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 - Contenidos Actividades Recursos y medios Evaluación y evaluabilidad. Una vez que acotamos este diseño o que determinados las finalidades de la evaluación, se pasa a una recogida de información. Los tipos de instrumentos de empleamos y las circunstancias de la recogidas es muy importante, pero sobre todo quién lo realiza. Para la evaluación de diseño y de la implementación se requiere de evaluadores externos (fuera del proyecto) y con un alto conocimiento en técnicas y metodología de investigación. D. Evaluación de la implementación Evaluación de la ejecución o el desempeño. Este tipo de evaluación es el más frecuente, la mayoría de evaluaciones normalmente son evaluaciones de la implementación. Valoramos tareas, metodología, efectos esperados y no esperados, efectos alcanzados, etc. Se divide en diferentes tipos de análisis: - Análisis de servicios concretos que presta la PP. Análisis de cobertura de la PP. Análisis de proceso/implementación de la PP. Lo normal es que se denomina evaluación de proceso o de la implementación, aunque se hace referencia a los tres tipos de análisis. Este tipo de evaluación tiene un carácter formativo, trata de analizar si los elementos que se van a poner en marcha están desarrollándose de la manera prevista. Con la información encontrada trataremos de optimizar o mejorar mientras que se desarrolla. De manera que se responden a los obstáculos, demandas o imprevistos que surgen mientras que se lleva a cabo el programa. Proporcionamos información continua para planificar/replanificar y dar una guía al personal técnico para mejorar aspectos de la PP/programa mientras se está implementando. Los autores normalmente establecen que encontramos tres cuestiones principales (fases) que hay que resolver en este tipo de evaluación: 1. Descripción de lo que es esencial para el programa/PP según lo establecido por la literatura o por la información previa. 2. Recogida de información sobre aspectos clave (como se aplica, como funciona, etc.) 3. Comparar el plano teórico previsto/diseñado con lo que ocurre en la realidad. Encontraremos discrepancias, como decíamos antes. Ello lo haremos con la idea de redefinir el diseño u optimizarlo. Ello nos permitiría: - La identificación de los puntos débiles del programa La realización reajustes en el programa Mejoras de las posibilidades de los participantes y técnicos Ampliar la información a la hora de tomar decisiones posteriores Proporcionar información sobre el progreso y evolución del programa Conceptos de resultado e impacto Página 19 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Resultado: “Mide los efectos del programa sobre la población beneficiaria del mismo” Impacto: “Mide los efectos sobre la comunidad en su conjunto” E. Evaluación de resultados Necesitaremos un diseño experimental porque lo que estamos determinando son relaciones de causalidad. Estábamos viendo si en las primeras fases todo se había hecho de forma correcta, sin embargo, aquí ya queremos ver si el proyecto tiene el efecto/impacto que se buscaba. De manera que necesitamos recurrir a diseños metodológicos de corte experimental (grupo experimental y grupo de control). La idea sería averiguar hasta qué punto se han satisfecho las necesidades de los beneficiarios. Se quiere conocer si se han alcanzado los objetivos previstos, aunque también se observa si se han encontrado efectos no previstos. 1. Consecución de los objetivos en cantidad, calidad y tiempo: ¿Ese programa ha logrado los efectos especificados en el diseño? 2. Análisis de resultados no esperados (positivos o negativos): la mayoría de programas tienen resultados que no se esperaban (externalidades) pueden tener carácter positivo y negativo. por ello se requiere que el evaluador sea externo y conozca la metodología. La experiencia nos ayuda a detectar estos resultados no esperados. 3. Opinión y satisfacción de los usuarios del programa: La evaluación de los resultados también tendrá en cuenta la opinión de los usuarios (satisfacción o insatisfacción de la PP). Esta guarda relación con las dos anteriores. F. Evaluación de impacto Sería una evaluación más sumativa o final porque se centra en los efectos de la PP, programa o intervención en la población beneficiaria. Los efectos estarían enunciados en los objetivos de la PP. miramos la diferencia entre la situación real y los efectos esperados por la PP (ya sean objetivos mediatos o inmediatos). De manera que aquí hablaremos de la temporalidad: efecto a corto/largo plazo. G. Otros tipos de evaluación 1. Evaluación operacional: gestión de recursos y actividades en un contexto organizativo concreto. 2. Evaluación de la estructura: Cantidad, calidad y adquisición de recursos humanos, materiales y financieros. TEMA 4: ¿QUÉ SE EVALÚA EN UN PROGRAMA O POLÍTICA PÚBLICA? LOS CRITERIOS EVALUATIVOS PRIMERA PARTE: Criterios de evaluación Deben de estar claramente definidos. Determinan y guían el estudio, orientando la recopilación y análisis de la información, es decir, de las variables que se van a valorar y de los criterios de valor. Establecer los criterios de evaluación sirve para clarificar y reforzar los objetivos y para repasar o explicitar la “teoría de programas”, en otras palabras, las premisas, principios y mecanismos subyacentes al programa. El análisis de algunas experiencias de evaluación nos hace concluir que, en general, pensar sobre qué se quiere evaluar (criterios de evaluación) es un paso clave que muchas veces se suele obviar o se suele dar por hecho. En muchas Página 20 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 ocasiones, el QUÉ evaluar (criterios de evaluación) define a través del CÓMO evaluarlo (metodología y técnicas utilizadas), dando prioridad a esto último. La evaluación conlleva considerar sistemáticamente aquellos factores que determinan una política pública, estos factores se presentan como criterios o principio de la evaluación. Existen diferentes modelos de evaluación y se pueden establecer diferentes planteamientos para la selección de aquellos criterios. Podemos diferenciar tres tipos de criterios según: Estén relacionados con la redacción de objetivos El grado de logro El uso de los medios para alcanzar los objetivos Los criterios sirven para emitir los juicios de valor que deben dar respuesta a las preguntas de evaluación que el equipo evaluador prevé contestar en relación con los objetivos planteados en el diseño de la evaluación. La categorización de los análisis permite medir el valor de una intervención. Los criterios de evaluación sirven como referencia para crear la estructura de las cuestiones a las que la evaluación va a dar respuesta. 1. Criterio de relevancia Definición: El análisis de relevancia se corresponde con la evaluación de la calidad y veracidad del diagnóstico. Ello permite identificar el alcance del problema y la metodología utilizada en el planteamiento de la política pública o programa. Para evaluar el diagnostico utilizado en la formulación de una política pública es necesario analizar cómo se definieron y priorizaron los problemas sociales, sin dejar de tener en cuenta cómo influenció en esta definición el entorno. La evaluación del contexto conlleva analizar las condiciones externas del programa o política (elementos económicos, políticos, legales, etc.) que hayan afectado directa o indirectamente a la formulación de la política. Preguntas clave: ¿En qué medida las intervenciones realizadas están alineadas con las necesidades y prioridades del territorio? ¿Las acciones emprendidas otorgan prioridad según la importancia de las necesidades detectadas? ¿El objetivo de la mejora de la política pública era pertinente en el contexto donde se aplicó? Dificultades metodológicas: La no disposición de datos estadísticos oficiales. La falta de información de cómo se detectaron o priorizaron las necesidades planteadas. Dimensión de la política pública a la que hace referencia: Diseño de la política pública. Métodos y herramientas propuestos: Árboles o diagramas de flujos. Página 21 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 2. Criterio de pertinencia Definición Este análisis consiste en el estudio de la calidad en la formulación de los objetivos del programa. Deberá analizarse, para ello, si los objetivos se han definido reflejando concisamente los propósitos de la política pública y si su consecución es mediable. En este sentido, es importante examinar si los objetivos se han redactado de una forma clara y concisa, y que se especifica el producto que se pretende obtener. Debe considerarse que la consecución de objetivos responde a una planificación temporal preestablecida y por tanto deberá valorarse las adaptaciones que se hayan podido producir. Preguntas clave: ¿Qué persiguen los objetivos del programa o política? ¿Se identifica claramente el resultado que pretende alcanzar cada objetivo de la política? ¿Se ha tenido en cuenta cuando se van a cumplir los objetivos? Dificultades metodológicas Falta de consenso sobre las necesidades y prioridades establecidas, o una valoración incorrecta de estas. Falta de concreción de la política pública. Dimensión de la política pública a la que hace referencia: Diseño de la política de la política pública. Métodos y herramientas: Análisis de calidad del diagnóstico (DAFO). 3. Criterio de coherencia interna Definición Este tipo de análisis es de uso frecuenta en las políticas de evaluación de la UE. Se trata del análisis de la jerarquía de objetivos. La jerarquía de objetivos forma parte de la creación de la estrategia de intervención y se realiza en función de las necesidades detectadas. El análisis de coherencia analiza la lógica de la programación, ahondando en si existe una priorización coherente de los objetivos y su relación con las actividades, y la consecución de resultados. Preguntas clave: ¿Se puede decir que las actividades y los resultados permiten alcanzar los objetivos de manera lógica? ¿Existen contradicciones entre los diferentes niveles de objetivos? ¿Existen duplicidades entre las actividades programadas en relación a la consecución de los objetivos de la política pública? Dificultades metodológicas: Falta de concreción de los objetivos o de las actividades planteadas en la política pública. Dimensión de la política pública a la que hace referencia: Diseño de la política. Página 22 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Métodos y herramientas: Árbol de objetivos. Matriz de valoración de las relaciones entre necesidades planteadas y objetivos. 4. Criterio de coherencia externa Definición: Este análisis permite valorar el grado de correspondencia que existe entre un programa y otras intervenciones que se estén ejecutado en un mismo espacio temporal y físicoterritorial. Este tipo de análisis requiere estudiar los objetivos y la intervención de forma comparada con todos los programas que convergen en un territorio. Se trata de contrastar el grado de complementariedad y las posibles sinergias existentes entre la política y el objetivo de la evaluación y otros programas. Preguntas clave: ¿Se puede decir que no existe superposición entre la política y otras intervenciones aplicadas en el mismo territorio? Los impactos y resultados serán más complicados de determinar puesto que no sabremos si son nuestros impactos y resultados o de la otra política pública. ¿Los objetivos planteados en la política coinciden con los expresados en otras intervenciones del territorio? Dificultades metodológicas: Imposición en la definición de las necesidades detectadas o en el establecimiento de objetivos, de la política objeto de evaluación o de las políticas que pueden presentar algún grado de complementariedad. Dimensión de la política pública a la que hace referencia: Diseño de la política pública Métodos y herramientas: Comparación entre arboles de problemas y objetivos de los distintos planes que presenten complementariedad. Matriz de valoración de la compatibilidad de la intervención con otras estrategias y programas. 5. Criterio de eficacia Definición: Determinar el grado en que una operación alcanza o se espera que alcance sus objetivos, en un periodo determinado y con independencia de los costes que se ejecución implique (bajo una múltiple perspectiva de realización financiera, física, resultados e impactos). El análisis de eficacia parte de la premisa que el objetivo del programa ha sido definido de manera inequívoca y con carácter operacional. Sin embargo, debe atenderse que en muchas ocasiones los objetivos pueden haber estado formulados de forma confusa y muy general. En estos casos debe ponerse de manifiesto esta debilidad y el equipo de evaluación deberá hacer operativos los objetivos sobre la información existente. Página 23 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Preguntas clave: ¿En qué medida se han cumplidos los objetivos? ¿Qué acciones concretas de la política han favorecido al cumplimiento de los objetivos esperados? ¿Han existido factores externos a la evaluación que hayan influido en la resolución de los problemas detectados? Dificultades metodológicas Resultados planificados poco claros, múltiples o confusos, o que son objeto de cambio. Mala definición de los indicadores de los resultados planificados. Falta de información de referencia sobre las instituciones, personas o infraestructura afectadas. Escaso conocimiento de los vínculos entre causa y efecto. Dificultad para atribuir los resultados al programa en particular debido a las variables de intervención. Dimensión de la política pública a la que hace referencia: Resultados de la política pública. Métodos y herramientas: Ex-ante: Medición de los objetivos iniciales de las variables resultantes y otras variables importantes. Ex-post: Medición de los valores de las variables resultantes y otras variables después de haberse llevado a cabo la intervención. 6. Criterio de eficiencia Definición: El análisis de eficiencia mide hasta qué punto los resultados que se han objetivo derivan de una utilización eficiente de los recursos financieros, humanos y materiales utilizados. La principal dificultad para medir la eficiencia de una política está en establecer un valor de referencia sobre la asignación de recursos. Pocas veces el valor de referencia está establecido, por lo que el equipo evaluador deberá establecer este valor sobre el que se realizan las mediciones. Los exámenes previos en relación a la eficiencia se establecerán durante el proceso de planificación de una política, cuando se deciden los presupuestos e insumos. Preguntas clave: ¿Cuál ha sido el coste material de los objetivos conseguidos? ¿Se aplicaron procedimientos racionales de gestión financiera y de equipos? ¿Se han utilizado los recursos de la manera más económica posible? Dificultades metodológicas: Nos disposición de los valores de referencia a la hora de determinar el gasto o cuantificar los recursos. Dimensión de la política pública a la que hace referencia: Gestión de la política pública (proceso) Página 24 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Métodos y herramientas: Medición directa: registro de datos cuantificables por medio de instrumentos analíticos. 7. Criterio de sostenibilidad Definición: El análisis de la sostenibilidad de un programa permite evaluar en qué medida los resultados del programa han sido o tienen probabilidades de ser duraderos una vez finalizado el programa y una vez retirados los recursos externos. Los factores que inciden en la sostenibilidad se examinan sobre la base de la prioridad asignada al programa. En el análisis también se estudia la disponibilidad de los recursos administrativos, financieros y humanos que harían falta para mantener los resultados del programa en el largo plazo. Preguntas clave: ¿Es probable que los logros del programa se mantengan una vez finalizada la intervención? ¿Tienen las contrapartes participantes la voluntad y la capacidad de continuar por su cuenta las actividades del programa? Dificultades metodológicas La sostenibilidad es una situación hipotética y proyectada. No es posible prever todos los factores intermedios que comprometen la sostenibilidad. Dimensión de la política pública a la que hace referencia: El impacto de la política pública, puesto que se quiere mantener la política. Métodos y herramientas: Herramientas cualitativas y participativas: mesas redondas, talleres, foros de discusión, etc. 8. Criterio de equidad Definición: Valorar la equidad en los recursos obtenido o que se pretenden alcanzar a través de una política pública. La evaluación del criterio de equidad conlleva analizar hasta qué punto la distribución del coste o los beneficios con programas públicos entre la población se ha realizado con algún criterio estándar de distribución equitativa. Una política equitativa es aquella cuyos resultados o esfuerzos están distribuidos justamente. El criterio de equidad está estrechamente relacionado con los conceptos de justicia o imparcialidad ya que en las políticas de distribución de los recursos subyacen conflictos éticos. Preguntas clave: ¿Se han utilizado criterios de equidad en la definición de los objetivos de la política pública? ¿La dedicación de esfuerzos ha seguido una lógica de reparto justo? Página 25 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Dificultades metodológicas: Obtención de respuestas suministradas dónde subyacen distintas lógicas de actuación. Dimensión de la política pública a la que hace referencia: Diseño, proceso, resultados e impacto. Métodos y herramientas: Análisis de inputs asignados a la política a través de metodologías cualitativas: enfoque pluralista, que enfatiza la participación de los actores y destinatarios de las políticas públicas. SEGUNDA PARTE: Preguntas Los diferentes criterios se mueven y dan lugar a las preguntas. Los elementos a evaluar están condicionados por la fase en la que se encuentre: 1. En la fase de diagnóstico (necesidades) El diagnóstico se centra en: A. El problema ¿Fue expuesto el problema con claridad, teórica y operacionalmente? (cuantificando el problema). ¿Fueron definidas con claridad las variables que debían medirse? ¿Era adecuada la base para la selección de variables? ¿La hipótesis formulada fue deducida de alguna teoría o de algún estudio anterior? ¿Fueron especificadas las hipótesis alternativas? B. Desarrollo y selección de instrumentos y procedimientos: ¿Eran medibles las variables observadas? ¿Los criterios por los que se eligieron las variables estaban basadas en una teoría o una evidencia empírica? ¿Se estableció la validez de los instrumentos? ¿Era adecuada la base para la selección de escalas? ¿Fue especificada con claridad la población que se estudió? ¿Se especificaron los procedimientos de muestreo? ¿Era la muestra representativa? ¿El margen de confianza y el índice de error eran aceptables? ¿Se describieron los métodos de recogida de datos? (En una entrevista en profundidad, por ejemplo). C. La interpretación ¿Las conclusiones del estudio eran coherentes con los resultados? ¿Se podían los datos generalizar a toda la población? ¿Las conclusiones eran coherentes con el esquema teórico previo? ¿Se indicaron las consecuencias de las conclusiones? ¿Se incluyeron elementos de pronosticación? ¿Se hicieron sugerencias para mejorar las condiciones que crearon el problema? ¿Se tuvieron en cuenta las preferencias, valores u opiniones de la población afectada? 2. En la fase de formulación (fase de diseño). ¿Qué relación tiene el proyecto con las necesidades reales detectadas? ¿Relación del proyecto con la política o planes de la institución responsable? Página 26 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Ventajas específicas del proyecto para resolver el problema y alcanzar los objetivos. ¿Cómo ayudarán los objetivos y metas a resolver el problema? Posibilidades reales del proyecto de alcanzar las metas. ¿Por qué realizar esas técnicas y metodologías y no otras diferentes? ¿Por qué realizar el proyecto en esas fechas y no en otras? ¿Serán suficientes los recursos disponibles para alcanzar los propósitos? ¿Existe respaldo real del proyecto por parte de la institución, los colaboradores y la comunidad de beneficiarios? Adecuación técnica y económica y relación con las necesidades detectadas. Todas las preguntas tienen que ver con la factibilidad. 3. En la fase de implementación. Hay que evaluar: Tareas de motivación de los actores (de los ejecutores). Realización de actividades (plazos, cantidad y calidad). Esto se mide mediante un registro de perspectiva (cronograma). Recursos humanos (cantidad y calidad, es decir número de personas y los conocimientos que tienen que tener estos ejecutores). Disponibilidad de estos, son los que ejecutan el proyecto. Recursos materiales y técnicos. Financiación del programa. Establecimiento del proyecto (infraestructura, organización previa ed los beneficiarios e información y publicidad). Dinámica interna de organización (como funciona la organización a nivel interno a la hora de organizarse y empeñar tareas). Cobertura del programa (los beneficiarios o población). 4. En la fase final o de resultados. Hay que evaluar: Metas y objetivos (cantidad %, calidad, tiempo). Problema (idoneidad). Efectividad (diseños evaluativos) de las actuaciones del proyecto. Ver el grado de consecución de los objetivos y metas. Usuario-beneficiario (satisfacción y opinión general). Efectos no programados. Externalidades que ocurren por ese proyecto pero que no se esperaban. Eficiencia. (Mirar el criterio). Impactos. TEMA 6: EL PROCESO EVALUATIVO Encontramos 8 etapas, nos centraremos en las tres primeras. El resto de etapas son más relativas a la metodología. 1. Introducción Evaluación de un proyecto como un proceso Método para desarrollar un proceso evaluativo: 1. Definición del marco de referencia 2. Definición del tipo de evaluación Página 27 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 3. 4. 5. 6. 7. 8. Implementación de la evaluación Aplicación de las mediciones Análisis de los resultados Formulación de las conclusiones Adopción de las medidas de retroalimentación Introducción de las medidas en el proceso 2. Definición del marco de referencia El marco de referencia es un requisito fundamental en el proceso de evaluación. Es el núcleo que guía el proceso de evaluación. Se importancia del marco de referencia radica en que es la fuente básica de información para poder comparar entre lo previsto y lo alcanzado en la ejecución. A. Diagnóstico del proyecto Sería la situación de partida. A través del diagnóstico que consigue la información sobre lo que se quiere modificar en el proyecto. Se trata de ese diagnóstico previo que hicimos de las necesidades. Normalmente nos proporciona información sobre la cantidad, calidad del problema, los posibles bloqueos a una posible sección, recursos disponibles, etc. El diagnóstico es importante a la hora de formular el proyecto, nos da la información necesaria para contratar los logros tras la ejecución del proyecto. B. Formulación del proyecto Se trata del logro deseando del proyecto, es decir, la diferencia entre lo deseando y la situación de partida (2-1). Permite ver el conjunto de logros que se intentan alcanzar con la ejecución. El diagnóstico previo sería la situación previa (1), mientras que la formulación del proyecto sería la situación de llegada (2). Es importante que la definición de partida sea clara para posteriormente poder determinar el logro e impacto/efectos de la PP. 2.1. Diagnóstico del proyecto Productos del diagnóstico: a. Establecimiento de un cuadro de necesidades: El objetivo del cuadro es obtener el conocimiento necesario sobre los elementos esenciales que configuran el problema al que se enfrenta el proyecto. Hacemos un inventario de las necesidades que intenta resolver el proyecto/programa. b. Elaboración de un inventario de recursos para enfrentarse a la situación problemática detectada: se trata de los recursos necesarios para enfrentarse al problema. El objetivo de esta segunda etapa es determinar la cantidad y calidad de los RRHH, R. materiales, R. técnicos y R. materiales de la institución ejecutora del proyecto, estos recursos deben ser racionalmente utilizables. c. Definición de alternativas posibles de acción: esto sería la definición de alternativas frente a esa situación problemática. Una vez que hemos atendido a las necesidades detectadas y hemos hecho inventario de recursos, el objetivo será ahora elaborar hipótesis de trabajo que traten de combinar las necesidades con los recursos existentes. d. Adopción de la alternativa más factible: nos sirve de base para la formulación del proyecto. Priorizáremos entre las hipótesis anteriormente definidas, elegimos una de ellas que sería la más factible en términos de operatividad, la más óptima. Página 28 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Esta alternativa nos sirve para la formulación. El objetivo es determinar entre las diferentes alternativas, determinar cuál es la más factible y viable. El diagnóstico constituye una parte muy importante del marco de referencia. 2.2. Formulación del proyecto Sería el segundo de los elementos del marco de referencia. Consiste en una formulación precisa del proyecto especificando diferentes cuestiones. Se describen de una forma clara, precisa y ordenada la alternativa más factible y cómo se pretenden conseguir las metas. Para responder a la formulación del proyecto necesitamos contestar a las siguientes cuestiones: a. Naturaleza ¿QUÉ? - Título - Idea central: sobre qué es lo que hace el programa, institución o unidad. - Necesidad previa: la que da origen al proyecto, la necesidad que especifica el proyecto. Tendríamos una necesidad no satisfecha que genera la problemática. b. Fundamentación ¿POR QUÉ? - Esquema teórico – Criterios: los criterios que hay detrás de la formulación del proyecto. - Previsiones del comportamiento futuro: sería la teoría de la programación: “realizo una PP porque espero que tenga un efecto en una sociedad” esta sería la previsión. c. Metas ¿PARA QUÉ? (para nosotros objetivo) - Logros: es importante que esos logros sean claros (lenguaje), realistas (factibles) y pertinentes (que se relacionen con el problema que se pretende solucionar). d. Objetivos ¿CUÁNTO? (para nosotros metas) - Cuantificar y cualificar - Deben reunir varias cuestiones, es decir, que sean: Precisos (concretos, directos, evitando conceptos vagos y ambiguos, etc.) Medibles (que la consecución del objetivo se pueda medir, para ello requeriremos del uso de indicadores) Coherentes (en buena relación con el objetivo, similar a la pertenencia) Duración (temporalización) - Generales – Específicos: los objetivos específicos nos sirven para dar respuesta al general. Los generales son propósitos más amplios, mientras que los específicos son más operativos. e. Localización ¿DÓNDE? - Macro y micro: Macrolocalización: sería la cobertura o área geográfica donde hacemos hincapié en los antecedentes sociales de esa población. Microlocalización sería una especie de mapa que nos permite identificar donde están los centro de acción del proyecto. f. Metodología ¿CÓMO? - Tareas - Normas - Procedimientos - Instrumentos g. Calendarización ¿CUÁNDO? Página 29 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 - Cronograma (Gantt/Pert) h. Recursos humanos ¿QUIÉN? - Cantidad - Calidad i. Recursos materiales y financieros ¿CON QUÉ? - Presupuesto - Financiación 3. Definición del tipo de evaluación Supone elegir un modelo evaluativo (i), elegir las variables con las que se van a medir (ii), especificar las unidades de medida (iii), precisar los corte evaluativos o mediciones (iv), elegir los instrumentos para recoger información (v), identificar los recursos necesarios para realizar la evaluación (vi) y definir otros aspectos necesarios para el buen éxito del proceso (vii). La definición del tipo de evaluación dependerá del momento en el que se encuentra el proyecto y de los recursos disponibles. Es decir, se determina por las peculiaridades que rodean el proyecto. Lo ideal es que la definición se produzca de forma paralela a la formulación del mismo. 3.1. Objeto y elección del modelo evaluativo ¿Para qué se va a evaluar el proyecto? Los objetivos van a determinar sus características. De acuerdo con los objetivos se debe elegir un modelo de evaluación entre 3 posibilidades: a. Elegir un diseño experimental b. Elegir un diseño cuasi-experimental: mediciones periódicas antes o después. Estos son aconsejables para tomar decisiones sobre continuar un programa, establecer programas o proyectos semejantes y dar mayor cobertura a un proyecto. c. Elegir un diseño no experimental (menos confiables pero adecuados cuando los recursos institucionales son escasos). Aconsejables para mejorar prácticas o procedimientos por retroalimentación periódica, añadir o desechar estrategias y técnicas y si se necesita información rápida. La elección del modelo depende de los objetivos asignados a la evaluación, y la capacidad técnico-financiera. 3.2. Determinación de las variables a medir Identificar los aspectos que serán sometidos a medición que van a variar en función de la fase en la que se encuentre el proyecto: - - Fase de investigación: adecuada identificación del problema, calidad de la selección de instrumentos y procedimientos utilizados, calidad del diseño de la investigación, eficiencia de la aplicación de los instrumentos, adecuación del análisis, adecuación del proceso de investigación, racionales de las consecuencias inferidas. Fase de formulación: grado de relación con las necesidades reales, coherencia con la política institucional, grado de ventaja del proyecto sobre otras alternativas, relación entre objetivos-metas y necesidad de resolver, grado de oportunidad en la ejecución del proyecto, cantidad y calidad de los recursos disponibles, grado de apoyo al proyecto. Página 30 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 - Fase de implementación: calidad de las tareas de motivación, grado de cumplimiento de las tareas organizativas en los plazos previstos, disponibilidad de recursos. Fase de ejecución: propiedad del proyecto, idoneidad del proyecto, efectividad del proyecto y eficiencia del proyecto. - 3.3. Definición de unidades de medida Ello supone asignar números a criterios de acuerdo con ciertas normas. Tenemos que tener en cuenta la diferencia entre unidades de análisis y unidades de observación. Las unidades de análisis hacen referencia al nivel de realidad donde se quiere contrastar la hipótesis (ej. Estudio sobre las diputaciones provinciales hará referencia a las provincias; los beneficiarios como conjunto); mientras que las unidades de observación serían esos objetos de investigación en sí (cada uno de los beneficiarios). 3.4. Definición de la periodicidad El ideal es la evolución en cada una de sus fases. A veces se cree que con solo al final es suficiente, sin embargo esto es un error puesto que se deben realizar cortes evaluativos en: Al término de la investigación previa al proyecto: Evaluación de diagnóstico o de las necesidades Al término del proceso de formulación del proyecto: Evaluación de diseño (criterios de pertinencia, coherencia externa e interna, equidad, etc.) Al término de la fase de implementación del proyecto en la ejecución del proyecto: Evaluación de la implementación Al término de la ejecución total del proyecto A veces lo normal es establecer solo una evaluación final (ev. final o de resultados). Aunque lo ideal son los cortes evaluativos. Schuman (1970) señala tres etapas: Fase piloto: ensayo-error en desarrollo del programa. Fase modelo: estrategia del programa en condiciones controladas. Fase prototipo: el programa modelo se sujeta a condiciones de ejecución realistas. Fase institucionalizada: el programa es parte actual y activa de la organización. Necesidades Formulación 3.5. 25% F. Piloto 50% F. Modelo 75% F. prototipo Implementación Final Elección de instrumentos para recoger información Para la recopilación de datos por cualquier instrumento de investigación. Por ejemplo: observación participante o no, revisión de información, encuesta, entrevista en profundidad, grupo de discusión, etc. 3.6. Recursos Definir la cantidad y calidad de los recursos que intervendrán en el proceso evaluativo: Recursos humanos: las personas que desarrollaran las diferentes tareas. Página 31 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Recursos materiales: material de oficina, impresión de cuestionarios, programas tratamiento de datos, etc. Recursos financieros: contratación de personas, dietas, gastos imprevistos, etc. 4. Implementación de la evaluación Todo el proceso organizativo que es necesario desarrollar antes de iniciar la ejecución propiamente de la evaluación. Deben ser realizadas previamente al inicio de la aplicación de la evaluación. Algunas tareas pueden ser: Confección de instrumentos de evaluación Consecución de los recursos: deben de estar garantizado para la consecución del proyecto Preparación del equipo evaluador: capacitación y formación del equipo. Una vez que tenemos la implementación pasamos a los siguientes pasos que conllevan la ejecución del proyecto. 5. Aplicación de las mediciones En la fase anterior diseñábamos una serie de instrumentos (entrevista, encuesta, grupo de discusión, etc.) que nos servían para realizar mediciones. De manera que en este momento se aplicarán estos instrumentos y nos permitirá observar si se cumple o no con el logro que hemos establecido. Todo ello en base a los criterios previamente establecidos. 6. Análisis de los resultados Con los resultados de las mediciones haremos un análisis de los mismos. De esta forma tendremos una serie de resultados o conclusiones. Estas conclusiones tienen que ver con los criterios que planteó el evaluador, los criterios son los que van a guiar el proyecto. 7. Formulación de las conclusiones Como acabamos de señalar las conclusiones tienen que estar íntimamente relacionados a los criterios que planteó el evaluador. Serán los criterios lo que guían el camino del proyecto. 8. Adopción de las medidas de retroalimentación Son recomendaciones que el evaluador hace para adaptar el proyecto y que este mejore. Por lo tanto, debemos de diferenciar entre las conclusiones y las recomendaciones. 9. Introducción de las medidas en el proceso Por último tenemos la introducción. Esta fase forma parte del proceso de evaluador pero es externa, no son adoptadas por el equipo evaluador. Estas medidas son introducidas por el “grupo activante” es decir la institución, organismo o equipo que se encarga de la implementación. TEMA 7: MODELOS O DISEÑOS EVALUATIVOS La evaluación pretende saber la relación causa-efecto de la ejecución de una política pública o programa. Para ello tira de la metodología de la experimentación. La experimentación es una investigación científica en la que controlamos y manipulamos las variables de entrada y observamos las variables de respuesta. Tipos: - Experimento de laboratorio: creamos la situación. Página 32 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 - Experimento de campo: en una situación real (programa), tienen validez externa. 1. Experimentación Para poder hablar de experimentación tenemos que tener las condiciones para que A cause B según la filosofía de la ciencia: - A y B están correlacionado o asociados. Variaciones de A son anteriores a las de B. Ningún otro factor afecta a B. Si hay algún factor se puede medir y separar sus efectos del de A. Variables “extrañas”: cuestiones que pueden afectar a la relación de causalidad entre A y B. - - - Historia: hechos que suceden en el entorno del programa que son externos al individuo y que afectan o influyen en esas variables que son objeto de medición y, por tanto, afectan a los resultados del programa. Maduración: son eventos internos. La población objeto del experimento ha formado una conciencia por hechos internos a ellos. Efectos de prueba / test: el sujeto es consciente de que está siendo sometido a un test/experimentación y modifica su conducta. Instrumentación: estamos preguntado lo mismo pero con diferente pregunta, los instrumentos empleados se modifican entre la primera y la segunda vez. Regresión estadística: que la aplicación de la técnica no sea correcta y se llegue a la inducción de errores. Sesgo en la selección: el grupo de control y el grupo experimental deben de ser lo más parecidos posibles. Sin embargo, no siempre estas poblaciones van a ser iguales. Mortalidad: entre una medición y otra hay sujetos que han cambiado su condición. Entre el grupo de control y el experimental hay cambios en los sujetos participantes. Algunos sujetos habrán cambiado de número, residencia, habrán fallecido, abandonan el programa, tienen que trabajar, etc. Cualquiera de estas causas se engloba en la mortalidad. Tenemos que tener presentes estas variables extrañas para que la medición sea lo más correcta posible. 2. Diseños evaluativos Diseños de experimentales básicos: 1. Antes-después con grupo de control. - Grupo experimental: O1 x O2 - Grupo de control: O3 O4 2. Después solamente con grupo de control. - Grupo experimental: O1 - Grupo de control: O2 Grupo de control: no beneficiarios del programa Gripo experimental: introducimos el factor causa (programa). X: Tratamiento (factos causa o programa) Página 33 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 2.1. Diseños o modelos experimentales 1. Modelo experimental puro Tendremos una observación tanto antes como después, además de un grupo experimental y otro de control. Antes R1 A/O1 Grupo Experimental (GE) Grupo de control (GC) Tratamiento Después (R2) R2 B/O2 D1 x R1 C/O3 DA R2 D/O4 DB D2 Lo ideal sería que A=C, es decir, que la O1 sea más o menos igual que O3 Para que le proyecto esté bien realizo sería: O2 – O1 B–A R2 – R1 > O4 – O3 D–C R4 – R3 Leyenda tabla R1GE, R2GE: resultados del análisis del grupo experimental, antes y después de la ejecución del proyecto. R1GC, R2GC: resultados del análisis del grupo de control, antes y después de la ejecución del proyecto. D1, D2: diferencias entre los resultados medidos entre las dos fases. Da, DB: diferencias entre los resultados medidos en el grupo experimental y el grupo de control. Para poder hablar de modelo experimental tenemos que tener una selección al azar, es decir, muestreo simple, estratificado o por conglomerados. 2. Modelo experimental simplificado Solo tenemos una medición del grupo de control solo después. Solo tendríamos la segunda parte de la tabla (Después). Suele darse cuando el evaluador llega tarde. Solamente se comparan las diferencias entre GE y GC en la fase de después. Es aconsejable la utilización de un modelo experimental cuando tenemos una actuación que exige una gran financiación, serán diseños importantes y en los que se requiere una gran confianza en los resultados. Efectos han Thorne: puede verse influenciado a la hora de la implementación de la pp. Si los beneficiarios saben que están siendo observadas y por ello hagan mejor su trabajo. 2.2. Diseños o modelos causiexperimentales 1. Modelo de Grupo de Control no Equivalente Página 34 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Se utiliza GE y GC elegido por conveniencia conocido por Grupo de comparación (inadvertentes + inelegibles geográficos) GE GC O1 O3 Antes X O2 O4 Después El grupo de control no se elige al azar, a diferencia del caso del experimental puro donde la elección sí era al azar. Aquí empleamos un muestreo por conveniencia. Empleamos este tipo de muestreo porque no tenemos un censo de la población que va a ser objeto de estudio. Ejemplo: personas migrantes, no hay un censo claro de los mismo, no podemos hacer muestreo al azar. *inadvertentes: aquellos que son beneficiarios del proyecto pero no se han enterado del mismo. Ejemplo: curso para personas migrantes, algunos no se enteran pero si lo hubiesen hecho estarían interesados. Esto es a veces muy limitado. *inelegibles: es población con características similares pero en otra población en la que no es aplicable la política. Ejemplo: se ofrece el curso de español para inmigrantes en Granda, los inelegibles serían los inmigrantes de Huelva. 2. Modelo de Series Temporales Serie de medición a intervalos periódicos, antes de que comience el proyecto y una vez acabado 01 02 03 04 X 05 06 07 2.1. Modelo de Series Temporales Múltiples Variación del modelo de series temporales. Se realizan mediciones del programa como en las series temporales y se comparan con las de otros contextos 01 02 03 04 X 05 06 07 02 02 03 04 05 06 07 Se busca un GC ficticio, trataremos de darle un poco más de validez externa y fiabilidad en el modelo. Este grupo de comparación podría ser otra ciudad (ejemplo accidentes de tráfico) 2.3. Modelos no experimentales Características de estos modelos: menos rigurosos, más manejables y a veces con una única solución posible. Son usados para medir o ver como se produce la retroalimentación de la población sobre las políticas que se ponen en marcha. 1. Modelo Antes – Después O1 – posibles mediciones “durante X” O2, O3...O5 – Final Medimos antes de que se pongan marcha el proyecto, también lo haremos de forma intermedia (corte evaluativos) y por último, se mide al final. Lo que haremos será comparar las mediciones intermedias con la situación inicial. Muchos programas sociales emplean este modelo. 2. Modelo únicamente después O2 Página 35 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Imaginamos O1 O1 x O2 Este modelo se puede usar en tres situaciones: - El evaluador no se encuentra en el primer momento, es decir, no llega a tiempo de realizar la primera medición, solo se hace la medición segunda. - La propia naturaleza de lo evaluado no requiere de una evaluación previa. - La primera observación se hizo pero de forma incorrecta (la evaluación de diagnóstico de necesidades esté mal), de manera que no puede ser comparada. 3. Modelo Únicamente Después con Grupo de Comparación X O1 O1 No hay medición previa, se aplica la política y luego hago la observación, comparando con un grupo similar al que nosotros trabajamos. TEMA 8: EL PROCESO DE MEDICIÓN 1. Introducción La medida está presente en cualquier aspecto de la vida y se manifiesta de manera inconsciente o consciente. Veremos cómo realizar este proceso de medición, especialmente importante a la hora de crear indicadores. 2. El proceso de medida Concepto: asignar un número real a cada objeto de un conjunto de acuerdo con unas reglas determinadas, que persiguen obtener una buena correspondencia entre las características que se pretenden medir y los números asignados. Aspectos a tener en cuenta: - - - No se miden objetos, sino sus características. Por ejemplo: color del pelo, no se mide el objeto (pelo), sino la característica color (moreno, rubio, rojizo, etc.). No medimos el objeto en sí, sino los atributos del mismo. La asignación de símbolos se realiza con reglas. La asignación del número real se adjudica siguiendo unas reglas, siempre se sigue la misma regla. Ejemplo: castaño 1, rubio 2, rojizo 3… Siempre debemos aplicar estos mismos números. La asignación de símbolos a los objetos facilita la comunicación del conocimiento. Se aplican números (generalmente) lo que permite aplicar matemáticas, establecer comparaciones y comunicar los resultados. Sin embargo, que el número admita cierta operación matemática no implica necesariamente que la admita la característica medida. 3. El diseño de indicadores Uno de los aspectos más complejos en evaluación de proyectos. Sirven para medir el grado en que se alcanzan los objetivos y metas. ¿Qué hacer? Se puede recurrir a evaluaciones hechas a proyectos semejantes y utiliza similares o parecidos indicadores. Ventaja: indicadores ya validados. ¿Y si no hay? Debemos entonces identificar los indicadores más adecuados para su proceso. Para valorar el grado de éxito de un objeto y por ende de una meta, los Página 36 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 objetivos deberán ser medidos desde diferentes ángulos. Para medir un objeto no basta con un solo indicador, sino que deben ser utilizados varios indicadores. Concepto: un indicador es una unidad que sirve para medir el grado de obtención de objetivos y metas. Un indicador debe ser: - Medible: tener criterios de cantidad, calidad y tiempo. Objetivamente verificable: cualquier persona que lo aplique debe llegar a la misma conclusión. Válido: medir lo que es importante. - 4. Proceso de medición a través de indicadores Pasos: 1. 2. 3. 4. Identificar los indicadores para medir el cumplimiento de objetivos. Determinar la forma de cálculo para medir cada indicador. Recogida de información a través de determinadas técnicas e instrumentos. Determinar los porcentajes en relación a la obtención de cada objetivo y de la meta (comparar puntuación máxima y real). 5. Estimación del grado de obtención de la meta. TEMA 10: RETROALIMENTACIÓN Al inicio del programa tenemos que tener en cuenta cuál es el comportamiento previsto del programa y el comportamiento real que finalmente tendrá. Lo esperado siempre será la consecución de unas metas y objetivos. Sin embargo, no todo lleva una línea temporal lógica. La retroalimentación nos ayuda a introducir modificaciones que reorienten la política pública para alcanzar las metas y objetivos previstos inicialmente. 1. Proceso de control Situación deseada programación Comparación de la situación deseada y la real Evaluación Acción correctiva Retroprogramación Conjunto de acciones correctivas Mensaje de retroalimentación 1.1. Medidas correctivas Estas podrían venir en ese desarrollo por un sistema de indicadores o de seguimiento, se observa cómo se va desarrollando ese programa. El mensaje retroalimentador llega al programa cuando se pasan las actuaciones permitidas. Encontramos los siguientes tipos: Página 37 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 a. Medidas relacionadas con los objetivos: tendríamos la opción de modificar la cantidad de objetivos (porcentaje o número), también podemos bajar la calidad del objetivo (los recursos con los que opera la PP hace imposible que sea posible alcanzar los objetivos) por último, también cabe la modificación de los plazos (la idea sería ampliar el plazo de ejecución, dejando mayor margen para que se consigan los objetivos). Siempre será preferible mantener la calidad de los objetivos y reducir en todo caso la cantidad. b. Metodología (del programa): se modifica la metodología que se está utilizando en la implementación. Puede que esta no sea la más adecuada o bien, que dicha metodología será directamente inviable en dicho contexto. c. Recursos: podemos hablar de recursos humanos o económicos. La PP tiene que tener un cuadro de RRHH, habría que cambiar el mismo en caso de llevar a cabo esta medida correctiva. La evaluación nos dice que esos recursos humanos no funcionan en el grado que se esperaba. Por ejemplo: modificación de le ejecutores, cambios en el que realiza x, introducción de formación a x nivel, etc. Por otro lado, en cuanto a los cambios en los recursos económicos/materiales, la actuación consistirá en una modificación en los recursos empleados. Puede ser que estos recursos económicos sean insuficientes para la gestión del proyecto o bien, porque la calidad de los recursos económicos/materiales no sea adecuada. La calidad del mensaje de retroalimentación depende de la capacidad que se tenga de corregir y detectar las desviaciones y saber interpretarlas, el conocimiento en profundidad de las causas que provocan las desviaciones y, por último, tendríamos que proponer esa corrección. 1.2. Grupo Activante El grupo activante tiene cierto poder y le permite introducir las medidas que ha propuesto el equipo evaluador. Es algo abstracto, conlleva actores de diferentes niveles. Estas personas que lo conforman no tienen por qué tener conciencia de equipo puesto que ocuparan puestos en diferentes niveles y tendrán múltiples competencias. Medida correctiva Corregir metodología De tipo administrativo Recursos Humanos Características fundamentales del programa: cantidad, calidad y plazos de objetivos Grupo activante Ejecutures de base Coordinador general o director del programa Supervisores externos Autoridad superior de la institución responsable del programa Para que el grupo activante y sus medidas correctivas sean efectivas tienen que darse dos requisitos: - Persona miembro de grupo activante se vea competente para la ejecución de esa acción o medida correctiva; asuma la responsabilidad de ejecutarla. Una vez que llega esa evaluación y medida de corrección se ha de tomar tan pronto como se pueda (ya), porque si se toma más tarde puede darse que las condiciones se hayan visto modificadas. Anillo de retroalimentación Es similar a la idea del ciclo de políticas públicas: Página 38 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 1. 2. 3. 4. 5. 6. 7. 8. Identificación de las desviaciones por parte del equipo evaluador. Análisis de las causas de las desviaciones Programación de la acción correctiva. Implementación de las correcciones Desempeño deseado Desempeño real Medida del desempeño real Comparación de lo real contra las normas TEMA 11: EL PROYECTO DE EVALUACIÓN Un proyecto de evaluación debe comprender: 1. 2. 3. 4. Definición de la evaluación Objetivos de la evaluación Metodología Plazos y presupuestos 1. Definición de la evaluación Título de la evaluación Evaluación del objetivo 16 Objeto de la evaluación síntesis que establezca el objetivo de la evaluación y cuál es el objeto de la evaluación (hablar sobre el objetivo y sobre la agenda 2030) Las motivaciones. Tipo de evaluación y su justificación (3 criterios) externa, intermedia, otra (formativa, continua, sumativa, etc.). Modelo de evaluación y su justificación si vamos a hacer una evaluación de la implementación, diseño experimental, cuasiexperimental, etc. Es importante justificar por qué se adopta esta decisión. (Remisión al tema de los Diseños de evaluación) Justificación de la importancia de la evaluación también se puede incluir junto con el objeto de la evaluación. Hablar de la repercusión que tiene la evaluación, qué impacto puede tener. Equipo evaluador (Cualificación y número) Hablar sobre nosotros (nombre de empresa por ejemplo, facultad de CCPP y Sociología UGR). Acompañar con un breve CV (5-10 líneas) hablando de quién forma parte del equipo evaluador. Quién financia la evaluación (Responsable) Ministerio de Derechos Sociales y Agenda 2030. Página 39 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Duración de la evaluación (Tiempo total) periodo de tiempo en el cual se va a realizar la evaluación (desde que se licita hasta que se entrega). Serían 3-4 meses aproximadamente. Tanto el proyecto como el informe de evaluación van de la mano, tenemos que ser acordes en ambos. Habrá que incluir un cronograma. 2. Objetivos de la evaluación Según la sabe del programa en que no centremos y tipos de evaluación: Cuáles son los objetivos Subobjetivos u objetivos operativos Definición de conceptos ambiguos muchos de los conceptos de uso común no están claros, depende de cada lector puede darse una interpretación diferente. Se deben esclarecer solo conceptos de vital importancia y que consideramos importante establecer la definición para evitar confusiones. En nuestro caso tendríamos que determinar en qué consiste el concepto de “instituciones sólidas”, qué es “justicia”, etc. Variables a tener en cuenta qué vamos a medir. Estado de la paz, Estado de la Justicia, Solidez de las instituciones (políticas), Definir unidades de medida cómo vamos a medir. A partir de la observación sabremos cuánta cantidad de esa unidad hay. Definir indicadores a utilizar Diferenciamos entre objetivos y metas: Debemos de decidir si tomamos la estructura de la ODS 2030 o bien empleamos el modelo español. El conjunto de actividades que tiene un proyecto, dan respuesta a los objetivos. Estos a su vez y en su conjunto deberían conducirnos al logro de las metas. - - - Meta: declaraciones generales de principios o propósitos. Suelen ser tan generales y visionarias que no pueden alcanzar plenamente. Solo se puede tender hacia ellas. Objetivo: son específicos, medibles, realistas, consensuados y enmarcado en el tiempo. se enfocan en el qué y el cuándo; nunca en el cómo ni en el por qué. Los objetivos especifican resultados, no estrategias para lograrlos. Acción a tomar: deberá especificar el resultado; no las acciones que conducirán a ese resultado. Ejemplo: Fulanito pondrá en marcha y supervisará el plan de tutorías grupales para luchar contra el abandono escolar para primero de mayo de 2022. Sobre los objetivos (para nosotros metas): - Cómo se definen los objetivos Cómo los trasladamos a algo medible, es decir, objetivos de evaluación Son logros que se pretenden alcanzar con la ejecución de una acción (intervención, proyecto, programa, pp) Un objetivo define en términos específicos y cuantificables los beneficios/resultados a lograr con el proyecto. Es importante que los objetivos sean: claros, realistas, pertinentes, compresibles, etc. Se pueden definir dos tipos de objetivos: Objetivos (metas para nosotros) generales: son aquellos propósitos más amplios que conforma el marco de referencia del proyecto. Página 40 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 - Objetivos (metas para nosotros) específicos: son logros más concretos. Identifican en forma más precisa aquella, que se pretende alcanzar con la ejecución del proyecto. Si se ha identificado un problema, el objetivo deberá brindar algún tipo de solución al problema. Ejemplos: Problema: alta incidencia en el consumo de drogas dentro de una comunidad o barrio x. Objetivo: reducir la incidencia del consumo de drogas. Problema: altas tasas de desempleo. Objetivo: reducir las tasas de desempleo. Ejemplos MAL HECHOS: 1. El propósito de esta propuesta es establecer un programa de tutorías grupales para prevenir el abandono escolar en el distrito del Zaidín. 2. El objetivo de este programa es ofrecer orientación psicológica a jóvenes delincuentes”. Se habla de los medios, pero no de los resultados. Serían objetivos mal definidos. Se suele confundir fines con medios en muchas propuestas de actuación o programas. - - El hecho de establecer un servicio o realizar actividades no dice que hayas resuelto el problema que se definió. El evaluador quiere saber lo que tú has logrado, el resultado de tu acción (acciones/actuaciones/actividades…). Saber que has trabajado no es suficiente Quiere saber si con tus tutorías grupales has sido capaz de reducir el abandono escolar. Los planificadores tienen dificultades para definir y escribir los objetivos de sus proyectos. ¿Cómo escribir objetivos? PASO Determinar áreas Determinar indicadores Determinar estándares Establecer un calendario DESCRIPCIÓN Estas son las claves a la que hay que mirar para ver el impacto de un programa sobre las mismas Parte cuantificable del área de resultados. Permite ver qué tal se está haciendo. Cuanto el indicador de medida de ejecución se necesita para considerar éxito el programa Marco temporal, fecha de inicio y término Determinar gastos ¿Cuánto es el máximo que presupuesto se quiere/puede gastar? Escribir los objetivos Verbo/acción con una afirmación que refleje los indicadores de medida seguidos de los estándares de ejecución EJEMPLO Área de resultado puede ser el “abandono escolar” Número de alumnos que abandonan la escuela 10% de reducción abandono escolar en Para el 1 de enero de 2023 se habrá reducido en un 7% el abandono escolar Se empleará x euros en reducir ese 7% Reducir un 7% el abandono escolar en la zona x para 1 de enero de 2023 a un coste no superior a x euros Página 41 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Evaluar los objetivos en un marco cronológico y un coste ¿Refleja este objetivo la Si – OK cantidad de cambio que se No – Repetir proceso pretendía en esta área? Objetivos de evaluación Son los conocimiento o informaciones relativas a los objetivos, instancias o características del programa, que se requiere recoger y analizar de acuerdo con las finalidades que sirven de justificación al estudio evaluativo. Estas necesidades no se presentan de forma clara. Se puede pedir que la evaluación determine “si el programa funciona bien o mal”, el objetivo de conocimiento puede ser: - Si se están produciendo los resultados buscados Si el personal técnico cumple sus funciones Si existe desperdicio de recursos Si la población beneficiaria está satisfecha con la atención o servicios que el programa presta Etc. El cliente puede formular su problema en términos que no pueden ser introducidos en diseño de investigación. Objetivos de conocimiento Influyen en cómo se recogerá y analizará la información. Importante: los objetivos (y también los propósitos o motivación) varían según el nivel o las funciones que desempeñan personas ubicadas en diferentes niveles de la estructura del programa. Es decir, las necesidades de información serán diferentes. Encontramos dos tipos de objetivos: - - Objetivos descriptivos: si la evaluación es de tipo descriptivo los objetivos de evaluación derivan directamente de los objetivos del programa, proyecto, política pública, etc. Se pueden establecer también en forma de hipótesis. Objetivos explicativos: La evaluación se refiere a los factores que explican los niveles o calidades de logro de los resultados finales o de aspectos instrumentales (funcionamiento, metodología, etc.). supone pensar en la incidencia de otras variables del programa en los resultados y a formular hipótesis que conecten esas características con la situación que se desea explicar. 3. Metodología de la evaluación Descripción del modelo de diseño elegido: Recogida de información Elección de Grupo de Control y Grupo Experimental En nuestro caso es inviable, porque tendríamos que haber tomado la muestra en 2015. Aparte no sería posible porque es objetivo estaría destinado a la totalidad de la población, no hay un grupo concreto al que le sea aplicable. Podríamos hacer un diseño cuasiexperimental. Variables a comparar entre la situación prevista y la real. Esto viene de la mano de los indicadores anteriormente establecidos. Página 42 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Para cada uno de los objetivos y subobjetivos nombrados, definir técnicas e investigación de recogida de información encuesta, grupo de discusión, fuentes de datos secundarios (análisis de documentación). Podemos emplear varios instrumentos/técnicas para cada objetivo. No tomar todos los indicadores creados, algunos sí, pero otros tienen que ser de creación propia. Cada indicador que cojamos tiene que ir con otro que hagamos nosotros. Encuesta mundial de valores, INE, CIS, etc. Desarrollar “completamente” cada uno de los instrumentos nombrados normalmente en los proyectos de evaluación no aparece la encuesta o el grupo de discusión, aunque en el informe sí aparecen como anexos. Aquí debemos de hacer un avance. Si hay una encuesta especificamos los temas principales, temáticas, etc. Definir tipo Clases de fuente de información Tipo de documento Instituciones a visitar en algunos proyectos se requiere visitar la institución que se va a evaluar. De esta forma se conocerá como funciona la institución, cómo se organiza, etc. También cabe conocer al personal que implementa la política o que trabaja en la institución. Personas a entrevistar si son menores de edad hay que mencionar los códigos éticos. Elección de entrevistados o grupos de discusión Cuándo se va a realizar, tiempo, a cuánta población (población teórica/real – fichas técnicas del CIS), error muestral, tipo de preguntas, nivel de confianza, etc. Encuesta: muestreo, bloques temáticos (baterías de preguntas), Nº de encuestados, tipo de preguntas, error muestral, nivel de confianza, aplicación…. Definir y desarrollar indicadores en cada objetivo Tipo de análisis para cada instrumento Tenemos que ser concretos para que el lector entienda que sabemos hacer la evaluación, pero tampoco tenemos que ser excesivamente específicos. Ser específicos pero dejando un poco de margen de ambigüedad. 4. Plazos y presupuestos Plazos: Cuándo empieza y termina la evaluación (fechas) 21 de marzo (inicio) hasta el 25 de mayo Corte evaluación (mini-evaluaciones que hacemos en un momento determinado para conocer el estado del proyecto – teóricamente se recomiendan 4 cortes evaluativos) y su duración. Cronograma de actividades (Gantt) Presupuestos/Recursos Definición de recursos necesarios Inventario de recursos materiales Recursos económicos o Presupuesto por partidas o Financiación Página 43 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Recursos humanos TEMA 12: EL INFORME DE EVALUACIÓN 1. Introducción La evaluación, en general, da lugar a dos tipos de productos: el informe final y el informe ejecutivo. Nosotros no haremos informe ejecutivo (resumen de algunas partes del informe final, recomendaciones y observaciones), pero en caso de trabajar profesionalmente sí sería necesario. 2. Características del informe final El informe debe mantener una secuencia lógica en la que se presenta en su totalidad el proceso evaluador, incluidas la metodología, las fuentes y la evidencia sobre los hallazgos obtenidos. Encontramos dos cuestiones importantes: la justificación metodológica y el juicio de valor. A. La descripción de la metodología debe incluir: Fuentes de información Descripción de los métodos de recolección y análisis de datos (que incluya el nivel de precesión requerida para los métodos cuantitativos, así como las escalas de valores o codificaciones empleadas en el análisis cualitativo). Indicadores y parámetros referenciales, ahí donde sea relevante (indicadores previos, estadísticas nacionales, etc.) El equipo de evaluación, incluyendo la participación de miembros individuales. El plan de evaluación. Restricciones clave. B. Juicio de valor (conclusiones de la evaluación) Un informe de evaluación no puede recoger opciones o especulaciones en relación con el objeto de evaluación. “Las conclusiones tienen que estar sustentadas por hallazgos (evidencias) que sean consistente con los datos recolectados y por la metodología, asimismo, deben aportar elementos de juicio (conclusiones) conducentes a la identificación y/o solución de problemas o temas importantes”. Características formales: Legibilidad: ser claro (escritura y razonamientos), calidad de argumentación, presentación y explicación de los datos. Articulación: el informe debe seguir una secuencia lógica. Solidez: propio procesos evaluativa y referencias utilizadas. 3. Estructura del informe final Capítulo I: Introducción Fase 1: Análisis de encargo El mandato (encargo) Caracterizar el objeto de evaluación Delimitar la evaluación Objetivo, justificación y utilidad de la evaluación Informe de evaluación 1. Mandato de la evaluación 2. Objetivo y delimitación de la evaluación 3. Objetivo, justificación y utilidad de la evaluación Capítulo II: Descripción de la intervención Página 44 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Fase 2: Análisis de la intervención: reconstrucción de la lógica de la intervención Análisis del contexto Informe de la evaluación 1. 2. 3. Reconstrucción de la lógica de la intervención Descripción del grado de implementación Mecanismos de seguimiento y evaluación 4. 5. Descripción del conjunto. Reconstrucción de la lógica de la intervención. ¿Cómo se articula el programa? Estructura y descripción de la intervención. Grado de implementación. En qué momento se encuentra. Sistemas de seguimiento y evaluación. Si hay algún sistema que controle o monitorice la implementación de esa evaluación. Capítulo III: Enfoque y metodología de la evaluación Fase 3: Diseño de la evaluación Establecer el diseño de la evaluación Construir la matriz de la evaluación: Preguntas y criterios Indicadores y fuentes de verificación Informe de la evaluación 1. Enfoque de la evaluación 2. Principales hipótesis y preguntas de la evaluación 3. Herramientas y técnicas de la evaluación 4. Limitaciones de la evaluación Capítulo IV: Análisis, interpretación, síntesis Capítulo V: Conclusiones y recomendaciones Anexos 4. El informe ejecutivo Los informes ejecutivos contemplan: Breve descripción del mandato de evaluación Breve descripción de la intervención objeto de evaluación. Un resumen del enfoque metodológico y de las herramientas de la evaluación así como de las limitaciones de la evaluación El capítulo integro relativo a las conclusiones y recomendaciones del informe completo de evaluación 5. Criterios de calidad de los informes de evaluación Precisión en el objetivo, alcanza y propósito de la evaluación. Coherencia en los objetivos, preguntas, procedimientos, resultados y conclusiones. Relevancia y claridad de los contenidos. Explicitación clara de la metodología utilizada y de las herramientas de recopilación de información. Página 45 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673 Consistencia de la selección y recogida de los datos con la metodología y herramientas seleccionadas, garantizando su fiabilidad y validez y con un detalle suficiente respecto de las fuentes de información. Análisis riguroso, mediante un razonamiento lógico consistente. Adecuación de las conclusiones a las preguntas y/o criterios contemplados en la evaluación y a los resultados alcanzados. Recomendaciones comprensibles, útiles, factibles y suficientemente claras como para poder considerar su inclusión en un plan de acción. Página 46 de 46 Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-6782673