Una de las maneras más directas de aprovechar los conocimientos extraídos de la supervisión y la evaluación es utilizar los conocimientos para fundamentar los planes y programas actuales y futuros. Las enseñanzas extraídas de las evaluaciones de programas, proyectos e iniciativas, así como la respuesta de la administración, deben poder consultarse al establecer nuevos resultados o definir, diseñar y valorar nuevos programas o proyectos.
La institucionalización del proceso de aprendizaje puede lograrse, en parte, mejorando la incorporación del aprendizaje en las herramientas y procesos existentes. Como se explicó en la primera sección, la gestión basada en los resultados es un enfoque eficaz para fomentar el aprendizaje institucional a través de los programas. Los productos del conocimiento pueden adquirir muchas formas diferentes dependiendo del destinatario y sus necesidades de información. Para que el aprendizaje y el intercambio de conocimientos sean significativos, los productos del conocimiento deben ser de alta calidad y contar con un destinatario y un propósito claramente definidos. Un buen producto del conocimiento, en particular una buena publicación, debe:
- basarse en la demanda existente entre los destinatarios (esto significa que el producto será pertinente, eficaz y útil);
- diseñarse para un público específico;
- responder a las necesidades de toma de decisiones;
- estar redactado en términos claros y fácilmente comprensibles y presentar datos con claridad;
- basarse en una evaluación imparcial de la información disponible.
Como se explicó anteriormente, una manera práctica de utilizar los datos y los resultados de los programas de base empírica es elaborar una estrategia de comunicación de resultados y buenas prácticas. Se pueden utilizar webinarios, talleres, folletos y hojas informativas sobre los resultados.
En resumen, el proceso de supervisión y evaluación de una intervención consta de los siguientes pasos:
Fases de un programa de reintegración | Proceso de supervisión y evaluación |
---|---|
Planificación |
1. Revisar las enseñanzas extraídas en iniciativas anteriores, incluida información derivada de las actividades de supervisión y evaluación que ya se hayan llevado a cabo, si se dispone de ella. 2. Definir con claridad el objetivo general y los resultados que la intervención pretende lograr. Entre otras cosas, se puede elaborar una teoría del cambio o un marco lógico. 3. Elaborar y definir indicadores pertinentes. Empezar a elaborar el plan de recopilación y análisis de datos. 4. Determinar si se utilizarán evaluaciones o exámenes para la intervención. 5. Determinar cuál es el presupuesto necesario y quién conviene que participe en las actividades de supervisión y evaluación. |
Puesta en marcha |
6. Finalizar el plan de recopilación y análisis de datos. Se debe comenzar a pensar en el plan durante la selección de indicadores y el diseño del proyecto. 7. Establecer un valor de referencia en un plazo de dos meses desde el comienzo de la implementación. El momento exacto en el que se establecerá el valor de referencia de los datos variará dependiendo de la intervención. |
Implementación |
8. Recopilar datos de diferentes fuentes utilizando diferentes métodos. Se recomienda utilizar un enfoque mixto para la recopilación y el seguimiento de los datos. Los enfoques mixtos combinan métodos cuantitativos y cualitativos. 9. Analizar, interpretar y compartir los resultados. Los datos recopilados deben utilizarse para fundamentar buenas prácticas y programas de base empírica. |
Cierre y examen |
10. Examinar y evaluar. Reflexionar sobre los logros y las enseñanzas extraídas de la intervención y utilizar esta información para definir futuras intervenciones. |
Evaluación del impacto
“Las evaluaciones del impacto son un tipo particular de evaluación que pretende responder a una pregunta de causa y efecto específica: ¿cuál es el impacto (o efecto causal) de un programa en un resultado determinado? Esta pregunta básica incorpora una importante dimensión causal. La atención se centra en el impacto, es decir, en los cambios directamente atribuibles a un programa, una modalidad programática o una innovación de diseño50.
Para más información: www.youtube.com/watch?v=HEJlT8t5ezU.
50 Gertler, P., S. Martinez, P. Premand, L. Christel y M. Vermeersch, La evaluación de impacto en la práctica (Nueva York, 2011).
- Prev
- 5.5/5.5