Nivel del Indicador
Texto de los indicadores
Indicador Finalidad
Cómo recopilar y analizar los datos necesarios
Determine el valor del indicador utilizando la siguiente metodología:
1)Establecer definiciones claras de los indicadores.
Definir «juventud» según los criterios del proyecto o los criterios nacionales.
Definir el grupo destinatario (por ejemplo, jóvenes que participan en iniciativas de educación cívica, formación, tutoría o diálogo comunitario).
Defina el «conocimiento» clave que el proyecto pretende reforzar, por ejemplo, estructuras y funciones, procesos, oportunidades de participación y mecanismos de rendición de cuentas. Estos deben corresponder a los objetivos de aprendizaje de la intervención y estar claramente definidos antes de la recopilación de datos.
2) Diseñar un enfoque de medición adecuado para evaluar el cambio en los conocimientos. Para ello es necesario medir la diferencia entre la situación inicial (antes de la actividad de fortalecimiento de los conocimientos) y la situación posterior a la intervención (después de la actividad). Las opciones más comunes son las siguientes:
Prueba de conocimientos estandarizada: Realice la misma prueba o una equivalente antes y después de la intervención y compare las puntuaciones.
Autoevaluación: Pida a los participantes que califiquen su nivel de conocimiento antes y después de la intervención utilizando una escala estándar (por ejemplo, 1 = muy bajo, 5 = muy alto).
Evaluación del supervisor o formador: en algunos casos, un formador o supervisor puede evaluar los conocimientos de cada participante al inicio y al final del curso para determinar su progreso.
Siempre que sea posible, utilice evaluaciones objetivas de conocimientos previas y posteriores. Las autoevaluaciones o las evaluaciones realizadas por el formador son alternativas aceptables en contextos en los que no es posible realizar pruebas, pero deben contrastarse mediante verificaciones entre compañeros o controles cualitativos.
3)Establecer un umbral mínimo de mejora que defina el «aumento de conocimientos». Ejemplos:
Un nivel mínimo requerido de conocimientos o un porcentaje mínimo de mejora entre las puntuaciones previas y posteriores a la prueba (por ejemplo, un aumento de al menos el 20 %), según sea adecuado teniendo en cuenta el nivel de referencia.
Un cambio de al menos un punto hacia arriba en una escala de autoevaluación de 5 puntos.
Evita establecer requisitos poco realistas, ya sean excesivamente altos o innecesariamente bajos, verificando la dificultad de la prueba medianteuna prueba previacon al menos 10 personas.
4)Recopilar los datos previos a la intervención, ya sea de toda la población objetivo o de una muestra representativa, según corresponda.
5)Recopile datos posteriores a la intervención. Repita la recopilación de datos, idealmente inmediatamente después de la intervención y, si es posible, de nuevo en una fase posterior para evaluar la retención. Asegúrese de que los encuestados hayan tenido tiempo suficiente para interiorizar o aplicar lo que han aprendido. Se debe evaluar a las mismas personas en todos los puntos de medición para permitir la comparación a nivel individual entre los resultados previos y posteriores a la intervención.
6)Evaluar los resultados a nivel de los participantes. Calcular cuántos jóvenes participantes alcanzaron el umbral mínimo requerido para aumentar los conocimientos, tal y como se definió en el paso 3.
7) Para calcular el valor del indicador, divida el número de jóvenes que cumplen el umbral definido de aumento de conocimientos entre el número total de jóvenes evaluados. Multiplique el resultado por 100 para convertirlo en porcentaje.
DESAGREGADO POR
Los datos pueden desglosados por género, grupo de edad, área geográfica y/u otras características socioeconómicas relevantes, dependiendo del contexto, enfoque y recursos de su proyecto.
COMENTARIOS IMPORTANTES
1) Cuando se realice una encuesta a una muestra en lugar de a toda la población objetivo, asegúrese de que sea lo suficientemente grande como para tener en cuenta el desgaste al final del estudio, ya que es posible que no todos los encuestados iniciales estén disponibles en esa etapa. Esto ayuda a garantizar que la evaluación posterior a la intervención siga siendo representativa (el tamaño de la muestra sigue siendo lo suficientemente grande) y permite recopilar datos de los mismos encuestados tanto en las mediciones iniciales como en las finales.
2)Recopile siemprelos resultados previos y posteriores a la intervención, de lo contrario no sabrá en qué medida los encuestados han mejorado (o no) sus conocimientos. Adapte las herramientas de evaluación para mantener la coherencia en el seguimiento de los progresos.
3) Si su proyecto tiene como objetivo medir si la población objetivo ha alcanzado un nivel específico de conocimientos y/o habilidades, y si estos han mejorado con el tiempo, utilice en su lugar el indicador «% de jóvenes con los conocimientos deseados sobre las estructuras de gobernanza local y los procesos de toma de decisiones ». La ventaja de este enfoque es que no es necesario recopilar datos de referencia y de seguimiento de los mismos encuestados.
4) Asegurarse de que las herramientas de evaluación sean adecuadas al contexto, fácilmente comprensibles para los jóvenes y previamente probadas en cuanto a su fiabilidad.
5)Si utiliza autoevaluaciones, valídelas con una comprobación externa para reducir el sesgo. Pida a los formadores o compañeros que comprueben si los participantes pueden demostrar los conocimientos que ellos mismos han valorado. Este paso de verificación garantiza que los resultados reflejen el aprendizaje real y no percepciones subjetivas.
6)Decida si el indicador medirá el efecto inmediato de una sola actividad de aprendizaje, por ejemplo, una sesión de formación o un evento de sensibilización, o el efecto acumulativo de un proceso de aprendizaje más largo, que podría ser una serie de formaciones, tutorías o actividades continuas de educación cívica. Esto determinará el momento de la recopilación de datos y cómo se interpretan los cambios en los conocimientos de los jóvenes. Cuando sea posible, considere la posibilidad de realizar dos evaluaciones posteriores. Lo ideal sería hacerlo inmediatamente después de la actividad de aprendizaje para captar el aprendizaje a corto plazo y volver a hacerlo uno o dos meses después para evaluar la retención de conocimientos y su posible uso. Las evaluaciones también pueden integrarse en las encuestas iniciales y finales para medir el cambio general en lugar de los efectos de una sola actividad.
7) Basándose en su análisis de accesibilidad y género , evalúe si se necesitan medidas adicionales para garantizar una medición justa y precisa para todos los jóvenes encuestados y, cuando sea necesario, póngalas en práctica. Estas medidas pueden incluir ofrecer múltiples formatos de recopilación de datos (escritos, orales o digitales) para adaptarse a las diferentes capacidades; garantizar que los lugares de evaluación estén libres de barreras; permitir horarios flexibles para los jóvenes que lo requieran y necesiten; permitir el uso de aplicaciones o programas de asistencia; y proporcionar materiales de apoyo, como textos en letra grande o ayudas visuales. Utilice un lenguaje y ejemplos neutros en cuanto al género en todas las preguntas y desglose e interprete los resultados por género para identificar si las niñas/mujeres jóvenes, los niños/hombres jóvenes o los jóvenes no binarios experimentan diferentes resultados de aprendizaje u obstáculos.
8) Si procede, considere preguntar a los encuestados dónde adquirieron los conocimientos o habilidades. Esto podría ayudarle a comprender la contribución de su intervención.
9) Si es posible, añada preguntas para recabar opiniones sobre la utilidad y la pertinencia del fortalecimiento de capacidades. Utilice los resultados para mejorar las intervenciones.
10) Para reforzar el aprendizaje y la rendición de cuentas, compartir los resultados de la evaluación con los jóvenes participantes cuando sea posible y apropiado y utilizarlos para perfeccionar futuras iniciativas de desarrollo de capacidades.