Cristian [user:field_middlename] Maneiro

Cristian Maneiro

Senior Consultant
Maestral International, PLAN Eval
Uruguay

Evaluation specialist with over ten years of experience, both conducting and commissioning evaluations for UN Agencies and International Organizations. Regional work experience in Latin American and African countries. MA degree in Sociology and post graduate diploma in Public Policy and Evaluation, along with several short courses taken in development economics, research methods and softwares. Spanish native speaker, fluent in English and Portuguese with working knowledge of French.

My contributions

    • Estimados colegas,

      ¡Saludos desde Uruguay!

      Gracias Ibtissem por plantear este tema tan interesante. He encargado evaluaciones para el Programa Mundial de Alimentos (PMA), pero también las he llevado a cabo para el Fondo de las Naciones Unidas para la Infancia (UNICEF) y el Fondo de Población de las Naciones Unidas (UNFPA) como consultor independiente. Desde esta doble perspectiva, estoy totalmente de acuerdo en que el responsable de una evaluación desempeña un papel fundamental y tiene una responsabilidad importante a la hora de garantizar la calidad de los resultados de una evaluación, que determina en última instancia su utilidad.

      Basándome en lo que han comentado ya otros colegas, me gustaría compartir dos reflexiones adicionales —que no se han planteado aún— sobre el apoyo del responsable de una evaluación y su papel en ésta:

      1. Lo ideal es que el responsable de una evaluación no asuma toda la carga solo. Es conveniente que cuente con el apoyo de al menos un analista de evaluación. Esta composición imita la estructura de un equipo externo de evaluación y facilita una comunicación y coordinación más fluidas. Los analistas de evaluación pueden encargarse de las reuniones bilaterales con analistas de datos u otros miembros del equipo externo que realiza la evaluación. De esta forma, el responsable de una evaluación pueda centrarse en la supervisión del calendario, el cumplimiento de los plazos y la toma de decisiones de alto nivel en consulta con el jefe del equipo.
      2. Además, es importante reconocer que, cuando debatimos sobre la independencia de las evaluaciones, solemos dar por sentado que nos referimos a evaluaciones externas. Sin embargo, algunos enfoques (p. ej. evaluación del desarrollo) se centran más en la capacitación. En estos casos, la participación del responsable de la evaluación como parte fundamental del programa evaluado es esencial. Este enfoque fomenta un mayor sentido de apropiación y promueve el aprendizaje interno en la organización.

      Gracias.

      Un cordial saludo.

       

       

       

  • Artificial intelligence in the context of evaluation

    Discussion
    • Muchas gracias Muriel por plantear este tema, así como a los participantes en la discusión por sus contribuciones. Creo que la inteligencia artificial (IA) tiene características prometedoras para los evaluadores. Conocerlas es fundamental para nuestra labor. En mi caso concreto —y en el de otros profesionales con formación humanística— la posibilidad de realizar análisis cuantitativos rápidos e interactivos sin necesidad de dominar el lenguaje de programación en código abierto (p. ej. R o Python) constituiría un verdadero punto de inflexión.

      Además, la capacidad de resumir textos extensos sin procesar —como transcripciones de entrevistas o grupos de discusión— y facilitar un análisis preciso de los puntos fundamentales permitiría ahorrar una cantidad significativa de tiempo. Sin embargo, es importante destacar que la experiencia y conocimientos de los evaluadores, las aportaciones de las partes interesadas y la percepción de la finalidad de la evaluación continuarán siendo cruciales y muy valiosos.

      Por último, cabe señalar que, por muy poderosa que sea, la IA no resolverá dilemas éticos, ni adoptará decisiones sobre cómo presentar los resultados. 

      Me encantaría que otros miembros compartieran ejemplos del uso de la IA en enfoques cuantitativos y cualitativos.

       

  • How are mixed methods used in programme evaluation?

    Discussion
    • Estimados colegas:

      Saludos desde Uruguay.

      Creo que la discusión planteada por Jean es muy relevante. Los métodos mixtos son sin duda una estrategia poderosa para abordar un objeto de evaluación desde diferentes ángulos, y es casi una práctica estándar en la mayoría de los Términos de Referencia (TDR) de evaluación que se ven actualmente, ya sea para agencias de la ONU u otras.

      Sin embargo, estoy de acuerdo en que a veces el término se convierte en un cliché y se utiliza sin considerar si una estrategia de métodos mixtos es realmente la más adecuada. Se parte de la base de que las distintas técnicas (por lo general, entrevistas con informantes clave y encuestas) proporcionarán información complementaria, pero a menudo los encargados no tienen una idea clara de cómo se integrará y triangulará esta información. En mi opinión, los casos de éxito se producen cuando el proceso de integración está bien definido o cuando los métodos se aplican de forma secuencial (por ejemplo, realizando grupos de discusión para definir las preguntas de la encuesta o seleccionando casos a partir de una encuesta para realizar entrevistas en profundidad).

      Además, entiendo que con los avances tecnológicos actuales, los métodos mixtos tienen nuevas potencialidades. Ya no se trata solo de la típica combinación de entrevistas a informantes clave y debates de grupos focales con encuestas, sino que puede incluir análisis de big data mediante aprendizaje automático, análisis de sentimientos, etc.