Adéléké [user:field_middlename] Oguniyi

Adéléké Oguniyi

MERL Expert
Togo

Having completed a Masters degree in Project Management with a focus on Monitoring Evaluation Acountability and Learning, i account for 12 years international and domestic experience in research, monitoring evaluation and learning of development programs. As a practitioner, i have rich experience in the design, planning and implementation of MEAL frameworks adapted to different programs and contexts and seamlessly able to grasp difficult concepts, readily apply these ideas in differing social, cultural and cognitive domains, and later clearly communicate results in a clear, well-grounded discussion. I have proven experience working closely with a broad range of stakeholders, writing evidence-based reports both in English and French languages. Moreover, i master complex conceptual frameworks and excel in management of extensive sets of quantitative and qualitative data. To date, i have managed several evaluations funded by institutions such as USAID, Millennium Challenge Corporation (MCC), Global Affairs Canada, NORAD, UNICEF, EU, SDC and more.
I am passionate about contributing community members social and economic development.

My contributions

    • Estimada Ibtissem, 

      Me hago eco de tus reflexiones: la calidad y utilidad de una evaluación dependen en gran medida de la profesionalidad, los conocimientos especializados y la experiencia práctica del equipo encargado de gestionarla.

      Su función, responsabilidades y nivel de participación dependen de las distintas etapas o fases del proceso de evaluación. 

      Quisiera compartir mi contribución, centrada en la fase inicial. Esta etapa sirve de brújula para guiar la evaluación de un proyecto —una práctica compleja— hacia el éxito. Supone el comienzo de un proceso de colaboración, participación y aprendizaje entre una organización y los consultores independientes que trabajan en dicha evaluación. Es una actividad crucial en la que se aclaran diferentes cuestiones, se establecen las expectativas y se sientan las bases para el entendimiento mutuo. La fase inicial es un componente fundamental de la evaluación de un proyecto. No se trata de una mera formalidad: más bien es una inversión estratégica para lograr una colaboración exitosa. Organizar una fase inicial rigurosa ayuda a maximizar la contribución de los consultores externos desde el primer día y establecer una base sólida para que la colaboración obtenga resultados satisfactorios. Es en esta etapa cuando se perfila lo que se pretende lograr y se traza una ruta para conseguirlo. Empezar una evaluación con buen pie incrementa su eficiencia y aumenta la probabilidad de cumplir sus objetivos. En la fase inicial el responsable de una evaluación y los evaluadores externos acuerdan qué hacer y no hacer, ya que:

      • examinan los antecedentes y el contexto del proyecto;
      • aclaran los objetivos y el alcance de la evaluación;
      • establecen las expectativas de participación de las partes interesadas;
      • debaten diferentes enfoques y metodologías;
      • debaten el formato de los productos (documentos) y los plazos de entrega;
      • aclaran los protocolos de presentación de informes y comunicación;
      • facilitan el acceso a la documentación del proyecto;
      • debaten las consideraciones éticas y de confidencialidad;
      • establecen un mecanismo para la formulación de observaciones;
      • evalúan y abordan necesidades individuales;
      • ...

      Como evaluador externo, creo que la colaboración con los responsables de las evaluaciones mejora significativamente la pertinencia y utilidad de las evidencias para los procesos de toma de decisiones. Sus conocimientos especializados, sus iniciativas para fomentar la participación de las partes interesadas, su capacidad de adaptación y sus esfuerzos por garantizar la calidad aseguran que las evaluaciones se realizan de forma eficiente y proporcionan información práctica que orienta la toma de decisiones. Es necesario adoptar una mentalidad abierta ante lo que “demandan” las evaluaciones y lo que éstas “ofrecen”. 

      Adéléké Oguniyi. Experto en seguimiento, evaluación, investigación y aprendizaje (MERL, por sus siglas en inglés). Togo.

    • Gran tema de debate, Yosi.
      Me gustaría compartir algunas reflexiones basadas en mi participación en el proyecto regional financiado por el BOAD "Promoción de una agricultura climáticamente inteligente en África Occidental".
      El proyecto pretende reforzar la resiliencia de la población ante los efectos adversos del cambio climático y aumentar la producción, contribuyendo al mismo tiempo a la mitigación mediante el secuestro de carbono. Este proyecto tiene beneficios medioambientales que incluyen (i) la gestión sostenible de la tierra y la reducción de la expansión de las tierras agrícolas a expensas de las tierras forestales; (ii) la contribución a la mitigación de las emisiones de GEI a través del secuestro de carbono; (iii) la mejora de la capacidad de los actores para implementar prácticas resilientes al clima; etc.

      El marco de resultados del proyecto incluye indicadores pertinentes (todos ellos son efectivos), y a continuación se presentan algunos de ellos:

      • Porcentaje de la población objetivo mediante medios de vida resilientes al cambio climático sufridos
      • Tasa de mejora de los rendimientos para apoyar la seguridad alimentaria y mejorar las condiciones de vida de los beneficiarios
      • Tipo de fuentes de ingresos de los hogares generados en un escenario de cambio climático
      • Número de beneficiarios (F/M) informados sobre cuestiones de riesgo climático a través de las acciones de los servicios meteorológicos
      • Número y tipo de acciones o estrategias de reducción de riesgos introducidas a nivel local
      • Nivel de capacidad técnica de las instituciones regionales, nacionales y locales para promover las mejores prácticas resilientes al clima en un enfoque de CSA
      • Número de planes o políticas comunitarias mejorados o aplicados que incorporan el enfoque CSA.Más información sobre el proyecto: https://www.adaptation-fund.org/project/promoting-climate-smart-agricul…

      Más información sobre el proyecto: https://www.adaptation-fund.org/project/promoting-climate-smart-agriculture-west-africa-benin-burkina-faso-ghana-niger-togo/ 

  • Artificial intelligence in the context of evaluation

    Discussion
    • As we embrace the era of Artificial Intelligence (AI), evaluators have a unique opportunity to leverage this technology to enhance their professional activities in several ways:

      1. Data Analysis and Interpretation: AI tools can significantly improve data analysis by processing large datasets efficiently and identifying patterns or trends that might be overlooked by human analysts. Evaluators can use AI algorithms to analyze complex data sets from evaluations, surveys, or other sources, enabling more robust and insightful conclusions.
      2. Predictive Modeling: AI techniques such as machine learning can be employed to develop predictive models for evaluating the potential outcomes of interventions or policies. By training models on historical data, evaluators can forecast future impacts with greater accuracy, aiding decision-making processes.
      3. Natural Language Processing (NLP): NLP algorithms enable evaluators to analyze and understand unstructured textual data such as reports, reviews, or social media feedback. This capability can facilitate sentiment analysis, thematic coding, and synthesis of qualitative data, providing deeper insights into program effectiveness and stakeholder perspectives.
      4. Automation of Routine Tasks: AI can automate repetitive tasks such as data cleaning, report generation, or scheduling, freeing up evaluators' time to focus on more strategic and analytical aspects of their work. By streamlining workflows, evaluators can increase productivity and efficiency.

      To harness AI effectively, evaluators should consider the following strategies:

      1. Continuous Learning and Adaptation: Stay informed about advancements in AI technologies and their applications in evaluation practice. Invest in training programs or workshops to build proficiency in using AI tools and techniques relevant to evaluation.
      2. Collaboration with Data Scientists and Technologists: Foster interdisciplinary collaborations with experts in AI, data science, and technology. By partnering with professionals skilled in AI development and implementation, evaluators can co-design innovative solutions tailored to specific evaluation challenges.
      3. Ethical Considerations and Bias Mitigation: Be mindful of ethical issues related to AI, such as data privacy, algorithmic bias, and transparency. Ensure that AI-driven evaluations adhere to ethical guidelines and principles, and actively address biases to maintain credibility and fairness.
      4. Effective Communication of AI Insights: Develop skills in translating AI-generated insights into actionable recommendations for stakeholders. Communicate the limitations and uncertainties associated with AI-based analyses transparently, fostering trust and understanding among diverse audiences.

      In addition to technical proficiency in AI, evaluators should cultivate a range of complementary skills to remain competitive and meet the evolving expectations of the field:

      1. Critical Thinking and Interpretation: Sharpen analytical skills to critically evaluate AI-generated outputs and contextualize findings within broader evaluation frameworks.
      2. Interdisciplinary Collaboration: Cultivate the ability to collaborate effectively with stakeholders from diverse backgrounds, including technologists, policymakers, and program implementers, to ensure that AI-driven evaluations address key priorities and perspectives.
      3. Adaptability and Agility: Embrace a growth mindset and be willing to adapt to changing technological landscapes and evaluation methodologies. Stay agile in response to emerging challenges and opportunities presented by AI advancements.
      4. Communication and Storytelling: Hone communication skills to effectively convey complex AI-driven insights to non-technical audiences. Develop the ability to craft compelling narratives that highlight the significance of evaluation findings and their implications for decision-making.