Jackie (Jacqueline) [user:field_middlename] Yiptong Avila

Jackie (Jacqueline) Yiptong Avila

Program Evaluator/Survey Methodologist
Independent Consultant
Canadá

Jackie Yiptong Avila is Program Evaluator with over ten years of experience in conducting evaluation using a mixed methods approach. Previously. she has  worked at Statistics Canada as a Survey Statistician and Methodologist, a career that spanned for over 30 years. She has extensive experience in designing and managing household, socio-economic and enterprise surveys as well  as customer satisfaction surveys She has worked in West Africa, the Middle East, Haiti, Mauritius and Canada. Her experience in program evaluation includes

·       Familiarity with the UN, USAID and USDA Evaluation Policy and Guidelines.

·       Evaluation of USAID Feed the Future Food security and Nutrition Programs, USDA Food for Progress Agriculture Value Chains Program; UNDP Women and Youth empowerment and micro-enterprises Programs; UNFPA and USAID programs in humanitarian settings.

Jackie was a Staff member of the World Bank International Program for Development Evaluation Training (IPDET). She provides training and workshop facilitation in Survey Methodology;  Monitoring and Evaluation. She is a member of the Canadian Evaluation Society; the American Evaluation Association; the Canadian Association of International Development Practitioners and is a  Lifetime member of the International Development Evaluation Association ( IDEAS). She is fluent in English, French and Spanish and enjoys working with emerging young evaluators.

My contributions

  • How are mixed methods used in programme evaluation?

    Discussion
    • Estimado Jean,

      Gracias por plantear este tema. También quiero agradecer a Renata Mirulla su buena labor administrando este foro. Aporto mi granito de arena a esta discusión tras haber utilizado métodos mixtos en la mayor parte —si no en la totalidad— de mi trabajo en el ámbito de la evaluación. De hecho, para evaluar proyectos financiados por la Agencia de los Estados Unidos para el Desarrollo Internacional (USAID) y el Departamento de Agricultura de los Estados Unidos (USDA, por sus siglas en inglés) tuve que utilizar obligatoriamente métodos mixtos. En esta página web pueden encontrar los informes de evaluación desglosados por temas (véase la sección “EVALUATIONS IN THE DEC”).  https://dec.usaid.gov/dec/content/evaluations.aspx

      A continuación, pueden encontrar mi respuesta a las preguntas formuladas por Jean. Al final pueden ver cómo he utilizado el enfoque de métodos mixtos en la evaluación de dos proyectos del programa Alimentos para el Progreso en Gambia y Senegal. No duden en ponerse en contacto conmigo si tienen cualquier pregunta.

      Un cordial saludo,

      Jackie

       

      1. Durante la fase de diseño de la evaluación. ¿Qué tipo de preguntas de evaluación requieren (o requirieron) métodos mixtos? ¿Cuáles son las (des)ventajas de que no haya preguntas de evaluación cualitativas/cuantitativas independientes?

      Cualquier pregunta de evaluación se puede responder utilizando un enfoque de métodos mixtos. Al elaborar la matriz o el marco de diseño de una evaluación, el evaluador identifica el informante(s) y el método de recopilación de datos que utilizará con el correspondiente método de análisis para cada pregunta de la evaluación. Por ejemplo, para una encuesta cuantitativa puede utilizar un método de análisis estadístico de datos como el análisis descriptivo o el análisis inferencial. En lo que respecta al método de investigación cualitativa, el evaluador se puede decantar por un análisis de contenido y un análisis temático.

      2. A la hora de desarrollar instrumentos de recopilación de datos para evaluaciones que utilizan métodos mixtos. ¿Los instrumentos se desarrollan al mismo tiempo o uno después de otro? ¿Cómo interactúan entre ellos?

      Al mismo tiempo, en paralelo. Hay UNA matriz de diseño de la evaluación que utiliza un enfoque de métodos mixtos, ya que se realiza UNA evaluación, no dos.  Ambos métodos intentarán dar respuesta a la misma pregunta. El evaluador puede utilizar un único método para obtener información para una pregunta concreta. Por ejemplo, puede recurrir al método cualitativo para las preguntas de evaluación relacionadas con la PERTINENCIA.

      3. Durante el muestreo. ¿El muestreo se realiza de forma diferente o se utiliza el mismo marco de muestreo para cada aspecto metodológico? ¿Cómo y por qué?

      Identificamos a los informadores y confeccionamos la lista para cada tipo.

      La encuesta cuantitativa no abarca a todos los informadores objeto de la evaluación. Las encuestas se suelen realizar para poblaciones grandes (p. ej. beneficiarios de los programas). Se selecciona una muestra probabilística de la unidad de población. Es necesario un marco de muestreo. Es decir, la lista de la población encuestada (marco de la lista) o un marco del área, como en el caso de una encuesta por hogares. Cabe observar que la población no tiene que ser necesariamente un grupo de personas. Puede tratarse de escuelas o explotaciones agrícolas, por citar dos ejemplos.  En una evaluación se puede realizar más de una encuesta. En función de las actividades del programa, se podría llevar a cabo una encuesta por hogares, una encuesta a agricultores, una encuesta a proveedores internos y una encuesta de satisfacción de los beneficiarios con los servicios recibidos de una institución de préstamo o microfinanciación, por citar algunos ejemplos.  Todo depende de lo que queramos averiguar. Obsérvese que las encuestas cuantitativas proporcionan datos que pueden utilizarse para calcular indicadores de desempeño, así como para determinar características de la población objetivo y la prevalencia de una situación o comportamiento (p. ej. porcentaje de agricultores que no disponen de un determinado tipo de equipamiento; número de hogares en los que se ingieren menos de tres comidas diarias). Los datos se ponderan en función de la población de interés y se realizan estimaciones para toda la población o subconjuntos de ésta, como por ejemplo individuos del mismo género o grupo de edad (variables demográficas).

      La recopilación de datos cualitativos se centra en las partes interesadas (p. ej. funcionarios del gobierno, oficiales de programas, proveedores) para entrevistas con informantes clave o semiestructuradas. Las discusiones por grupos especializados se llevan a cabo con una muestra de la población de interés o de las partes interesadas (p. ej. agricultores, oficiales de sanidad de la comunidad). En el caso de la investigación cualitativa, el muestreo intencional es la técnica utilizada para seleccionar un grupo específico de individuos o unidades para análisis. Los participantes se eligen “intencionadamente”, no al azar. También se denomina muestreo de juicio o muestreo selectivo. La información obtenida no se puede generalizar a toda la población. El objetivo principal del muestreo intencional es identificar los casos, individuos o comunidades más adecuados para ayudar a responder a las preguntas de la investigación o evaluación.

      Cabe señalar que no existe un método correcto o comúnmente aceptado para calcular el tamaño de una muestra para el muestreo intencionado. Sin embargo, en las encuestas cuantitativas existen fórmulas para determinar el tamaño de la muestra con el nivel deseado de fiabilidad de las estimaciones.

      4. Durante la recopilación de datos. ¿Cómo y por qué se recopilan los datos (de forma simultánea o secuencial)?

      La información se recopila de forma simultánea, ya que hay un plazo y un único informe de evaluación que presentar.

      La recopilación de datos cualitativos la suele llevar a cabo una sola persona (a mí me gusta tomar notas o grabar las entrevistas —con el permiso del informante— para garantizar la calidad). Las encuestas las realiza un equipo de encuestadores capacitados. Esto encarece bastante el proceso. Hoy en día, solemos utilizar tabletas —en lugar de cuestionarios en papel— para recopilar información. Antes de analizar los datos de las encuestas, es preciso editarlos (limpiarlos). En función del tipo de informante, las encuestas también se pueden realizar por teléfono o Internet, aunque el índice de respuesta es inferior al de las entrevistas presenciales.

      5. Durante el análisis de datos. ¿Los datos se analizan de forma conjunta o por separado? En cualquier caso, ¿qué determina el enfoque analítico y de qué manera lo hace?

      Los datos se analizan por separado.  Posteriormente, los evaluadores cotejan los datos de la encuesta con las conclusiones de la investigación cualitativa y la revisión de documentos o cualquier otro método empleado.

      6. Durante la interpretación y notificación de los resultados. ¿Cómo se presentan, analizan y/o notifican los resultados?

      Solamente hay un informe de evaluación. Los datos cuantitativos se presentan con una descripción y una explicación/confirmación/justificación de las conclusiones de la investigación cualitativa y las fuentes secundarias. En ocasiones, una conclusión de la investigación cualitativa se presenta con datos cuantitativos de la encuesta. Por ejemplo, supongamos que en un discusión por grupos especializados los agricultores indican que no pueden comprar fertilizantes porque son demasiado caros. La encuesta puede hacer la misma pregunta y determinar el porcentaje de agricultores que no pueden adquirir estos productos. Pero además puede identificar si este problema se da en todas las zonas geográficas. Las entrevistas cualitativas en profundidad pueden encontrar otras razones por las que los agricultores no pueden comprar fertilizantes.

      El enfoque de métodos mixtos permite aprovechar los puntos fuertes de los métodos cualitativos y cuantitativos a la hora de recopilar y analizar información para responder a las preguntas de una investigación/evaluación.

      Ejemplos de evaluaciones en las que se han utilizado métodos mixtos:

       Métodos cualitativosMétodos cuantitativosOtros métodos

      Evaluación de mitad de período de un proyecto de servicios a empresas de mijo (Millet Business Services Project)

      • Entrevistas a informadores clave (ejecutores y asociados)
      • Discusiones por grupos especializados (productores de mijo y responsables de unidades de elaboración)
      • Observaciones sobre el terreno

      Se realizaron cuatro encuestas:

      • Encuesta a productores de mijo
      • Encuesta a organizaciones de productores
      • Encuesta a unidades de elaboración
      • Encuesta a personal capacitado de las unidades de elaboración
      • Examen bibliográfico y de documentos del programa
      Evaluación final de un proyecto de mejora de la cadena de valor del anacardo en Senegal y Gambia (SeneGambia Cashew Value Chain Enhancement Project)
      • Entrevistas con informadores clave
        • Responsables de viveros
        • Comerciantes de anacardos
        • Elaboradores
        • Facilitadores locales de anacardos
        • Asociación de agricultores
      • Discusión por grupos especializados (productores de anacardos)
      • Observaciones sobre el terreno
      • Encuesta a productores de anacardos
      • Encuesta a unidades o centros de elaboración
      • Encuesta a elaboradores capacitados
      • Examen bibliográfico y de documentos del programa
      • Examen de datos de seguimiento, informes anuales/ trimestrales/ mensuales, informes temáticos, estudios de caso y entrevistas con el personal del Instituto Francés de Investigación para el Desarrollo (IRD, por sus siglas en francés) y el Centro de Estudios Prospectivos e Información Internacional (CEPII, por sus siglas en francés)

       

    • Estimado Jean,

      En respuesta a tus comentarios a mi contribución a esta discusión[1], en primer lugar me gustaría dar las gracias a Malika Bounfour y Marlene Roefs por compartir dos documentos muy valiosos.

      Por favor, consulten la definición de “diseño paralelo convergente” en la página 6 del documento Métodos mixtos en el seguimiento y evaluación de proyectos de desarrollo: aprender de la experiencia de los profesionales (en inglés). Éste es el enfoque al que me refiero cuando afirmo que “las herramientas de recopilación de datos se desarrollan en paralelo, o de forma simultánea”. En lo que respecta a la existencia de “UNA matriz de diseño de la evaluación”, esto se ajusta al denominado “diseño integrado”, descrito también en la página 6 del citado documento.

      En cuanto a los métodos de muestreo, les invito a consultar este enlace de Statistics Canada. Durante más de 30 años he trabajado para esta agencia estadística nacional como experta en metodologías de encuestas.

      En particular, para distinguir entre el muestreo probabilístico (utilizado en las encuestas cuantitativas) y el muestreo no probabilístico (utilizado en la recopilación de datos cualitativos; p. ej. muestreo intencional), por favor consulten la sección 3.2 sobre muestreo.

      En el apartado 3.2.3 se explica por qué algunos profesionales están considerando la posibilidad de utilizar el muestreo intencional en encuestas cuantitativas. No suele ser la práctica habitual en las oficinas nacionales de estadística. También se explica por qué el muestreo no probabilístico debe utilizarse con especial precaución.

      Espero que esto sea útil. En la página 13 del documento Métodos mixtos en el seguimiento y evaluación de proyectos de desarrollo: aprender de la experiencia de los profesionales (en inglés), compartido por Marlene, se afirma lo siguiente: “Combinar información de la investigación cuantitativa y cualitativa proporciona una visión más completa de la contribución de un programa a diversos tipos de cambio (social)”. Estoy completamente de acuerdo con esta afirmación.

      Gracias por plantear este tema en EvalForward. Ha suscitado gran interés. Personalmente, estoy a favor del enfoque de métodos mixtos. De hecho, según mi experiencia, las conclusiones de una evaluación que utiliza esta metodología tienen mejor acogida entre los clientes. Y es que, cuando el proceso de comprobación muestra los mismos resultados de diferentes fuentes, rebatir las conclusiones resulta complicado.

      Saludos cordiales,

      Jackie

      P. D. En mi primera contribución a esta discusión compartí este enlace, en el que encontrarán cientos de ejemplos de evaluaciones que han utilizado métodos mixtos.

       

      [1]Jackie: Muchas gracias por tu tiempo y tus perspicaces comentarios. En relación con nuestra práctica de la evaluación, ¿podrías explicar cómo “se puede responder [cualquier pregunta de evaluación] utilizando un enfoque de métodos mixtos”? En tu opinión, las herramientas de recopilación de datos se desarrollan en paralelo, o de forma simultánea. Y sostienes que hay UNA matriz de diseño de la evaluación. De ahí que ambos métodos intenten responder a la misma pregunta. En cuanto al muestreo, ¿podrías aclarar cómo has utilizado el muestreo probabilístico o no probabilístico? ¿O al menos describir cuál aplicaste, por qué y cómo? ¿Se podría aplicar el muestreo intencional a una evaluación cuantitativa?”

  • What type of evaluator are you?

    Discussion
    • Estimados colegas,

      Me alegro de que John haya sacado el tema de la TdC.  A menudo me he preguntado por qué las evaluaciones revisan o mencionan la TdC en la fase inicial, pero parecen ignorarla durante el análisis; rara vez valoran la validez o solidez de la TdC y los supuestos que la acompañan. En cambio, las evaluaciones se centran en los criterios de la OCDE y rara vez he visto que se aborde la validez de la TdC en los informes de evaluación, ¿y usted?

      No creo que los TdC estén grabados en piedra, por lo que me gusta pensar que las evaluaciones pueden/deben mostrar datos que 1. confirmen que los supuestos son válidos 2. demuestren o desmientan que el resultado y los resultados esperados son realistas, 3. identifiquen cuáles se harán realidad y 4. para los que no se harán, qué se puede hacer/cambiar en la intervención para que se logren los resultados; o bien nos digan qué ocurrirá si la intervención se lleva a cabo tal como está.

      Me gustaría sugerir un artículo de John Mayne, que lamentablemente falleció el pasado diciembre. En él, John discute los criterios para una TdC robusta y una herramienta para llevar a cabo el análisis de las TdCs que él discute en un escenario ex-ante o ex-post. Véase https://www.researchgate.net/publication/321510354_Theory_of_Change_Ana…

      Saludos cordiales,

      Jackie

       

    • Gracias, Carlos, por mencionar otro tema importante en este foro y por los enlaces a los documentos. También agradezco a los colegas que compartieron su experiencia y comentarios.

      La teoría del cambio, el marco lógico (marco lógico) y las cadenas de resultados son metodologías para planificar, medir y evaluar programas. Cada uno tiene una representación visual en forma de una matriz de lo que sucede o se espera que suceda como resultado del programa o proyecto o cualquier iniciativa al respecto. Como facilitador anterior en IPDET (capacitación del Programa Internacional para la Evaluación del Desarrollo financiada por el Banco Mundial) y en mi práctica, he descubierto que la Teoría del Cambio es un nombre o título que no se identifica fácilmente como metodología; es un término que puede causar temor en la mente ?. Prefiero usar Logic Model, un término que algunos usan indistintamente para describir la TdC. Sin embargo, el modelo lógico también es sinónimo de cadenas de resultados (https://www.betterevaluation.org/en/search/site/result%20chain) y Teoría del programa / Teoría del cambio https://www.betterevaluation.org/en/ rainbow_framework / define / development_programme_theory.

      En mi opinión, la Teoría del cambio es una herramienta más poderosa que las otras dos mencionadas, ya que los vínculos directos entre Actividades, Producto y Resultados (a corto y mediano plazo y largo plazo, a menudo denominados Impacto) deben establecerse y mostrarse en la matriz . Además, la TdC no está completa sin supuestos. No es una matriz única, pero debe / puede revisarse y modificarse con el tiempo. Durante la evaluación, los supuestos deben verificarse y, si no se cumplen o si las actividades se modificaron durante el curso del programa, la matriz debe revisarse en consecuencia

      Los requisitos del ToC fomentan una reflexión profunda de lo que el programa está tratando de lograr. Una dificultad a menudo encontrada es decidir qué es un producto y qué es un resultado. El documento Kellogg me pareció una guía muy útil; utiliza el término modelo lógico. https://www.bttop.org/sites/default/files/public/W.K.%20Kellogg%20LogicModel.pdf .

      La semántica es importante en el desarrollo de la matriz y los verbos activos como "Aumentado" que denotan cambios, ayudan a hacer la distinción entre producto y resultado.

      También encuentro que llenar la columna Actividades genera debates que a menudo muestran que las partes interesadas no son conscientes o tenían opiniones diferentes de lo que realmente estaba sucediendo durante la implementación del programa. Las discusiones de seguimiento a menudo tendrían lugar sobre si las actividades desencadenarán un cambio de comportamiento entre los beneficiarios del programa y si tienen un efecto indirecto y resultados en la comunidad o en la población objetivo general. Encuentro que la matriz TdC facilita la identificación de indicadores que son más significativos para medir el desempeño y los resultados.

      Estoy de acuerdo en que la TdC debe desarrollarse de manera participativa. Sin embargo, en el momento de la evaluación, es posible que no exista o que el disponible sea pobre / confuso. En estos casos, después de una revisión inicial del documento y discusiones con el personal del programa, diseñaré la matriz o modificaré la existente y la distribuiré. Me ayuda a comprender el programa y formular mis solicitudes de aclaración. Como la matriz es fácil de leer (me gusta de izquierda a derecha), generalmente recibe atención y comentarios. Terminamos con todos los involucrados teniendo la misma comprensión del programa y sus logros esperados. He visto las preguntas de evaluación revisadas como resultado de este ejercicio.

      Sería interesante saber cuántos Ipdeters que practican la evaluación, utilizan ToC en su trabajo. ToC está en el núcleo de IPDET. Ver Road to Results, Morras y Rist 2009, el libro de texto de esta capacitación. https://openknowledge.worldbank.org/bitstream/handle/10986/2699/52678.pdf?sequence=1&isAllowed=y

       

       

    • Dear Colleagues,

      I wish to thank you for taking the time to join this discussion, share your experience and web links to very informative documents. Please allow me to summarize some of your comments and share my reflections following this discussion on women in agriculture which is certainly an important topic as demonstrated by your interest and contribution.

      Several of you have pointed out the challenges faced by women; these include no access to Land Ownership; lack of financing; chores and household responsibilities. More importantly, is the lack of voice of women in decision making which can be due to the cultural and societal norms; perception that women are illiterate hence cannot contribute to decision making. Furthermore, technology is perceived as a male domain.

      It was also noted that while evaluations found that agricultural production by women beneficiaries increased as a result of their participation in agricultural activities, there was less evidence to suggest that they were individually diversifying their agricultural products and breaking into agri-business and self-employment as expected. This is to say that women continue to practice subsistence farming which is not going to move them and their family from poverty.

      It appears that we have yet to find ways for women develop formal and informal support innovation networks with others;  ways for women to exercise decision-making power in intra-household discussions with their spouses, and extended family especially when culture limits this kind of interaction. Not the least is how do we get men to support women including their spouse to innovate and move from subsistence farming to entrepreneurship. Should we say moving women from the invisibles to strong actors along the agriculture value chains?

      I also note with interest in your contributions that urban farming especially on roof top is now an activity that is being practiced. I have not yet seen in my work and It would be interesting to see what data exist for this type of activity.  Sadly, you have noted that monitoring systems are not always in place to measure the results of agriculture programs on women performance beyond increased productivity. Furthermore, some of you are finding that program managers still think that M&E exercises are expensive and require significant effort; hence the lack of efficient M&E system.

      The Oxford Dictionary provides the following definition for Empowerment which says

      To empower somebody (to do something) is to give someone more control over their own life or the situation they are as in “The movement actively empowered women and gave them confidence in themselves.”

      This will become more necessary as we try to meet the challenges of the SDGs since statistics tell us that there are increasing number of households being headed by females (for a summary of World bank data please see http://www.factfish.com/statistic/female%20headed%20households). Women are often left in charge as their spouse has left to wage wars and/or have returned maimed; left to work in the cities; have never married; are widowed or the man has simply deserted the family.

      Thank you again for your contributions. I hope that we will have more opportunities to discuss this topic in the future and that you will be reporting that women and marginalized groups are moving from subsistence farming to engagement in agricultural market expansion. J

      Jackie Yiptong Avila, Bsc, MBA, DPE

      International Consultant

      Program Evaluator; Survey Methodologist

      Ottawa, Canada

    • Dear Dorothy,

      Thank you for having brought up Youth in Agriculture in this forum. The remarkable response indicates how important this topic is for evaluators and others. I have had the opportunity to evaluate several agriculture programs in Senegal and The Gambia. I would like to share my reflections, findings and the recommendations that I have made which I hope answers your initial questions: Are evaluations making a difference or not? If not, how does that happen to greater effect?

      There seems to be general agreement that the negative perception of agriculture which describes farmers as illiterate;  farm work as back breaking are deterrents for young people. I think that these are part of a larger number of reasons.  What can be done to de-stigmatize farming? I believe that changing the language and concept concerning small-scale farming is a first step. Should we not

      • Think of the farmer as an agriculture entrepreneur, businessman or businesswomen not the illiterate poor person who does a backbreaking job who is able to provide for his family
      • Treat the farm as a family business and not some entity for survival?

      Colleagues have mentioned educated and uneducated Youth. I believe that an uneducated Youth with some numeracy and literacy skills can become a successful entrepreneur. Let’s not stigmatize the “uneducated” Youth in rural areas. It will perpetuate the negative perception of farmers and farming.

      In the discussion, it was noted that there are initiatives that are encouraging the Youth to enter the Agribusiness. This person is not necessarily from a rural community. Hence two other divisions:

      1. Outsidesr and
      2. Children of the farmers/Youth in rural areas.

      The outsider is as in the AgriHack Talent initiative - already an entrepreneur/start-up/companies/country diaspora etc. i.e. they are investors in the agricultural sectors. (Thank you, Pamela White, for the link https://www.cta.int/en/youth ). They are educated presumably, with technology and resources obtained on their own or as beneficiaries of some programs. The questions I would like to ask are:

      • Are they going to build capacity among the local farmers and Youth or are they expecting cheap labour?
      • Do they have a good understanding of the rural and farming community to be able to collaborate with the rural community? Will they be ready to learn from locals and adopt traditional agricultural practices that bring results?
      • Are they truly going to make a positive difference for the local Youth or are they going to be the masters who dictate?

      For the children of the farmers, the challenges are many. Land ownership is an important issue. Farmers in my studies did not have title to their land and we collected incidence of abuse; for example once the farmer is having success  as in  the cashew sector that can be quite lucrative,  there is a “cousin” who lives in the city and presumably now “wealthy” who arrives and makes claim to the ancestral land farmed by the “pauvre paysan, son cousin” . Young people are justifiably upset and discouraged to see their father mistreated and have few recourses for this “injustice”. One of the recommendations made is that there is a push for land ownership in the country and if the law already allows for this, that the farmer  be taught and supported in obtaining title for his/her parcel of land through an association of farmers and/or the aid program.

      Someone has mentioned the “claustrophobic” environment of farms. Indeed, lack of roads or difficult access to towns is an issue. This situation limits the sale of the crops and in fact, in many villages, we found that the farmers are at the mercy of buyers. For lack of transportation, the farmer has no choice but to sell to those who come in the village with their own truck, car, motorcycle etc. and of course,  at the price set by the buyers. An unfair practice which will discourage the Youth from farming.

      I disagree that young people are leaving for the city just because of the big city lights; the discotheques and the “fun” life. Once outside, the appeal for not returning to the village is great. Can we blame them if they do not return to their village where there is no electricity and no running water? Rural development is fundamental if we wish  Youth to remain on agricultural land.

      How do we get the young people to start thinking of the farm as a business?

      I was deeply saddened to hear of a compound in Gambia that saw 26 of its youth leave for the north. They were believed to have all died in the Mediterranean Sea. They were young people  who have attended school, but the lack of opportunities led them to take this risk of leaving home with the hope of a better future. I was deeply saddened because growing cashew trees could be a lucrative business in this country and maybe had they known that this sector had much to offer, they would not have left their village but cultivate the land instead. Unfortunately, an academic education is intended for landing in a white-collar job. This is a common problem. Here in Canada, we have a shortage of tradespeople; for a long time, our children were encouraged to get a university degree for example,  in electrical engineering while a college degree to become an electrician was not viewed in the same light. This is in reverse now as an entrepreneurial electrician is often making more income than an engineer.

      Older farmers are also selling their land as their children have gone away for higher education and other professions.  However, university graduates in agriculture in this country are hired by large food producing companies and in research; this may not yet be as frequent in developing countries.  

      We should not forget the agriculture sectors offer jobs along the value chain and toiling the land is not the sole occupation. These usually require a certain level of education.

      It was suggested in our evaluation reports that young literate family members be included in the Farmers Field Schools (FFS) which targeted the farmers only. The evaluations found that the training which includes business practices and accounting was not very successful since the farmers were too often illiterate.

      I understand that the recommendations we have made, were taken into account in the planning of the next phase of the programs. I hope to have the opportunity to evaluate these “enhancements”. I strongly suggest that similar to gender, we treat Youth as a cross-cutting theme in evaluations of agriculture programs. Let us not forget the young girls and women who farm. I have found that the agriculture programs would make a head count of female beneficiariesbut few initiatives adopt activities to match the needs and accommodate the timetable of the women. Absenteeism and drop-out rates for female at FFS was higher for females than males.

      It will be good that evaluators share their findings and recommendations. Should we, evaluators have a common set, a repertoire of recommendations that promotes practices proven to bring positive results?  Of course, to be applied where relevant and contextual! 

      Jackie Yiptong Avila
      Program evaluator / Survey methodologist
      Canada