Tropezar de nuevo con la misma piedra - Podemos aprender mucho más del seguimiento y evaluación de proyectos agrícolas

landscape DRC
Bernard Crenn

Tropezar de nuevo con la misma piedra - Podemos aprender mucho más del seguimiento y evaluación de proyectos agrícolas

9 min.

Resulta irónico que sistemas supuestamente diseñados para ayudarnos a extraer enseñanzas hayan sido tan reacios a aprender de sus propias experiencias

El seguimiento y evaluación (SyE), el seguimiento, evaluación, rendición de cuentas y aprendizaje (MEAL, por sus siglas en inglés), el seguimiento, evaluación y aprendizaje (MEL, por sus siglas en inglés), el seguimiento, evaluación, investigación y aprendizaje (MERL, por sus siglas en inglés), el seguimiento y gestión de resultados (MRM, por sus siglas en inglés) o como lo quieran denominar, son metodologías que deberían ayudarnos a aprender de la experiencia. Lamentablemente, no siempre es así.

Resulta irónico que sistemas supuestamente diseñados para ayudarnos a extraer enseñanzas hayan sido tan reacios a aprender de sus propias experiencias. En mi opinión, esto se debe en gran parte al aislamiento del SyE en programas y proyectos, al trabajo compartimentado y a la recopilación de datos que no fundamentan o facilitan las decisiones de gestión. Y suponer que los responsables de programas y proyectos siempre pueden predecir exactamente qué se necesita averiguar y por qué motivo es un error. Se trata de una conversación que debe tener lugar antes de establecer unos indicadores o un marco de resultados, no después.

Hace poco escuché la canción Here we go again de los Isley Brothers. Trata sobre el amor y nuestra propensión a perseverar en ciertos ideales y tropezar varias veces con la misma piedra. Esta idea me hizo pensar en un informe del Banco Mundial de 1994 sobre el SyE de la agricultura[i]. Ponía de relieve las limitaciones y las consecuencias de medir resultados generales, como rendimientos de cultivos y beneficios de producción. Esta información ha estado bien documentada durante la década de 1980 y a comienzos de la década de 1990.

La desconexión entre seguimiento y gestión

Creo que el consenso general es que el seguimiento es una función integral de la gestión. Dicho esto, uno de los principales hallazgos del informe del Banco Mundial fue la falta de conexión entre seguimiento y gestión. Parece como si se tratara de ámbitos casi independientes. Esta conclusión me permitió relativizar otras perspectivas que obvian la gestión y se centran en las diferencias y la relación (sinérgica) entre el seguimiento y la evaluación.

La desconexión a la que hacía referencia continúa siendo bastante habitual hoy en día. Los especialistas en SyE o los encargados de esta función suelen trabajar de forma compartimentada. Por ejemplo, los procesos de elaboración de una teoría del cambio y/o un marco de resultados suelen estar desvinculados de otros procesos (p. ej. de aprendizaje, financieros, operativos o de toma de decisiones) y personas. El SyE se mantiene al margen de la gestión. Una situación que se ha visto agravada recientemente por el seguimiento por parte de terceros —un contrasentido— y la subcontratación de una de las principales responsabilidades en materia de gestión —el aprendizaje— a “asociados” en el aprendizaje o la evaluación. 

Consideremos el ejemplo de la agricultura. Hace 30 años, había un consenso general sobre la razón de ser del seguimiento: medir los indicadores de rendimiento de los cultivos. El examen y análisis de estos datos ocupaban la totalidad o la mayor parte de los recursos asignados al SyE y constituían una tarea bastante compleja. Poco ha cambiado desde entonces. Me suelo preguntar cómo pueden estas evidencias descriptivas fundamentar decisiones de gestión. Obvia decir que no pueden hacerlo: su objetivo es validar la decisión original de inversión del donante.

Dejar atrás el seguimiento basado en cifras ...

Reflejar resultados numéricos en un diagrama o una matriz no tiene nada de malo. Sin embargo, el seguimiento debe tratar estas cifras como proyecciones, no como “realidades”. La mayoría de los resultados son impredecibles. Los proyectos agrícolas tienen lugar en entornos muy inciertos. El contexto importa. El gran pensador sobre gestión del siglo XX, Edwards Deming, sostuvo que “la gestión basada en objetivos numéricos es un intento de gestionar algo sin saber qué hacer y, de hecho, suele estar basada en el miedo”[i]. También observó que lo más importante que se debe conocer suele ser aquello que se desconoce. Tal y como afirmó en The New Economics, “es erróneo suponer que lo que no se puede medir no se puede gestionar: se trata de un mito costoso”[ii]. A lo que Deming se refiere es a lo que la comunidad de SyE denomina hipótesis. En este ámbito, las hipótesis son tan importantes o más que los propios resultados. Es una pena que la comunidad de SyE esté obsesionada con indicadores —cualitativos o cuantitativos— y suela dar poca importancia a las hipótesis.

El punto de vista de Deming coincide con mi experiencia de tres años al frente de un departamento de SyE en el Departamento de Desarrollo Agrícola de N'gabu —un pueblo en el valle bajo del río Shire en Malawi— a finales de la década de 1980. La función principal del departamento consistía en recopilar datos anuales sobre la producción de los cultivos. Los resultados principales eran estimaciones de la producción y la productividad, desglosadas por cultivo, distrito, sexo del cabeza de familia y práctica agrícola. Los datos se utilizaban en gran medida para evaluar el rendimiento agrícola de los dos distritos del valle: Chikwawa y Nsanje.

Tras presentar el primer conjunto de resultados, me di cuenta de que los responsables superiores apenas los habían usado. Muy pocos vinieron a mi oficina. La mayoría de los que lo hicieron estaban en misiones de donantes, pertenecían a organizaciones no gubernamentales o eran investigadores o funcionarios del Ministerio de Agricultura o de la Oficina Nacional de Estadística. Los encuestadores de campo tenían poco contacto con los extensionistas. Quería saber por qué mis colegas tenían tan poco interés. Al fin y al cabo, medir estos parámetros llevaba mucho tiempo y era metodológicamente complicado. Me senté con el Director de Extensión Agrícola para analizar los motivos. Me comentó que, si bien los resultados de la encuesta eran interesantes, su utilidad para fundamentar las actuaciones de su departamento y otras divisiones (p. ej. investigación, cultivos y programa de mujeres) era limitada.     

Cuando analizamos qué preguntas podríamos ayudarle a responder, me dio cuatro ejemplos:

  1. ¿Qué opinión tienen los agricultores de la labor de los agentes de extensión?
  2. ¿Cuántos agricultores adoptan sus mensajes y cómo varía este nivel de aceptación en función del mensaje, el cultivo y el sexo del cabeza de familia?
  3. ¿Por qué algunos agricultores adoptan un determinado mensaje? ¿En cuántas de sus parcelas adoptan el mensaje y durante cuántas temporadas?
  4. ¿Por qué otros agricultores no adoptan el mismo mensaje y cuáles son los efectos multiplicadores de este rechazo entre los agricultores vecinos?

Image by Dazed and Confused

Lo comenté con mi supervisor, un estadístico del Banco Mundial. Me aconsejó que preparara una nueva encuesta que se centrara en la interacción entre los agentes de extensión y los campesinos. Y que me asegurara de tratar a los agricultores como partes relevantes de un estudio sobre cuestiones que les importaban, y no como elementos de una encuesta que solamente interesaba al encuestador. También me recordó que, desde un punto de vista matemático, establecer tendencias estadísticamente significativas del rendimiento de los cultivos de secano durante un programa quinquenal es imposible, al igual que atribuir dicha evolución a una intervención concreta. Me dijo que estos indicadores se pueden medir, pero añadió que “la ignorancia de hacerlo sólo es superada por la ingenuidad de quienes creen que los valores obtenidos se corresponden con la realidad”.

Fue una lección valiosa para un joven profesional del SyE. Para que mi equipo y yo conectáramos con nuestros colegas, teníamos que aportar evidencias que les resultaran útiles: información sobre la respuesta de los agricultores al apoyo de los agentes de extensión y la variación de ésta. Comprender esto proporcionó una base para erradicar el rechazo de los agricultores y replicar el éxito de quienes habían hecho suyos los consejos recibidos.

 ... y volver a tropezar con la misma piedra

A día de hoy, los programas de desarrollo de sistemas de mercado en el sector agrícola están diseñados para aumentar los ingresos agrícolas de quienes están desatendidos o excluidos de dichos sistemas, de los que dependen los campesinos y sus familias. Estos programas pretenden facilitar o desencadenar cambios en el comportamiento y las relaciones entre los “actores del sistema”: quienes compran/venden a los agricultores en mercados de productos/insumos; quienes establecen y hacen cumplir las normas, ya sean de gobiernos locales y/o nacionales o indígenas; y quienes proporcionan servicios de apoyo, como información, conocimientos, tecnología y dinero.

En otras palabras, los programas de desarrollo de sistemas de mercado no prestan servicios al agricultor de forma directa, sino que pretenden impulsar cambios en funciones específicas de dichos sistemas que requieren una mejora. Sin embargo, casi todos los marcos de resultados o teorías del cambio que he visto para este tipo de programas se centran en la producción o la productividad, y no en un cambio sistémico, a nivel de resultados.

Esto suele tener consecuencias negativas para el SyE. El fundamento sistémico de los programas de desarrollo de sistemas de mercado suele verse afectado. Se presta mayor atención a medir las supuestas consecuencias de los cambios a nivel de las explotaciones agrícolas y los agricultores, en lugar de centrarse en los cambios de los propios sistemas. Los costes de oportunidad no son precisamente irrelevantes. Radican en proporcionar evidencias que no obvien la hipótesis principal y la demuestren realmente: que los actores del sistema conocen y dan respuesta a las necesidades de un número creciente de agricultores pobres. Evidencias que demuestren —o no— que los mercados trabajan en favor de la población pobre.

Entonces, ¿por qué los sistemas de SyE —supuestamente diseñados para generar enseñanzas a partir de la experiencia— han sido tan lentos o reacios a hacer esto? ¿Qué piensan ustedes? Me encantaría conocer sus experiencias.

  • D'apres nos annalyse est notre expériences on peut dire que l'évaluation  est une forme d'etude tres sérieux qui demande  une serieuse etude  avec des hypothèse suivi d'une confirmation pour confirmé le résultat exact .

    De ce faite on peut dire l'évaluation du résultat agricole a toujours montré des résultats découragent par rapport au l'exploitation familiale agricole vu la plupart de ses exploitations agricoles familials est géré par des personnes qui  ne connais rien sur l'agriculture. 

  • Thank you for this thought-provoking piece, Daniel! These are the kinds of questions that MEL practitioners, programme managers, and donors should be answering. Unfortunately, as aid/donor budgets shrink due to competing demands, other factors other than decades of learning appear to drive the agenda. Real change will remain a distant dream until learning becomes an integral part of programme design and implementation that considers the beneficiaries’ needs.

  • Thanks for this interesting post Daniel. It really hits the nail on the head of why data is not used for decision making. It also brings up the role of qualitative data in M&E - most indicators and targets tend to be quantitative, so "trends" can be "measured". I agree that the four examples listed in your post are much more insightful but 3/4 of the questions can only be answered through collecting qualitative data. How can we raise the profile of qualitative information in the eyes of managers and leaders who only want to see numbers?

  • Hola Daniel, gracias por plantear un tema tan desafiante e interesante. El SyE es un trabajo muy "amargo" porque requiere ser planificado con antelación (en el momento en que el resto del equipo, cuando hay un equipo completo, está impaciente por empezar el trabajo en el campo), requiere tener claridad sobre las causas y los efectos (por lo tanto, una Teoría del Cambio convincente), elaborarla con una metodología participativa, y luego medir, y recién entonces empezar a tener resultados que puedan ser analizados y (con suerte) tener suficiente material como para hacer evaluación. 

    Los proyectos puramente de "producción agrícola" tienen más posibilidades de llevar a cabo evaluaciones sólidas y llegar a resultados significativos. Los proyectos de "desarrollo" tienen retos más amplios, y la Teoría del Cambio suele ser más compleja. Aquí es más importante contar con la participación real de todos los actores implicados en el proceso de desarrollo. Sin embargo, existe un equilibrio entre "lo perfecto" y "lo posible" del sistema de seguimiento y evaluación. Aquí la participación de todos los actores relevantes puede ser una buena manera de encontrar un sistema de S&E posible + útil.

  • Muchas gracias por este post. Además de lo que dices, para disponer de datos significativos, cada pequeño agricultor debería tener datos exactos sobre su producción, teniendo en cuenta la variedad del cultivo, la calidad y los precios actuales del mercado. Obtener estos datos y los sistemas necesarios para recopilarlos es un trabajo en sí mismo, que requiere capacidades técnicas, disciplina y herramientas. Para hacerlo correctamente, deberíamos transformar a cada pequeño agricultor o extensionista en un mini funcionario de recopilación y gestión de datos, y hace falta más (¿qué pasa con las enfermedades de los cultivos, el tipo de suelo, la mano de obra de la familia y el clima, por mencionar sólo algunos?)

    Lo triste del seguimiento y la evaluación ahora es cómo imponemos la carga de las medidas (irrelevantes) a los beneficiarios, los agentes locales y los pequeños intermediarios. Y a un nivel, no nos preguntamos. Todo esto para nada de un impacto práctico en el cambio. Algún día alguien debería denunciar el coste de oportunidad y la distorsión que supone pedir medidas irrelevantes sólo porque necesitamos un indicador para poner en el marco lógico.

    Además, estamos confundiendo M&E con investigación. Así que tenemos M&E irrelevantes para la toma de decisiones. Y pobres intentos de obtener datos y pruebas, que deberían hacerse con otros medios, competencias recursos para ser útiles y creíbles.