Valeria [user:field_middlename] Pesce

Valeria Pesce

Information management specialist / Partnership facilitator
Food and Agriculture Organization of the United Nations / Global Forum on Agricultural Research and Innovation (GFAR)
Italie

I am currently partnership facilitator and digital innovation adviser at the Global Forum on Agricultural Research and Innovation (GFAR), coordinating a collective action on inclusive digital agriculture. Previously, I worked for the Statistics Department of FAO in the FAO Data Lab and briefly collaborated with CTA and the World Bank on agricultural data policy issues. Before that, I had already worked extensively with FAO and GFAR as project manager and convener, representing them in EC-funded projects on data infrastructures (agINFRA, Big Data Europe) and managing open data platforms in coordination with other global and regional actors, and later convening workshops and webinars on the issue of farmers' data rights and farmer-centric digital agriculture.

My only experience as evaluator is with proposals for the EC Horizon Europe programme. I have worked on standard M&E reporting and on a couple of occasions on the design of logframes for individual projects. At the moment, I'm participating in the exercise of revising the Theory of Change for GFAR, setting up a logframe and selecting the most suitable IT tools for monitoring, with a focus on quality indicators and narrative analysis.

My contributions

    • Merci d'avoir gardé le forum ouvert plus longtemps que prévu. J'ai lu tous les commentaires avec beaucoup d'intérêt, sans oser contribuer, à la fois parce que je suis nouvelle dans la communauté EvalForward et parce que je ne suis pas une évaluatrice expérimentée, en particulier dans le domaine scientifique, mais plutôt une praticienne générale du S&E / MEL au niveau du projet.

      Je ne poste quelque chose que maintenant, à la dernière minute, en réponse à la question 3 sur les pratiques de MEL, et plus particulièrement en ce qui concerne la mesure de l'impact (qui a beaucoup été abordée dans d'autres messages, merci à Claudio Proietti d'avoir présenté ImpresS), où les indicateurs qualitatifs sont souvent basés sur des entretiens ou des rapports, et il n'est pas facile de donner un sens à la narration.

      Je ne sais pas si, en termes de pratiques, les outils informatiques sont intéressants, mais je pense que dans ce type de mesure, certains outils informatiques peuvent être d'une grande aide. Bien sûr, la qualité de l'évaluation dépend de la façon dont les questions narratives sont conçues et du type d'analyse prévu (classifications, mots-clés, structure de l'histoire, métadonnées), mais une fois la conception faite, il est très pratique d'utiliser des outils qui vous permettent de classifier (parfois automatiquement) par rapport à des concepts sélectionnés, d'identifier des modèles, la fréquence des mots/concepts, des groupes de concepts, etc. en utilisant des techniques d'exploration de texte et d'apprentissage automatique, dans certains cas même en partant directement de fichiers vidéo et audio.

      Quelques outils d'analyse narrative que je suis en train d'examiner sont : ATLAS.ti, MAXQDA, NVivo. D'autres outils que je vérifie, qui font une analyse narrative moins puissante mais qui ont aussi des fonctionnalités de conception et de collecte, sont Cynefin Sensemaker et Sprockler. Un outil intéressant, avec des fonctionnalités plus basiques mais une forte colonne vertébrale conceptuelle, qui aide à la conception de l'enquête narrative et soutient un processus d'analyse participatif, est NarraFirma.

      (O.T. : Je serais en fait intéressée par un échange de vues sur ces outils avec d'autres membres de la communauté qui les ont utilisés).