Silva [user:field_middlename] Ferretti

Silva Ferretti

Freelance consultant
Italie

Silva Ferretti is a freelance consultant with extensive international experience in both development and humanitarian work. She has been working with diverse organizations, committees, networks and consortia (e.g. Agire, ActionAid, CDAC, DEC, ECB project, Handicap International, HAP, Plan International, Save the Children, SPHERE, Unicef, WorldVision amongst many others).

Her work is mainly focused on looking at the quality of programs and on improving their accountability and responsiveness to the needs, capacities and aspirations of the affected populations.

Her work has included impact evaluations / documentation of programs; set up of toolkits, methodologies, standards, frameworks and guidelines; coaching, training and facilitation; field research and assessments.

Within all her work Silva emphasizes participatory approaches and learning. She has a solid academic background, and also collaborated with academic and research institutions in short workshops on a broad range of topics (including: innovations in impact evaluation, Disaster Risk Management, participatory methodologies, protection, communication with affected populations).

She emphasizes innovation in her work, such as the use of visuals and videos in gathering and presenting information.

My contributions

    • Bonjour Yosi, merci pour cette question très importante !

      Je suis en train de rassembler quelques conseils sur l'inclusion des questions environnementales dans l'évaluation. Ci-dessous est l'un d'entre eux (en anglais, traducion en desssous). J'espère en partager d'autres.

      Vous voyez, un "environnement de réflexion" est un état d'esprit.

      Dès que nous adoptons une perspective plus écosystémique, nous constatons immédiatement les limites de nos approches.

      Mais nous découvrons aussi que des choses simples - comme une question supplémentaire - peuvent faire beaucoup :-)

       

       

      Poser la question supplémentaire
      Vérifier si les produits et les résultats obtenus sont susceptibles d'avoir des effets négatifs à long terme.

      Ce qui ressemble à une réussite *aujourd'hui* peut épuiser l'environnement à long terme. 
      Les effets négatifs peuvent n'être révélés que trop tard !
      Lorsque nous ne portons pas de lunettes environnementales, il est facile de se laisser emporter par les réalisations. Souvent, les termes de référence et les critères ne nous poussent pas à poser la question suivante : 
      comment les résultats affectent-ils l'écosystème aujourd'hui ? Et quel est l'impact à long terme ?

    • Merci Harriet de partager tous ces outils. Ils sont vraiment utiles !

      Cependant... un avertissement amical.
      L'utilisation de visuels n'est pas qu'une question d'outils. Les visuels sont une attitude ; ce sont des langages avec des règles et des défis.
      Tout comme le fait d'avoir accès à "Word" (et à d'autres traitements de texte) ne garantit pas que vous puissiez écrire efficacement, l'utilisation d'outils visuels ne garantit pas une bonne communication visuelle.

      Malheureusement, dans notre monde, les visuels ne sont qu'un ajout. 
      L'écriture est l'option par défaut ; ensuite, nous pouvons ajouter un joli visuel.
      Et dans de nombreux cas, ces visuels sont mauvais, voire nuisibles.

      Je me souviens avoir fait remarquer à certains collègues que leurs visuels posaient des problèmes et qu'ils pouvaient être mal interprétés.
      Ils se sont limités à hausser les épaules, ne voyant pas le problème. 
      "Ce n'est qu'un graphique ; pourquoi vous préoccuper autant de détails insignifiants ?".
      Ces collègues s'inquiéteraient d'une virgule erronée dans leur texte, 
      Pourtant, ils partageaient des visuels contredisant leurs messages sans s'en soucier, sans même en voir l'intérêt. 

      Alors... essayez de vous familiariser avec les visuels.
      Mais prenez le temps d'apprendre la langue, demandez un retour d'information et faites preuve d'humilité. 
      Nous avons besoin de plus de langages - au-delà du seul langage écrit - dans le domaine de l'évaluation.
      Mais il y a un cercle vicieux : parce qu'aujourd'hui l'écrit prédomine, les experts et les praticiens sont principalement des "écrivains et des lecteurs" et risquent de résister à d'autres languaes. 
      Les images sont jolies, mais ce qui compte, c'est le rapport écrit. Ce sont donc principalement les personnes qui écrivent qui seront recrutées. 
      Il s'agit d'un problème majeur, qui bloque l'appropriation par des personnes ayant des préférences différentes en matière de communication et conduisant à un partage inefficace de messages qui seraient mieux partagés visuellement, théâtralement, ou dans d'autres formes. 

      Et si vous pensez que "c'est bien, mais si ce n'est pas écrit avec des mots, ce n'est pas fiable, crédible, acceptable...",  vous faites partie du problème :-) 

      Alors... inspirez-vous des excellents outils et ressources partagés par Harried (merci !),
      et explorez les supports visuels. Mais n'oubliez pas qu'il ne s'agit pas d'un ajout.
      Il s'agit d'un langage nécessaire à maîtriser, mais difficile à utiliser correctement ! :-)

       

    • Excellente remarque Ram... Puis-je suggérer que les évaluations mécaniques servent à la conformité mécanique et non à la redevabilité ? (surtout si nous aspirons à rendre des comptes aux principales parties prenantes... et aux donateurs attentifs).

    • Les évaluations ne sont pas des "rapports écrits".

      Les évaluations sont des processus visant à comprendre si, comment et dans quelle mesure le programme produit des changements (attendus et inattendus).

      Si l'on adhère à ce point de vue, la communication est clairement au cœur du processus : communiquer l'objectif, susciter des idées, formuler et partager les résultats.

      Malheureusement, les évaluateurs se contentent le plus souvent de mots écrits et ne maîtrisent pas d'autres formes de communication.

      Cela limite considérablement l'engagement des parties prenantes et le partage des résultats, car d'autres personnes pourraient préférer d'autres méthodes de communication.

      D'après mon expérience, presque tout fonctionne mieux que les rapports : dessins animés, graphiques, infographies, théâtre, musique, multimédia, etc.
      (oui, je les ai tous essayés et ils ont été bien accueillis par toutes sortes de parties prenantes, y compris les donateurs).

      Les évaluateurs ne doivent pas se contenter de penser "rapport". Ils doivent réfléchir à la meilleure combinaison des différents moyens de communication.

      Les analphabètes peuvent parfaitement comprendre les supports visuels - à condition qu'ils soient correctement présentés -.

      Les boîtes à outils participatives contiennent des idées pour montrer et discuter des pourcentages à l'aide de supports visuels. Il est certain qu'ils sont plus susceptibles de comprendre des supports visuels que des rapports rédigés en anglais...

      Bien entendu, si nous entendons par "visuels" uniquement les graphiques Excel, nous passons à côté de tout un monde de possibilités.

      Et les visuels ne s'improvisent pas : de même qu'il existe une grammaire pour écrire des mots, il existe une grammaire et un style pour produire des visuels.

      Même en ce qui concerne les graphiques de données, il existe des livres entiers sur la visualisation des données, qui offrent des exemples (et soulignent également les problèmes potentiels de mauvaise communication).  Un simple visuel peut être très utile. Mais un bon visuel n'est pas simple à réaliser.

      Il est clair qu'il faut aller au-delà de l'écrit. Mais n'oublions pas que cela ne s'improvise pas.

       

       

       

    • Discussion très importante. Elle est toutefois limitée par une conception étroite de l'évaluation : une consultance conventionnelle. S'en tenir à ce format - c'est-à-dire accepter comme point de départ que l'évaluation consiste principalement à mettre quelques recommandations dans un rapport - limite les possibilités et l'innovation.

      Nous devrions recadrer l'évaluation comme un ensemble de processus de réflexion et de pratiques permettant aux parties prenantes d'un programme de juger des mérites, des réalisations et de l'apprentissage d'un programme. Les consultants pourraient jouer divers rôles dans ce cadre (et pourraient même ne pas être nécessaires). Les possibilités sont infinies. Si les évaluations sont conçues en tenant compte des utilisateurs, de l'utilisation et de la participation, c'est toute l'approche de la communication et de l'implication qui change dès le départ.

      Il est très regrettable que nous continuions à nous en tenir à des évaluations conventionnelles et routinières et que nous n'envisagions jamais le coût de l'opportunité de passer à côté d'options plus intéressantes. Ce message va dans la bonne direction, en indiquant qu'il est urgent de passer de l'établissement de rapports à la communication. Mais si nous nous en tenons aux formats d'évaluation conventionnels, nous pourrons peut-être apporter des améliorations mineures, mais nous passerons toujours à côté du potentiel des évaluations, au sens large.

    • Merci beaucoup pour cet article. En plus de ce que vous dites, pour avoir des données significatives, chaque petit agriculteur devrait avoir des données exactes sur sa production - en tenant compte de la variété des cultures, de la qualité et des prix actuels du marché. Obtenir ces données et les systèmes nécessaires pour les collecter est un travail en soi, qui requiert des capacités techniques, de la discipline et des outils. Pour bien faire, nous devrions transformer chaque petit agriculteur ou agent de vulgarisation en un mini responsable de la collecte et de la gestion des données, et il en faut davantage (qu'en est-il des maladies des cultures, du type de sol, de la main-d'œuvre familiale et des conditions météorologiques, pour n'en citer que quelques-unes ?)

      Ce qui est triste dans le suivi et l'évaluation, c'est que nous imposons le fardeau des mesures (non pertinentes) aux bénéficiaires, aux acteurs locaux et aux petits intermédiaires. Et à un certain niveau, nous ne nous posons pas la question. Tout cela pour rien, sans impact pratique sur le changement. Un jour, quelqu'un devrait dénoncer le coût d'opportunité et la distorsion causés par la demande de données non pertinentes juste parce que nous avons besoin d'un indicateur à placer dans le cadre logique.

      De plus, nous confondons le suivi et l'évaluation avec la recherche. Nous avons donc un S&E non pertinent pour la prise de décision. Et les tentatives d'obtenir des données et des preuves, qui devraient être obtenues par d'autres moyens et compétences pour être utiles et crédibles, sont médiocres.

       

       

  • Les évaluateurs sont des interprètes. Les conversations avec de vraies personnes, sur le terrain, se tiennent dans le langage simple de tous les jours. Les évaluateurs les traduisent dans le jargon utilisé dans les discussions et les rapports sur le développement (où les personnes sont "responsabilisées", "informées", "mobilisées", "créent des plateformes" ou "revendiquent leurs droits"), pour les rendre plus adaptées à l'analyse et au partage.

    Lorsque j'ai commencé à utiliser des vidéos dans mon travail – en enregistrant des extraits de ces conversations – j'ai découvert à quel point les professionnels du développement et de l'humanitaire, peu exposés à la

    • Si nous acceptons que l'évaluation signifie "résultats, indicateurs", nous aurons peut-être tué dès le départ la possibilité d'une appropriation culturelle.

      Le terme "évaluation" a des significations différentes selon les personnes. Le fait de l'assimiler à "documenter les résultats et les indicateurs" compromet de nombreuses autres possibilités.

      Comme dans le cas de l'évaluation féministe (qui ne concerne pas seulement le "genre" mais qui vise à repenser les approches pour les rendre intersectionnellement inclusives), nous devrions nous demander à quoi sert une évaluation, quelles sont les façons de voir le changement qu'elle embrasse. Au-delà des résultats, il y a des processus, des principes, des visions du monde. Le moment où vous discutez avec les acteurs locaux : "Qu'est-ce qui compte pour vous dans la façon d'envisager le changement ?", vous travaillez déjà à rendre l'évaluation culturellement appropriée. S'il s'agit uniquement de "définir des indicateurs", désolé, mais c'est peine perdue.

    • Bonjour...

      Encore une fois, je n'ajoute pas vraiment ici une leçon pratique, désolé...

      mais je viens de trouver cité ce récent document de l'USAID, qui pourrait intéresser les personnes qui suivent ce fil.

      https://usaidlearninglab.org/resources/report-integrating-local-knowled… (en anglais)

      La fonction de gestion des connaissances et d'apprentissage organisationnel de l'agence USAID a facilité les conversations avec les praticiens du développement afin de savoir comment les organisations de développement intègrent les connaissances locales dans leurs programmes. Le rapport explore trois aspects de ce sujet : Tirer parti des meilleures pratiques, relever les défis et obtenir les meilleurs résultats.

       

    • Je viens de consulter un article / site web intéressant, mettant en évidence les caractéristiques d'une culture de suprématie blanche.

      Les évaluateurs risquent - volontairement ou non - de les adopter.

      (et le secteur nous pousse vraiment à le faire).

      Donc... ce ne sont pas des leçons ou des expériences.

      Mais une liste de contrôle utile pour décomposer la question et récolter les pratiques.

      image

      L'article est sur :

      https://www.whitesupremacyculture.info/ 

      Et je l'ai trouvé mentionné ici

      https://aidnography.blogspot.com/2022/09/development-ict4d-digital-comm…;

       

       

    • Mes deux centimes.

      Lorsqu'une "théorie du changement" (telle qu'illustrée dans le manuel) ressemble à ceci - avec des flèches allant dans la même direction, et avec un schéma linéaire (SI... ALORS),  c'est juste un cadre logique déguisé.

      logframe

      Une "théorie du changement" appropriée, adaptée à des configurations complexes, aura des flèches allant dans de nombreuses directions différentes, reliant les idées de manière difficile à démêler.
      C'est plus désordonné, plus difficile à naviguer, mais... eh ! C'est à cela que ressemble le plus souvent la réalité.  (il s'agit de la "carte de l'obésité", au cas où vous vous poseriez la question).

      TOC

      Il y a un MONDE DE DIFFÉRENCE entre les deux. 
      Vous ne pouvez pas vraiment les aborder de la même manière et avec le même raisonnement.
      Cela devrait être le point de départ de toute analyse !

      Une fois que vous avez compris si vous avez affaire à une théorie du changement linéaire ou complexe, vous devez vous rappeler que
      - Dans certains cas, la pensée linéaire a sa raison d'être. 
      - quand on aborde le changement social, le plus souvent non. 

      Je trouve qu'il est assez malheureux que l'idée de "théorie du changement" - née pour apprécier la complexité, ait fini par n'être qu'une façon différente d'imaginer la pensée par cadre logique. 
      Nous devrions au moins être capables de distinguer ce qui est un cadre logique sous stéroïdes de ce qui est une appréciation de la complexité, et avancer à partir de là. 

    •  

      Silva Ferretti

       

      J'ai vraiment apprécié de lire la note et de voir avec quel soin elle a été rédigée, en tenant compte de tous les points de vue.

      Il est utile de voir où en est la discussion. Mais le sujet, "closing remarks", est un peu dissuasif :-)

       

      Comme le dit Malika, il est plus utile de garder la discussion ouverte.

       

      Il existe une hypothèse selon laquelle les évaluations doivent être impartiales et neutres (et que l'évaluateur en est le gardien), une tendance à assimiler les évaluations à la recherche (même la recherche ne peut pas toujours être impartiale !) .

      La compréhension sous-jacente de l'évaluation est la suivante : un produit généré par un expert qui sélectionne l'échantillon parfait et arrive à des conclusions scientifiques.

       

      Est-ce vraiment ce à quoi une évaluation devrait ressembler et être ?

      Une évaluation ne devrait-elle pas plutôt être une occasion d'appliquer la pensée évaluative à un programme ?

      Une occasion où des personnes différentes, avec des visions du monde différentes, peuvent mieux comprendre où en est un programme, quelles sont les possibilités à venir, ce que l'on peut apprendre ?

       

      Ce point me tient vraiment à cœur : nous présentons TOUTES les évaluations comme si elles devaient être des "produits scientifiques", élaborés par des experts, capables d'être impartiaux et sages.

      Certaines évaluations (ou mieux, certaines recherches) pourraient bien avoir cet objectif.

      Mais supposer que cela devrait toujours être l'objectif de l'évaluation en général est très problématique.

       

      Les évaluations participatives, par exemple, ne visent pas du tout à créer une vision impartiale.

      Il s'agit de réunir les perspectives de diverses personnes pour donner un sens à une situation.

      Il se peut qu'elles n'aboutissent pas à des conclusions partagées ou convenues, mais elles peuvent être incroyablement puissantes en injectant la pensée critique nécessaire à l'action.

      L'évaluateur n'est pas toujours l'expert scientifique... il peut être le facilitateur.

      Il est certain qu'il doit alors penser à l'inclusion, à la représentation, et être très conscient des relations, de la position et du pouvoir des parties prenantes.

      Mais l'inclusion et la représentation sont des concepts fondamentalement différents de la neutralité, de l'impartialité et de l'indépendance (qui ne doivent pas non plus être mis dans le même sac).

      Il s'agit d'être conscient (autant que possible) et honnête sur les dynamiques en jeu, sur les choix effectués... plutôt que de prétendre que nous pouvons atteindre l'objectivité.

       

      Nombre de mes évaluations, par exemple, ne sont pas neutres par CHOIX.

      Je m'efforce de donner plus de voix aux personnes qui sont généralement moins représentées.

      Je parle à plus de femmes, à plus d'exclus, à plus de personnes ayant des difficultés particulières.

      Pourtant, je pense sincèrement que ce choix ouvert d'être partial est beaucoup plus utile qu'une tentative de neutralité et d'impartialité.

      Avec le temps et les ressources limités d'une évaluation, quelles sont les voix qui valent la peine d'être écoutées, quelles sont les conversations qui valent la peine d'être tenues ?

       

      Être conscient et ouvert à nos choix est plus puissant et honnête que de prétendre que nous pouvons être impartiaux :-)

      (et si le but est d'avoir des preuves scientifiques, alors lançons-nous dans la recherche... ce qui est autre chose).

       

      Merci encore d'avoir partagé des points intéressants jusqu'à présent, et d'avoir facilité la discussion.

      J'espère que cette discussion intéressante pourra se poursuivre.

       

      Best

      Silva

       

       

       

       

       

    • La redevabilité est bien plus que le fait de rendre compte d'un plan de travail (ce qui est, malheureusement, la façon dont elle est souvent présentée).

      La redevabilité signifie que nous faisons des promesses explicites ou implicites à d'autres personnes et groupes (dans le cas de projets humanitaires ou de développement, à de NOMBREUSES autres personnes ayant des perspectives et des priorités différentes). Nous sommes responsables de ces promesses. Cela signifie : faire en sorte que les promesses se concrétisent - lorsque cela est possible et utile... mais aussi changer, améliorer, faire évoluer nos promesses si nécessaire, *en respectant toujours le lien qui sous-tend ces promesses*. Ce qui compte pour la responsabilité, c'est la *relation*.

      Les choses, les conditions peuvent changer. Mais les gens sont responsables les uns envers les autres lorsqu'ils se tiennent mutuellement informés des changements et lorsqu'ils mettent en place des processus solides pour négocier la voie à suivre pour que la promesse reste vivante et pertinente. Et éventuellement, pour l'améliorer.

      Si vous avez cette vision de la responsabilité, l'apprentissage en fait clairement partie.

      L'apprentissage est ce qui améliore la promesse, et ce qui améliore la confiance nécessaire pour négocier les promesses et les conditions de responsabilité.

      Bien sûr, nous devons toujours nous rappeler que cela se produit dans des situations désordonnées, et que nous sommes souvent responsables, comme nous l'avons mentionné, devant diverses personnes, avec des intérêts différents. Nous pouvons être responsables devant de nombreuses personnes. Mais quelle est l'importance réelle de la redevabilité pour nous ? Les intérêts des donateurs ne sont pas toujours, par exemple, les intérêts des personnes marginalisées que nous sommes censés servir... ou les intérêts des générations futures...

      Lorsque nous nous en tenons à la redevabilité comme à des "résultats", nous passons à côté de l'essentiel.

      Et souvent, plutôt que la redevabilité, nous avons le contrôle bureaucratique.

      Pour en revenir à la question qui a lancé le débat, la redevabilité elle-même n'est pas un mot neutre.

      La personne à qui nous choisissons de rendre des comptes a des conséquences profondes sur notre façon d'agir et d'envisager le changement.

      Il est vraiment important d'en être conscient, plutôt que de penser qu'un échantillon plus large résoudra le problème.

      Et même le discours humanitaire en prend conscience et recadre la notion de neutralité...

       

    • Est-il vraiment utile de prétendre que nous pouvons être neutres et impartiaux ?

      Ou est-il plus utile de reconnaître que nous sommes tous intrinsèquement biaisés (et que nos approches le sont)... et qu'il est alors préférable d'en être ouvert et conscient, ainsi que des limites inhérentes à toutes nos approches ?

      Penser que nous pouvons disposer d'une information "parfaite", dans des contextes complexes et désordonnés, n'est probablement qu'un vœu pieux..... :-)

       

    • Isha, vous mentionnez que "Nous, en tant qu'évaluateurs, sommes obligés d'exécuter dûment les TDR".

      Je pense qu'en tant qu'évaluateurs, nous devrions également remettre en question les TDR et les négocier !

      L'une des principales contributions que nous pouvons apporter est de proposer d'autres façons d'envisager le changement, au-delà des TDR "copier-coller" qui nous sont proposés.

      Certaines organisations et certains responsables de l'évaluation sont en fait très ouverts à cette idée.

      D'autres ne le sont pas.... et, si c'est le cas, eh bien... leur problème.

      Je ne voudrais certainement pas travailler sur une évaluation dont je pense qu'elle passe à côté de l'essentiel dès le départ :-)

       

      Vous voyez, comme les cyclo-activistes disent des automobilistes... "vous n'êtes pas DANS le trafic, vous ÊTES le trafic".

      En tant que consultants, nous avons le devoir de résister à des mandats dont nous savons qu'ils limitent l'apprentissage et la qualité du travail.

       

      Un autre point... J'ai été surpris par la façon dont la question nous a été présentée.

      La question dit : "Les grandes agences et l'ONU en particulier réfléchissent à la manière d'intégrer les impacts environnementaux et sociaux dans leurs évaluations".

      "Envisagent" ? Maintenant... les préoccupations environnementales sont (malheureusement) relativement nouvelles... mais les préoccupations sociales, le sont-elles vraiment ?

      Nous avons eu toutes sortes de thèmes transversaux pendant des années (genre, handicap et autres...).

      Je suis vraiment effrayé par la façon dont le "triple lien" (une version glorifiée du continuum secours/développement - discuté au cours des deux dernières décennies) et les "impacts sociaux" sont présentés comme s'il s'agissait de quelque chose de nouveau, nécessitant de partir d'une ardoise vierge.

      Il serait plus sain de souligner que ces préoccupations ne sont pas du tout nouvelles, sinon nous risquons de tourner en rond.

      Bonne continuation à tous

      Silva

    • Bonjour

      Je pratique l'humilité en me posant une question différente :

      Si des personnes qui travaillent depuis longtemps sur un problème, avec une bien meilleure compréhension du contexte, n'ont pas trouvé de bonne solution... comment pourrais-je, moi, un évaluateur externe, le faire ?

      En tant qu'évaluateur, je ne peux certainement pas trouver de solutions mais je peux - avec une approche de facilitateur et non d'expert :

      * aider à trouver les "pièces manquantes" du puzzle, en réunissant, au même endroit, les points de vue et les idées des différents acteurs.

      * aider à mieux articuler et systématiser la réalité, afin que les gens puissent avoir une meilleure carte sur laquelle trouver des solutions

      * capturer des idées, des leçons qui sont trop souvent implicites et qui, si elles sont partagées, peuvent aider à changer la façon de travailler.

      * partager des idées sur des choses que j'ai vues fonctionner ailleurs (mais, attention, je faisais toujours cela dans la phase de collecte de données, afin d'obtenir un retour sur ces "amorces de conversation", et les gens trouvent souvent rapidement beaucoup de choses à vérifier et à améliorer)

      * créer des espaces, dans le cadre du processus, pour que les gens soient exposés et réagissent aux preuves, au fur et à mesure qu'elles sont partagées

      * Identifier ce qui semble être les préoccupations prioritaires à traiter - en les reliant aux défis, aux opportunités et aux possibilités qui se présentent.

      Ce n'est pas de la recherche. Et ce ne sont pas des solutions.

       

      Il y a tout un monde de choses entre les "problèmes" et les "solutions"... cela inclut les apprentissages, les possibilités, les preuves systématisées.

      Et je vois des gens vraiment intéressants et désireux de s'engager dans cette voie... Bien plus que lorsque j'avais l'habitude de leur prêcher des solutions simples :-)

    • La clarté... bien sûr, absolument ! L'elevator pitch... oui et non.

      Un "elevator pitch" est très utile comme point d'entrée.


      Mais il faut ensuite reconnaître que le but d'une bonne évaluation est de révéler la complexité de la réalité (sans être compliqué).

      Elle peut donner des éléments et des idées nouvelles, mais pas la solution.

      Le "elevator pitch" est le point d'entrée, il met en évidence les principaux domaines à traiter, et il peut certainement souligner certains points de pression.
      Mais je ne suis pas sûre que l'on puisse toujours donner une idée précise des solutions possibles.
      Comme on dit, "pour chaque problème, il y a toujours une solution simple. Et elle est fausse".

      Les solutions sont à trouver, comme Bob l'a si bien dit - au-delà de l'évaluation. (ou dans le cadre de celle-ci, uniquement s'il s'agit d'une évaluation participative, où les acteurs locaux clés s'engagent réellement dans la formulation des résultats et s'approprient véritablement le processus).

       

      Ainsi, les outils et les messages dont nous avons besoin ne sont pas seulement les "elevator pitches", mais ceux qui aident à transmettre et à naviguer dans la complexité de manière plus simple et réalisable.

      Être conscient que ce n'est pas à l'évaluateur de marteler les messages, mais aux parties prenantes du projet de se les approprier.

    • Excellent résumé

      Un point à souligner.

      Aller au-delà du rapport ne signifie pas "faire un rapport visuel".

      Un rapport visuel est plus joli, mais cela reste un rapport.

      "Aller au-delà du rapport" signifie considérer l'évaluation comme un processus qui ne se termine pas par un seul produit - qu'il soit visuel ou non.

      La communication des résultats, le partage des idées doivent se faire tout au long du processus, sous de nombreuses formes.

      Une bonne évaluation ne doit pas nécessairement être un "rapport".

      Je préconise des stratégies, des options pour partager les idées et les résultats avec différents publics, tout au long du processus.

      Cela peut ne PAS inclure un rapport. La rédaction d'un rapport prend énormément de temps et représente une grande partie du temps consacré à l'évaluation.

      Est-ce le meilleur investissement ? Est-elle nécessaire ? Nous sommes tellement habitués à penser qu'une évaluation est un rapport que nous ne le remettons pas en question.

      En plus des évaluations en temps réel, il y a le "partage d'informations en temps réel".

      C'est quelque chose de trop peu exploré. Pourtant, il peut créer de grands changements dans la façon dont l'évaluation se déroule.

      Il s'agit de partager des idées préliminaires, des preuves, afin que les personnes impliquées dans l'évaluation puissent contribuer à façonner les résultats.

      Encore une fois : nous sommes tellement habitués à penser que nous partageons les "produits finis" que les possibilités de partage de l'information en temps réel ne sont pas vraiment comprises...

      Merci encore pour cet excellent résumé, qui aide vraiment à intensifier la discussion et à générer de nouvelles idées.

      (et, vous savez quoi ? C'est un bon exemple de "partage d'informations en temps réel" de nouvelles idées ! :-)

    • Oh, bien joué !

      C'est formidable de voir que l'on reconnaît la valeur des images et des éléments visuels.
      Les documents que vous avez partagés sont vraiment utiles et inspirants, merci.

      En tant que personne qui pense visuellement et en images, j'ai toujours essayé de résumer les résultats d'une manière plus visuelle.
      Les graphiques, les dessins et les multimédias sont considérés comme "agréables" et cool. Tout le monde les aime et pense qu'ils sont utiles.

      Mais, devinez quoi ? Je dois ensuite produire un rapport normal, car c'est ce que veulent les donateurs.
      Les visuels doivent donc être réalisés en marge. Bien sûr, c'est gratuit.

      Le temps consacré aux rapports est déjà généralement insuffisant dans un cabinet de conseil, donc si vous voulez prouver que les visuels ou d'autres médias sont meilleurs, vous devez essentiellement travailler gratuitement.
      Car, à la fin de la journée, vous devrez toujours rédiger le rapport approprié.

      En résumé ?

      Tant que les évaluations ne seront pas principalement perçues comme des exigences et des rapports bureaucratiques... nous passerons à côté de possibilités fantastiques de mieux apprendre.
      Et aussi, d'impliquer des personnes qui pourraient avoir de fantastiques capacités d'apprentissage, d'analyse, de communication, mais qui ne sont pas des rédacteurs de rapports.
      Il est regrettable que nous supposions que la seule "rédaction de rapports" soit la meilleure façon de saisir et de transmettre des preuves et des idées...

    • Y a-t-il une chance que nous puissions arrêter de penser qu'une évaluation est... un rapport ?

      Tant de possibilités seraient débloquées.

    • Ce qui me frappe, c'est que nous discutons tous de Theories du Changement comme s'elles étaient «une chose» ....
      Parler d'un «logframe» est facile: il ya un format standard à elle
      Il peut être légèrement adapté, mais il est assez clair ce qu'il est, comment il ressemble, comment il fonctionne.

      Il n’en va pas de même pour les TdC.  Qu’est-ce qu’une TdC est peut être très différent.
      Je pense que nous pourrions tous utiliser le même mot, mais ayant quelque chose de très différent à l’esprit ...

    • Cela dépend de ce qu'est une théorie du changement et de la façon dont elle a été générée / partagée.

      S'elle reste la même qu'un gros cadre logique, cachée dans certaines propositions ... il n'ajoute pas beaucoup de valeur.

      S’elle est co-générée et détenue ... possiblement ÉMERGENTE du processus de changement, alors c'est une valeur ajoutée.

      En tant qu'évaluatrice, je constate que le personnel sur le terrain accueille favorablement les discussions au niveau de la théorie du changement lorsqu'elles aident à systématiser l'expérience.

      Mais il pourrait être désemparés et confondus en tant que les TdC sont annexes aux propositions.

      Donc, si la théorie du changement n'est que de la bureaucratie, c'est en fait une complication.

      S'il s'agit d'un processus de systématisation de l'expérience, détenu par ceux qui participent au changement, il est super utile.

      Malheureusement, ces derniers sont très rares.