Malika [user:field_middlename] Bounfour

Malika Bounfour

President
Association Ayur pour le Développement de la femme Rurale
Maroc

I am a professional of, and passionate about, food production and plant protection. Also, I am an experienced project manager with track records working for government and private institutions in Morocco as well as development agencies (FAO).
I have an agriculture engineering degree in Morocco and a PhD in Entomology from WSU-USA and I am skilled in gender approach and policy evaluation.

My job and my volonteering activities led me to work and implement projects on women economic empowerment and gender issues. This is currently my main area of intervention.
You can also find me in
https://www.linkedin.com/in/malika-bounfour-79277140/

My contributions

    • Bonjour à tous

      Merci pour ce sujet de discussion, puisque la méthodologie dicte généralement la qualité du rapport.

      Voici quelques exemples de mon point de vue sur les méthodes mixtes :

      1. Lorsque l'on veut mesurer l'équité et l'égalité, les méthodes quantitatives doivent prévaloir et être soutenues par des méthodes qualitatives afin de mieux comprendre le pourquoi des choses. Exemple : quel pourcentage de financement pour le genre ; combien de filles à l'école... combien de kilomètres pour les routes rurales.... suivi d'une analyse politique.
      2. Pour mesurer l'impact d'une intervention, il faut le mesurer en termes quantitatifs, ainsi que le comportement qui a conduit à l'accélération ou à la perte de l'impact.

       

      Q2. lors du développement des instruments de collecte des données pour les évaluations avec des méthodes mixtes – ces instruments sont-ils développés simultanément ou l'un après l'autre? Comment interagissent-ils?

      L'idéal est que tous les instruments soient prêts à l'avance. Toutefois, certains instruments qualitatifs peuvent donner lieu à des "améliorations". Par exemple, dans les entretiens avec les informateurs clés ou les groupes de discussion, les questions ouvertes permettent d'améliorer la collecte de données qualitatives au cas où des résultats inattendus seraient trouvés/observés. .

      Voici une référence de la Banque mondiale qui décrit des situations où les méthodes quantitatives et qualitatives sont utilisées. Elle concerne l'évaluation d'impact, mais je la trouve utile pour la plupart des situations d'étude/de recherche.

      L'évaluation d'impact dans la pratique [disponible en anglais et espagnol]

      Salutations à tous.

      Malika

    • Merci à tous pour vos contributions et vos points de vue très intéressants. Nous semblons être d'accord sur le fait que le rapport est la première étape de la communication sur les résultats. La plupart du temps, le rapport est technique et contient des données et des résultats du projet, ainsi que des recommandations et des leçons tirées de l'expérience. Ensuite, le commissaire valide, communique les résultats à toutes les parties prenantes et développe un plan de communication avec un public plus large.

      Voici quelques faits saillants des participants:

      Esosa Tiven Orhue suggère de créer une harmonie entre les deux éléments pour la mise en œuvre du programme/projet par toutes les parties prenantes. Cela est possible si la communication sur les résultats est incluse dans la phase de conception de l'intervention.

      Pour John, il y a "beaucoup de rapports, mais peu de communication". En outre, John suggère que "personne ne devrait participer à la préparation et à la conception d'un projet avant d'avoir effectué au moins cinq années de suivi et d'évaluation".  Le document du PNUE partagé par John contient deux enseignements liés à notre discussion. 1) Le manque d'appropriation et de vision commune dû à l'insuffisance des processus de consultation des parties prenantes au cours de la conception conduit à une mauvaise conception du projet et, 2) une gestion de projet inefficace comprend "une diffusion et une sensibilisation inadéquates dues à une mauvaise utilisation des méthodes de diffusion disponibles". 

      La plupart du temps, la communication sur les résultats et l'évaluation du projet cible les parties prenantes consultées lors des phases de conception et de mise en œuvre. Il s'agit généralement des partenaires immédiats de mise en œuvre (sphère d'influence).  Ainsi, la sphère d'intérêt est généralement exclue, ce qui n'entraîne aucun changement ou, si un changement se produit, il n'est pas documenté. Il en résulte (comme l'a dit John) une perte des expériences passées et le risque de répéter les mêmes erreurs.

      Lal est d'accord avec John, tandis que Silva ajoute que "si nous nous en tenons aux formats d'évaluation conventionnels, nous pourrons peut-être apporter des améliorations mineures, mais nous passerons toujours à côté du potentiel des évaluations, au sens large". Je suis tout à fait d'accord avec Silva, car je considère les évaluateurs comme des artisans du changement.

      Enfin, Gordon suggère que la communication sur l'évaluation et les résultats de l'évaluation soit budgétisée dans le cadre du projet global et qu'elle soit mise en œuvre par les commissaires et les gestionnaires de projet. 

      Si nous convenons que les parties prenantes comprennent les partenaires directs de mise en œuvre des projets/programmes (sphère d'influence) ainsi que la population touchée (bénéficiaires prévus et non prévus), alors les suggestions d'Esosa, de John et de Silva devraient être prises en considération pour une mise en œuvre réussie.

      En résumé, le débat sur l'efficacité de l'aide au développement dure depuis au moins une décennie. Lors de la cartographie des résultats, nous devons penser au changement que nous souhaitons et donc communiquer avec la population lors de la conception, de la mise en œuvre, de la clôture et lui donner des indications sur les résultats de l'évaluation. Cela les responsabilisera et leur donnera les moyens de mettre en œuvre le programme/projet. Par conséquent, lors de la conception du programme suivant, ils apporteront leur point de vue sur les enseignements tirés des programmes précédents, ce qui permettra d'éviter de répéter les mêmes erreurs. Cela devrait permettre d'éviter les activités inutiles et de favoriser la mise en œuvre du programme. 

      Je vous souhaite à tous une bonne fin de semaine

      Malika
       

      Liens: 

      1. Lessons Learned from Evaluation: 

      https://wedocs.unep.org/bitstream/handle/20.500.11822/184/UNEP_Evaluati…

      2. A Comparative Study of Evaluation Policies and Practices in Development Agencies

      https://www.afd.fr/sites/afd/files/imported-files/01-VA-notes-methodolo…

       

    • Merci à tous pour vos excellentes contributions.

      La plupart des contributeurs suggèrent que les évaluateurs devraient être impliqués dans la communication sur les résultats, au moins en fournissant des recommandations sur les messages et les outils clés (ex. Norbert TCHOUAFFE TCHIADJE, et Karsten Weitzenegger). Les messages et les recommandations s'adressent principalement aux partenaires d'intervention et aux décideurs (ex. Aparajita Suman et Mohammed Al-Mussaabi). Les messages clés devraient être affinés par l'évaluateur (ex. Aparajita Suman, Karsten Weitzenegger et Jean Providence Nzabonimpa). 

      Emile Nounagnon HOUNGBO suggère que "les parties prenantes, y compris les gestionnaires de projet, font davantage confiance aux conclusions et déclarations techniques de l'évaluateur". Cela met en avant la qualité de l'évaluation et place l'évaluateur comme communicateur pour valider les résultats et les recommandations de l'intervention. Je pense que si nous étendons l'idée au grand public, les recommandations pour un projet de développement auront une meilleure chance d'être mises en œuvre.

      La plupart des participants suggèrent d'allouer un budget spécifique à la communication. Ce budget devrait être géré par l'entité d'évaluation (ex. Ekaterina Sediakina Rivière). Cela permettra une certaine flexibilité dans l'établissement des priorités en fonction du type d'intervention, du public ciblé et du type de messages.

      Jean Providence Nzabonimpa décrit les évaluateurs comme des agents de changement. En tant que tels, nous devons aller au-delà de la soumission de rapports et contribuer à la mise en œuvre réussie des recommandations. 

      En résumé, les évaluateurs devraient être impliqués dans les campagnes de communication pour les recommandations. Un budget spécifique doit être alloué et géré par les unités d'évaluation. Ces dernières devraient également prévoir la communication publique des résultats de l'évaluation et des recommandations dans les termes de référence.

      La justification de ce qui précède est que toute intervention affecte les bénéficiaires prévus et non prévus. C'est pourquoi, à mon avis, la communication et l'organisation de campagnes de communication sont justifiées. Ainsi, outre les décideurs, il est nécessaire d'informer et d'éduquer les bénéficiaires (visés et non visés) sur les résultats de l'évaluation et les recommandations. Cela devrait garantir la mise en œuvre des recommandations à grande échelle.

      Les messages clés devraient être élaborés par les évaluateurs qui devraient également suggérer les outils et les langues puisqu'ils connaissent et comprennent l'intervention, ses résultats et le public.

      Malika

  • What type of evaluator are you?

    Discussion
  • How to define and identify lessons learned?

    Discussion
    • Ma petite contribution : Je formule "une leçon apprise" comme quelque chose de nouveau et de précieux ajouté à nos connaissances et/ou à notre façon de faire les choses. C'est généralement différent des hypothèses/attentes. Cependant, toutes les leçons apprises ne peuvent pas être des recommandations.
      Une fois identifiées, elles doivent être analysées pour décider si elles améliorent l'intervention et si elles peuvent être traduites en recommandations pour d'autres projets ou d'autres lieux.

      Regards
      Malika Bounfour

    • Merci beaucoup Seda pour ce sujet intéressant et pour avoir partagé le guide TAPE.

      Je trouve le guide très complet et détaillé. L'outil donne également une définition de l'agroécologie. J'ai apprécié que les abeilles et les pollinisateurs soient pris en compte. 

      D'un point de vue technique, j'aurais quelques ajouts personnels :

      1. Je combinerais les cellules notées 0 et 1 pour les cultures (page 17). Si la culture couvre 80 % des terres, il s'agit d'une "monoculture" ;

      2. Pour l'exposition aux pesticides, je pense que l'évaluateur devrait se pencher sur les pesticides en stock dans l'exploitation ou sur le territoire. Les quantités et les méthodes de stockage ont un impact sur l'environnement et la santé. La gestion des déchets devrait donc être incluse ;

      3. La micro-faune du sol est un indicateur de la santé du sol et devrait être prise en compte.

      D'après mon expérience, les agriculteurs et les techniciens considèrent surtout l'efficacité de l'utilisation de l'eau, l'application de pesticides et d'engrais (type et quantité), la diversité des cultures et la gestion des sols.

      J'ai contribué à une proposition d'évaluation de projet où nous avons ajouté l'autonomisation des femmes (prise de décision) et l'emploi des jeunes ainsi que les connaissances traditionnelles. TAPE peut être utilisé comme référence pour séparer les zones/fermes en transition vers l'agroécologie des zones/fermes où l'agroécologie est pleinement mise en œuvre.

      Avec mes meilleures salutations

      Malika

       

  • En puisant dans le large éventail d'expériences et idées partagées, voici certains des principaux aspects que j'ai retenus, accompagnés de quelques réflexions personnelles.

    Qu'entendons-nous exactement par indépendance?

    La discussion a soulevé des questions claires quant à sa définition. Que signifie l'indépendance et qu'est-ce que cela entraîne? Un rapport de 2016 du PNUD [1] définit l'indépendance de l'évaluation comme un «concept double qui se réfère d'une part à l'indépendance formelle et, d'autre part, à l'indépendance substantielle. L'indépendance formelle signifie l'absence structurelle de contrôle sur la conduite de l'évaluation alors que l'indépendance substantielle peut être décrite comme l'évaluation scientifique objective d'un sujet

    • Chers membres

      Merci à tous pour vos réflexions et contributions. La discussion a permis de rassembler différentes expériences/opinions, mais la plupart semblent s'accorder sur les principes fondamentaux de la question.

      Avant d'aller plus loin, je vais expliquer mon point de vue :

      Même dans les expériences de laboratoire où toutes les conditions sont contrôlées, les scientifiques s'autorisent un certain niveau d'erreur, mais ils essaient de le rendre aussi faible que possible. Par conséquent, je ne parle pas d'une certitude à 100% des résultats avec des interventions sur l'homme (être compliqué).

      Ce que je retiens de cette discussion, c'est que nous nous efforçons tous d'être "objectifs et inclusifs" autant que possible. Ce dernier point exprime notre "intervalle de confiance" et nos "degrés de liberté".

      La discussion a permis d'aborder un large éventail de sujets relatifs à l'indépendance/impartialité/neutralité de l'évaluation. De la discussion des concepts à la suggestion de méthodologies de travail, les participants ont enrichi la discussion.

      Les différentes contributions ont mis en évidence des facteurs importants qui peuvent influencer l'indépendance, la neutralité et l'impartialité des évaluateurs.  M. Jean de Dieu Bizimana et M. Abubakar Muhammad Moki ont soulevé la question de l'influence du commissaire d'évaluation et des termes de références sur ces concepts. Le Dr Emile HOUNGBO évoque la dépendance financière de l'évaluateur, surtout si l'organisation/équipe qui finance l'évaluation est également responsable de la mise en œuvre de l'intervention. M. Richard Tinsley constate que même lorsque des fonds sont disponibles, les évaluateurs peuvent manquer de neutralité afin de s'assurer de futures missions. M. Tinsley donne l'exemple d'organisations d'agriculteurs qui ne jouent pas le rôle prévu mais qui sont tout de même poussées sur les petits exploitants.Du point de vue de M. Lasha Khonelidze, l'"ouverture d'esprit" de l'évaluateur est importante pour apporter divers points de vue, mais il est tout aussi important de s'assurer que l'évaluation est utile aux utilisateurs finaux (ceux-ci doivent être définis dans les TDR).


      M. Sébastien Galéa suggère de travailler sur des normes/standards au niveau de la gestion du programme sur le terrain. Il souligne également l'importance de l'échange d'informations et d'expériences entre pairs à travers le monde (ex EvalForward). Il a gracieusement partagé un document dont le titre indique clairement que l'objectif de l'évaluation est d'obtenir de meilleurs résultats à l'avenir, soit par des interventions ultérieures, soit par des ajustements de l'intervention évaluée. Le document explique également l'indépendance/ impartialité du point de vue de la banque asiatique de développement et comment cette organisation a travaillé sur ces principes.À mon avis, le document de Weiss partagé par Mme Umi Hanik est venu en complément.  Le document de Weiss analyse le développement, la mise en œuvre et l'évaluation des programmes. L'idée principale est que les programmes sont décidés en fonction d'un environnement politique et comme l'évaluation est censée guider la prise de décision, elle partage également la pression des participants politiques au programme. Ainsi, pour un participant au programme, l'acceptation du public est plus importante que la pertinence du programme. Par conséquent, je pense que c'est là que l'indépendance/ impartialité/ neutralité de l'évaluation entre en jeu.

      Abubakar Muhammad Moki a ajouté que certaines entreprises recrutent des évaluateurs qu'elles connaissent, ce qui est confirmé par Mme Isha Miranda qui a ajouté que cela a un impact sur la qualité de l'évaluation, entraînant une diminution de la qualité des rapports d'évaluation (argument fondé sur des preuves) :). M. Olivier Cossee a ajouté que les évaluateurs recrutés devraient être "raisonnablement neutres". Ceci, je crois, met la pression sur le commissaire d'évaluation pour vérifier/ contrôler les évaluateurs "raisonnablement" neutres et introduit une autre variable : dans quelle mesure l'évaluateur est-il raisonnablement neutre ? (peut-on se référer aux études de comportement ?). Pour Mme Siva Ferretti, les choix individuels de l'évaluateur sont influencés par sa culture et il est donc difficile d'être "vraiment" inclusif/neutre. Le podcast partagé par Mme Una Carmel Murray donne un exemple d'inclusion de tous les participants afin de diluer la subjectivité du chercheur. De même, M. Abado Ekpo suggère de prendre le temps d'intégrer la logique des différents acteurs et de les comprendre afin de mener une évaluation objective. En outre, M. Steven Lam et M. Richard Tinsley discutent de l'importance de la méthodologie pour susciter l'intérêt de tous les participants.

      M. Lal Manavado résume la réflexion en termes de responsabilité envers les fournisseurs de fonds, les politiciens ou les groupes sociaux. Mon point de vue est d'être responsable des objectifs du projet. Ont-ils été atteints ou non ? si non, pourquoi ? si atteints, pour qui ?

      M. Khalid El Harizi a ajouté que la disponibilité des données/informations au début de l'évaluation ainsi que la capacité des évaluateurs à synthétiser les données sont importantes. Il convient toutefois de noter que, même lorsque les données sont disponibles, elles peuvent ne pas être facilement accessibles aux évaluateurs. Ceci est confirmé par M. Ram Chandra Khanal qui a soulevé la question du manque de temps et de l'accès limité à l'information sur les parties prenantes, ce qui aura un impact sur la collecte des données.

      Cette discussion a clairement soulevé la question de la définition des termes. Comme indiqué précédemment, les utilisateurs finaux doivent être définis. Mme Svetlana Negroustoueva a également demandé des exemples pour contextualiser le terme indépendance. En outre, M. Thierno Diouf a soulevé l'importance de définir tous les termes discutés du point de vue de toutes les parties prenantes et des évaluateurs. Ces définitions devraient être claires dans les guides, les standards et les normes. 

      M. Diagne Bassirou parle de la perte de qualité et de profondeur de l'analyse avec "trop" d'objectivité puisque l'évaluateur peut ne pas connaître les conditions socio-démographiques de la zone. De mon point de vue et comme l'a dit M. Lahrizi, il y a des données / informations disponibles (ou qui devraient être disponibles) dès le début et le commissaire devrait les mettre à la disposition de l'équipe d'évaluation. D'après mon expérience, il y a toujours une réunion de lancement au cours de laquelle ces questions sont discutées et résolues. La capacité d'analyser ces données/informations serait une question de compétence de l'évaluateur et non d'indépendance ou d'impartialité.

      En résumé, il est possible d'atteindre un degré pertinent d'impartialité/neutralité/ dans l'évaluation, à condition que les termes de référence soient clairs, que les données soient disponibles et que l'indépendance de l'évaluateur soit garantie par un financement suffisant et une indépendance administrative. L'évaluateur doit faire un travail sur lui-même en termes de croyances, de culture et de préjugés. Les approches méthodologiques pourraient aider à renverser une éventuelle impartialité.

      Les bailleurs de fonds des programmes ainsi que les gestionnaires et les évaluateurs des programmes sont responsables des changements apportés par les interventions. Pourrions-nous lier cette réflexion aux coûts-avantages sociaux des interventions de développement ?

      Enfin, il s'agit probablement d'une "question ouverte" qui pourrait mener à d'autres questions. Par conséquent, gardons la discussion ouverte. 

      Quelques liens échangés :

      https://www.sfu.ca/~palys/Weiss-1973-WherePoliticsAndEvaluationMeet.pdf

      https://www.ecgnet.org/sites/default/files/evaluation-for-better-result…

      https://disastersdecon.podbean.com/e/s6e2-researcher-positionality

      https://agsci.colostate.edu/smallholderagriculture/request-for-informat….

       

    • Chers tous, 
      Ce que nous mesurons reflète nos valeurs et ce qui compte pour nous. Ce sont des notes tirées de l'article ci-dessous (en anglais) que je suis revenu partager avec vous en complément de mon message précédent. L'article suggère également que les impacts sur les sous-groupes doivent être reflétés dans les mesures. Ceci est en accord avec les recommandations des participants à notre réunion

      https://ssir.org/articles/entry/data_in_collective_impact_focusing_on_w…;

      Bonne journée
      Malika
       

    • Hello everyone and thank you for this subject and for sharing your thoughts and approaches. 

      This is parallel to the discussions held last week by the francophone network for evaluation at the FIFE2021. 

      That said, I also believe that it is more an issue of méthodologies  to bring out these aspects. Organisations usually set their policies to take into account environment and gender in programming and evaluation. 

      I also would like to share with you that as side event to the Mountain International Day, we organized a meeting around "the olive tree, the Mountain and the environment ". Main and first  recommendation by participants was to consider multi-level social and landscape planning and analysis when talking about rural setting. This is because mountain conditions or results (almost) disappear when considering only the rural facet for development or evaluation.

      Thus, one approach is to consider intersectional analysis for evaluation.

      Best regards 

      Malika 

    • Bonjour à tous,

      J'ai essayé de répondre à chaque question et mes réponses sont en dessous des questions poseés. Elles sont basées sur une partie de mon expérience avec les petits agriculteurs.

      1. Trouver un équilibre entre la profondeur et la longueur de l'évaluation

      Les petits agriculteurs sont très occupés car ils doivent trouver des sources de revenus alternatives / complémentaires. En outre, le temps social est important (mariages, heure du thé, football pour les jeunes, fabrication de tapis pour les femmes...).

      Ainsi, le temps d'évaluation doit s'adapter à leur emploi du temps. Je suggère des questionnaires courts qui sont significatifs pour eux, ce qui amène que le programme devrait prendre en compte leurs besoins réels et non pas 100% selon les besoins de l’organisation.

      - Comment réduire la charge des petits exploitants agricoles lors des évaluations de suivi et d'évaluation ?

      - Quelles sont les meilleures façons d'inciter les agriculteurs à participer à l'enquête (par exemple, des incitations non monétaires, la participation à l'adaptation de l'enquête, à la présentation des résultats) ?

      1. Faites-en un moment social et parlez de ce qui est important pour eux (par exemple les céréales dans les zones montagneuses). Le moment généralement préféré est l'après-midi. Par exemple, planifiez l'évaluation pendant l'heure du thé et travaillez avec le groupe cible. Si le questionnaire est préféré, cela prendra plus de temps à l'évaluateur car il devra s'adapter à chaque agriculteur ;
      2. Permettre aux femmes d'amener des enfants en bas âge (jusqu'à 5 ans) ;
      3. Remettre des informations écrites sur le programme. Elles le garderont et le montreront à leurs enfants scolarisés ;
      4. Prévoyez un déjeuner ou un thé l'après-midi avec des snacks.

      2. Rendre les résultats des évaluations de S&E utiles aux agriculteurs

      • Comme pour l'évaluation, prévoyez des ateliers d'information dans l'entre-saison pour éviter de gêner le travail "réel" ;
      • Fournir des brochures, des audios, des vidéos, des photos ;
      • Prévoyez des séances de questions-réponses.

      - Avez-vous de l'expérience dans la comparaison des résultats entre agriculteurs de manière participative ? Quelle méthode avez-vous utilisée pour ce faire ? A-t-elle été efficace ?

      - Comment les résultats peuvent-ils être utilisés pour l'éducation non formelle des agriculteurs (par exemple, pour sensibiliser et/ou renforcer les capacités sur les moyens d'accroître la durabilité des exploitations) ?

      1. La comparaison des résultats entre les agriculteurs est efficace pour montrer les résultats et faire adopter de nouvelles techniques aux agriculteurs. J'ai utilisé une méthode de traitement / non traitement. L'absence de traitement provenait en fait des agriculteurs qui n'adhéraient pas au programme. Une fois les résultats évidents, ils ont demandé à être inclus.
      1. Les résultats pourraient être utilisés dans l'éducation non formelle des agriculteurs par le biais de visites d'échange entre pairs, d'audios et de vidéos distribués par messagerie instantanée, de présentations des résultats lors des visites de terrain des agents de vulgarisation.

      Malika Bounfour

       

    • Bonjour la Communauté

      Tout d’abord, je voudrais vous remercier pour vos contributions par la description de vos expériences respectives très riches et par la proposition d’approches et outils pour que le processus de l’évaluation rapide réponde à son titre.

      Les réponses ont fait ressortir des problèmes communs, à savoir le temps et les ressources nécessaires pour une mesure rapide des effets d’une interevntion ou du COVID 19. Ces ressources sont souvent plus importantes que celles planifiées.

      Il y’a aussi la communication lente entre les différents partenaires ainsi que la disponibilité des données archivées et analysées qui ont été soulevés comme principaux facteurs dans la lenteur de la mise en œuvre des mesures rapides. 

      Pour les solutions et outils proposés, Jennifer Mutua a parlé de faire attention aux imprévus lors de l'estimation du budget de l’évaluation. Carolina Turano a fait des propositions sur les voies d’amélioration de la communication entre partenaires pour rendre le processus agile. Elias SEGLA a proposé des outils de collecte de données et propose que l’équipe chargée de l’évaluation rapide soit interne avec un organigramme et un mode opératoire propre. La réponse de Nayeli Almanza décrit la méthodologie rapide de collecte des données pour mesurer l’impact du COVID 19 sur les populations migrantes et Aurélie Larmoyer donne  des suggestions pratiques de travail sur soi pour les individus et les équipes afin de réduire les temps dédiés au développement du protocol et des réactions qui peuvent être parfois déterminants  pour l’intervention.

       En résumé, je retiens que  1) il faut travailler sur le temps de communication entre les partenaires pendant le développement de l’approche ainsi que le feedback et la réaction; 2) qu’il faut utiliser les outils modernes, notamment les moyens virtuels et la téléphonie mobile; 3) que la question budgétaire reste posée et pourrait demander un travail innovateur de la part de l’équipe pour optimiser les résultats suivant le budget alloué.

      Enfin, j’espère que cette question d’évaluation rapide attire l’attention qu’elle mérite et connaisse des développements surtout pendant cette crise COVID 19.

      En vous remerciant encore une fois pour vos réponses et les références partagées, je reste à votre disposition pour d'autres échanges sur la question. 

      Bien à Vous

      Malika