Lewis N. KISUKU

Lewis N. KISUKU

Praticien en Suivi & Évaluation Axé sur les Résultats (SAR)/Practitioner of Results Based Monitoring (RBM)
LIR Consulting Cabinet
République démocratique du Congo

More than 15 years of experience in humanitarian assistance with short- and long-term missions in similar geopolitical contexts; Extensive and in-depth experience on direct participation in the management and implementation of effective M&E systems to assess progress and record results achieved, on monitoring of subcontractors, as well as technical assistance related to, performance management, theories of change and monitoring and evaluation plans in USAID, GAC, ECHO & BMZ funded projects. Solid experience in managing emergency, transitional and development projects with a focus on aid to displaced populations, food security, conflict resolution, WASH and education. I have benefited from several international trainings through the German Academy for International Development with a focus on results-based M&E, food security and managing for development results. I have a good knowledge of the geographic, political and socio-cultural contexts of Central African Republic, Burundi, Rwanda and DR Congo in general, and a good mastery in the provinces of the resilience zone in particular (Goma, Bukavu, Tanganyika, Kassaï and Ituri)

My contributions

      1. Comment ce changement de responsabilité est-il géré ? Quelles sont les institutions concernées - gouvernement, universités, ONG, sociétés de conseil privées ou particuliers ?
      • Tout d'abord dans mon pays il n'y a pas une instance ou institution qui a le mandat ou la responsabilité de faire les Suivi et évaluation ni des actions du gouvernement, ni celles des ONG ou autres institution internationales à l’instar de l’Afrique du sud (Monitoring and Evaluation, Office of the Public Service Commission of South Africa ) ou encore en Colombie (SINERGIA). Le Ministère du Plan est, en République Démocratique du Congo, le ministère responsable de la planification et de la programmation de la politique de développement économique et social du pays. Il a en son sein 9 directions dont une des « études et planification » et plus de 7 comites et 4 cellules dont une en charge des projets et marches publics et une autre de contrôle et Suivi, etc. mais le mandat ni le rôle n*a jamais été clarifié et ni joue.
      • Aucune de nos universités ou instituions de formation dispense un cursus sanctionné par un diplôme en Suivi et évaluation, sauf notre institut supérieur en développement rural qui a une filiale au niveau  « Licence » master2 qui a une option de « Planification régionale ». C’est la qu'’on dispense quelque cours en rapport avec le suivi et évaluation. Ceci pour conclure qu'’il y a un manque criant des compétences de carriers en suivi et évaluation.
      • La plupart des évaluations indépendante sont organisées par des individualités : ils peuvent de présenter comme individu seul, duo ou responsable d’une maison ou association d’étude. Leurs profil : (i) souvent des anciens employés des ONGI (qui se sont converti en consultant indépendant ou qui sont encore en service, mais agissant durant leur temps libre en indépendant) ; (ii) parfois des professeurs ou assistants d’université agissant en titre autonome, sans l’implication directe de leurs universités respectives. Des grands projets de la banque mondiale, BAD et quelques institutions des nations unies font très souvent à ces académiciens compares aux ONGI qui eux font appel à ce premier profil. Actuellement même les projets de la banque mondiale font recourt à ce premier profil, car le second s’est trouvé trop théorique, des très longs rapports (mais bien rédigés) et souvent remis avec retard car leurs auteurs trop pris par d’autres priorité.
      • Les évaluations au sein et/en cours du projet sont souvent l’œuvre d’un ou des staffs employés par le projet ou ONG en question (avec comme conséquence la question de l’indépendance réelle de ces staffs sous autorités hiérarchique, très souvent expatrier).
      1. Dans quelle mesure cette responsabilité est-elle assumée ? Se limite-t-elle toujours à la collecte et à l'analyse des données ou inclut-elle une plus grande responsabilité dans la gestion de l'évaluation ?
      • Pour le premier profil des professionnels de suivi et évaluation, très souvent leur responsabilité se limite aux collectes des données et/ou accompagnement des consultants internationaux. Aucun transfert réel des compétences, ni autorité décisionnelle en amont ou en aval de l’évaluation. À titre illustratif : une fois le rapport rédigé par le consultant et validé par la hiérarchie administrative de l’ONG, même si les approche ou avis divergent entre le consultant et le staff responsable de Suivi et évaluation au sein du projet, il est très rare qu'’on donne raison au staff local.
      • Pour le second profil, très souvent ils jouissent d’un crédit de confiance initiale, par conséquent ils sont souvent sollicités pour les évaluations de base ou finale. On leur laisse champs libre pour la conception et la planification des outils des enquêtes. Très souvent maitre de la rédaction des rapports finaux. Il arrive que les données soient par d’autres sous l’autorité du projet, et on laisse l’interprétation, analyse des données et la rédaction du rapport.
      1. Comment ce travail est-il financé ? Les coûts sont-ils uniquement supportés par les gouvernements ou les donateurs contribuent-ils avec des fonds précédemment alloués pour le personnel ou les consultants des donateurs ?
      • À 95% les couts des évaluations sont supportés par les bailleurs de fond. Avec la question de redevabilité en vogue : l’existence d’un système de suivi ou mécanisme de rédévabilité fait désormais partie des conditions ou critères de sélection d’un projet. Le vrai challenge reste sur l’allocation du budget, normalement 3%-7% du budget total du projet devrait être disponibiliser pour le suivi et évaluation, mais rare sont les projets qui respectent cette proportion, surtout l’aspect lie au renforcement des capacités des staffs en rapporta avec le suivi et évaluation.
      1. Quelles sont les difficultés rencontrées ? 
      • (i) manque de personnel formé ; La pandémie de Covid19 vient accentuée cette lacune. Avec la restriction des mouvements, les professionnels de suivi et évaluation doivent se rabattre soit à l’utilisation des ressources locale (localizing), soit la technologie. Les deux font grandement défaut dans mon pays.
      • (ii) manque de financement ; comme la culture organisationnelle de suivi et évaluation est encore balbutiante dans beaucoup d’organisation ; alors les staffs des départements de suivi et évaluations doivent souvent secouer pour attirer l’attention des décideurs budgétaire. Comme conséquence directe les visites sont réduites à leurs stricts minimums. La formation appuyée par le projet est quasi inexistante.
      • (iii) problèmes de pression des pairs conduisant à des rapports optimistes ; Par manque de cette culture et de formation, beaucoup des collègues perçoivent les personnels de suivi et évaluation comme des policier et/ou des pessimistes qui ne voient que le ver a moitié vide. Malheureusement si la hiérarchie est peu ouverte aux critiques, cette attitude peut exacerber la tension interrelationnelle et voire même mettre l’intégrité morale et/ou physique de certains agents (j’ai été moi-même victime au Tanganyika)
      • (iv) autres problèmes ? l’insécurité ou l’instabilité des zones de travail. À titre illustratif : l’actualité de la mort de l’ambassadeur d’Italie a l’Est de la RD Congo lors d’une mission de suivi sur terrain.
  • What can we do to improve food security data?

    Discussion
    • La gestion de la qualité des données et des enquêtes 

      La Politique générale en matière de gestion de la qualité des données en matière de l’agriculture prévoit l’élaboration d’un Recueil de bonnes pratiques dans les enquêtes permettant l’harmonisation des façons de faire lors des phases de conception et de réalisation. On entend ici par « enquête » toute activité visant à recueillir ou à acquérir des données à des fins statistiques. Cela inclut les recensements, les enquêtes par sondage et la production de statistiques à partir de données provenant de dossiers administratifs produit par les agents. La constitution et le maintien d’un fichier administratif à des fins statistiques n’entrent pas dans cette catégorie, seule l’exploitation d’un tel fichier à des fins statistiques appartient au domaine des enquêtes.

      Le Recueil de bonnes pratiques de collecte et d’analyse des données constituent un des mécanismes internes concourant à la qualité des processus, condition indispensable à la qualité des produits et services. Diffusé au personnel des guides pratiques tout en orientant la responsabilité depuis 2016 la GIZ a initié un mécanisme institutionnel de collecte des données et d’un autre côté une mesure d’Audit (contre vérification) de la qualité des données collectées par l’équipe de travail responsable de la production des données.

      Cependant, le désir de la GIZ de s’adresser à un plus large public formé de clients, utilisateurs et partenaires a mené à la conception du Document de principes sur la qualité dans les enquêtes. Celui-ci est constitué des sections du Recueil de bonnes pratiques dans les enquêtes dont le contenu est moins spécialisé. 

       

      La définition de la qualité 

      Comme de nombreux organismes statistiques, l’Institut définit la qualité d’un produit par l’ensemble des caractéristiques qui influent sur sa capacité à satisfaire un besoin donné, à permettre un usage prévu. La GIZ retient six dimensions comme critères de la qualité : la pertinence, la fiabilité et l’objectivité, la comparabilité, l’actualité, l’intelligibilité et l’accessibilité. Le tableau 1 résume la définition et les orientations générales d’assurance de la qualité pour chacune de ces dimensions.

      Pendant la réalisation d’un projet d’enquête, les dimensions constituent des cibles à atteindre pour assurer la qualité de l’information statistique issue de cette enquête. Après sa réalisation, elles représentent les critères qui permettent d’évaluer la qualité de l’information statistique produite. En cours de réalisation, les décisions prises en ce qui a trait aux façons de faire et à leur mise en œuvre doivent tenir compte de toutes les dimensions de la qualité. L’assurance de la qualité d’un produit d’enquête dépend donc du travail effectué par l’équipe de réalisation et par l’ensemble du personnel impliqué, et ce, à toutes les étapes de réalisation de l’enquête.