RE: Artificial intelligence in the context of evaluation | Eval Forward

Chère Muriel, 

Merci d'avoir soulevé ce sujet particulièrement intéressant. J'ai beaucoup de choses à dire mais je vais m'efforcer de rester synthétique.

Je souhaiterais traiter quelques points que je trouve très intéressants et j'espère qu'il en est de même pour vous. Il y a un manque de consensus parmi les praticiens sur la définition de l'intelligence artificielle (IA). Il existe des définitions générales et vagues mais pas une définition claire utilisée par tous. Selon certaines définitions, une calculatrice pourrait être définie comme de l'IA; pourtant, pour la plupart des gens, elle n'en est pas.

Un autre point que je souhaiterais aborder est que l'IA s'appuie sur des modèles d'apprentissage, la capacité à apprendre et à appliquer ces apprentissages. En affirmant ceci, nous convenons qu'il doit y avoir une mémoire d'apprentissage. Dans notre domaine, cela devient délicat car la plupart des données que nous utilisons sont classées comme très sensibles, le partage des données est peu clair ou mal défini ou, pour certaines, la propriété des données n'est pas précise, ce qui est particulièrement vrai pour les organisations/agences qui travaillent avec les gouvernements.

Je souhaiterais également souligner qu'il n'y a pas actuellement de réglementation concernant l'IA, ce qui signifie qu'elle comporte un risque substantiel. Cela nous amène à certaines considérations éthiques pour introduire l'IA dans le domaine:

  • Les populations affectées peuvent-elles consentir à l'utilisation de leurs données pour alimenter l'IA?
  • Comment l'IA peut-elle être introduite dans les organisations en toute sécurité?
  • Quelle ligne traçons-nous pour garantir qu'il ne s'agit pas d'une surveillance?
  • Quels sont les risques de l'introduction de l'IA et qui les supportera?
  • Qu'avons-nous appris de nos expériences précédentes?
  • Quelles sont les limites de l'introduction de l'IA?

Nous devons de plus nous demander ce que nous espérons réellement obtenir de l'IA et si cela est absolument nécessaire.

À ce jour, il y a eu de nombreuses tentatives réussies au sein des organisations pour adopter certaines formes d'IA en toute sécurité. Je crois qu'il y a aussi beaucoup à apprendre de ces expériences, dont voici certains liens ci-dessous:

https://www.fao.org/agroinformatics/news/news-detail/fao--ai-and-digital-tools-for-climate-resilient-agri-food-systems--on-the-spotlight-at-the-science-and-innovation-forum-2023/en

https://www.fao.org/vietnam/news/detail-events/en/c/1187477/

https://dref.ifrc.org/fba/

https://jetson.unhcr.org

https://hungermap.wfp.org

En complément, voici quelques articles que j'ai trouvés très précieux pour favoriser une réflexion critique et j'espère qu'ils vous seront utiles également.

https://www.humanitarianstudies.no/resource/data-sharing-between-humanitarian-organisations-and-donors/

https://gh.bmj.com/content/7/Suppl_8/e007249

https://onezero.medium.com/are-aid-agencies-abetting-surveillance-humanitarianism-5bc2b5a78ff6

https://journals.sagepub.com/doi/full/10.1177/2056305119863146

https://international-review.icrc.org/sites/default/files/reviews-pdf/2022-02/biometric-data-flows-and-unintended-consequences-of-counterterrorism-916.pdf

https://journals.sagepub.com/doi/full/10.1177/2056305119863146#fn1-2056305119863146

https://www.thenewhumanitarian.org/news/2019/02/05/un-palantir-deal-data-mining-protection-concerns-wfp

Mes meilleurs encouragements pour vous accompagner dans votre courageuse démarche!