Silva [user:field_middlename] Ferretti

Silva Ferretti

Freelance consultant
Italia

Silva Ferretti is a freelance consultant with extensive international experience in both development and humanitarian work. She has been working with diverse organizations, committees, networks and consortia (e.g. Agire, ActionAid, CDAC, DEC, ECB project, Handicap International, HAP, Plan International, Save the Children, SPHERE, Unicef, WorldVision amongst many others).

Her work is mainly focused on looking at the quality of programs and on improving their accountability and responsiveness to the needs, capacities and aspirations of the affected populations.

Her work has included impact evaluations / documentation of programs; set up of toolkits, methodologies, standards, frameworks and guidelines; coaching, training and facilitation; field research and assessments.

Within all her work Silva emphasizes participatory approaches and learning. She has a solid academic background, and also collaborated with academic and research institutions in short workshops on a broad range of topics (including: innovations in impact evaluation, Disaster Risk Management, participatory methodologies, protection, communication with affected populations).

She emphasizes innovation in her work, such as the use of visuals and videos in gathering and presenting information.

My contributions

    • Hola Yosi, ¡gracias por esta pregunta tan importante!

      Estoy recopilando algunos consejos para incluir las cuestiones medioambientales en la evaluación. Aquí tienes uno de ellos (en inglés, traducción a continuación). Espero compartir más.

      Verás, un "entorno de pensamiento" es una mentalidad.

      En el momento en que adoptamos una perspectiva más ecosistémica, nos damos cuenta inmediatamente de las limitaciones de nuestros planteamientos.

      Pero también descubrimos que cosas sencillas -como una pregunta más- pueden llegar muy lejos. :-)

      hacer la pregunta extra
      Compruebe si los resultados y productos exitosos pueden tener efectos negativos a largo plazo.

      Lo que parece un éxito *ahora* puede agotar el medio ambiente a largo plazo. 
      Es posible que los efectos negativos no se descubran hasta que sea demasiado tarde.
      Cuando no llevamos gafas ecológicas, es fácil dejarse llevar por los logros. A menudo, los términos de referencia y los criterios no nos empujan a hacernos la siguiente pregunta: 
      ¿cómo están afectando ahora los resultados al ecosistema? ¿Y el impacto o impactos a largo plazo?

    • Gracias Harriet por compartir todas estas herramientas. Son realmente útiles.

      Sin embargo... una advertencia cordial.
      Utilizar visuales no es sólo cuestión de herramientas. Los visuales son una actitud; son lenguajes con reglas y retos.
      Del mismo modo que tener acceso a "Word" (y otros procesadores de texto) no garantiza que puedas escribir con eficacia, utilizar herramientas visuales no garantiza una buena comunicación visual.

      Por desgracia, en nuestro mundo lo visual es sólo un complemento. 
      Escribir es lo habitual; luego, podemos añadir un bonito elemento visual.
      Y en muchos casos, esos elementos visuales son malos, posiblemente dañinos.

      Recuerdo que señalé a algunos colegas que sus imágenes planteaban problemas y podían malinterpretarse.
      Y ellos se encogieron de hombros, sin ver el problema. 
      "Es sólo un gráfico; ¿por qué te preocupas tanto por detalles insignificantes?".
      Estos colegas se mostraban analíticos por una coma mal puesta en su texto, 
      pero compartían imágenes que contradecían sus mensajes sin preocuparse, sin siquiera ver la cuestión. 

      Así que... por supuesto, intenta familiarizarte con lo visual.
      Pero tómate tu tiempo para aprender el idioma, pide opiniones y sé humilde. 
      Necesitamos más lenguajes, además del escrito, en la evaluación.
      Pero existe un círculo vicioso: como ahora predomina la palabra escrita,
      los expertos y profesionales son predominantemente "escritores y lectores" y pueden resistirse a otros lenguajes. 
      Lo visual es bonito, pero lo que importa es el informe escrito. Por eso, en la evaluación predominan los que escriben. 
      Este es un problema importante, ya que impide la apropiación por parte de personas con diferentes preferencias comunicativas y lleva a compartir de forma ineficaz mensajes que se compartirían mejor de forma visual, teatral o en otros idiomas. 

      Y, si piensa que "bonito, pero si no está escrito con palabras, no es fiable, creíble, aceptable..."  eres parte del problema :-) 

      Así que... inspírate en las magníficas herramientas y recursos compartidos por Harried (¡gracias!), y explora las imágenes. Pero recuerda que no son un complemento. Son un lenguaje que hay que dominar, pero que es un reto utilizar bien. :-)

       

    • Gran observación, Ram... ¿puedo sugerir que las evaluaciones mecánicas están al servicio del rendimiento mecánico y no de la rendición de cuentas? (especialmente si aspiramos a rendir cuentas a los principales interesados... y a los donantes atentos)

    • Las evaluaciones no son "informes escritos".

      Las evaluaciones son procesos para comprender si el programa produce cambios (esperados e inesperados), cómo y en qué medida.

      Si se adopta este punto de vista, es evidente que la comunicación ocupa un lugar central: comunicar el propósito, suscitar ideas y formular y compartir las conclusiones.

      Lamentablemente, los evaluadores suelen dominar las palabras escritas y no otras formas de comunicación.

      Esto limita enormemente la participación de las partes interesadas y el intercambio de conclusiones, ya que otras personas podrían preferir otros métodos de comunicación.

      En mi experiencia, casi todo funciona mejor que los informes: dibujos animados, gráficos, infografías, teatro, música, multimedia, etc. (sí, los he probado todos).

      (Sí, los probé todos y fueron bien recibidos por todo tipo de partes interesadas, incluidos los donantes).

      Los evaluadores no deben limitarse a pensar en "informes". Deben pensar en la mejor combinación de diferentes formas de comunicación.

      Las personas analfabetas pueden entender perfectamente los elementos visuales, si están bien diseñados.

      Las cajas de herramientas participativas contienen ideas para mostrar y discutir porcentajes mediante ayudas visuales.

      En definitiva, es más probable que entiendan los elementos visuales que los informes escritos en inglés...

      Por supuesto, si entendemos por "visuales" únicamente los gráficos de Excel, nos perdemos todo un mundo de posibilidades.

      Y los visuales no se improvisan: igual que hay una gramática para escribir palabras, también hay una gramática y un estilo para producir visuales.

      Incluso si nos referimos específicamente a los gráficos de datos, hay libros enteros sobre visualizaciones de datos, que ofrecen ejemplos (y también ponen de relieve los posibles problemas de falta de comunicación).  Un elemento visual sencillo puede llegar muy lejos. Pero una buena visualización no es sencilla de hacer.

      En definitiva, vayamos más allá de la palabra escrita. Pero recordemos que esto no se improvisa.

       

       

       

    • Un debate muy importante. Sin embargo, se ve limitado por una concepción estrecha de la evaluación: una consultoría convencional. Ceñirse a este formato -es decir, aceptar como punto de partida que la evaluación consiste sobre todo en plasmar alguna recomendación en un informe- limita las posibilidades y la innovación.

      Deberíamos replantear la evaluación como un conjunto de procesos de reflexión y prácticas que permiten a las partes interesadas en un programa calibrar los méritos, los logros y el aprendizaje de un programa. Los consultores podrían desempeñar diversas funciones dentro de ella (e incluso podrían no ser necesarios). Las posibilidades son infinitas. Si las evaluaciones se diseñan pensando en los usuarios, el uso y la participación, todo el enfoque de la comunicación y la implicación cambia desde el principio.

      Es muy lamentable que sigamos aferrándonos a las evaluaciones convencionales y rutinarias y nunca tengamos en cuenta el coste de oportunidad que supone perderse opciones más interesantes. Este mensaje va en la dirección correcta, indicando la urgencia de pasar de la elaboración de informes a la comunicación. Pero si nos ceñimos a los formatos de evaluación convencionales, puede que consigamos pequeñas mejoras, pero siempre nos perderemos el potencial de las evaluaciones, en un sentido más amplio.

    • Muchas gracias por este post. Además de lo que dices, para disponer de datos significativos, cada pequeño agricultor debería tener datos exactos sobre su producción, teniendo en cuenta la variedad del cultivo, la calidad y los precios actuales del mercado. Obtener estos datos y los sistemas necesarios para recopilarlos es un trabajo en sí mismo, que requiere capacidades técnicas, disciplina y herramientas. Para hacerlo correctamente, deberíamos transformar a cada pequeño agricultor o extensionista en un mini funcionario de recopilación y gestión de datos, y hace falta más (¿qué pasa con las enfermedades de los cultivos, el tipo de suelo, la mano de obra de la familia y el clima, por mencionar sólo algunos?)

      Lo triste del seguimiento y la evaluación ahora es cómo imponemos la carga de las medidas (irrelevantes) a los beneficiarios, los agentes locales y los pequeños intermediarios. Y a un nivel, no nos preguntamos. Todo esto para nada de un impacto práctico en el cambio. Algún día alguien debería denunciar el coste de oportunidad y la distorsión que supone pedir medidas irrelevantes sólo porque necesitamos un indicador para poner en el marco lógico.

      Además, estamos confundiendo M&E con investigación. Así que tenemos M&E irrelevantes para la toma de decisiones. Y pobres intentos de obtener datos y pruebas, que deberían hacerse con otros medios, competencias recursos para ser útiles y creíbles.

       

  • Los evaluadores son intérpretes. La gente utiliza un lenguaje sencillo y corriente en sus conversaciones cotidianas. Los evaluadores las traducen a la jerga que se usa en charlas e informes sobre desarrollo (y en virtud de la cual se “empodera”, “conciencia” o “moviliza” a la población, que “crea plataformas” o “reclama sus derechos”), a fin de adecuarlas para su análisis e intercambio.

    Cuando empecé a utilizar vídeos en mi trabajo —que capturaban fragmentos de estas conversaciones— descubrí cómo profesionales del desarrollo y la ayuda humanitaria poco acostumbrados a tratar con gente corriente (y demasiado habituados a la jerga) no siempre logran comprender

    • Si aceptamos que la evaluación significa "resultados, indicadores", habremos matado la posibilidad de la apropiación cultural desde el principio.

      "Evaluación" significa cosas diferentes para personas diferentes. Hacerla equivaler a "documentar resultados e indicadores" socava muchas otras alternativas.

      Al igual que en la evaluación feminista (que no trata sólo de "género", sino de repensar los enfoques para hacerlos interseccionalmente inclusivos), debemos cuestionar para qué sirve una evaluación, qué formas de ver el cambio abarca. Más allá de los resultados hay procesos, principios, visiones del mundo. En el momento en que se discute con los actores locales: "¿qué es lo que os importa para ver el cambio?" ya estáis trabajando para que sea culturalmente apropiado. Si sólo se trata de "definir indicadores", lo siento, pero esto no es un comienzo.

    • Hola...

      de nuevo no estoy añadiendo aquí una lección práctica, lo siento...

      pero acabo de encontrar citado este reciente documento de USAID, que podría ser de interés para las personas que siguen este hilo.

      https://usaidlearninglab.org/resources/report-integrating-local-knowled… (en inglés) 

      La función de Gestión del Conocimiento y Aprendizaje Organizacional de la Agencia USAID facilitó conversaciones con profesionales del desarrollo para aprender cómo las organizaciones de desarrollo están integrando el conocimiento local en sus programas. El informe explora tres aspectos de este tema: Aprovechar las mejores prácticas, abordar los desafíos y lograr los mejores resultados.

       

    • Acabo de acceder a un interesante artículo/sitio web en el que se destacan las características de la cultura de la supremacía blanca.

      Los evaluadores corren el riesgo de adoptarlas -de buena o mala gana-.

      (y el sector realmente nos empuja a hacerlo).

      Así que... estas no son lecciones o experiencias.

      Pero sí una lista útil para desglosar el tema y cosechar prácticas.

      image

      El artículo está en:

      https://www.whitesupremacyculture.info/

      Y lo he encontrado mencionado aquí:

      https://aidnography.blogspot.com/2022/09/development-ict4d-digital-communication-academia-link-review-455.html

       

    • Mis dos centavos.

      Cuando una "teoría del cambio" (como se ilustra en el manual) tiene este aspecto - con flechas que van en la misma dirección, y con un esquema lineal (SI... ENTONCES), no es más que un marco lógico disfrazado.

      logframe

      Una "teoría del cambio" adecuada, apta para configuraciones complejas, tendrá flechas que van en muchas direcciones diferentes, interconectando ideas de forma difícil de desentrañar.
      Es más desordenado, más difícil de navegar, pero... ¡eh! Así es como suele ser la realidad.  (este es el "mapa de la obesidad", por si te lo preguntas)

      TOC

      Hay un MUNDO DE DIFERENCIA entre ambos. 
      Realmente no se puede abordar de la misma manera y con el mismo pensamiento.
      Este debería ser el punto de partida de cualquier análisis.

      Una vez que entiendas si estás tratando con una teoría del cambio lineal o compleja, entonces debes recordar
      - En algunos casos el pensamiento lineal tiene su razón de ser. 
      - cuando se aborda el cambio social, la mayoría de las veces no. 

      Creo que es bastante desafortunado que la idea de la "teoría del cambio", nacida para apreciar la complejidad, haya acabado siendo sólo una forma diferente de visualizar el pensamiento logframe. 
      Al menos deberíamos ser capaces de distinguir lo que es un marco lógico con esteroides y lo que es apreciar la complejidad, y avanzar a partir de ahí. 

       

    • Me ha gustado mucho leer la nota y ver el cuidado con que se ha redactado, teniendo en cuenta todos los puntos de vista.

      Es útil para ver en qué punto se encuentra el debate. Pero el tema, "closing remarks", es un poco desconcertante. :-)

       

      Como dice Malika, es más útil mantener el debate abierto.

       

      Existe la suposición de que las evaluaciones deben ser imparciales y neutrales (y que el evaluador es el guardián de esto), una tendencia a equiparar las evaluaciones con la investigación (¡incluso la investigación no siempre puede ser imparcial!).

      La idea subyacente de la evaluación es: un producto generado por un experto que selecciona la muestra perfecta y llega a conclusiones científicas.

       

      ¿Es esto lo que debe ser una evaluación?

      ¿No debería una evaluación ser más bien una oportunidad para aplicar el pensamiento evaluativo sobre un programa?

      ¿Una oportunidad en la que diferentes personas, con diferentes visiones del mundo, puedan entender mejor en qué punto se encuentra un programa, qué posibilidades hay por delante, qué se puede aprender?

       

      Realmente me parece que estamos presentando TODAS las evaluaciones como si tuvieran que ser "productos científicos", originados por expertos, capaces de ser imparciales y sabios.

      Alguna evaluación (o mejor, alguna investigación) bien podría tener este enfoque.

      Pero asumir que éste debe ser siempre el objetivo de la evaluación en general es muy problemático.

       

      Las evaluaciones participativas, por ejemplo, no consisten en absoluto en crear una visión imparcial.

      Se trata de reunir las perspectivas de diversas personas para dar sentido a una situación.

      Puede que ni siquiera lleguen a conclusiones compartidas o acordadas, pero pueden ser increíblemente poderosas para inyectar el necesario pensamiento crítico sobre la acción.

      El evaluador no siempre es el experto científico... puede ser el facilitador.

      Ciertamente, tiene que pensar en la inclusión y la representación, y ser muy consciente de las relaciones, la posición y el poder de las partes interesadas.

      Pero la inclusión y la representación son conceptos fundamentalmente diferentes de la neutralidad, la imparcialidad y la independencia (que tampoco deberían mezclarse en el mismo saco).

      Se trata de ser consciente (en la medida de lo posible) y honesto sobre cuáles son las dinámicas en juego, sobre las decisiones tomadas...

      en lugar de pretender que podemos alcanzar la objetividad.

       

      Muchas de mis evaluaciones, por ejemplo, no son neutrales POR ELECCIÓN.

      Me esfuerzo por dar más voz a las personas que suelen estar menos representadas.

      Hablo con más mujeres, con más marginados, con más personas con retos especiales.

      Sin embargo, creo sinceramente que esta opción abierta de ser parcial, es mucho más útil que un intento de neutralidad e imparcialidad.

      Con el tiempo y los recursos limitados de una evaluación, ¿qué voces merece la pena escuchar, qué conversaciones merece la pena mantener?

       

      Ser conscientes y abiertos de cuáles son nuestras opciones es más poderoso y honesto que pretender que podemos ser imparciales. :-)

      (y si de lo que se trata es de tener pruebas científicas, entonces embarquémonos en la investigación... que es otra cosa)

       

      Gracias de nuevo por compartir puntos interesantes hasta ahora, y por facilitar el debate.

      Espero que esta interesante discusión pueda continuar.

       

      Un saludo

      SIlva

       

       

       

       

       

    • La rendición de cuentas es mucho más que informar sobre un plan de trabajo (que es, desgraciadamente, la forma en que a menudo se presenta).

      La rendición de cuentas significa que hacemos promesas explícitas o implícitas a otras personas y grupos (en el caso de los proyectos de desarrollo y humanitarios, a MUCHAS otras personas con diferentes perspectivas y prioridades). Somos responsables de dar cuenta de estas promesas. Eso significa: hacer que las promesas se cumplan, cuando sea posible y útil... pero también cambiar, mejorar, evolucionar nuestras promesas según sea necesario, *respetando siempre el vínculo que las sustenta*. Lo que importa para la responsabilidad es la *relación*.

      Las cosas, las condiciones, pueden cambiar. Pero las personas son responsables entre sí cuando se mantienen informadas de los cambios y cuando establecen procesos sólidos para negociar el camino a seguir para mantener la promesa viva y relevante. Y posiblemente, para mejorarla.

      Si se tiene esta visión de la responsabilidad, está claro que el aprendizaje forma parte de ella.

      El aprendizaje es lo que mejora la promesa, y lo que mejora la confianza necesaria para negociar las promesas y las condiciones de la responsabilidad.

      Por supuesto, siempre hay que recordar que esto ocurre en situaciones complicadas, y que a menudo tenemos que rendir cuentas, como se ha dicho, a personas diversas, con intereses diferentes. Podemos rendir cuentas a muchas personas. Pero, ¿qué importancia tiene para nosotros la rendición de cuentas? Los intereses de los donantes no siempre son, por ejemplo, los intereses de las personas marginadas a las que se supone que servimos... o los intereses de las generaciones futuras...

      Cuando nos ceñimos a la rendición de cuentas como "ceñirnos a los resultados" no estamos entendiendo nada.

      Y a menudo, más que rendición de cuentas, tenemos control burocrático.

      Volviendo a la pregunta que inició el debate, la rendición de cuentas en sí misma no es una palabra neutral.

      A quién elegimos para rendir cuentas tiene profundas consecuencias en la forma en que actuamos y vemos el cambio.

      Es realmente importante ser conscientes de ello, en lugar de pensar que una muestra mayor resolverá la cuestión.

      E incluso el discurso humanitario está tomando conciencia de ello y reformulando la comprensión de la neutralidad...

       

       

    • ¿Es realmente útil pretender que podemos ser neutrales e imparciales?

      ¿O es más útil saber que todos somos inherentemente parciales (y que nuestros enfoques lo son)... y que entonces es mejor ser abiertos y conscientes de ello, y de las limitaciones inherentes a todos nuestros enfoques?

      Pensar que podemos tener la información "perfecta", en contextos que son complejos y desordenados es probablemente sólo un deseo.... :-)
       

       

    • Isha, mencionas que "Nosotros, como evaluadores, estamos obligados a ejecutar los TdR debidamente"

      Mi opinión es que, como evaluadores, también deberíamos cuestionar los términos de referencia y negociarlos.

      Una de las principales contribuciones que podemos ofrecer es la de proponer formas alternativas de ver el cambio, más allá de los TdR de "cortar y pegar" que se nos ofrecen.

      Algunas organizaciones y gestores de evaluación están realmente abiertos a esto.

      Otras no lo están.... y, si es el caso, bueno... su problema.

      Yo, desde luego, no querría trabajar en una evaluación que me parece que no tiene sentido desde el principio. :-)

       

      Verás, como dicen los cicloactivistas sobre los conductores de coches... "no estás en el tráfico, eres el tráfico".

      Como consultores, tenemos el deber de resistirnos a los términos de referencia que sabemos que limitan el aprendizaje y la calidad del trabajo.

       

      Otro punto... Me sorprendió la forma en que se nos presentó la pregunta.

      La pregunta dice: "Las principales agencias, y la ONU en particular, están considerando cómo integrar los impactos ambientales y sociales en sus evaluaciones".

      ¿"Están considerando"? Ahora... las preocupaciones medioambientales son (por desgracia) relativamente nuevas... pero las sociales, ¿lo son realmente?

      Hace tiempo que tenemos todo tipo de temas transversales (género, discapacidad y similares...).

      Me asusta mucho cómo se presentan el "triple nexo" (una versión glorificada del continuo ayuda/desarrollo - discutido durante las últimas 2 décadas) y los "impactos sociales" como si fueran algo nuevo, que requiere empezar con una pizarra en blanco.

      Sería más saludable destacar que estas preocupaciones no son en absoluto nuevas, ya que de lo contrario se corre el riesgo de dar vueltas en círculo.

      Un saludo a todos

      Silva

  • Reporting and supporting evaluation use and influence

    Discussion
    • Hola

      Practico la humildad haciéndome una pregunta diferente:

      Si las personas que llevan mucho tiempo trabajando en un tema, con un conocimiento mucho mejor del contexto no encontraron una buena solución... ¿cómo podría hacerlo yo, un evaluador externo?

      Como evaluador no puedo ciertamente encontrar soluciones, pero puedo - con un enfoque facilitador y no experto:

      * ayudar a encontrar las "piezas que faltan" del rompecabezas, reuniendo, en un mismo lugar, los puntos de vista y las ideas de los diferentes actores.

      * ayudar a articular y sistematizar mejor la realidad, para que la gente pueda tener un mejor mapa en el que encontrar soluciones

      * captar ideas, lecciones que a menudo están implícitas y que, si se comparten, pueden ayudar a cambiar la forma de trabajar

      * compartir algunas ideas sobre cosas que había visto que funcionaban en otros lugares (pero, ojo, esto lo hacía siempre en la fase de recogida de pruebas, como una forma de obtener feedback sobre estos "iniciadores de la conversación". y la gente suele encontrar rápidamente muchas cosas que revisar y mejorar)

      * crear espacios, dentro del proceso, para que la gente se exponga y reaccione a las pruebas, a medida que se comparten

      * identificar lo que parecen ser las preocupaciones prioritarias a tratar - relacionándolas con los retos, las oportunidades, las posibilidades surgidas.

      Esto no es investigación. Y esto no son soluciones.

      Hay todo un mundo de cosas entre los "problemas" y las "soluciones"... incluye aprendizajes, posibilidades, evidencias sistematizadas.

      Y veo a la gente realmente interesante y dispuesta a comprometerse con estos... Mucho más que cuando solía predicarles algunas soluciones simples. :-)

       

      Además, una evaluación no siempre pone de manifiesto los "problemas". A menudo hay muchas soluciones que quedan ocultas.

      Y las evaluaciones también tienen un papel para encontrarlas y ayudar a valorar el trabajo realizado y los muchos retos resueltos, que nunca deberían darse por sentados.

    • Claridad... por supuesto, ¡absolutamente! El discurso del ascensor... sí y no.

       

      Un discurso de ascensor es muy útil como punto de entrada.

      Pero luego hay que reconocer que el objetivo de una buena evaluación es desvelar la complejidad de la realidad (sin ser complicado).

      Puede dar nuevos elementos e ideas, pero no la solución.

      El discurso del ascensor es el punto de entrada, pone de relieve las principales áreas que hay que abordar, y sin duda puede esbozar algunos puntos de presión.

      Pero no estoy tan segura de poder ofrecer siempre una idea nítida de las posibles soluciones.

      Como se dice, "para cada problema hay siempre una solución sencilla. Y es errónea".

       

      Las soluciones hay que encontrarlas, como muy bien dijo Bob, más allá de la evaluación. (o dentro de ella sólo si es participativa, en la que los principales actores locales participan realmente en la formulación de las conclusiones, y se apropian verdaderamente del proceso)

      Por lo tanto, las herramientas y los mensajes que necesitamos no son sólo los discursos de ascensor, sino que estos ayudan a transmitir y navegar por la complejidad de manera más sencilla y procesable.

      Ser conscientes de que no es el evaluador el que tiene que martillear los mensajes, sino que son los actores del proyecto los que se apropian de ellos.

       

    • Gran resumen

      Un punto a destacar.

      Ir más allá del informe no significa "hacer un informe visual".

      Un informe visual es más bonito, pero sigue siendo un informe.

      "Ir más allá del informe" significa considerar la evaluación como un proceso que no termina con un solo producto, ya sea visual o no.

      La comunicación de los resultados y la puesta en común de las ideas deben producirse en todo momento, de muchas formas.

      Una buena evaluación no tiene por qué ser un "informe".

      Abogo por estrategias y opciones para compartir ideas y resultados con diferentes audiencias, a lo largo de todo el proceso.

      Lo que podría NO incluir un informe. La redacción de un informe requiere mucho tiempo, y se lleva un gran porcentaje del tiempo de la evaluación.

      ¿Es la mejor inversión? ¿Es necesario? Estamos tan acostumbrados a pensar que una evaluación es un informe que no lo cuestionamos.

      Además... al lado de las evaluaciones en tiempo real está el "intercambio de información en tiempo real".

      Esto es algo muy poco explorado. Sin embargo, puede generar grandes cambios en la forma de evaluar.

      Se trata de compartir ideas preliminares, pruebas, para que las personas que participan en la evaluación puedan contribuir a dar forma a las conclusiones.

      De nuevo: estamos tan acostumbrados a pensar que compartimos los "productos finales" que no se comprenden realmente las posibilidades de compartir información en tiempo real...

      Gracias de nuevo por el gran resumen, realmente ayuda a intensificar el debate y a generar nuevas ideas

      (y, ¿sabes qué? ¡Es un buen ejemplo de "intercambio de información en tiempo real" de nuevas ideas! :-)

    • Oh, ¡bien hecho!

      Es estupendo ver que se reconoce el valor de las imágenes y los elementos visuales.
      Los materiales que has compartido son realmente útiles e inspiradores, gracias.

      Ahora... como alguien que piensa visualmente y en imágenes, siempre he tratado de resumir los hallazgos de una manera más visual.
      Los gráficos, los dibujos, la multimería son vistos como algo "bonito" y genial. A todo el mundo le gustan y siente que son útiles.

      Pero, ¿adivinen qué? Luego tengo que elaborar un informe normal, porque es lo que quieren los donantes.
      Así que los visuales hay que hacerlos como algo aparte. Por supuesto, de forma gratuita.

      El tiempo para hacer informes no suele ser suficiente en una consultoría, así que si quieres demostrar que los visuales u otros medios son mejores, básicamente tienes que trabajar gratis.
      Porque, al fin y al cabo, seguirás teniendo que redactar el informe correspondiente.

      ¿La conclusión?

      Hasta que las evaluaciones no se perciban principalmente como requisitos e informes burocráticos... nos perderemos fantásticas posibilidades de aprender mejor.
      Y también de involucrar a personas que podrían tener fantásticas habilidades de aprendizaje, análisis y comunicación, pero que no son redactores de informes.
      Es tan lamentable que asumamos que la "redacción de informes" por sí sola es la mejor manera de captar y transmitir las pruebas y los conocimientos...

       

    • ¿Hay alguna posibilidad de que dejemos de pensar que una evaluación es... un informe?

      Se desbloquearían tantas posibilidades.

    • Lo que me llama la atención es que todos discutimos las Teorias del Cambio como si fueran "una cosa"......
      Hablar de un "logframe" es fácil, hay un formato estándar para él
      Puede ser ligeramente adaptado, pero está bastante claro lo que es, cómo se ve, cómo funciona.

      Lo mismo no es cierto para las TdC.  Lo que es una TdC puede ser muy diferente.
      Creo que todos podríamos usar la misma palabra, pero teniendo algo muy diferente en mente...

    • Depende de qué es una teoría del cambio y cómo se ha generado / compartido.

      Si sigue siendo el mismo que un gran marco lógico, oculto en algunas propuestas ... no agrega mucho valor.

      Si es cogenerado y de propiedad ... posiblemente EMERGENTE del proceso de cambio, entonces es un valor agregado.

      Como evaluadora, veo que el personal sobre el terreno acoge con beneplácito las discusiones a nivel de la teoría del cambio cuando ayudan a sistematizar la experiencia.

      Pero podrían no tener idea y confundirlos como anexos de la propuesta.

      Entonces, si la Teoría del Cambio es solo burocracia, en realidad es una complicación.

      Si es un proceso de sistematización de la experiencia, propiedad de los involucrados en hacer el cambio, es muy útil.

      Lamentablemente, estos últimos son muy raros.