You are currently browsing the tag archive for the ‘Metodología’ tag.

Mi labor docente en la Universidad Politécnica de Valencia está ligada desde hace más de una década al Project Management (PM). Siempre ha sido una continua dialéctica la confrontación entre las técnicas, instrumentos e incluso la filosofía del PM, y todo lo bebido del la gestión en el mundo del Desarrollo. Y frente a lo que pudiera parecer, no está todo resuelto. ¿Son necesarias las técnicas de PM en los proyectos de Ayuda al Desarrollo? ¿Son compatibles la participación, la trasnformación social, el empoderamiento de los más desfavorecidos, con la gestión técnica profesional? ¿Ayuda el PM a una evaluación últil en términos de mejora y aprendizaje de las organizaciones?

Para seguir pensando y reflexionando en estas y otras cuestiones, hemos organizado un WEBINAR, es decir, una Conferencia On Line, con el sugerente título de “Estrategias del Project Management en la Ayuda al Desarrollo: potencialidades y limitaciones para una gestión responsable de las intervenciones“. Nos facilitará la reflexión José Antonio Monje, coordinador regional de Monitoreo y Evaluación para América Latina y Caribe de Save the Children. La cita: el próximo viernes 30 de marzo, a las 17 horas (GMT +1, Valencia, España) (si quiere conocer la hora de inicio en su localidad, puedo hacerlo aquí). La conferencia forma parte del programa Ágora Global del Máster Universitario en Cooperación al Desarrollo, que en su especialización de Gestión de Proyectos y Procesos de Desarrollo se imparte en la UPV.

Para los que no lo conozcan, José Antonio es un activo miembro de la comunidad evaluadora en español, especialmente en el mundo de las redes sociales. Como en estas cosas es obligado y recomendable hablar de la trayectoria de los/as ponentes, les cuento que José Antonio es especialista en gestión, diseño, seguimiento y evaluación de proyectos de cooperación al desarrollo e inversión social pública, con amplia experiencia en gestión de proyectos en diversos países de América Latina (Ecuador, Perú, Bolivia, Cuba, Guatemala, Nicaragua, El Salvador, Brasil) y Norte de África (Argelia, Sahara Occidental, Mauritania), habiendo trabajado para organizaciones como CARE, ITDG, SOS Kinderdorf International, Caritas Española y Fundación Mundubat. Ha sido asesor de alta dirección en el Despacho Ministerial de Salud Pública en la República del Perú. José Antonio es Antropólogo Social. Cuenta con el Diploma de Estudios Avanzados (DEA) y es candidato a Doctor en Dirección de Proyectos (Universidad de Zaragoza, España). Ha cursado asimismo el Máster in Project Management de la Universitat Ramon Llull.

El Webinar lo implementamos en la plataforma Policonecta de la UPV. Se trata de una sencilla plataforma para formación online síncrona y para trabajo colaborativo. La participación es gratuita y abierta a cualquier profesional que quiera participar. Si les gusta la idea, les dejo las instrucciones para acceder al sistema:

  • Durante una hora antes del inicio de la actividad, conéctese al sistema en la dirección http://policonecta.adobeconnect.com/cfp1
  • Acceda como invitado. Se le solicitará que indique un nombre para ser identificado en la sesión. Durante la sesión podrá participar durante la ronda de preguntas al ponente, bien por medio de la herramienta chat, bien realizando su pregunta mediante su micrónofo. Para reducir la posibilidad de que tenga problemas en el momento de la conexión, le sugerimos que pruebe si su sistema está correctamente configurado para usar este servicio. Puede hacerlo cómodamente accediendo a la siguiente dirección: https://policonecta.adobeconnect.com/common/help/es/support/meeting_test.htm
  • Si nunca ha empleado un sistema de Web-conferencing de este tipo, le sugerimos que consulte este tutorial en video: http://www.adobe.com/es/products/acrobatconnectpro/demo/

Les espero en línea el viernes.

ACTUALIZACIÓN 31/03/2012: Gracias a todas/os las/os participantes. Al final fuimos unos 50 entre las/os presenciales y las/os virtuales. A las/os que se conectaron remotamente, mis más sinceras disculpas por las dificultades técnicas. Estamos afinando la herramienta…y nos estamos afinando nosotros también, que falta nos hace. Esperemos seguir próximamente con más seminarios, más temas, más debate.

Esta semana se ha presentado la última versión del manual “Integrando Derechos Humanos y Equidad de Género en Evaluación – Hacia una Guía UNEG” (traducción libre del título Integrating Human Rights and Gender Equality in Evaluation – Towards UNEG Guidance). El pasado miércoles tuve la suerte de poder participar en el Webinar, en el que Belén Sanz, de ONU Mujeres, y Flaminia Minelli, de la Oficina del Alto comisionado para los Derechos Humanos, dieron las claves sobre la necesidad de esta guía, así como algunos de sus elementos más relevantes.

Se trata de un documento de 54 páginas, compacto y muy orientado a la práctica, en el que se pretende dar pistas de cómo hacer que nuestras evaluaciones de proyectos o programas incorporen de manera central estas dimensiones. Si usted está buscando un documento académico y sesudo, esta no es su fuente. Y creo que es uno de sus más importantes aciertos: no inventamos nuevas metodologías, aplicamos “lentes de género” y “lentes de derechos humanos” a los procesos de evaluación. Por ello, si lo consultan verán que el manual repasa las fases principales de una evaluación, subrayando a qué es importante poner atención para que dicho proceso sea más comprehensivo, y por tanto más útil.

En un primer vistazo, y a falta de un análisis más en profundidad, y sobre todo, de “probarlo” en la práctica, me llaman la atención un par de aspectos. Una primera cuestión metodológica, relacionada con la elección de métodos. El manual hace una apuesta explícita por un enfoque mixto, combinando cuantitativo y cualitativo. Más allá de parecer un simplismo o una perogrullada, creo que conlleva una carga importante de significado. Se está afirmando toda una tesis: no se puede hacer una evaluación útil en términos de derechos humanos y equidad de género si no se emplea un enfoque mixto. Así leído, suena más a declaración de intenciones, ¿verdad? El debate metodológico en Evaluación sigue abierto, y hay pugnas interesantes, así que este aporte me parece más que significativo, sobre todo viniendo de UNEG. No obstante, quedamos a la espera de ver cómo se desarrolla esta parte en la versión más completa, que está anunciada para 2012.

Una segunda cuestión, quizá en parte metodológica pero más centrada en el uso de la evaluación. Viendo el énfasis dado en el documento a las diferentes fases, se observa un gran interés por los aspectos previos, en especial por la evaluabilidad (en este caso, obviamente, expresada en términos de derechos humanos y equidad de género), y por el contrario, muy breves menciones a lo relacionado con la difusión de resultados, uso de recomendaciones, etc. Del primer aspecto me queda una duda al estilo “el huevo y la gallina”: si las intervenciones resultan no evaluables en términos de derechos humanos/equidad de género, y por tanto, no las llevamos a cabo, ¿cómo realimentamos los procesos de re-diseño para mejorar los proyectos en este sentido?. Y del segundo, sobre el uso y la difusión de resultados, de nuevo quedaría a la espera de ver la Guía completa que está por salir el año que viene, pero creo que ahí tenemos un gran talón de Aquiles, en especial en cuestiones de resistencia al cambio en los actores involucrados. La experiencia ya nos dice que una cosa es lo que recomienda el evaluador en su informe (el papel lo aguante casi todo), y otra muy distinta qué es lo que cambia (a mejor) como consecuencia de su uso. En el caso de los derechos humanos y la equidad de género, me parece más importante todavía, porque a diferencia de otras cuestiones, seguramente las recomendaciones en este sentido toquen, por ejemplo, cimientos institucionales o valores clave de la cultura organizacional de los implicados.

En cualquier caso, un aporte necesario que seguro va a resultarnos de mucha ayuda para ponernos esas “lentes” en nuestras evaluaciones. Ah, se me olvidaba, como es habitual, el documento está en inglés, pero afortunadamente habrá versión en español (y otras lenguas) próximamente, o al menos así nos lo han prometido 😉

ACTUALIZACIÓN 18/02/2012

Promesa cumplida: aquí está el documento en Español. Enhorabuena.

Abro esta nueva temporada de publicación con la bienvenida a la blogosfera de un nuevo sitio que promete muchas lecturas interesantes, pero sobre todo desafiantes. Con el sugerente título Al Borde del Caos: Desarrollo, Evaluación, Complejidad, sale hoy al espacio una publicación de Pablo Rodriguez Bilella, profesor universitario, investigador social y uno de los miembros de la comunidad internacional de evaluadores más activos en la red, en eso que se ha venido en llamar la web 2.0.

En EVALUATECA hemos tenido la suerte de contar con algunos de sus comentarios y aportaciones. También, en lo personal, he tenido el privilegio de contar con su presencia entre nosotros en España, y compartir algunas locuras experimentales, como la pasada Cesta de Aprendizajes, que comentamos en entradas de la anterior temporada, y de cuyos resultados próximamente volcaremos más madera.

No le deseo buena suerte, porque a la gente brillante como Pablo no le hace falta para que esta aventura salga bien. Le deseo mucha paciencia y mucha constancia, que desde nuestra humilde experiencia en la blogosfera, es lo que más falta hace  para darle vida a un blog. Y sobre todo, deseo que esta aventura dure mucho, estoy seguro de que vamos a descubrir nuevas cosas y a debatir mucho más Al Borde del Caos.

Háganme caso. Síganlo, en la web, en su lector de noticias habitual, y si no le tienen miedo a la velocidad, en su tuiter 😉

logo_escuela_pastilla_verde

Hace aproximadamente un año, la gente del Área de Cooperación Internacional de la Escuela Andaluza de Salud Pública tuvo el detalle de invitarme a participar en un estudio sobre el impacto de sus intervenciones en este sector en las diferentes acciones que había venido trabajando. Lamentablemente no pude participar porque la cosa requería presencialidad y yo estaba huído en el GIOS en Arizona (como seguramente algún amigo recordará). Una vez acabado el trabajo, llega el momento de socializar. Y ahora que estoy por Valencia de nuevo (más o menos), tienen de nuevo la amabilidad de invitarme a participar en una jornada para discutir sobre el tema, junto a otros ponentes y un reducido grupo de gente vinculada a la cooperación internacional desde las instituciones públicas.

Ni que decir tiene que me parece una iniciativa genial, de las que lamentablemente hay pocas en España. Pero además creo que han dado en el clavo promoviendo la asistencia y el diálogo con la cooperación descentralizada de otras comunidades autónomas, entre ellas la que resido habitualmente. El papel de la descentralizada es clave en una nueva manera de entender la articulación de actores a nivel internacional, y la evaluación debe formar parte de este nuevo discurso. Pero de este tema, evaluación y actores locales, hablaremos en otra entrada 😉

A continuación comparto el programa. Como veréis se trata de un plantel bien interesante. De hecho, vamos a ver si soy capaz de contar algo interesante ;-(  Paradójicamente, como podrán ver en el guión, me han pedido que haga un resumen del polémico informe del CDG When we ever learn?‘ y de lo que ha venido pasando al rededor del tema desde 2006. Anda que con lo que servidor ha rajado de este tema…

10’00 Presentación del evento.
José Luis Rocha. Secretario General de Calidad y Modernización.
Consejería de Salud de la Junta de Andalucía
10’15 MESA DEBATE 1
PUNTOS CRÍTICOS EN LA EVALUACIÓN DE IMPACTO EN
COOPERACIÓN INTERNACIONAL.
Modera: Miguel Casado
Responsable de Salud.
Dirección General de Planificación y Evaluación de Políticas para el
Desarrollo Ministerio de Asuntos Exteriores y de Cooperación
Conclusiones del grupo de trabajo sobre la brecha de evaluación: ¿cuándo
aprenderemos? Avances producidos desde el informe de 2006.
Ponente: Rafael Monterde Díaz.
Universidad Politécnica de Valencia
11’00 Café
11’30 La evaluación del impacto en cooperación internacional: ¿en qué punto estamos?
Ponente: José Antonio Alonso
Instituto Complutense de Estudios Internacionales
12’00 El papel de la ética en la evaluación de la cooperación al desarrollo.
Ponente: Alejandra Boni.
Escuela Técnica Superior de Ingenieros Industriales. Universidad de Valencia
12’30 La cadena de resultados y la evaluación de políticas públicas en el sector social
Ponente: Juan Murciano Rosado.
Consultor. Evaluación de Políticas Públicas
13’00 La evaluación de impacto: estado de la cuestión y aplicaciones en la cooperación para el
desarrollo en salud
Ponente: José María Larrú Ramos
Universidad CEU‐San Pablo
13’30 Debate abierto.
14’00 Comida
15’30 MESA DEBATE 2
MODELOS, BUENAS PRÁCTICAS, DIFICULTADES E INSTRUMENTOS
DISPONIBLES PARA EL DESARROLLO DE EVALUACIONES DE
IMPACTO.
Modera: Sandra Pinzón Pulido.
Escuela Andaluza de Salud Pública
Ponentes:
􀂙 Miguel Casado.
Dirección General de Planificación y Evaluación de Políticas de Desarrollo
􀂙 Carmen Pérez Samaniego.
Deutsche Gesellschaft für Technische Zusammenarbeit (GTZ)
􀂙 Carlos Asenjo.
Fondo Español de Evaluación de Impacto. Banco Mundial.
􀂙 Marie Gaarner.
Representante de IP3 (Video‐conferencia)
17’30 Identificación de líneas de trabajo conjunto.
Debate dirigido con la participación de los responsables de evaluación de las
cooperaciones descentralizadas de Andalucía, Asturias, Canarias, Cantabria,
Castilla La Mancha, Castilla y León, Cataluña, Comunidad Valenciana,
Extremadura, Galicia, Islas Baleares, La Rioja, Región de Murcia, Comunidad
Foral de Navarra y País Vasco.

Programa

Lee el resto de esta entrada »

cimg0272-copia1

Estos días andamos por el Ecuador con varias actividades de Evaluación en marcha. Una de ellas, una colaboración con los amigos y amigas del PNUD, en un interesante programa que quizá conozcan, pero que si no es el caso, les animo a echar un ojo: se trata del programa ART (Articulación de Redes Territoriales). Pueden consultar el modelo general aquí, y el caso particular de Ecuador aquí.

Andamos escasos de poesía, de innovaciones, de riesgo, en esto de la Evaluación, así que cruzarse con locos que se echan al ruedo e intentan ver esto del trabajo en desarrollo desde otra óptica, sinceramente se agradece. Hemos estado hablando mucho sobre el seguimiento y la evaluación. En particular lo primero, pero dado que en el programa hay un importante componente de apoyo a procesos, el seguimiento vira (o debería) hacia el intento de capturar los logros que las pequeñas intervenciones consensuadas entre actores locales van alcanzando.

Hemos discutido muchas cosas estos días con compañeros y compañeras que trabajan el día a día de la política pública local en lo más terrenal, y fruto de ello me surgen interrogantes/reflexiones que comparto:

a) Abro los ojos ante la articulación/coordinación/concertación. Sin duda la mejor de las estrategias para resolver viejos problemas. Lanzo un mensaje, en especial para los más heterodoxos/progres/antimétodo: el hábito no hace al monje y esta es una buena muestra. LA articulación de actores en el territorio creo que resuelve en buena parte las simplificaciones que cometemos constantemente al diseñar programas con herramientas orientadas por objetivos, orientadas a resultados, modelos lógicos o como buenamente le quieran ustedes llamar. No es tanto problema de la herramienta (que obviamente, en tanto que herramienta, tiene sus limitaciones y en este caso probablemente el límite elástico -por aquello de la flexibilidad que claman sus detractores- sea sin duda más corto). Es problema de usar ésta (o cualquier herramienta) y pensar en solucionar un problema complejo SIN TENER EN CUENTA AL RESTO DE ACTORES, que en una aproximación más sistémica, son entidades con alto grado de autonomía e intereses y mandatos no necesariamente alineados.

cimg0277-copia

b) Siguiendo con el argumento, ¿qué utilidad tendría un enfoque articulado de Evaluación? Pienso en una doble vía: que hay de bueno en la articulación para alimentar la evaluación, y viceversa. En el primer caso, un enfoque coordinado implicaría directamente réditos tan apetecibles como: menores costes y tiempos, mayor riqueza de información, aproximación más certera a la complejidad del hecho evaluado, y la guinda del pastel, una mayor probabilidad de incorporación de aprendizajes en el centro de la gestión de cada actor. En la vista opuesta: en un enfoque articulado de trabajo, la evaluación necesariamente debe decantarse hacia un enfoque formativo, una marcada orientación al aprendizaje social.

c) Todo suena a música celestial. Bajemos un poco al mundo real. ¿Qué nos hace falta para orientarnos de este modo? Si bien es cierto que hay técnicas y herramientas de evaluación disponibles para dar y vender, necesitamos una primera barrida para buscar las más apropiadas. Esto es un trabajo pendiente, y que sin poder prometer ahora que lo abordaremos, es sin duda una tentación. Apunto claves casi, casi, hablando en voz alta:

  • Necesitamos enfoques/herramientas que capturen complejidad: así que chao, chao diseños experimentales, fue bonito mientras duró 😉 Vámonos por aproximaciones en red (ARS) o herramientas cualitativas ad hoc para este tipo de intervenciones complejas (Cambio Más Significativo, MSC)
  • Necesitamos herramientas fuertemente apoyadas en la “iniciativa evaluativa” de los participantes: término casi imporvisado con el que quiero evitar decir “participativas”. Pienso incluso en enfoques en los que sin el trabajo activo de los actores la herramienta simplemente no funciona, ni trucándola. Estoy pensando en Mapeo de Alcances, más su filosofía que su praxis.
  • Necesitamos definir qué es “exitoso” en términos de articulación y como darle valor. Quisiera no caer en la simplificación de anhelar “indicadores de articulación”, aunque puede ser un paso para inocular este nuevo virus a sistemas enquistados (supongo que sería más fácil esto que decirle al PNUD que se deje de Gestión Basada en Resultados).

Veo mimbres, pero no sin cierto escepticismo. Así como creo que una iniciativa como la que he podido conocer más en detalle y compartir durante esto días es una buena muestra de que todavía hay esperanza, también me preocupa la atadura a las viejas prácticas que necesariamente mantiene (por su propia supervivencia, básicamente). Me refiero a los vicios de la cadena de la ayuda, los intereses de los donantes, la maquinaria burocrática del sistema, etc.

evaluacionescolaborativas2

Mucho discurso, poca praxis. Como dirían algunos del lado occidental del charco (atlántico) “mucho lilili, poco lalala”. Como cualquiera que esté mínimamente involucrado en la práctica de la evaluación, tanto los condicionantes operativos como en ocasiones los intereses estructurales, impiden la inclusión de formas más flexibles y más democratizadoras en los procesos evaluativos. Resulta complejo y pretendidamente caro poner en práctica mecanismos de participación activa en evaluaciones de programas. Complejo por la enorme carga de gestión de un proceso en el que tomen parte activa un buen número de actores involucrados, no necesariamente en armonía entre ellos. Por otro lado, pretendidamente caro, pues el mismo “requisito”, si así se quiere entender la evaluación en el contexto del ciclo de proyectos, se puede salvar con un paracaidista de una semana en terreno y otra en escritorio. 

En este contexto, propuestas prácticas para incorporar procesos colaborativos son sin duda un soplo de aire fresco más que necesario. Evaluaciones Colaborativas es un texto de Liliana Rodríguez, profesora del Departamento de Investigación y Medición Educativa de la Universidad de Florida del Sur. Traducción de una primera versión en inglés, el texto presenta una propuesta práctica articulada sobre un modelo en seis pasos, a partir de los cuales se ofrecen consejos prácticos extraídos de casos reales de evaluación. Tuve la suerte de conocer a Lili y a Rigo (Rigoberto Rincones, su pareja), en una conferencia de la American Evaluation Association. Ambos excelentes profesionales de la evaluación, es un gusto saber que a pesar de residir y desarrollar su carrera profesional en Estados Unidos, su compromiso con el desarrollo de una cultura evaluativa de calidad en habla hispana sigue más vigente que nunca.  

[Vía ReLAC]

En un mundo transdisciplinar, en el que carece de sentido entender la ciencia como un conjunto de cajones estancos, tiene todo el sentido del mundo la búsqueda de conexiones neuronales entre conceptos, enfoques, mecanismos, etc.

Una combinación interesante, de la que se está hablando mucho en muchos ámbitos de Evaluación (inclusive el sector privado, del que por cierto proviene esta filosofía), es la que vincula nuestra área con Gestión del Conocimiento (o como se conoce en la jerga anglosajón, KM o Knowledge Management). En una definición muy burda, vendría a ser el conjunto de procedimientos y recursos establecidos por una organización para facilitar a la misma tanto el acceso a información relevante para la toma de decisiones como la absorción y posterior uso de lecciones aprendidas a partir de la práctica en actividades previas.

En la vida real, la Gestión del Conocimiento se está quedando en muchos casos en la instalación de sistemas (basados en software) que almacenan datos y más datos sobre “cosas” que acontecen en la institución: actividades, recursos, proyectos, etc. Sin embargo, así como hay una transformación para llevar un “dato” a ser “información”, también hay otro salto entre “información” y “conocimiento”. Y esto último tiene mucho que ver con Evaluación.

Cada vez tenemos más acceso a datos, y también a información en políticas públicas. Pero, ¿sabemos más de los procesos que se están generando dentro y fuera de la institución? Y si la respuesta es afirmativa, ¿quién sabe más? ¿Se puede hablar de la organización que aprende?

Toda esta intro para dejar una pregunta en el aire y empezar a hablar. Y también para introducir alguna propuesta interesante. La Iniciativa Pelícano (no confundir con la conspiradora película de Julia Roberts) es una actividad impulsada por un grupo de instituciones con el IDRC de Canadá a la cabeza (los creadores del Mapeo de Alcances). El resto son: European Centre for Development policy Management (ECDPM), Exchange, Bellanet and Unicef East Africa Regional Office. Se trata de un sitio web para discutir sobre Aprendizaje Organizacional basado en la evidencia. ¿De dónde pueden surgir evidencias de las que aprender? Pues de los procesos de evaluación, por supuesto ;-). Para más información sobre el proceso de esta iniciativa y los alcances que se van dando, puede consultar aquí.

El foro están en inglés (en fin…). Hay temas muy interesantes, como por ejemplo “¿Cómo evaluar pertenariados?” o “Aprendizaje en la nueva arquitectura de la AOD”.

¡Ánimo y al toro! (ups, esta última expresión puede herir sensibilidades)

La semana pasada tuve la suerte de poder compartir unos días con algunos de los profesionales más relevantes en Evaluación en nuestro país: Carmen Vélez, Marian Díaz, Juan Murciano… La cita: un seminario sobre Evaluación de Políticas Públicas del Instituto Andaluz (de Administración Pública, claro).

Sevilla es una ciudad fantástica, y tanto el seminario como las tapas y las cervezas dan para intercambiar ideas. Coincidencia total entre el alumnado (gentes de diferentes administraciones andaluzas, diferentes sectores de intervención) en que la base de todos nuestros limitantes es cultural. Y no con aquella acepción de cultural como estereotipo, sino más bien de carencias en las buenas costumbres que supondrían incorporar la evaluación como un quehacer (qué bonita palabra en español) de nuestra práctica profesional. Lamentablemente, surgieron demasiados ejemplos, anécdotas, chistes, que ilustran lo mucho que nos queda en España por caminar.

¿Más temas? Pues algunas cosas que ya hemos venido comentando en EVALUATECA y que están en “la picota”: los estándares, calidad en evaluación, profesionalización. Muy interesante la idea que los compañeros andaluces están predicando: creación de unidades de evaluación. Simple, ¿verdad? pues me pregunto por qué tan simple pero tan ausente de nuestras instituciones públicas (de otras instituciones, ya, para qué hablar…).

Yo no me pude resistir y hablamos de Evaluación de Impacto, la regla de oro, etc. Se que alguno/alguna pensará que es patológico, pero, ¡caramba! qué oportuno. Descubro días antes que la Cooperación Española, en su apuesta por el multilateralismo y por la calidad de la ayuda se inclina por la Evaluación de Impacto y crea un fondo con el Banco Mundial: Fondo Español para las Evaluaciones de Impacto. En la misma línea, organiza un interesante curso la próxima semana en Madrid (claro, ¿dónde iba a ser si no?) sobre el tema y trae a expertos internacionales. Podéis ver más información en este archivo: TALLER SOBRE EL FONDO ESPANOL DE EVALUACION DE IMPACTO (SIEF). Hay que reconocer que el programa es bueno pero…hay algo que me asusta. Cito textualmente parte de la carta de motivación que se envía a posibles interesados, firmada por una responsable de Cooperación Española:

“La evaluación de impacto es uno de los instrumentos que permite obtener con un rigor científico información sobre los efectos positivos y negativos que tienen las intervenciones de desarrollo en los beneficiarios, consigue establecer una atribución causal entre la intervención llevada a cabo y los efectos generados por la misma, aumentando la certidumbre en la toma de decisiones públicas, a la hora de seleccionar entre diferentes alternativas de intervención”

En fin, que no hemos empezado más que a gatear en Evaluación (y más si cabe en Evaluación en el campo de la Ayuda al Desarrollo) y ya tenemos clarísimo que son los diseños experimentales los que nos van a sacar de las tinieblas y nos van a ayudar a formular las políticas públicas más adecuadas. La misma Cooperación Española tiene un Manual de Gestión de EValuaciones excelente, primer paso para el fortalecimientyo de capacidades de evaluación en los actores involucrados. Nos acompañó en Sevilla Cecilia Rocha, responsable de Evaluación de DGPOLDE, y comentamos esta necesidad de seguir avanzando. Sinceramente, creo que hubiera sido más inteligente por parte de los responsables políticos financiar este proceso de fortalecimiento y no un fondo de Evaluaciones para proyectos del Banco Mundial. Aunque claro, acompañar procesos cuesta mucho tiempo, algo de dinero y no se fotografía tan fácilmente.

Esta mañana he tenido mi primera experiencia como particpante en un proceso en el que los facilitadores han empleado Metodología Apreciativa. Así traduce Carme Trinidad, de la Escuela de Prevención y Seguridad Integral de la Universidad Autónoma de Barcelona (entre otras muchas actividades, según me cuenta), la denominación anglosajona Appreciative Inquiry. Ha sido una grata sorpresa, ya que la metodología me había salido varias veces en referencias, e incluso tenía pendiente trabajar más en detalle una publicación de New Directions in Evaluation coordinada por Hallie Preskill y Anne Coghlan dedicada en exclusiva al uso de esta metodología en Evaluación.

    Muy básicamente, desde una óptica de aplicación en diagnóstico/planificación, supondría un cambio de planteamiento hacia un supuesto “positivo” tanto en visiones como en, sobre todo, actitudes. Creo que esa es una de las cosas que mejor ha sabido transmitir Carme, y que intuyo que debe ser la clave del éxito. El término “apreciativa” vendría a sugerirnos más valorar/dar valor, poner en valor, destacar, tener cariño, sentir orgullo/satisfacción por algo, más que la intepretación descriptiva, del tipo “se aprecia en la siguiente figura…”. De este modo, frente a pradigmas más clásicos de análisis a partir de la identificación de problemas, necesidades, etc., la MA (me perdonen por la abreviatura recién inventada…) nos encamina a descubrir y a arrancar nuestro análisis desde lo que apreciamos en el entorno de trabjo, las experiencias positivas, los hitos que recordamos como potencial de la organización, o cuestiones similares.

    Y siguiendo en lo básico, un detalle bien simpático. Las tradicionales denominaciones de las fases metodológicas, se reconvierten a: Descubrimiento, Ensoñación, Diseño, Destino. La puesta en práctica, como no podía ser de otro modo, es muy participativa, con las ventajes y los riesgos que siempre conlleva esto.

    No he contado el contexto: se trataba de un taller para el desarrollo de la Estrategia Valenciana de Educación Ambiental para la Sostenibilidad, en particular la mesa dedicada al sector ‘Universidades’. Por ahora hemos hecho descubrimientos y ensoñaciones. Si tuviera que ir haciendo balance, por los resultados diría que esto no sirve para nada ;-). Pero como todavía tengo un poco de fe en el proceso, vamos a ver por dónde nos lleva, a los del taller y al trabajo de los compañeros que dinamizan este trabajo (vaya por delante mi felicitación, que lo tienen todo muy bien preparado).

    Como no podía ser de otro modo, he aprovechado para exprimir a Carme y aquí os dejo el enlace que me ha recomendado, que además es lo único que por ahora puedo referir en español.

    Me considero un auténtico ignorante en casi todo. Hablando de cuestiones de Cooperación Internacional, una de esas miles de cosas es la Ayuda Humanitaria. Nunca he estado involucrado en actividades, y por eso quizá esta aportación no sea de demasiada relevancia para alguien que participe activamente en acciones y/o instituciones que la promocionan. Pretendo que esto sea más pedagógico que sesudo, seguro que el video suscita a alguno/a cuestiones similares a las que me surgen a mi. Así, con suerte, iniciamos un diálogo “evaluativo”.

    Ayer tenía clase con mis alumnos (sí, adivinan, ninguna chica en clase) de la Escuela Superior de Informática Aplicada (alguno/a se quizá se sorprenda un poco pero…esto es otra historia y será contada en otra ocasión, como decía el gran Michael Ende en La historia interminable) y usé unos videos para debatir sobre Cooperación Internacional. Uno de ellos era este que presento a continuación, obra de la gente de FRIDE en una iniciativa que llevaron durante 2006 para discutir sobre Ayuda al Desarrollo en el contexto español.

    Me resultó curioso que la mitad del video (aprox. 9 minutos) hiciera referencia a la evaluación en el contexto de la ayuda humaniataria. ¿Hay un defecto de evaluación en este sector? ¿Es una cuestión de falta de metodologías específicas, una cuestión de prioridades, algún interés oculto, falta de costumbre?

    Esto es un SOS. Acepto realimentación sin medida.

    Los visitantes de EVALUATECA

    Síguenos en Twitter

    Creative Commons License
    Esta obra está bajo una licencia de Creative Commons.
    A %d blogueros les gusta esto: