You are currently browsing the tag archive for the ‘Cultura de Evaluación’ tag.

 

Durante esta temporada, estoy colaborando con los amigos y amigas del CECOD (Centro de Estudios de Cooperación al Desarrollo, Madrid), en un proyecto de investigación en el que llevan trabajando los últimos tres años. La iniciativa está centrada en el Desarrollo de Capacidades de los agentes de Cooperación para el Desarrollo. Una de las líneas de trabajo con más peso en proyecto es la evaluación.

El proyecto ha generado resultados muy interesantes para la reflexión y también para la acción. Entre ellos, particularmente destacaría dos. El primero, un análisis comparativo de Juan Andrés Ligero sobre los criterios del CAD/OCDE para evaluación versus la Teoría de Programa como enfoque comprehensivo. El segundo, un estudio de José María Larrú y María Méndez sobre la integración efectiva de la evaluación en el ciclo de proyecto basado en las mejores prácticas disponibles en el sector en España.

Siguiendo esta línea de trabajo, me toca la enorme responsabilidad de seguir avanzando por la vía de la Calidad y la Utilidad de las evaluaciones. El objetivo de la investigación es profundizar en la contribución que la evaluación está haciendo (o no) a la mejora de las intervenciones de cooperación para el desarrollo. Posteriormente, se pretende apuntar a un posible marco de referencia de Estándares de Calidad en Evaluación para el sector elaborado de forma consensuada por los diferentes actores. Esperamos que dicho marco contribuya a mejorar la calidad del proceso global, promoviendo una mayor calidad y uso de las evaluaciones para la generación de aprendizaje y la toma de decisiones en las intervenciones de Cooperación al desarrollo.

El próximo viernes 26 de octubre tendrá lugar el primer taller de trabajo de esta fase. El listón está bien, pero que bien alto, tanto por los compañeros y las compañeras que me preceden, como por los y las profesionales del sector que participan en el proceso. Y el resto tampoco se queda nada corto. Deséenos suerte.

En estos instantes en los que escribo estas líneas tiene lugar en Rio de Janeiro el IV Seminario de la Red Brasileira de Evaluación. Siempre es bueno felicitar y felicitarse por este tipo de acciones, especialmente cuando dan continuidad a ediciones anteriores, como es el caso. Pero sobre todo, me viene bien como excusa para hablar de un buen ejemplo de asociación de evaluadoras y evaluadores (o lo que los/as amigos/as angloparlantes están dando en llamar las VOPE – Voluntary Organizations of Professional Evaluators). Pero para que no se me olvide el leiv motiv, antes un breve comentario sobre el contenido del Seminario.

Como la mayoría de los/as mortales no tendremos la suerte de poder asistir, sí espero que los/as compañeros/as de la Red puedan socializarnos productos y reflexiones surgidas estos días en su encuentro. Estoy seguro de que lo harán, es parte de su tónica habitual, de su «buean práctica», uno de los puntos que pretendía mencionar y que luego retomamos. Por de pronto podemos ver el contenido programado aquí. Creo muy acertada la elección de temas, porque va muy al grano de algunas de las cosas que se están hablando en las redes.

Quizá haya gente a la que le parezca repetitivo, por ejemplo, volver a hablar de Modelos Lógicos, pero cuanto más leo o participo en discusiones (presenciales o virtuales), más me doy cuenta que mucho del disenso se basa en el desconocimiento de los elementos básicos. Y es por esto que las discusiones resultan a veces tan cansinas.

Hablar de Métodos Mixtos (cuanti/cuali) es otro viejo-nuevo tema, que en estos últimos tiempos emerge como respuesta al creciente interés en la Evaluación de Impacto. Un lujazo tener al viejo maestro Michael Bamberger junto Thomaz Chianca para esta discusión (por cierto, aunque me cueste ser objetivo ya que Thomaz es además un buen amigo, me hace gracia que en el programa esté catalogado como «experto nacional» cuando en estos momentos es sin duda uno de los jóvenes líderes internacionales de pensamiento en Evaluación).

Y si lo uno es importante, no menos lo es lo otro: hablar de Cultura de Evaluación, y en particular en el sector de las organizaciones de la sociedad civil. Y aquí creo que los/as compañeros/as brasileiros/as tienen mucho que aportarnos al resto sobre su larga experiencia. Ahora hablando en particular por la parte española, creo que un buen baño de aprendizajes y buenas prácticas en esta línea no nos haría nada mal. Con los ponentes vuelvo a no poder ser nada objetivo, la hemos pasado demasiado bien por esos mundos con Rogério Silva y Daniel Brandão 😉 Hablando en serio, creo que su larga trayectoria de acompañamiento al desarrollo de capacidades de evaluación, entre otros en su etapa del Instituto Fonte, les otorgan una buena dosis de autoridad en el tema.

Yendo al tema de la Red Brasileira como buena práctica, destacaría algunas claves que a mi juicio la han hecho una de las VOPE de referencia mundial:

  • Una condición de partida: el caldo de cultivo brasileiro era y es perfecto para todo lo que tiene que ver con la cultura organizativa, especialmente lo relacionado con la participación social (casi se podría decir que la inventaron ellas/0s) 😉
  • Una estructura en red descentralizada: probablemente obligada por las características propias de la geografía brasileira (es un ejemplo que he visto en otros programas y organizaciones y parece coincidir), la participación de los/as interesados/as en evaluación requiere evitar el excesivo peso local de una sede central o de un grupo de impulsores que «casualmente» están en la misma ciudad (que «caualmente» suele ser la capital administrativa y/o económica del país).
  • Un soporte TIC consolidado: ligado fuertemente con lo anterior, la Red Brasileira se ha caracterizado desde sus inicios por estar muy presente en la red y por emplearla a fondo.
  • Un agente dinamizador: la experiencia parece estar demostrando en las organizaciones de evaluación que si alguien o «alguienes» no desempeñan tal función, la red por si misma resulta lenta de movimientos. No quiero decir con esto que la solución pasa siempre por personal remunerado para funciones de este tipo, pero ejemplos como el de Marcia Paterno o como Emma Rotondo en PREVAL (Perú) son a todas luces exitosos.

Lanzado el guante, quedamos a la espera de alimento evaluativo para el intelecto y el debate.

Lee el resto de esta entrada »

En estos días, mientras trabajo en una evaluación en la que en más de una ocasión se me ha recordado la importancia de valorar los efectos generados por el proyecto evaluado, así como la contribución de la institución a dichos cambios, es inevitable repensar una vez más sobre el giro del discurso evaluativo hacia los manidos «resultados«. Gestión basada en resultados, para resultados de desarrollo, resultados e impactos…una amalgama de argumentos que, en mi opinión, incluyen planteamientos de base muy distintos.

Recomiendo esta entrada de Owen abroad, titulada «Siete preocupaciones sobre enfocar en resultados, y cómo manejarlas«. Desde una perspectiva crítica sobre la reduccionismo de una parte de las corrientes que apuntan a resultados (insisto, creo que no son todas, y que bajo este paraguas hay diversidad e incluso divergencia), el artículo hace una revisión sobre la importancia de tomarse el discurso en serio y buscar el modo de conjugar los diferentes intereses que apuntan los dichosos «resultados». En un escenario de crisis internacional, marcado entre otras muchas cosas por la recomposición de la llamada «Arquitectura de la Ayuda», hay que entender el valor simbólico de los Resultados de esa ayuda y de quien la maneja (agencias públicas y privadas, ONG, sistemas nacionales de países receptores…).

Creo que el planteamiento es valiente: urge un replanteamiento total, no una evolución más o menos amigable. Hacer de la Ayuda una estrategia que aporte significativamente a la lucha contra la pobreza y la promoción de un desarrollo más equitativo y más sostenible requiere de la ruptura con algunos de los lastres todavía enquistados en la estructura. En caso contrario estamos hablando de una superposición de otra tarea más a la maquinaria existente, y como resultado (valga la redundancia) sólo obtendremos desidia, como ya estamos observando. Muchos/as profesionales del desarrollo no entienden el valor añadido (quizá además no lo tiene) de devanarse los sesos con más matrices para elucubrar su contribución, pero sin sacrificar un milímetro el cumplimiento de un plan rígido, preestablecido y centrado en su protagonismo como agente de cambio, no en sus socios.

De lo que no estoy tan seguro es de los medios. No puedo evitar preguntarme una vez más qué se entiende por evaluación de impacto «rigurosa». De hecho, no sé si todos/as entendemos y buscamos lo mismo el mirar hacia el «impacto». Entiéndaseme bien, no estoy negando su importancia, pero como diría mi buen amigo y admirado Mauri, «no sé si todos estamos claros». En cualquier caso, cada vez más me convenzo de que la Evaluación es el aporte crítico, la llave -si es que la hay- para desencadenar el cambio de planteamiento. Pero para usar la llave necesitamos una mano con convicción para abrir la puerta. Necesitamos Capacidades de evaluación.

Mi labor docente en la Universidad Politécnica de Valencia está ligada desde hace más de una década al Project Management (PM). Siempre ha sido una continua dialéctica la confrontación entre las técnicas, instrumentos e incluso la filosofía del PM, y todo lo bebido del la gestión en el mundo del Desarrollo. Y frente a lo que pudiera parecer, no está todo resuelto. ¿Son necesarias las técnicas de PM en los proyectos de Ayuda al Desarrollo? ¿Son compatibles la participación, la trasnformación social, el empoderamiento de los más desfavorecidos, con la gestión técnica profesional? ¿Ayuda el PM a una evaluación últil en términos de mejora y aprendizaje de las organizaciones?

Para seguir pensando y reflexionando en estas y otras cuestiones, hemos organizado un WEBINAR, es decir, una Conferencia On Line, con el sugerente título de «Estrategias del Project Management en la Ayuda al Desarrollo: potencialidades y limitaciones para una gestión responsable de las intervenciones«. Nos facilitará la reflexión José Antonio Monje, coordinador regional de Monitoreo y Evaluación para América Latina y Caribe de Save the Children. La cita: el próximo viernes 30 de marzo, a las 17 horas (GMT +1, Valencia, España) (si quiere conocer la hora de inicio en su localidad, puedo hacerlo aquí). La conferencia forma parte del programa Ágora Global del Máster Universitario en Cooperación al Desarrollo, que en su especialización de Gestión de Proyectos y Procesos de Desarrollo se imparte en la UPV.

Para los que no lo conozcan, José Antonio es un activo miembro de la comunidad evaluadora en español, especialmente en el mundo de las redes sociales. Como en estas cosas es obligado y recomendable hablar de la trayectoria de los/as ponentes, les cuento que José Antonio es especialista en gestión, diseño, seguimiento y evaluación de proyectos de cooperación al desarrollo e inversión social pública, con amplia experiencia en gestión de proyectos en diversos países de América Latina (Ecuador, Perú, Bolivia, Cuba, Guatemala, Nicaragua, El Salvador, Brasil) y Norte de África (Argelia, Sahara Occidental, Mauritania), habiendo trabajado para organizaciones como CARE, ITDG, SOS Kinderdorf International, Caritas Española y Fundación Mundubat. Ha sido asesor de alta dirección en el Despacho Ministerial de Salud Pública en la República del Perú. José Antonio es Antropólogo Social. Cuenta con el Diploma de Estudios Avanzados (DEA) y es candidato a Doctor en Dirección de Proyectos (Universidad de Zaragoza, España). Ha cursado asimismo el Máster in Project Management de la Universitat Ramon Llull.

El Webinar lo implementamos en la plataforma Policonecta de la UPV. Se trata de una sencilla plataforma para formación online síncrona y para trabajo colaborativo. La participación es gratuita y abierta a cualquier profesional que quiera participar. Si les gusta la idea, les dejo las instrucciones para acceder al sistema:

  • Durante una hora antes del inicio de la actividad, conéctese al sistema en la dirección http://policonecta.adobeconnect.com/cfp1
  • Acceda como invitado. Se le solicitará que indique un nombre para ser identificado en la sesión. Durante la sesión podrá participar durante la ronda de preguntas al ponente, bien por medio de la herramienta chat, bien realizando su pregunta mediante su micrónofo. Para reducir la posibilidad de que tenga problemas en el momento de la conexión, le sugerimos que pruebe si su sistema está correctamente configurado para usar este servicio. Puede hacerlo cómodamente accediendo a la siguiente dirección: https://policonecta.adobeconnect.com/common/help/es/support/meeting_test.htm
  • Si nunca ha empleado un sistema de Web-conferencing de este tipo, le sugerimos que consulte este tutorial en video: http://www.adobe.com/es/products/acrobatconnectpro/demo/

Les espero en línea el viernes.

ACTUALIZACIÓN 31/03/2012: Gracias a todas/os las/os participantes. Al final fuimos unos 50 entre las/os presenciales y las/os virtuales. A las/os que se conectaron remotamente, mis más sinceras disculpas por las dificultades técnicas. Estamos afinando la herramienta…y nos estamos afinando nosotros también, que falta nos hace. Esperemos seguir próximamente con más seminarios, más temas, más debate.

El Comité de Ayuda al Desarrollo de la OCDE acaba de publicar el informe sobre la Cooperación Española, como parte de las revisiones por pares que realizan sobre los donantes miembros de este club cada cuatro años. Aquí pueden consultar el resumen ejecutivo con los principales hallazgos y recomendaciones, y si todavía tienen ganas y nada mejor que hacer, aquí pueden descargarse la versión completa (sí, lo han adivinado, está en inglés).

Si les soy sincero, nunca le he tenido demasiada fe a este informe. No he tenido el privilegio de participar en ninguno de los procesos de consulta (bueno, algo negativo tenía que tener la independencia), pero sí de contrastarlo con mis propias vivencias y las de otros y otras colegas de profesión. Y la verdad, siempre hemos notado un importante grado de complacencia. No en vano se trata de una «evaluación entre pares». Pares que tienen importantes intereses cruzados, por lo que el principio básico de independencia en una evaluación con un importante componente/lectura sumativo/a queda en grave entredicho. Recuerdo más de cerca el proceso de revisión del 2002 (ya hablamos de casi una década), en la que la región donde vivo fue elegida como un caso de estudio, para inferir cómo era la Cooperación Descentralizada. Y ya ven en lo que nos hemos convertido…

Así pues, cuando uno lee una valoración crítica o al menos poco «polite» en este informe, empieza a pensar que quizá, sólo quizá, si se atreven a poner algo así de un amigo, es que va en serio. Como no podía ser de otro modo, le he puesto un poco más de atención a lo relativo a la Evaluación. Compruebo que la percepción compartida con colegas del sector también es percibida por los «reviewers»: la presencia de la evaluación ha crecido principalmente por la obligatoriedad de evaluar proyectos que los receptores de financiación pública (básicamente ONG) han tenido estos años:

«Much of this sharp increase is a consequence of a requirement for all NGO agreements above a certain value to be evaluated»

(mucho de este importante incremento es una consecuencia del requerimiento en todos los acuerdos con ONG de evaluar aquellos por encima de un determinado monto)

¿Genera este incremento mayor cultura de evaluación? Sin duda, si no hacemos evaluaciones nunca aprenderemos, es como patinar o ir en bicicleta. El problema es por qué lo hacemos. Porque si el incentivo único es cumplir un requerimiento, sin duda la capacidad de generar aprendizaje y mejora de las acciones usando los resultados de esas evaluaciones es mínima, tendiendo a nula. Ello, por supuesto, sin contar con la degradación de la función de evaluación y, como consecuencia de su calidad técnica y su capacidad de innovación. El informe revela este sentimiento, en perlas como ésta:

«monitoring still tended to give more weight to how money was spent, as the agency lacked the right indicators to measure results and impact«

(el monitoreo sigue tendiendo a dar más importancia a cómo se gasta el dinero, dado que la agencia (AECID) carece de los indicadores para medir resultados e impactos»)

Esta sencilla pero contundente sentencia representa la razón última de las cosas, más allá de complejos conceptos que cada día se van incorporando al acervo cultural de los y las profesionales del desarrollo. Escribir en un papel el «compromiso por» es simplemente eso, palabras en un papel. Se las lleva menos que las que se dicen al viento, pero acaban olvidándose. Y eso es, sencillamente, lo que le ha pasado a nuestra Ayuda al Desarrollo. Hemos sido víctimas de un error tan básico en Cooperación como reiterado. A nadie se le ocurre ya pensar en proyectos de Desarrollo que no cuenten con la gente, con todos y todas, y especialmente con los y las protagonistas de la historia. Tampoco creeemos ya en las recetas escritas desde arriba, ni en las soluciones milagrosas que llevan el progreso en tiempo récord. Sin embargo, eso mismo era el Plan Director de la Cooperación Española 2009-2012, una invención, una entelequia, una creencia ilusoria. Un ejercicio académico manejado por pocas manos para su propia gloria, y al servicio de intereses políticos de imagen exterior.

Las consecuencias de todo ello: desconfianza. Desconfianza en que la Evaluación puede ir más allá de la función burocrática. Y en el escenario económico y político tan dantesco que vivimos, con mayor razón. Que no nos extrañe que gracias a este malabarismo planificador y evaluativo pensado desde arriba, desde pocas manos y con intereses particulares, nos tengamos que conformar con poco o ningún presupuesto para evaluación y mejora desde el sector público, con la vuelta a herramientas de auditoría y control financiero y que el desarrollo venga «por añadidura» o «por teoría del goteo». A soportar a los nuevos responsables ortodoxos usando el poderoso «ya te lo dije, esto no funcionaría».

Por si fuera poco, nada aprenderemos como nada hemos aprendido. En el informe que les contaba hecho en 2002, ya se le decía a la Ayuda Española que tenía que definir criterios explícitos para justificar su planificación, la elección de prioridades geográficas, sectoriales, instrumentos, etc. Casi diez años después, vuelven a decirle lo mismo. Y los responsables «se irán de rositas» (como decimos por acá), pues tendrán la «suerte» de que podrán seguir usando esa estrategia tan suya de las «atribuciones externas», como dicen los psicólogos. Vamos, echarle la culpa a otros, al clima, o como en este caso, a la crisis y al cambio de gobierno.

Ya saben, si es que la culpa de todo…la tiene Yoko Ono

 

Seguimos a vueltas con el desarrollo de capacidades de evaluación, pendientes (y participando en la medida que se pueda) del taller de trabajo para el desarrollo de una norma ISO que comentábamos estos días. Parece que el tema ha despertado interés en blogosfera, tuitesfera, listesfera o como le quieran llamar a nuestra discusión en línea.

De lo que hemos podido ir debatiendo sobre conclusiones del taller, se han abordado temas mucho interés y que darían, cada uno de ellos, para una entrada exclusiva. Extraigo algunos de ellos que me parecen relevantes y que también hemos tratado en EVALUATECA en algunas ocasiones.

En la segunda sesión de taller se hizo un dibujo de las concepciones actuales que rondan sobre el tema, y creo que coinciden mucho con la parcepción que se tuvo en la discusión paralela en la lista de ReLAC: hay una visión reduccionista y con bajo nivel de apropiación del concepto por parte de todos los actores implicados. Frases como «Tiene una agenda impulsada por los donantes«, «Es impuesta externamente«, «Se confunde con la formación (training)» o «Es acerca de la capacitación de los funcionarios públicos, sin otros actores relevantes» parecen definir la visión más extendida, sin duda no es  la deseable. Por oposición, podríamos pensar, de cara a un estándar, que la referencia debiera ser lo contrario: capacidades frente a conocimientos, apropiación frente a imposición, aprendizaje frente a cumplimiento. Un resumen breve, de nuevo, podemos escucharlo en boca de otro de los participantes, Alexey Kuzmin, uno de los máximos impulsores de la cultura de evaluación en la Comunidad de Estados Independientes (ex-repúblicas soviéticas):

Por cierto, por cortesía de Alexey, pueden ver en su (más que recomendable) blog de evaluación el resultado de una de las herramientas empleadas en el taller: un mapa mental sobre el concepto de Desarrollo de Capacidades de Evaluación.

En la tercera sesión, continuando con la visión comentada anteriormente, se ha dado un paso en la conceptualización del Desarrollo de Capacidades de Evaluación que sería desarrollado (valga la redundancia) en la norma. Un par de claves destacaría en esta línea. En primer lugar, el establecimiento de principios básicos, que como dicen los participantes «trascienden al proceso»: apropiación/propiedad (siempre díficil traducir «Ownership»), relevancia, sistémico, propositivo-flexible y sostenible.  Me parece interesante que se incluya lo «sistémico» (quiero pensar que se refieren a enfoque de sistemas, como abordaje de lo complejo -no en vano está Bob Williams moderando-), pues le da al proceso el empaque que veníamos comentando: una conceptualización amplia, que da importancia a la multiplicidad de actores,  relaciones y momentos (dinámica del sistema).  A mi juicio, una acertada actualización. Aquí pueden ver un breve comentario sobre las bondades de la idea, a cargo de otro de los participantes, el especialista holandés Wouter Rijneveld:

Y en segundo lugar, algo que creo que calmará a más de un/a escéptico/a. Se habla de la no vinculación del Desarrollo de Capacidades a un enfoque específico de Evaluación. Como dice el gran Bob Picciotto, en estos tiempos de guerra de paradigmas, es bueno el reconocimiento de que cabe más de un enfoque (dominante). Me parece un buen punto de partida. Ahora bien, me pregunto cómo se articulará en la norma (si es que no se deja simplemente en abierto) la necesidad de conocer, o de usar, o de instalar cierta capacidad de uso de conceptos de evaluación que son más propios de unos enfoques que de otros. ¿Será necesario siempre usar indicadores? ¿Pensaremos siempre en resultados? ¿Será imperativo incorporar la participación en todas las evaluaciones?

Hay un detalle que me gustaría señalar, y que creo que es una buena muestra de cómo están cambiando las cosas…pero de lo mucho que nos queda a la comunidad evaluadora por andar. Hoy los participantes del taller han dedicado un espacio en su agenda para presentar y debatir comentarios vertidos en paralelo en las redes sociales. Buenísima noticia, y buenísimo el criterio de los organizadores. Yo en particular es la priemra vez que veo que una actividad internacional sobre evaluación maneja aportes en tiempo real de twitter, facebook, foros, etc. Ojala se pueda mantener el pulso del debate, y sobre todo, como pedían en las redes, un proceso «post-Ginebra».

Durante estos días está teniendo lugar una actividad en Ginebra, que si bien puede haber pasado algo desapercibida en la comunidad internacional de evaluación (y en especial en la comunidad hispanoparlante), puede ser el germen de algo realmente importante en el futuro de nuestra profesión.

Hablamos del taller para impulsar el proceso de creación de un Estándar para el Desarrollo de Capacidades de Evaluación. Se trata de un primer encuentro de profesionales pertenecientes a instituciones y redes internacionales de evaluación, con el objetivo de trazar los pasos para arrancar con el proceso formal de desarrollo de un estándar dentro de ISO (International Organization for Standarization). A riesgo de simplificar en exceso, pero para que se hagan una idea de la dimensión del asunto, estamos hablando de la institución internacional que entre otras cosas sostiene referencias como los estándares de Gestión de Calidad (las famosas normas ISO 9000, elemento absolutamente básico de calidad para el sector empresarial, y también para instituciones públicas y privadas no lucrativas), Gestión Ambiental, y un larguísimo etcétera. La actividad ha sido impulsada por un grupo de profesionales de la evaluación (me atrevería a decir de locos/as geniales) que forman el Evaluation Capacity Development Group, con Karen Russon a la cabeza, y está siendo dinamizada por el maestro Bob Williams.

Para los/as que no podemos estar presentes en la preciosa Suiza, el ECDG nos pone a disposición las redes sociales para participar y aportar ideas al respecto. Toda la información, programa, documentos de trabajo, etc., está disponible aquí (en inglés). También podemos seguir los avances, distribuir la información y aportar mediante twitter (@ecdgupdates , o con el hastag #ECDG) o en su página de Facebook. Creo que desde la comunidad de evaluadores/as en español tenemos mucho que decir y que aportar en este proceso, así que animo a toda/os las/os compañeras/os a seguir el taller, usar las redes, hablar del tema en nuestros foros.

Y para muestra de las facilidades que comentaba, un botón, como dicen en mi tierra: un resumen de lo acontecido hoy contado por uno de sus protagonistas,  ni más ni menos que Donald Yarbrough, actual presidente del JCSEE (Joint Committee on Standards for Educational Evaluation, sin duda la referencia histórica con mayúsculas en estándares de evaluación, y por supuesto un actor clave en este proceso).

Ya decía Schumacher en los setenta que «lo pequeño es hermoso«. En nuestros días, una idea como ésta, por pequeña que sea, solo necesita ser buena para correr como la pólvora por las redes y hacerse presente, cambiar el mundo a mejor, aunque sea un poquito. ¿Se apuntan?

Me llega por un amigo de la Universidad (¡grácias Álvaro!) el documento de «POSICIÓN ESPAÑOLA AL IV FORO DE ALTO NIVEL DE BUSAN«, en la práctica, el argumentario diplomático a defender por nuestro país en el próximo foro sobre la Ayuda al Desarrollo. No encuentro nada de interés sobre Evaluación, excepto una referencia al seguimiento de la Declaración de París.

Lo que sí encuentro son contradicciones, mucha tecno-jerga y, sobre todo, brindis al sol, algo tan propio de la Cooperación Internacional y de lo que España ha hecho gala estos años (con algunos aciertos, todo hay que decirlo…pero ya veremos el balance, y lo peor, el futuro próximo). Hay muchas muy graciosas, como las recomendaciones a los países del Sur sobre evasión de impuestos, control a las trasnacionales, redistribución de la riqueza, etc. Ya quisiera yo estas recomendaciones para mi propio país. Pero como este no pretende ser un espacio de análisis político general, menciono una algo más cercana a nuestro tema, que me ha llamado profundamente la atención.

A vueltas con la Gestión para Resultados de Desarrollo (ya saben, la versión más humana y más chévere de la Gestión basada en Resultados), aparece la siguiente afirmación:

«Deben abordarse con prudencia aquellos enfoques que presenten riesgos tales como la focalización en intervenciones cuantificables o de corto plazo«

Quiero pensar que lo de cuantificable y lo de corto plazo no pretenden ser sinónimo. ¿O sí? Pero EN EL SIGUIENTE PÁRRAFO afirma:

«La implementación de la GpRD pasa por un alto grado de apropiación del país socio, y precisa de sistemas estadísticos y de información de calidad, así como un sistema de gestión pública basado en resultados«

Entonces, ¿en qué quedamos? ¿Cuantificamos o no? Y por cierto, qué bonito sería que España se aplicara las recetas que predica. ¿Dónde se puede acceder en la administración a datos de la AOD española de manera rápida, ágil y fiable? (hablo de datos, ya de resultados, como el chiste, ni hablamos) ¿Qué fue del glorioso intento de generar un sistema único de gestión de la información de la AOD española y favorecer el acceso a los/as ciudadanos/as?

Com deia la meua iaia «arrancá de macho, pará de burro«.

PD: Mejores y más críticas ideas al hilo de la AOD pueden encontrarlas en este documento de la Asociación Latinoamericana de Organizaciones de Promoción al Desarrollo – ALOP , que estos días circulaban en twitter algunos/as colegas

 

 

La Cooperación al Desarrollo de la Generalitat Valenciana elimina de sus funciones cualquier referencia a seguimiento o evaluación en su enésima reestructuración. Así de simple, así de contundente, y así de peligroso. Y si no me creen, lean ustedes mismos el nuevo Reglamento Orgánico y Funcional de la recién estrenada Conselleria de Justicia y Bienestar Social, que ahora incluye las competencias de Cooperación para el Desarrollo (para ahorrarles trabajo, artículo 12, páginas 11 y 12).

Probablemente este comentario pueda parecer un hilado demasiado fino. Sin embargo, más allá de la preocupación que puede suscitarnos a los y las que trabajamos directamente en Evaluación, y más concretamente en Evaluación de la Cooperación para el Desarrollo, creo que es un aporte más al empobrecimiento de las políticas públicas, y en especial a la de Cooperación Internacional en España.

A principios de año, un ex-técnico de la Dirección General de Cooperación al Desarrollo (uso esta denominación por razones didácticas, aunque ha cambiado varias veces de nombre durante los últimos años -interesante indicador, por otra parte-) publicaba un contundente artículo en uno de los diarios locales de mayor tirada sobre la deriva de la cooperación para el desarrollo de la Generalitat Valenciana. Si bien en algunas propuestas operativas, especialmente las relativas a evaluación, no coincido con el autor, no puedo estar más de acuerdo con el sentimiento general que transmite. Deriva ésta que en el área de Evaluación he podido comprobar en primera persona, desde el corte injustificable de proyectos de investigación en evaluación a la Universidad, hasta el bloqueo y el ninguneo constante a toda iniciativa de mejora en procesos y protocolos de seguimiento y evaluación dentro de la propia administración. Eso sin entrar en toda la ola de corrupción que ha rodeado a la gestión de la ayuda al desarrollo valenciana durante los últimos años (un buen amigo se molestó en recopilar todos los artículos de prensa publicados durante Octubre de 2010, en relación a estos escándalos, y fueron cerca de 200, entre prensa local y estatal).

Así, seguramente este nuevo capítulo no es más que la continuidad de esa deriva. De nada sirve que se haya venido trabajando por primera vez un espacio de participación de los actores de cooperación como es el Grupo de Trabajo en Evaluación (emanado del Consell Asesor de Cooperació), o que también por primera vez se cuente con personal técnico en la administración dedicado exclusivamente a la función de evaluación. ¿Falta de criterio? ¿Aleatoriedad? Seguramente una parte sea debido a ello. Pero a estas alturas, y con la que está cayendo, da que pensar.

Error garrafal, no obstante. Y ridículo absoluto, una vez más. Se está elaborando el informe de evaluación del Plan Director de la Cooperación Valenciana, encargado a una «empresa consultora de gran prestigio» (cito textualmente palabras de funcionarios responsables de la Dirección General), por supuesto sin concurso público, con nocturnidad y a precio de saldo. Pero no se preocupen, el informe no hablará de esto, pero sí nos dirá que, en líneas generales, la cooperación valenciana es exitosa, cumple con los estándares de la OCDE y es pionera en la promoción del codesarrollo. Y total, estos pequeños detalles son cuestiones menores, que vendrán en el apartado de recomendaciones, en letra pequeña.

Abro esta nueva temporada de publicación con la bienvenida a la blogosfera de un nuevo sitio que promete muchas lecturas interesantes, pero sobre todo desafiantes. Con el sugerente título Al Borde del Caos: Desarrollo, Evaluación, Complejidad, sale hoy al espacio una publicación de Pablo Rodriguez Bilella, profesor universitario, investigador social y uno de los miembros de la comunidad internacional de evaluadores más activos en la red, en eso que se ha venido en llamar la web 2.0.

En EVALUATECA hemos tenido la suerte de contar con algunos de sus comentarios y aportaciones. También, en lo personal, he tenido el privilegio de contar con su presencia entre nosotros en España, y compartir algunas locuras experimentales, como la pasada Cesta de Aprendizajes, que comentamos en entradas de la anterior temporada, y de cuyos resultados próximamente volcaremos más madera.

No le deseo buena suerte, porque a la gente brillante como Pablo no le hace falta para que esta aventura salga bien. Le deseo mucha paciencia y mucha constancia, que desde nuestra humilde experiencia en la blogosfera, es lo que más falta hace  para darle vida a un blog. Y sobre todo, deseo que esta aventura dure mucho, estoy seguro de que vamos a descubrir nuevas cosas y a debatir mucho más Al Borde del Caos.

Háganme caso. Síganlo, en la web, en su lector de noticias habitual, y si no le tienen miedo a la velocidad, en su tuiter 😉

Los visitantes de EVALUATECA

Creative Commons License
Esta obra está bajo una licencia de Creative Commons.