El Comité de Ayuda al Desarrollo de la OCDE acaba de publicar el informe sobre la Cooperación Española, como parte de las revisiones por pares que realizan sobre los donantes miembros de este club cada cuatro años. Aquí pueden consultar el resumen ejecutivo con los principales hallazgos y recomendaciones, y si todavía tienen ganas y nada mejor que hacer, aquí pueden descargarse la versión completa (sí, lo han adivinado, está en inglés).

Si les soy sincero, nunca le he tenido demasiada fe a este informe. No he tenido el privilegio de participar en ninguno de los procesos de consulta (bueno, algo negativo tenía que tener la independencia), pero sí de contrastarlo con mis propias vivencias y las de otros y otras colegas de profesión. Y la verdad, siempre hemos notado un importante grado de complacencia. No en vano se trata de una «evaluación entre pares». Pares que tienen importantes intereses cruzados, por lo que el principio básico de independencia en una evaluación con un importante componente/lectura sumativo/a queda en grave entredicho. Recuerdo más de cerca el proceso de revisión del 2002 (ya hablamos de casi una década), en la que la región donde vivo fue elegida como un caso de estudio, para inferir cómo era la Cooperación Descentralizada. Y ya ven en lo que nos hemos convertido…

Así pues, cuando uno lee una valoración crítica o al menos poco «polite» en este informe, empieza a pensar que quizá, sólo quizá, si se atreven a poner algo así de un amigo, es que va en serio. Como no podía ser de otro modo, le he puesto un poco más de atención a lo relativo a la Evaluación. Compruebo que la percepción compartida con colegas del sector también es percibida por los «reviewers»: la presencia de la evaluación ha crecido principalmente por la obligatoriedad de evaluar proyectos que los receptores de financiación pública (básicamente ONG) han tenido estos años:

«Much of this sharp increase is a consequence of a requirement for all NGO agreements above a certain value to be evaluated»

(mucho de este importante incremento es una consecuencia del requerimiento en todos los acuerdos con ONG de evaluar aquellos por encima de un determinado monto)

¿Genera este incremento mayor cultura de evaluación? Sin duda, si no hacemos evaluaciones nunca aprenderemos, es como patinar o ir en bicicleta. El problema es por qué lo hacemos. Porque si el incentivo único es cumplir un requerimiento, sin duda la capacidad de generar aprendizaje y mejora de las acciones usando los resultados de esas evaluaciones es mínima, tendiendo a nula. Ello, por supuesto, sin contar con la degradación de la función de evaluación y, como consecuencia de su calidad técnica y su capacidad de innovación. El informe revela este sentimiento, en perlas como ésta:

«monitoring still tended to give more weight to how money was spent, as the agency lacked the right indicators to measure results and impact«

(el monitoreo sigue tendiendo a dar más importancia a cómo se gasta el dinero, dado que la agencia (AECID) carece de los indicadores para medir resultados e impactos»)

Esta sencilla pero contundente sentencia representa la razón última de las cosas, más allá de complejos conceptos que cada día se van incorporando al acervo cultural de los y las profesionales del desarrollo. Escribir en un papel el «compromiso por» es simplemente eso, palabras en un papel. Se las lleva menos que las que se dicen al viento, pero acaban olvidándose. Y eso es, sencillamente, lo que le ha pasado a nuestra Ayuda al Desarrollo. Hemos sido víctimas de un error tan básico en Cooperación como reiterado. A nadie se le ocurre ya pensar en proyectos de Desarrollo que no cuenten con la gente, con todos y todas, y especialmente con los y las protagonistas de la historia. Tampoco creeemos ya en las recetas escritas desde arriba, ni en las soluciones milagrosas que llevan el progreso en tiempo récord. Sin embargo, eso mismo era el Plan Director de la Cooperación Española 2009-2012, una invención, una entelequia, una creencia ilusoria. Un ejercicio académico manejado por pocas manos para su propia gloria, y al servicio de intereses políticos de imagen exterior.

Las consecuencias de todo ello: desconfianza. Desconfianza en que la Evaluación puede ir más allá de la función burocrática. Y en el escenario económico y político tan dantesco que vivimos, con mayor razón. Que no nos extrañe que gracias a este malabarismo planificador y evaluativo pensado desde arriba, desde pocas manos y con intereses particulares, nos tengamos que conformar con poco o ningún presupuesto para evaluación y mejora desde el sector público, con la vuelta a herramientas de auditoría y control financiero y que el desarrollo venga «por añadidura» o «por teoría del goteo». A soportar a los nuevos responsables ortodoxos usando el poderoso «ya te lo dije, esto no funcionaría».

Por si fuera poco, nada aprenderemos como nada hemos aprendido. En el informe que les contaba hecho en 2002, ya se le decía a la Ayuda Española que tenía que definir criterios explícitos para justificar su planificación, la elección de prioridades geográficas, sectoriales, instrumentos, etc. Casi diez años después, vuelven a decirle lo mismo. Y los responsables «se irán de rositas» (como decimos por acá), pues tendrán la «suerte» de que podrán seguir usando esa estrategia tan suya de las «atribuciones externas», como dicen los psicólogos. Vamos, echarle la culpa a otros, al clima, o como en este caso, a la crisis y al cambio de gobierno.

Ya saben, si es que la culpa de todo…la tiene Yoko Ono