You are currently browsing the tag archive for the ‘Políticas Públicas’ tag.

La Cooperación al Desarrollo de la Generalitat Valenciana elimina de sus funciones cualquier referencia a seguimiento o evaluación en su enésima reestructuración. Así de simple, así de contundente, y así de peligroso. Y si no me creen, lean ustedes mismos el nuevo Reglamento Orgánico y Funcional de la recién estrenada Conselleria de Justicia y Bienestar Social, que ahora incluye las competencias de Cooperación para el Desarrollo (para ahorrarles trabajo, artículo 12, páginas 11 y 12).

Probablemente este comentario pueda parecer un hilado demasiado fino. Sin embargo, más allá de la preocupación que puede suscitarnos a los y las que trabajamos directamente en Evaluación, y más concretamente en Evaluación de la Cooperación para el Desarrollo, creo que es un aporte más al empobrecimiento de las políticas públicas, y en especial a la de Cooperación Internacional en España.

A principios de año, un ex-técnico de la Dirección General de Cooperación al Desarrollo (uso esta denominación por razones didácticas, aunque ha cambiado varias veces de nombre durante los últimos años -interesante indicador, por otra parte-) publicaba un contundente artículo en uno de los diarios locales de mayor tirada sobre la deriva de la cooperación para el desarrollo de la Generalitat Valenciana. Si bien en algunas propuestas operativas, especialmente las relativas a evaluación, no coincido con el autor, no puedo estar más de acuerdo con el sentimiento general que transmite. Deriva ésta que en el área de Evaluación he podido comprobar en primera persona, desde el corte injustificable de proyectos de investigación en evaluación a la Universidad, hasta el bloqueo y el ninguneo constante a toda iniciativa de mejora en procesos y protocolos de seguimiento y evaluación dentro de la propia administración. Eso sin entrar en toda la ola de corrupción que ha rodeado a la gestión de la ayuda al desarrollo valenciana durante los últimos años (un buen amigo se molestó en recopilar todos los artículos de prensa publicados durante Octubre de 2010, en relación a estos escándalos, y fueron cerca de 200, entre prensa local y estatal).

Así, seguramente este nuevo capítulo no es más que la continuidad de esa deriva. De nada sirve que se haya venido trabajando por primera vez un espacio de participación de los actores de cooperación como es el Grupo de Trabajo en Evaluación (emanado del Consell Asesor de Cooperació), o que también por primera vez se cuente con personal técnico en la administración dedicado exclusivamente a la función de evaluación. ¿Falta de criterio? ¿Aleatoriedad? Seguramente una parte sea debido a ello. Pero a estas alturas, y con la que está cayendo, da que pensar.

Error garrafal, no obstante. Y ridículo absoluto, una vez más. Se está elaborando el informe de evaluación del Plan Director de la Cooperación Valenciana, encargado a una “empresa consultora de gran prestigio” (cito textualmente palabras de funcionarios responsables de la Dirección General), por supuesto sin concurso público, con nocturnidad y a precio de saldo. Pero no se preocupen, el informe no hablará de esto, pero sí nos dirá que, en líneas generales, la cooperación valenciana es exitosa, cumple con los estándares de la OCDE y es pionera en la promoción del codesarrollo. Y total, estos pequeños detalles son cuestiones menores, que vendrán en el apartado de recomendaciones, en letra pequeña.

revista8Ya está disponible la última edición de la revista editada por la Sociedad Española de Evaluación, esta vez dedicada a la evaluación de políticas públicas relacionadas con el empleo. Interesantes siempre el tema del empleo y las políticas alrededor de ello, pero especialmente relevante en el contexto en el que nos encontramos en España. Un buen termómetro para saber si la evaluación también tiene capacidad efectiva no sólo de informar de lo que ocurre o de si funciona o no una política en términos de resultados, sino para dar respuestas, en este caso ante un drama social con un rostro demasiado humano.

Pueden descargar la revista en formato electrónico aquí.

logo_escuela_pastilla_verde

Hace aproximadamente un año, la gente del Área de Cooperación Internacional de la Escuela Andaluza de Salud Pública tuvo el detalle de invitarme a participar en un estudio sobre el impacto de sus intervenciones en este sector en las diferentes acciones que había venido trabajando. Lamentablemente no pude participar porque la cosa requería presencialidad y yo estaba huído en el GIOS en Arizona (como seguramente algún amigo recordará). Una vez acabado el trabajo, llega el momento de socializar. Y ahora que estoy por Valencia de nuevo (más o menos), tienen de nuevo la amabilidad de invitarme a participar en una jornada para discutir sobre el tema, junto a otros ponentes y un reducido grupo de gente vinculada a la cooperación internacional desde las instituciones públicas.

Ni que decir tiene que me parece una iniciativa genial, de las que lamentablemente hay pocas en España. Pero además creo que han dado en el clavo promoviendo la asistencia y el diálogo con la cooperación descentralizada de otras comunidades autónomas, entre ellas la que resido habitualmente. El papel de la descentralizada es clave en una nueva manera de entender la articulación de actores a nivel internacional, y la evaluación debe formar parte de este nuevo discurso. Pero de este tema, evaluación y actores locales, hablaremos en otra entrada 😉

A continuación comparto el programa. Como veréis se trata de un plantel bien interesante. De hecho, vamos a ver si soy capaz de contar algo interesante ;-(  Paradójicamente, como podrán ver en el guión, me han pedido que haga un resumen del polémico informe del CDG When we ever learn?‘ y de lo que ha venido pasando al rededor del tema desde 2006. Anda que con lo que servidor ha rajado de este tema…

10’00 Presentación del evento.
José Luis Rocha. Secretario General de Calidad y Modernización.
Consejería de Salud de la Junta de Andalucía
10’15 MESA DEBATE 1
PUNTOS CRÍTICOS EN LA EVALUACIÓN DE IMPACTO EN
COOPERACIÓN INTERNACIONAL.
Modera: Miguel Casado
Responsable de Salud.
Dirección General de Planificación y Evaluación de Políticas para el
Desarrollo Ministerio de Asuntos Exteriores y de Cooperación
Conclusiones del grupo de trabajo sobre la brecha de evaluación: ¿cuándo
aprenderemos? Avances producidos desde el informe de 2006.
Ponente: Rafael Monterde Díaz.
Universidad Politécnica de Valencia
11’00 Café
11’30 La evaluación del impacto en cooperación internacional: ¿en qué punto estamos?
Ponente: José Antonio Alonso
Instituto Complutense de Estudios Internacionales
12’00 El papel de la ética en la evaluación de la cooperación al desarrollo.
Ponente: Alejandra Boni.
Escuela Técnica Superior de Ingenieros Industriales. Universidad de Valencia
12’30 La cadena de resultados y la evaluación de políticas públicas en el sector social
Ponente: Juan Murciano Rosado.
Consultor. Evaluación de Políticas Públicas
13’00 La evaluación de impacto: estado de la cuestión y aplicaciones en la cooperación para el
desarrollo en salud
Ponente: José María Larrú Ramos
Universidad CEU‐San Pablo
13’30 Debate abierto.
14’00 Comida
15’30 MESA DEBATE 2
MODELOS, BUENAS PRÁCTICAS, DIFICULTADES E INSTRUMENTOS
DISPONIBLES PARA EL DESARROLLO DE EVALUACIONES DE
IMPACTO.
Modera: Sandra Pinzón Pulido.
Escuela Andaluza de Salud Pública
Ponentes:
􀂙 Miguel Casado.
Dirección General de Planificación y Evaluación de Políticas de Desarrollo
􀂙 Carmen Pérez Samaniego.
Deutsche Gesellschaft für Technische Zusammenarbeit (GTZ)
􀂙 Carlos Asenjo.
Fondo Español de Evaluación de Impacto. Banco Mundial.
􀂙 Marie Gaarner.
Representante de IP3 (Video‐conferencia)
17’30 Identificación de líneas de trabajo conjunto.
Debate dirigido con la participación de los responsables de evaluación de las
cooperaciones descentralizadas de Andalucía, Asturias, Canarias, Cantabria,
Castilla La Mancha, Castilla y León, Cataluña, Comunidad Valenciana,
Extremadura, Galicia, Islas Baleares, La Rioja, Región de Murcia, Comunidad
Foral de Navarra y País Vasco.

Programa

Leer el resto de esta entrada »

cimg0272-copia1

Estos días andamos por el Ecuador con varias actividades de Evaluación en marcha. Una de ellas, una colaboración con los amigos y amigas del PNUD, en un interesante programa que quizá conozcan, pero que si no es el caso, les animo a echar un ojo: se trata del programa ART (Articulación de Redes Territoriales). Pueden consultar el modelo general aquí, y el caso particular de Ecuador aquí.

Andamos escasos de poesía, de innovaciones, de riesgo, en esto de la Evaluación, así que cruzarse con locos que se echan al ruedo e intentan ver esto del trabajo en desarrollo desde otra óptica, sinceramente se agradece. Hemos estado hablando mucho sobre el seguimiento y la evaluación. En particular lo primero, pero dado que en el programa hay un importante componente de apoyo a procesos, el seguimiento vira (o debería) hacia el intento de capturar los logros que las pequeñas intervenciones consensuadas entre actores locales van alcanzando.

Hemos discutido muchas cosas estos días con compañeros y compañeras que trabajan el día a día de la política pública local en lo más terrenal, y fruto de ello me surgen interrogantes/reflexiones que comparto:

a) Abro los ojos ante la articulación/coordinación/concertación. Sin duda la mejor de las estrategias para resolver viejos problemas. Lanzo un mensaje, en especial para los más heterodoxos/progres/antimétodo: el hábito no hace al monje y esta es una buena muestra. LA articulación de actores en el territorio creo que resuelve en buena parte las simplificaciones que cometemos constantemente al diseñar programas con herramientas orientadas por objetivos, orientadas a resultados, modelos lógicos o como buenamente le quieran ustedes llamar. No es tanto problema de la herramienta (que obviamente, en tanto que herramienta, tiene sus limitaciones y en este caso probablemente el límite elástico -por aquello de la flexibilidad que claman sus detractores- sea sin duda más corto). Es problema de usar ésta (o cualquier herramienta) y pensar en solucionar un problema complejo SIN TENER EN CUENTA AL RESTO DE ACTORES, que en una aproximación más sistémica, son entidades con alto grado de autonomía e intereses y mandatos no necesariamente alineados.

cimg0277-copia

b) Siguiendo con el argumento, ¿qué utilidad tendría un enfoque articulado de Evaluación? Pienso en una doble vía: que hay de bueno en la articulación para alimentar la evaluación, y viceversa. En el primer caso, un enfoque coordinado implicaría directamente réditos tan apetecibles como: menores costes y tiempos, mayor riqueza de información, aproximación más certera a la complejidad del hecho evaluado, y la guinda del pastel, una mayor probabilidad de incorporación de aprendizajes en el centro de la gestión de cada actor. En la vista opuesta: en un enfoque articulado de trabajo, la evaluación necesariamente debe decantarse hacia un enfoque formativo, una marcada orientación al aprendizaje social.

c) Todo suena a música celestial. Bajemos un poco al mundo real. ¿Qué nos hace falta para orientarnos de este modo? Si bien es cierto que hay técnicas y herramientas de evaluación disponibles para dar y vender, necesitamos una primera barrida para buscar las más apropiadas. Esto es un trabajo pendiente, y que sin poder prometer ahora que lo abordaremos, es sin duda una tentación. Apunto claves casi, casi, hablando en voz alta:

  • Necesitamos enfoques/herramientas que capturen complejidad: así que chao, chao diseños experimentales, fue bonito mientras duró 😉 Vámonos por aproximaciones en red (ARS) o herramientas cualitativas ad hoc para este tipo de intervenciones complejas (Cambio Más Significativo, MSC)
  • Necesitamos herramientas fuertemente apoyadas en la “iniciativa evaluativa” de los participantes: término casi imporvisado con el que quiero evitar decir “participativas”. Pienso incluso en enfoques en los que sin el trabajo activo de los actores la herramienta simplemente no funciona, ni trucándola. Estoy pensando en Mapeo de Alcances, más su filosofía que su praxis.
  • Necesitamos definir qué es “exitoso” en términos de articulación y como darle valor. Quisiera no caer en la simplificación de anhelar “indicadores de articulación”, aunque puede ser un paso para inocular este nuevo virus a sistemas enquistados (supongo que sería más fácil esto que decirle al PNUD que se deje de Gestión Basada en Resultados).

Veo mimbres, pero no sin cierto escepticismo. Así como creo que una iniciativa como la que he podido conocer más en detalle y compartir durante esto días es una buena muestra de que todavía hay esperanza, también me preocupa la atadura a las viejas prácticas que necesariamente mantiene (por su propia supervivencia, básicamente). Me refiero a los vicios de la cadena de la ayuda, los intereses de los donantes, la maquinaria burocrática del sistema, etc.

Me gustaría que éste fuera la primera de muchas entradas sobre el tema.  La cosa empieza por uno mismo, a ver si soy capaz de mantener el hilo, pero también  requiere de poder discutir sobre ello con otras y otros colegas. En caso contrario, uno acaba circulando en la misma vía, con riesgos de paranoia.

Creo que nadie se le escapa la importancia, como mínimo en el discurso, que la Declaración de París tiene para la configuración de la Ayuda al Desarrollo en el mundo de hoy. Y dado el nuevo gran marco, obvia pues la implicación para todo proceso de Evaluación ligado directa o indirectamente a este sector. ¿Obvia? Ese es mi primer cuestionamiento.

Ya hemos entrado en 2009, así que la Declaración anda por su cuarto año de existencia formal (sin contar preparativos y marcos previos, como Monterrey 2003). ¿Ha permeado realmente en la práctica de la evaluación? ¿Hasta dónde? Si pensamos en capas, ¿hasta cuál de ellas ha llegado? Como diría uno de mis más queridos y admirados profesores en mi época de estudiante de Ingeniería, “me apuesto con ustedes mil millones de cañas” a que, por ejemplo, si encuesto a 10 de mis amigos evaluadores sobre qué ha cambiado en su práctica tras la declaración, la respuesta seguramente sea “nada” en 9 de cada 10, como en el comercial de los dentistas  (nota cultural: “caña” en España es la denominación común de esa pequeña pero refrescante copita de cerveza que debe acompañar toda buena tapa/boquita/pasapalo)

Sin embargo, la resistencia es la peor de las respuestas. Los y las interesadas en Evaluación deberíamos hacer un esfuezo digamos “de interfaz”, de traductores, de “aterrizadores” de conceptos tan interesantes como la manida “accountability” o la correspondabilidad, y llevarla a los espacios de frontera. Porque en verdad son ideas intersantes, que además se quedarán en poca cosa si no permean, si sólo se pasean por las mesas de alto nivel y por los renovados manuales de las agencias.

Así pues, primer paso. Aprovecho unos correos cruzados en la lista de ReLAC para circular información interesante sobre acerca de todo esto que nos facilita Ada Ocampo, de UNICEF (¡gracias Ada!). La primera de ellas, una Nota Informativa sobre la II Fase de la Evaluacion de la Declaracion de Paris (en español). La segunda, para las que tengan más tiempo y ganas, el sitio oficial del Comité de Ayuda al Desarrollo (CAD), en particular la Red de Evaluación del CAD, que contiene todos los documentos que se van generando al respecto (oficiales, claro). En particular, aquí les dejo la versión en español del Informe de Evaluación – Fase I.

(Vía ReLAC)

[Nota quisquillosa: A pesar de que parece estar admitido por la Real Academia Española de la Lengua, no sé a quién se le ocurriría usar HARMONIZACIÓN con H, en lugar de ARMONIZACIÓN que es sin duda más natural en nuestra lengua…¿será una suerte de énfasis o pura y simple influencia del ingés -una vez más-?]

1212508090_asterix2-fullVía la lista de discusión de Mapeo de Alcances en inglés (¡gracias Simon!), me llega una noticia realmente interesante y poco habitual. El año pasado, la cooperación británica (DFID) creó un espacio centrado en la Evaluación del Impacto en Desarrollo de su política de cooperación (véase IACDI). La iniciativa convoca a interesados e interesadas a responder una serie de cuestiones sobre su política de evaluación para definir una “evaluación independiente de la ayuda al desarrollo” de su país.

Para ello ha abierto un proceso en el que recogerá las opiniones y sugerencias de cuantos y cuantas quieran ofrecer su visión y sus sugerencias. Creo que este es el camino, sin duda, para el desarrollo de políticas públicas inclusivas en las que la ciudadanía crea, y en particular éstas referidas a cooperación al desarrollo. Y desde el punto de vista de evaluación, es un mecanismo privilegiado para hacer de los procesos evaluativos en el futuro una herramienta de aprendizaje y de control social a un tiempo.

¿Podríamos imaginar algo así en nuestros países de habla hispana? Por lo que respecta a España, en calidad de donante…pues sin restar los esfuerzos que se han hecho y los que en particular se están dando en los últimos tiempos, creo que dista un ápice. Alguien me podría argumentar que, por ejemplo, el últimoborrador del Plan Director de Cooperación Española, se ha circulado entre diferentes agentes y se han establecido mecanismos para la recogida de opiniones, sugerencias, etc. Me consta que mucha gente ha hecho el esfuerzo de trabajarse el documento (que como ya comentamos en una entrada anterior, tenía mucha más enjundia que los anteriores, en positivo, y por tanto requería de mayor esfuerzo para su análisis), pero de nuevo los tiempos y los modos de nuestro sistema de administración pública nos ahogan. No, unas reuniones sectoriales en Madrid quince días después de circular el borrador dan para lo que dan. Es un paso, pero estamos lejos.

Mismo caso aplica para la Descentralizada, que por su porpia naturaleza debiera ser si cabe mucho más participada por la ciudadanía y en particular por los agentes más directamente implicados. Claro, eso si la Descentralizada fuera reflejo de la política basada en lo local. Pero mientras, al menos en Cooperación, siga siendo en muchas Comunidades ese ejemplo paradigmático de no-definición de políticas (es decir, el “todo cabe”) y, sobre todo, un conjunto de saquitos (algunos ya no tan pequeños) de dinerito público sin ningún rédito educativo, social o cultural a la ciudadanía que lo paga, pues claro…hacer estos malabarismos participativos será como aquella de Astérix: “están locos estos hijos de la Gran Bretaña

 

ACTUALIZACIÓN 17/12/08: Justo después de escribir esta entrada me llegó desde mi Universidad un correo sobre el proceso de revisión del futuro Plan Director de Cooperación Española al que hacía referencia. Error de cálculo por mi parte, el proceso sigue con una segunda ronda. Creo que el tema merece una entrada específica, en el que al igual que la primera que hice, facilitaré la información que he recibido de forma que puedan estar al tanto del proceso y colaborar en la medida que consideren oportuno.

En un mundo transdisciplinar, en el que carece de sentido entender la ciencia como un conjunto de cajones estancos, tiene todo el sentido del mundo la búsqueda de conexiones neuronales entre conceptos, enfoques, mecanismos, etc.

Una combinación interesante, de la que se está hablando mucho en muchos ámbitos de Evaluación (inclusive el sector privado, del que por cierto proviene esta filosofía), es la que vincula nuestra área con Gestión del Conocimiento (o como se conoce en la jerga anglosajón, KM o Knowledge Management). En una definición muy burda, vendría a ser el conjunto de procedimientos y recursos establecidos por una organización para facilitar a la misma tanto el acceso a información relevante para la toma de decisiones como la absorción y posterior uso de lecciones aprendidas a partir de la práctica en actividades previas.

En la vida real, la Gestión del Conocimiento se está quedando en muchos casos en la instalación de sistemas (basados en software) que almacenan datos y más datos sobre “cosas” que acontecen en la institución: actividades, recursos, proyectos, etc. Sin embargo, así como hay una transformación para llevar un “dato” a ser “información”, también hay otro salto entre “información” y “conocimiento”. Y esto último tiene mucho que ver con Evaluación.

Cada vez tenemos más acceso a datos, y también a información en políticas públicas. Pero, ¿sabemos más de los procesos que se están generando dentro y fuera de la institución? Y si la respuesta es afirmativa, ¿quién sabe más? ¿Se puede hablar de la organización que aprende?

Toda esta intro para dejar una pregunta en el aire y empezar a hablar. Y también para introducir alguna propuesta interesante. La Iniciativa Pelícano (no confundir con la conspiradora película de Julia Roberts) es una actividad impulsada por un grupo de instituciones con el IDRC de Canadá a la cabeza (los creadores del Mapeo de Alcances). El resto son: European Centre for Development policy Management (ECDPM), Exchange, Bellanet and Unicef East Africa Regional Office. Se trata de un sitio web para discutir sobre Aprendizaje Organizacional basado en la evidencia. ¿De dónde pueden surgir evidencias de las que aprender? Pues de los procesos de evaluación, por supuesto ;-). Para más información sobre el proceso de esta iniciativa y los alcances que se van dando, puede consultar aquí.

El foro están en inglés (en fin…). Hay temas muy interesantes, como por ejemplo “¿Cómo evaluar pertenariados?” o “Aprendizaje en la nueva arquitectura de la AOD”.

¡Ánimo y al toro! (ups, esta última expresión puede herir sensibilidades)

No se si alguna vez les ha llegado la cantinela, pero a mi me empieza a sonar demasiado. Parece que se extiende en España algo cercano a una “leyenda urbana” que vendría a justificarnos que los fondos de Ayuda al Desarrollo generados desde las administraciones locales (Comunidades Autónomas, Diputaciones, Ayuntamientos) son “más” en todo: más eficientes, más orientados a necesidades de los más desfavorecidos, más consensuadas con las ONGD…

Creo que hace mucha falta, YA, entrar en serio en una dinámica de fomento de la cultura de evaluación en estos espacios. Algunas pistas que apuntaban esta necesidad ya nos las ponía, negro sobre blanco, Carlos Gómez Gil, en su publicación “La cooperación descentralizada en España: ¿motor de cambio o espacio de incertidumbre?“, editada por Bakeaz en 2001.

Ya comentamos en una entrada anterior el caso de la Cooperación de la Generalitat Valenciana. Para su deleite, y para que mantengamos en alto un espíritu crítico en todo momento, aquí dejo un par de “perlas” (gracias, Iván). Les aseguro que no tienen precio: una intervención de la alcaldesa de Lasarte, sra. Uchueguía, vice-presidenta del Euskal Fondoa y Presidenta de la Comisión de Cooperacion al Desarrollo de la Federación Española de Municipios y Provincias. Juzguen ustedes mismos.

Este es un comentario que no por local deja de tener vigor en otros contextos. Y es que nos acostumbramos demasiado a los atropellos que vienen de las “instituciones públicas”. A veces nos parecen monstruos inabordables que, como consecuencia, convierten a sus responsables en semidioses inalcanzables. De este modo, es fácil cometer atropellos públicos a plena luz del día y no salir mal parado.

El pasado 5 de septiembre, en diario valenciano Levante, se publicó un artículo de opinión de Antonio Arnau, conocido activista social, sobre lo ocurrido con los fondos de Ayuda al Desarrollo durante este año, que culminó con la publicación de las modificaciones presupuestarias de la Generalitat Valenciana por las que la AOD valenciana quedaba reducida a la mitad. Creo que el artículo explica con claridad lo ocurrido. Como bien reza el título, una auténtica lección de como saltarse a la torera los mínimos éticos y salir airoso (vale la pena leer la definición de “desaprensivo” en la RAE).

Durante las posteriores semanas, y entrando en el normal rodaje postvacacional, parece que el sector ONGD organizado ha empezado a manifestarse abiertamente en contra. No tenéis más que seguir la web de la Coordinadora de ONGD o si quieréis un buen resumen, echar un vistazo a este video

Por no perder el hilo de la Bitácora, ¿qué lectura o qué consecuencias tiene esta decisión en evaluación? Se me ocurren unas cuantas, pero me centraré en la de mayor amplitud: la política pública. Y es que según el Plan Director de la Cooperación Valenciana 2004-2007, las acciones promovidas por la institución (y llevadas a cabo directa o indirectamente por ella) serían evaluadas en el marco de un proceso multinivel, desde los proyectos específicos hasta el plano de las políticas de cooperación (vamos, el propio plan en sí). Los sucesivos Planes Anuales (2005, 2006 y 2007) fueron remarcando la misma nacesidad (digo la misma porque el lector comprobará que son un copia-pega textual al más puro estilo al que me vienen acostumbrando mis alumnos -solo que a ellos sí los puedo suspender-). En el Plan 2007 señalaba incluso que YA se estaban haciendo evaluaciones (dónde están, no se) y que se preparaba la madre de todas ellas, la del Plan.

Estamos entrando en octubre y nada sabemos del proceso evaluativo. Por supuesto, con el cambio de responsables de gobierno, todo puede haber pasado. Pero no importa: una decisión presupuestaria de este calado invalida casi cualquier aprendizaje. Y no porque lo hecho hasta el momento no sea susceptible de ser evaluado y sus lecciones aprendidas. Sino porque ¿cuál será la capacidad real de incorporar los aprendizajes en la adminsitración pública si a sus responsables no les tiembla el pulso para mover los fondos públicos a su antojo, sin el menor respeto a los compromisos por ellos mismos adquiridos en diciembre pasado?

Junto a las medidas de presión política de la sociedad civil organizada, quizá deberíamos impulsar un proceso de evaluación de la política valenciana de cooperación sin esperar a que la administración pública la encargue. Yo me apunto. ¿Alguien se anima?

Mucho se está hablando estos años de Inmigración en general, y de Codesarrollo si particularizamos para el ámbito de la Ayuda al Desarrollo. Hablar, por hablar, bastante. ¿Iniciativas? Sí, yo diría que muchas, y creciendo exponencialmente su número. Sin ánimo de ser purista o de caer en academicismo, me da la sensación de que hay asuntos previos que tratar antes de lanzarse al activismo (insisto, sin querer pecar de inmovilismo). Algo no está claro (y por tanto, no puede acabar yendo bien) cuando en el mismo cajón del Codesarrollo, por ejemplo, caen iniciativas tan diferentes como un proyecto productivo en una comunidad de un país del Sur o una exposición fotográfica sobre refugiados. Quizá haya quien piensa que exagero, pero ahí están las primeras resoluciones de convocatorias de financiadoras públicas (y privadas).

Con lo que respecta a la evaluación…ay!, no nos queda. Creo que a este tema le dedicaremos más de una y más de dos entradas. Para ir abriendo boca, dejo algunos datos sobre Planes de Inmigración de diferentes instituciones públicas. Me envía Javier Ibañez, de TRELLAT, algunos datos “curiosos”, por llamarlos de alguna manera. ¿Qué referencias hay en los planes sobre Evaluación? ¿Qué mecanismos se han previsto en su diseño previo? Veamos algunos ejemplos

Ejemplo 1: Capital de provincia con cerca de 50.000 habitantes.
Plan Local de Inmigración.
Hace referencia a los mecanismos de evaluación del Plan, incluso se definen indicadores de Evaluación. No haremos una relación extensiva de todos ellos para no aburrir, simplemente mencionaremos algunos de ellos:

  • Campañas de información y sensibilización, programas y recursos llevados a cabo sobre la inmigración.
  • Número de recursos de información y orientación en las administraciones públicas para inmigrantes.
  • Media de edad de las personas atendidas
  • Materiales de difusión elaborados

Ejemplo 2: Municipio de cerca de 30.000 habitantes
Plan Local de Inmigración.
Este también hace referencia a la necesidad de los mecanismos de evaluación y define indicadores de evaluación. Algunos de ellos:

  • Número de guías (sobre recursos existentes) distribuidas y canales utilizados
  • Número de campañas (difundiendo algunas actividades y servicios municipales) realizadas
  • Número de charlas y cursos realizados
  • Número de personas atendidas

Estos mismos ayuntamientos son los que en sus convocatorias de subvenciones a ONG, especifican, por ejemplo, que los indicadores de evaluación (para esto si se leyeron los manuales metodológicos) tienen que hacer referencia al menos a calidad, cantidad, tiempo y a la población beneficiaria.

Pero si estos dos ejemplos llaman la atención, vamos con el doble mortal con tirabuzón:

Ejemplo 3: Comunidad Autónoma con cerca de 5 millones de habitantes
Plan Autonómico de Inmigración
Al hablar del modelo autonómico de inmigración afirma que el Plan Autonómico de Inmigración “…deberá prever sus propios mecanismos de seguimiento, evaluación y readaptación…”, pero no dice cuales. En el epígrafe específico de “Evaluación y seguimiento del Plan Autonómico de la Inmigración”, reitera

… la necesidad de establecer una serie de mecanismos que posibiliten la evaluación del grupo de programas diseñados en el Plan, de manera que sea posible determinar el grado de consecución de los objetivos marcados poniéndolos en relación con la eficacia y coordinación de los diferentes agentes que intervienen en la aplicación del Plan [Autonómico] para la Inmigración, todo ello con el fin de mejorar la actividad integradora y potenciar el cumplimiento de objetivos conducentes al establecimiento de una sociedad capaz de adaptarse y dar respuesta a las necesidades de quienes constituyen la población real de la [Comunidad Autónoma]…

Pero, ¿cuáles son esos mecanismos?. Ni una sola palabra. Creo que los textos hablan por si solos de la “cultura de evaluación” que nos rodea. No es que sean las instituciones públicas las únicas que deben potenciarla, pero deben hacerlo, y probablemente deberían ser ejemplo a seguir. Evidentemente, en estos días inciertos, aprender no interesa.

Los visitantes de EVALUATECA

Síguenos en Twitter

Creative Commons License
Esta obra está bajo una licencia de Creative Commons.
A %d blogueros les gusta esto: