You are currently browsing the tag archive for the ‘Aprendizaje’ tag.

El próximo día 6 de julio de 2011, tendrá lugar la “Cesta de Aprendizajes (CdA): Sistematización de Experiencias en Cooperación al Desarrollo” en la Universidad Politécnica de Valencia. La dinamización de la sesión de trabajo presencial correrá a cargo de Óscar Jara, y se contará además con la presencia y dinamización on-line de Pablo Rodríguez Bilella.

La sesión de trabajo de la tarde, que tendrá lugar a las 4 p.m. hora española, podrá ser seguida en directo a través de este enlace. Una vez en el entorno virtual, se podrá acceder a la sesión sin necesidad de alta previa al introducir un nombre de usuario en la opción “invitado”. Para dinamización on-line en twitter durante toda la CdA se usará el hastag #sistv.

El término Cesta de Aprendizajes (CdA) se ha acuñado para definir un formato de grupo de trabajo donde cada una de las personas participantes comparte con el resto de asistentes su experiencia en relación a la temática, con una dinámica y un orden de las cosas que se construye en el propio proceso a partir de una creación colectiva.

Bajo este formato, se trabajará con un reducido grupo de asistentes -miembros de ONGD- para poner en común los mecanismos con los que cuentan a nivel institucional para aprender de los procesos que acompañan y profundizar sobre las posibilidades que ofrece la Sistematización de Experiencias en este contexto.

Óscar Jara es educador popular. En la actualidad ejerce como Director del Centro de Estudios y Publicaciones ALFORJA. Oscar es, sin lugar a dudas, la principal referencia en la metodología y la praxis del enfoque de Sistematización de Experiencias en Latinoamérica. Ha participado como educador y facilitador en procesos sociales durante más de 30 años, experiencia que refleja en la abundante bibliografía que ha venido publicando, en la que revisa tanto aspectos teóricos y metodológicos como, sobre todo, reflexiones desde la experiencia.

Pablo Rodríguez Bilella es Profesor de la cátedra “Antropología Social y Cultural”, en la carrera de Trabajo Social, FACSO, Universidad Nacional de San Juan y miembro del Comité Ejecutivo de la Red de Seguimiento, Evaluación y Sistematización de América Latina y el Caribe (ReLAC), así como del Board de la International Organization for Cooperation in Evaluation (IOCE).

e-azul

Hoy era el inicio del trabajo de campo de una evaluación de proyecto que me han encargado, acá en Quito. Se trata de un programa cuyo componente central arrancó allá por el 2001, con un servicio de microcredito a la vivienda de interés social. Y un original modelo de colaboración de entidades: administración pública (mediante un bono a la vivienda), empresa privada (mediante la construcción de las viviendas con unos costes ajustados y precios sin competencia), sector financiero (apoyando en el crédito hipotecario) y el tercer sector, tanto en Ecuador como en España, apoyando donde el sistema no llega.

Las señoras que ven en la foto son «beneficiadas» del proyecto. Doña Orfi, que la ven a la derecha toda disciplinada, es una mujer de 71 años con una lucidez que ya la quisiera yo ahora. Según lo previsto, tendrá su casa dentro de poco, que no llevará apenas acabados, pero de la que dice con orgullo que será «el lugar donde ha de morir tranquila». En realidad la casa es la de Orvis, la tremenda negrota a la izquierda, una mujer del Valle del Chota que jamás hizo un trabajo remunerado y que siempre se quedó en la casa al cuidado de su familia hasta que la oportunidad de tener la seguridad de un techo digno y propio le movió el piso para buscarse la vida de empleada doméstica (no sin la reticencia de su marido, al que se refiere susurrando para que no le oiga desde la habitación del fondo). Un trabajo al que ni ella ni el resto de compañeras que se embarcaron en la aventura de una vida algo más digna van a renunciar, porque ahora dicen con orgullo que son más independientes…y que todas forman una gran familia.

Y mientras escucho las historias de cada una de las compañeras, me pregunto cómo voy a reflejar todo esto en mi marco de evaluación. Me pregunto cómo describir la lucha de doña Orfi como madre soltera, las dificultades de Orvis y sus hermanas para no dejar de pagar ni un solo mes, si ni si quiera estaban en el plan previsto. No, ellas no estaban en el Marco de Resultados. El Equinoccio Azul, como así se llama su condominio, no era un resultado esperado. No había ni autoestima ni sonrisas previstas, tan solo número de créditos otorgados y talleres impartidos.

¿Saben qué? Me importa un pimiento. Creo que es hora de hacer la excepción. Sus vidas cambiaron, y no lo digo yo, lo dicen ellas, y eso es lo realmente importante. Yo no lo puedo medir, tan solo les puedo contar.

cimg0272-copia1

Estos días andamos por el Ecuador con varias actividades de Evaluación en marcha. Una de ellas, una colaboración con los amigos y amigas del PNUD, en un interesante programa que quizá conozcan, pero que si no es el caso, les animo a echar un ojo: se trata del programa ART (Articulación de Redes Territoriales). Pueden consultar el modelo general aquí, y el caso particular de Ecuador aquí.

Andamos escasos de poesía, de innovaciones, de riesgo, en esto de la Evaluación, así que cruzarse con locos que se echan al ruedo e intentan ver esto del trabajo en desarrollo desde otra óptica, sinceramente se agradece. Hemos estado hablando mucho sobre el seguimiento y la evaluación. En particular lo primero, pero dado que en el programa hay un importante componente de apoyo a procesos, el seguimiento vira (o debería) hacia el intento de capturar los logros que las pequeñas intervenciones consensuadas entre actores locales van alcanzando.

Hemos discutido muchas cosas estos días con compañeros y compañeras que trabajan el día a día de la política pública local en lo más terrenal, y fruto de ello me surgen interrogantes/reflexiones que comparto:

a) Abro los ojos ante la articulación/coordinación/concertación. Sin duda la mejor de las estrategias para resolver viejos problemas. Lanzo un mensaje, en especial para los más heterodoxos/progres/antimétodo: el hábito no hace al monje y esta es una buena muestra. LA articulación de actores en el territorio creo que resuelve en buena parte las simplificaciones que cometemos constantemente al diseñar programas con herramientas orientadas por objetivos, orientadas a resultados, modelos lógicos o como buenamente le quieran ustedes llamar. No es tanto problema de la herramienta (que obviamente, en tanto que herramienta, tiene sus limitaciones y en este caso probablemente el límite elástico -por aquello de la flexibilidad que claman sus detractores- sea sin duda más corto). Es problema de usar ésta (o cualquier herramienta) y pensar en solucionar un problema complejo SIN TENER EN CUENTA AL RESTO DE ACTORES, que en una aproximación más sistémica, son entidades con alto grado de autonomía e intereses y mandatos no necesariamente alineados.

cimg0277-copia

b) Siguiendo con el argumento, ¿qué utilidad tendría un enfoque articulado de Evaluación? Pienso en una doble vía: que hay de bueno en la articulación para alimentar la evaluación, y viceversa. En el primer caso, un enfoque coordinado implicaría directamente réditos tan apetecibles como: menores costes y tiempos, mayor riqueza de información, aproximación más certera a la complejidad del hecho evaluado, y la guinda del pastel, una mayor probabilidad de incorporación de aprendizajes en el centro de la gestión de cada actor. En la vista opuesta: en un enfoque articulado de trabajo, la evaluación necesariamente debe decantarse hacia un enfoque formativo, una marcada orientación al aprendizaje social.

c) Todo suena a música celestial. Bajemos un poco al mundo real. ¿Qué nos hace falta para orientarnos de este modo? Si bien es cierto que hay técnicas y herramientas de evaluación disponibles para dar y vender, necesitamos una primera barrida para buscar las más apropiadas. Esto es un trabajo pendiente, y que sin poder prometer ahora que lo abordaremos, es sin duda una tentación. Apunto claves casi, casi, hablando en voz alta:

  • Necesitamos enfoques/herramientas que capturen complejidad: así que chao, chao diseños experimentales, fue bonito mientras duró 😉 Vámonos por aproximaciones en red (ARS) o herramientas cualitativas ad hoc para este tipo de intervenciones complejas (Cambio Más Significativo, MSC)
  • Necesitamos herramientas fuertemente apoyadas en la «iniciativa evaluativa» de los participantes: término casi imporvisado con el que quiero evitar decir «participativas». Pienso incluso en enfoques en los que sin el trabajo activo de los actores la herramienta simplemente no funciona, ni trucándola. Estoy pensando en Mapeo de Alcances, más su filosofía que su praxis.
  • Necesitamos definir qué es «exitoso» en términos de articulación y como darle valor. Quisiera no caer en la simplificación de anhelar «indicadores de articulación», aunque puede ser un paso para inocular este nuevo virus a sistemas enquistados (supongo que sería más fácil esto que decirle al PNUD que se deje de Gestión Basada en Resultados).

Veo mimbres, pero no sin cierto escepticismo. Así como creo que una iniciativa como la que he podido conocer más en detalle y compartir durante esto días es una buena muestra de que todavía hay esperanza, también me preocupa la atadura a las viejas prácticas que necesariamente mantiene (por su propia supervivencia, básicamente). Me refiero a los vicios de la cadena de la ayuda, los intereses de los donantes, la maquinaria burocrática del sistema, etc.

evaluacionescolaborativas2

Mucho discurso, poca praxis. Como dirían algunos del lado occidental del charco (atlántico) «mucho lilili, poco lalala». Como cualquiera que esté mínimamente involucrado en la práctica de la evaluación, tanto los condicionantes operativos como en ocasiones los intereses estructurales, impiden la inclusión de formas más flexibles y más democratizadoras en los procesos evaluativos. Resulta complejo y pretendidamente caro poner en práctica mecanismos de participación activa en evaluaciones de programas. Complejo por la enorme carga de gestión de un proceso en el que tomen parte activa un buen número de actores involucrados, no necesariamente en armonía entre ellos. Por otro lado, pretendidamente caro, pues el mismo «requisito», si así se quiere entender la evaluación en el contexto del ciclo de proyectos, se puede salvar con un paracaidista de una semana en terreno y otra en escritorio. 

En este contexto, propuestas prácticas para incorporar procesos colaborativos son sin duda un soplo de aire fresco más que necesario. Evaluaciones Colaborativas es un texto de Liliana Rodríguez, profesora del Departamento de Investigación y Medición Educativa de la Universidad de Florida del Sur. Traducción de una primera versión en inglés, el texto presenta una propuesta práctica articulada sobre un modelo en seis pasos, a partir de los cuales se ofrecen consejos prácticos extraídos de casos reales de evaluación. Tuve la suerte de conocer a Lili y a Rigo (Rigoberto Rincones, su pareja), en una conferencia de la American Evaluation Association. Ambos excelentes profesionales de la evaluación, es un gusto saber que a pesar de residir y desarrollar su carrera profesional en Estados Unidos, su compromiso con el desarrollo de una cultura evaluativa de calidad en habla hispana sigue más vigente que nunca.  

[Vía ReLAC]

En un mundo transdisciplinar, en el que carece de sentido entender la ciencia como un conjunto de cajones estancos, tiene todo el sentido del mundo la búsqueda de conexiones neuronales entre conceptos, enfoques, mecanismos, etc.

Una combinación interesante, de la que se está hablando mucho en muchos ámbitos de Evaluación (inclusive el sector privado, del que por cierto proviene esta filosofía), es la que vincula nuestra área con Gestión del Conocimiento (o como se conoce en la jerga anglosajón, KM o Knowledge Management). En una definición muy burda, vendría a ser el conjunto de procedimientos y recursos establecidos por una organización para facilitar a la misma tanto el acceso a información relevante para la toma de decisiones como la absorción y posterior uso de lecciones aprendidas a partir de la práctica en actividades previas.

En la vida real, la Gestión del Conocimiento se está quedando en muchos casos en la instalación de sistemas (basados en software) que almacenan datos y más datos sobre «cosas» que acontecen en la institución: actividades, recursos, proyectos, etc. Sin embargo, así como hay una transformación para llevar un «dato» a ser «información», también hay otro salto entre «información» y «conocimiento». Y esto último tiene mucho que ver con Evaluación.

Cada vez tenemos más acceso a datos, y también a información en políticas públicas. Pero, ¿sabemos más de los procesos que se están generando dentro y fuera de la institución? Y si la respuesta es afirmativa, ¿quién sabe más? ¿Se puede hablar de la organización que aprende?

Toda esta intro para dejar una pregunta en el aire y empezar a hablar. Y también para introducir alguna propuesta interesante. La Iniciativa Pelícano (no confundir con la conspiradora película de Julia Roberts) es una actividad impulsada por un grupo de instituciones con el IDRC de Canadá a la cabeza (los creadores del Mapeo de Alcances). El resto son: European Centre for Development policy Management (ECDPM), Exchange, Bellanet and Unicef East Africa Regional Office. Se trata de un sitio web para discutir sobre Aprendizaje Organizacional basado en la evidencia. ¿De dónde pueden surgir evidencias de las que aprender? Pues de los procesos de evaluación, por supuesto ;-). Para más información sobre el proceso de esta iniciativa y los alcances que se van dando, puede consultar aquí.

El foro están en inglés (en fin…). Hay temas muy interesantes, como por ejemplo «¿Cómo evaluar pertenariados?» o «Aprendizaje en la nueva arquitectura de la AOD».

¡Ánimo y al toro! (ups, esta última expresión puede herir sensibilidades)

Esta es una entrada con sabor a crónica. No acostumbramos a ello, pero me parece que vale la pena poner una nota de normalidad. Los y las buenas amigas me dicen que EVALUATECA peca de tecnicismo.

Estos días andamos en El Salvador. Hoy hemos tenido una mañana fructífera, sin duda. Primero con Carmen Valle, de la Red Salvadoreña de Evaluación, y después con Natalia Colomé, de la Universidad (Nacional) de El Salvador, Facultad de Medicina.

No quiero aburrir con la crónica narrada en términos de secuencia, de contenidos. Valdría más la pena unas fotos para ello, pero los que me conocen saben que no ando con cámara digital, aunque tarde o temprano claudicaré (como pasó con el móvil). Así que voy a los aprendizajes.

Con Carmen descubrimos, o mejor redescubrimos, que la manera más enriquecedora y, curiosamente, más eficiente para hacer evaluaciones en proyectos internacionales es contar con redes de evaluadores. Perogrullada, pensarán algunos, pero ¿quieren que hagamos una cuenta de cuántas evaluaciones de proyectos de AOD las realizan expertos nacionales del país receptor? Seguro que todos sabemos, más o menos, el resultado. Por otro lado, la importancia, una vez más, de las redes/sociedades de evaluación como referencia para la práxis profesional. Imprescindible fortalecer la referencia a los profesionales de evaluación de cada país. Y como colofón: la importancia de la ética de la evaluación. Demasiadas evaluaciones por cumplimiento de expediente.

Con Natalia redescubrimos que Universidad pública y eficiencia son palabras más que compatibles. Reconocemos que Universidad pública y compromiso con su entorno socioeconómico, político, cultural, etc. es un hecho intrínseco, ineludible. Y constatamos una práxis de gestión de calidad en proyectos poco esperable en nuestras Universidades de origen. Me gustaría saber cuántos proyectos de nuestras Universidades españolas realizan un proceso de autoevaluación con los actores implicados motu propio. A Natalia y su grupo nadie se lo pide (bueno, yo esta mañana, pero llegué tarde). Natalia y su grupo lo hacen porque saben que aprenden en el proceso.

Viajar ilustra, que bien dice mi querido padre.

El uso de la técnica de Análisis de Fortalezas, Debilidades, Oportunidades y Amenazas (DAFO para la versión ibérica, FODA para la latinoamericana, SWOT en la literatura anglosajona) se ha generalizado extraordinariamente para diferentes objetivos y en diferentes fases del ciclo del proyecto. Como toda técnica «aparentemente fácil» de entender y de aplicar, este empleo generalizado también lleva asociado en ocasiones una puesta en práctica no demasiado ortodoxa de la cuestión, si vamos a lo estricto de la definición. De todos modos, como bien sabemos en Evaluación, la ortodoxia extrema nos puede llevar a la inutilidad más absoluta, así que, en definitiva, tener el DAFO en la caja de herramientas como evaluador/a nunca está de más.

Quizá lo que sí me he topado algunas veces, y me consta que no soy el único, es con cierta «vaguedad» en el uso posterior de una matriz DAFO. Quiero decir con esto: seguro que mas de una y más de uno se ha encontrado con esa «arrancada de macho, parada de burro» en el proceso. Una tremenda euforia colectiva en el sesudo descubrimiento de todos, absolutamente todos los factores que influyen en el proceso, sus dobles y triples lecturas («es que según lo mires, es una oportunidad pero también es una amenaza«), y un largo etcétera de variantes. Y tras pintar la matriz ¿qué hacemos con ella?

He usado el DAFO para el análisis de factores de viabilidad en proyectos. Tras una matriz completa (y en la que hemos podido conseguir una amplia participación de grupos y actores involucrados en el proceso), resulta muy útil tener la información algo más masticada. Esto puede significar desde armar una jerarquía de factores, para facilitar su uso posterior a la hora de seleccionar estrategias de intervención, hasta valorar de un modo más preciso la importancia de dichos factores, así como su interrelación, para depurar el análisis y simplificar los procesos de decisión posteriores.

Toda esta larga introducción para recomendar una llamada de atención a la combinación de técnicas (especialmente el binomio cuantitativo-cualitativo). Hay que huir de las recetas o de los métodos que garantizan resultados definitivos. Es mucho más rico (genera mayor aprendizaje) y es más efectiva la combinación de aquellas técnicas que en el contexto determinado que nos encontremos puedan facilitar la obtención de productos o resultados que esperamos. ¿Cómo elegirlas? Eso forma parte de la vertiene artísitica de todo/a evaluador/a.

Es curioso que mientras pensaba en estas cosas me he topado con un artículo al respecto. Para los/as atrevidos/as, aquí os dejo la referencia: Ihsan Yüksel y Metin Dagdeviren (2007) Using the analytic network process (ANP) in a SWOT nalysis – A case study for a textile firm, Information Sciences 177 (2007) 3364–3382. En él, se propone el uso de una técnica Multicriterio Discreta (ANP) que permite valorar cuantitativamente la importancia de cada factor en el contexto, teniendo en cuenta la influencia que ejerce cada uno sobre el resto y viceversa.

Personalmente, creo que ésta en particular es una estimulante idea e intentaré probarla próximamente (que tiemblen los/as próximos/as compañeros/as que me sufran en una evaluación 😉 ). Se admiten y agradecen enormemente informaciones sobre ideas semejantes y su puesta en práctica. Por mi parte, si alguien tiene la curiosidad de ojear el artículo citado y no lo puede conseguir con facilidad, me ofrezco a enviarlo por correo. Como se trata de una publicación con Copyright, me abstengo de colgarlo, a ver si va a ser peor. Pero como yo lo he obtenido de forma LEGAL, puedo enviar una COPIA PRIVADA por correo-e a quien lo requiera (<rmonterd@gmail.com>), ya que acá en España esta modalidad NO ESTÁ PENADA POR LA LEY DE PROPIEDAD INTELECUAL. Además, estoy seguro de que los autores intelectuales del artículo estarán encantados. Por si a alguien (amigo/a o enemigo/a) no le ha quedado claro el concepto legal, le invito a ver este divertido y a la par pedagógico video de David Bravo, experto en legislación y famoso (por lo menos en España) activista contra la protección muchas veces irracional del conocimiento y la cultura.

Es muy habitual que los gestores y los técnicos de proyectos busquen mecanismos cuantitativos de medición que permitan mostrar (a responsables, donantes, etc.) los alcances de la intervención que manejan. Nos hemos acostumbrado a que los indicadores cuantitativos son el instrumento más sencillo, preciso y fácil de comunicar, factores que lo hacen especialmente útil en una evaluación.

En los cursos en los que vengo participando, siempre hay una fuerte demanda de herramientas, y, como digo, las cuantitativas (indicadores, especialmente) suelen ser el producto estrella. Sin embargo, últimamente sugiero también, para compensar un poco, algunas propuesas más cualitativas. A continuación os menciono dos de ellas, con gran parecido aunque de origen absolutamente distante.

El método del caso exitoso (Success Case Method, nombre original en inglés) es una propuesta del profesor Robert Brinkerhoff, emérito de la West Michigan University. Una actividad es evaluada a partir de los relatos de actores implicados y comunicada por medio de una narración, creada a su vez por el evaluador a partir de los hitos o factores de éxito encontrados en ellos. Es, por supuesto, un método «sesgado», ya que emplea unas pocas valoraciones, pero esto no minusvalora su aporte ya que la inferencia estadística no es su fin. Por el contrario, la finalidad es mucho más formativa, intentado encontrar en los casos de análisis pistas innovadoras para la mejora de la calidad de la intervención.

Por su parte, el método de los Cambios Más Significativos (Most Significant Changes) es un reciente aporte de Rick Davies junto a Jess Dart. Davies es una referencia imprescindible en Internet en cuanto a evaluación se refiere: la web que mantiene desde hace ya años es uno de los más antiguos y completos sitios en Seguimiento y Evaluación. La experiencia de Davies en India, en programas de gran alcance en los que se le solicitaba (¡cómo no!) mostrar la relación entre intevenciones e impacto, le llevó a proponer un procedimiento en el que los propios involucrados narran aquellos cambios que consideran más importantes en el transcurso del tiempo que compete a la intervención.

No hay nada como aprender haciendo, así que lo mejor es dejarse de análisis y ponerse a probar. Os dejo las obligadas referencias: en el primer caso, lamentablemente no puedo dar una fuente completa en formato electrónico, y tendréis que acudir a la fuente bibliográfica fundamental (Brinkerhoff, R.O. (2003) The Success Case Method. Ed. Berrett Koehler, San Francisco). En el caso del MSC, la guía de referencia la podéis bajar aquí.

¡Ánimo y a experimentar! Como siempre, espero opiniones, experiencias, e incluso propuestas para ponernos manos a la obra.

Estos días estoy fuera, en Quito. Tenemos un curso de Evaluación de Programas en el marco de una colaboración entre la Universidad Politécnica Salesiana y la mía. Revisando el material que he pasado como lecturas previas, pensaba sobre la ideas de uso de evaluación del gran Michael Patton. Hay un artículo muy breve (dos páginas apenas) pero que da en el clavo. Lo podéis encontrar en el Vol. IX nº4 de The Evaluation Exchange (se puede bajar el número entero en PDF aquí).

La propuesta de evaluación enfocada al uso de Patton tiene una fuerte conexión con la idea de incorporar cultura de evaluación en las organizaciones (lo que hace unos años se puso de moda con el manido término «mainstreaming», cuya traducción al español no me atrevo a dar). Y creo que esa es una de sus mayores fortalezas. En el breve artículo que recomiendo, afirma algo así como que «apoyar a los profesionales a reflexionar desde un punto de vista de evaluación, puede tener mayor y mejor efecto en la organización que hallazgos específicos». Ello implica, desde mi punto de vista, un necesario paso de las organizaciones por un proceso de fortalecimiento de sus propias capacidades de evaluación.

Me preocupa el giro que se está dando en España sobre el uso de evaluaciones. De pronto, la solución a todos los males pasa por una Agencia Nacional de Evaluación. Específicamente, hablando del campo de la Cooperación al Desarrollo, parece que podríamos dar una acelerón como en otras cuestiones del área se han dado en el pasado. Se abre un espacio de posibilidades, lo cual es, de entrada, positivo. No obstante, tengo mis dudas sobre si todo esto podría convertirse en un arma de doble filo. Creo que el sector requiere de más fortaleza en sus capacidades, para poder incorporar un buen uso, y no un abuso, de las actividades de evaluación.

En este campo quizá deberíamos mirar más a Latinoamérica. Esa es mi percepción por ahora. En estos días haremos un experimento en el curso. A ver qué tal estamos de usos y abusos en este lado del charco.

invitacion-frontal_tip.jpg

Me llega la invitación a la jornada que proponen los compañeros y las compañeras de Ingeniería Sin Fronteras (ISF) en Valencia, para presentar los resultados de evaluación de su trabajo en Ticuantepe (Nicaragua). En el programa, algunas cuestiones extra se nos ofrecen para complementar la ya de por si interesante iniciativa: por un lado Carmen Vélez del IDR-Universidad de Sevilla, presentando las líneas generales de la nueva Metodología de Evaluación de Cooperación Española (ya mencionábamos el tema en otro post, así que entiendo que esto va a ser casi casi una primicia digna de portada del ¡Hola!); y por otro, Lara González, de KALIDA-DE-A, (también mencionábamos en un post anterior una publicación suya) cerrando con una visión más pragmática sobre el enfoque participativo y su utilidad en el aprendizaje, que es al fin y al cabo sobre lo que gira la jornada.

Acostumbrados que nos tiene el sector a convocatorias con poco o nulo valor añadido (si alguien tiene dudas, tómese el programa de festejos de cualquier Solidar¡a, o revise el programa de los Congresos de Cooperación al Desarrollo de la CV, o mejor aún, apúntese a un Master ultrasubvencionado, de esos de a precio de mercadillo), cosas como la iniciativa de ISF suenan bien, respiran aire fresco. Dándoles el beneficio de la duda, y conociendo a los evaluadores/facilitadores que les han acompañado en el proceso, casi pondría la mano en el fuego que saldrá lo que tenga que salir, los aciertos y los errores del trabajo en Ticuantepe de los últimos años, que de ambas cosas se aprende. ¿Quién se atreve en estos días a ponerse así en la palestra pública?

Más cuestiones de valor añadido: evaluación de VARIOS proyectos en la misma zona, con la misma contraparte, en el mismo sector, con la misma gente…¿nos va sonando a acompañar procesos?. Y un toque de atención a la promoción de la actividad: ha tenido que ser el Instituto de Crédito Oficial (ICO) con su Fundación la que financie en una CONVOCATORIA COMPETITIVA (en estos días inciertos de tanto convenio nominativo, tan transparente) una EVALUACION orientada al APRENDIZAJE ORGANIZATIVO. Anda que no llevamos tiempo diciéndolo: si se quiere, se puede.

El acto tendrá lugar en la Escuela Técnica Superior de Ingenieros Industriales, en la Politécnica, el próximo viernes 29 de junio. Mira si es mala suerte que yo me lo pierdo, con lo que me van estas cosas (estaremos en Ecuador impartiendo un curso de postgrado, de evaluación de programas, por cierto 😉 ). Os animo encarecidamente a ir. Y que contéis luego qué tal la cosa.

Los visitantes de EVALUATECA

Creative Commons License
Esta obra está bajo una licencia de Creative Commons.