You are currently browsing the tag archive for the ‘Actividades’ tag.

 

Durante esta temporada, estoy colaborando con los amigos y amigas del CECOD (Centro de Estudios de Cooperación al Desarrollo, Madrid), en un proyecto de investigación en el que llevan trabajando los últimos tres años. La iniciativa está centrada en el Desarrollo de Capacidades de los agentes de Cooperación para el Desarrollo. Una de las líneas de trabajo con más peso en proyecto es la evaluación.

El proyecto ha generado resultados muy interesantes para la reflexión y también para la acción. Entre ellos, particularmente destacaría dos. El primero, un análisis comparativo de Juan Andrés Ligero sobre los criterios del CAD/OCDE para evaluación versus la Teoría de Programa como enfoque comprehensivo. El segundo, un estudio de José María Larrú y María Méndez sobre la integración efectiva de la evaluación en el ciclo de proyecto basado en las mejores prácticas disponibles en el sector en España.

Siguiendo esta línea de trabajo, me toca la enorme responsabilidad de seguir avanzando por la vía de la Calidad y la Utilidad de las evaluaciones. El objetivo de la investigación es profundizar en la contribución que la evaluación está haciendo (o no) a la mejora de las intervenciones de cooperación para el desarrollo. Posteriormente, se pretende apuntar a un posible marco de referencia de Estándares de Calidad en Evaluación para el sector elaborado de forma consensuada por los diferentes actores. Esperamos que dicho marco contribuya a mejorar la calidad del proceso global, promoviendo una mayor calidad y uso de las evaluaciones para la generación de aprendizaje y la toma de decisiones en las intervenciones de Cooperación al desarrollo.

El próximo viernes 26 de octubre tendrá lugar el primer taller de trabajo de esta fase. El listón está bien, pero que bien alto, tanto por los compañeros y las compañeras que me preceden, como por los y las profesionales del sector que participan en el proceso. Y el resto tampoco se queda nada corto. Deséenos suerte.

En estos instantes en los que escribo estas líneas tiene lugar en Rio de Janeiro el IV Seminario de la Red Brasileira de Evaluación. Siempre es bueno felicitar y felicitarse por este tipo de acciones, especialmente cuando dan continuidad a ediciones anteriores, como es el caso. Pero sobre todo, me viene bien como excusa para hablar de un buen ejemplo de asociación de evaluadoras y evaluadores (o lo que los/as amigos/as angloparlantes están dando en llamar las VOPE – Voluntary Organizations of Professional Evaluators). Pero para que no se me olvide el leiv motiv, antes un breve comentario sobre el contenido del Seminario.

Como la mayoría de los/as mortales no tendremos la suerte de poder asistir, sí espero que los/as compañeros/as de la Red puedan socializarnos productos y reflexiones surgidas estos días en su encuentro. Estoy seguro de que lo harán, es parte de su tónica habitual, de su “buean práctica”, uno de los puntos que pretendía mencionar y que luego retomamos. Por de pronto podemos ver el contenido programado aquí. Creo muy acertada la elección de temas, porque va muy al grano de algunas de las cosas que se están hablando en las redes.

Quizá haya gente a la que le parezca repetitivo, por ejemplo, volver a hablar de Modelos Lógicos, pero cuanto más leo o participo en discusiones (presenciales o virtuales), más me doy cuenta que mucho del disenso se basa en el desconocimiento de los elementos básicos. Y es por esto que las discusiones resultan a veces tan cansinas.

Hablar de Métodos Mixtos (cuanti/cuali) es otro viejo-nuevo tema, que en estos últimos tiempos emerge como respuesta al creciente interés en la Evaluación de Impacto. Un lujazo tener al viejo maestro Michael Bamberger junto Thomaz Chianca para esta discusión (por cierto, aunque me cueste ser objetivo ya que Thomaz es además un buen amigo, me hace gracia que en el programa esté catalogado como “experto nacional” cuando en estos momentos es sin duda uno de los jóvenes líderes internacionales de pensamiento en Evaluación).

Y si lo uno es importante, no menos lo es lo otro: hablar de Cultura de Evaluación, y en particular en el sector de las organizaciones de la sociedad civil. Y aquí creo que los/as compañeros/as brasileiros/as tienen mucho que aportarnos al resto sobre su larga experiencia. Ahora hablando en particular por la parte española, creo que un buen baño de aprendizajes y buenas prácticas en esta línea no nos haría nada mal. Con los ponentes vuelvo a no poder ser nada objetivo, la hemos pasado demasiado bien por esos mundos con Rogério Silva y Daniel Brandão 😉 Hablando en serio, creo que su larga trayectoria de acompañamiento al desarrollo de capacidades de evaluación, entre otros en su etapa del Instituto Fonte, les otorgan una buena dosis de autoridad en el tema.

Yendo al tema de la Red Brasileira como buena práctica, destacaría algunas claves que a mi juicio la han hecho una de las VOPE de referencia mundial:

  • Una condición de partida: el caldo de cultivo brasileiro era y es perfecto para todo lo que tiene que ver con la cultura organizativa, especialmente lo relacionado con la participación social (casi se podría decir que la inventaron ellas/0s) 😉
  • Una estructura en red descentralizada: probablemente obligada por las características propias de la geografía brasileira (es un ejemplo que he visto en otros programas y organizaciones y parece coincidir), la participación de los/as interesados/as en evaluación requiere evitar el excesivo peso local de una sede central o de un grupo de impulsores que “casualmente” están en la misma ciudad (que “caualmente” suele ser la capital administrativa y/o económica del país).
  • Un soporte TIC consolidado: ligado fuertemente con lo anterior, la Red Brasileira se ha caracterizado desde sus inicios por estar muy presente en la red y por emplearla a fondo.
  • Un agente dinamizador: la experiencia parece estar demostrando en las organizaciones de evaluación que si alguien o “alguienes” no desempeñan tal función, la red por si misma resulta lenta de movimientos. No quiero decir con esto que la solución pasa siempre por personal remunerado para funciones de este tipo, pero ejemplos como el de Marcia Paterno o como Emma Rotondo en PREVAL (Perú) son a todas luces exitosos.

Lanzado el guante, quedamos a la espera de alimento evaluativo para el intelecto y el debate.

Leer el resto de esta entrada »

Hace unos días, Pablo Rodríguez publicaba un recomendable artículo sobre la Web 2.0 en nuestro sector. Es un tema en el que creo que nos estamos quedando algo atrás si comparamos con otros ámbitos profesionales. El aprovechamiento del potencial de las TIC, de las Redes Sociales, etc. para la mejor de nuestro desempeño, y en última instancia, para la mejora de la calidad de lo que hacemos, es simplemente tremendo, y a mi juicio le estamos sacando poco jugo, incluso a veces un jugo algo “amargo”.

Algunos ejemplos en esta línea. Si hace unos días comentaba en otro artículo lo interesante de la Conferencia de AEA como punto neurálgico anual en nuestro sector, incluso a nivel internacional, creo que en el caso de la galaxia 2.0 nuestros queridos y respetados “amigos americanos” suspenden. Fui uno de los que intentó seguir el evento aquellos días, apoyándome en lo que pudiera venir “a distancia”. Por el elevado número de asistentes (varios miles, se dice pronto), así como por la importante penetración de Internet en EEUU, elucubré que habría una auténtica avalancha de, por ejemplo, tuiteos sobre las conferencias, intercambio de enlaces con materiales de las ponencias de las muchísimas líneas que hay, streaming por parte de la organización (al menos de los plenarios), podcast, discusiones en FaceBook. Error. Apenas algunos tuiteos con el hastag “oficial”, y poco más.

En esto, me enorgullece poner un contraejemplo más cercano. En estos días también ha tenido lugar la Conferencia Bianual de la Sociedad Española de Evaluación, celebrada en Sevilla y que en realidad hubo que cambiar de fechas por el adelanto electoral en mi país (ya saben, sería una de esas hipótesis del Marco Lógico que uno piensa que nunca van a pasar…y pasan 😉 ). Con todas las limitaciones técnicas y presupuestarias propias de los tiempos tan malos que estamos viviendo, desde la SEE se hizo un gran esfuerzo por volcar el máximo posible de información en las Redes Sociales. También se ha puesto a disposición parte de los plenarios en formato audio. Les invito a echar un vistazo, creo que hay cosas bien interesantes. Vaya por delante que aunque no he estado implicado en la organización de este evento en particular (por motivos de trabajo), formo parte de la Junta Directiva de esta institución. Pero, con sinceridad, lo digo de la manera más objetiva posible (en EVALUATECA también he sido crítico con otras actividades de la SEE, pueden leerlo aquí por ejemplo)

Clausura de la VII Conferencia Bianual SEE

De un tiempo a esta parte, gracias sobre todo a colegas evaluativos/as de la blogosfera/tuitesfera (y por tanto, también a la tecnología que emplean, y muy bien por cierto) estoy descubriendo información muy interesante de cosas que se están haciendo por ahí en el sector, y que muchas veces pienso que no habría llegado a ellas de otro modo. La ventaja de esta tecnología en las redes sociales es -manejada con cierta lógica y mucho orden- que el flujo de información no sólo se intensifica en volumen, sino en calidad. Seguir a gente que te interesa te lleva a que casi toda la información que te llegue sea muy interesante para ti. Algo que parece de sentido común, pero que con las nuevas tecnologías simplemente sigue una dinámica exponencial.

Estoy empezando incluso a llegar a un nivel altísimo de saturación, pero de información de calidad. ¿Tendré que poner el listón de “calidad” (o utilidad) más alto? ¿Tendré que dormir menos? ¿Ver menos a los/as amigos/as? 😉

Hoy empieza en Anaheim (California, EEUU) la edición número 25 de la Conferencia Anual de la Sociedad Americana de Evaluación (ya saben, entiéndase “americana” desde la óptica de los/as estadounidenses). Sin duda alguna, el evento anual que reúne a lo más granado de la comunidad evaluadora, no sólo de EEUU (que es una gran parte) sino también del resto del mundo. Académicos/as, responsables de instituciones públicas nacionales e internacionales, responsables de ONG, consultores/as, editoriales, etc., se encuentran durante 4 días, siempre a principios de Noviembre, para compartir los últimos debates, las novedades, en definitiva, lo que se “cuece” en el sector.

He tenido la inmensa suerte de poder participar en tres ocasiones, 2001 (St. Louis), 2003 (Reno) y 2005 (Toronto, conjunta con la Sociedad Canadiense, que eso sí fue, en términos numéricos, una barbaridad). La dimensión del evento es tal que, la verdad, abruma. Miren si no los números estimados de la de este año: 2.500 participantes, más de 600 comunicaciones. Recuerdo que repasarse el programa e identificar las sesiones a las que interesaba ir cada día, requería casi de una tarde de planificación con aquel monstruo (vean si no el programa de este año aquí).

A pesar de las dimensiones, creo que es un modelo de Conferencia muy interesante y muy útil para los/as que trabajamos en el sector. Guarda un buen equilibrio entre lo “académico” y lo “profesional” (no es un Congreso científico al uso, ni mucho menos), se cuida muchísimo la interacción entre los/as participantes (muchos espacios de intercambio, actividades sociales para favorecer los contactos, “feria de empleos“, etc.) y el ambiente es realmente horizontal. Cuando vienes del mundo académico, como es mi caso, cuesta creer que en un foro de este tipo te sientes a cenar y tengas a un referente mundial como por ejemplo Michael Patton departiendo tranquilamente.

Ah, y el precio de inscripción, un limitante muy habitual en estas cosas, es muy bajo (la opción más cara, pagar in situ y si ser miembro de AEA, son 345 USD). La estrategia, por lo que me contaron una vez (y pude comprobar en directo), es minimizar costes al límite, a un extremo que en ocasiones me llegó a parece extremadamente austero. Una anécdota: en 2005 (no hace tanto) en las salas de presentación no había cañón de proyección de video, a no ser que alguien llevara o que los panelistas se hubieran puesto previamente de acuerdo y lo alquilaran; recuerdo también que cosas como fotocopias para los asistentes las llevaba el propio presentador si quería. No tengo el dato, pero haciendo unos sencillos números dudo mucho que AEA gane mucho dinero con el evento. Seguro que la estrategia le reporta otros beneficios de otro modo (siendo, por ejemplo, la sociedad de evaluación líder en el mundo, con diferencia).

Si alguna vez tienen la oportunidad, ni lo duden. Algo que hay que reconocerle a la AEA ha sido su vocación internacionalista, intentando facilitar la asistencia de profesionales de todo el mundo, en especial los/as profesionales de países del Sur (estos/as últimos mediante una simpática actividad de recaudación de fondos, una subasta “silenciosa”, que además resulta siendo la estrella de la agenda social de la semana).

Para los/as que no hemos podido asistir esta vez, quizá por medio de las redes sociales podamos captar algo de lo que se cuece por California estos días. En twitter, mediante la cuenta oficial de AEA (@aeaweb), y mediante los comentarios de los/as asistentes con la etiqueta (hastag) #eval11. No sé si habrá alguna retransmisión en streaming o grabaciones de las conferencias principales para verlas en diferido. ¡Ojala!

Durante estos días está teniendo lugar una actividad en Ginebra, que si bien puede haber pasado algo desapercibida en la comunidad internacional de evaluación (y en especial en la comunidad hispanoparlante), puede ser el germen de algo realmente importante en el futuro de nuestra profesión.

Hablamos del taller para impulsar el proceso de creación de un Estándar para el Desarrollo de Capacidades de Evaluación. Se trata de un primer encuentro de profesionales pertenecientes a instituciones y redes internacionales de evaluación, con el objetivo de trazar los pasos para arrancar con el proceso formal de desarrollo de un estándar dentro de ISO (International Organization for Standarization). A riesgo de simplificar en exceso, pero para que se hagan una idea de la dimensión del asunto, estamos hablando de la institución internacional que entre otras cosas sostiene referencias como los estándares de Gestión de Calidad (las famosas normas ISO 9000, elemento absolutamente básico de calidad para el sector empresarial, y también para instituciones públicas y privadas no lucrativas), Gestión Ambiental, y un larguísimo etcétera. La actividad ha sido impulsada por un grupo de profesionales de la evaluación (me atrevería a decir de locos/as geniales) que forman el Evaluation Capacity Development Group, con Karen Russon a la cabeza, y está siendo dinamizada por el maestro Bob Williams.

Para los/as que no podemos estar presentes en la preciosa Suiza, el ECDG nos pone a disposición las redes sociales para participar y aportar ideas al respecto. Toda la información, programa, documentos de trabajo, etc., está disponible aquí (en inglés). También podemos seguir los avances, distribuir la información y aportar mediante twitter (@ecdgupdates , o con el hastag #ECDG) o en su página de Facebook. Creo que desde la comunidad de evaluadores/as en español tenemos mucho que decir y que aportar en este proceso, así que animo a toda/os las/os compañeras/os a seguir el taller, usar las redes, hablar del tema en nuestros foros.

Y para muestra de las facilidades que comentaba, un botón, como dicen en mi tierra: un resumen de lo acontecido hoy contado por uno de sus protagonistas,  ni más ni menos que Donald Yarbrough, actual presidente del JCSEE (Joint Committee on Standards for Educational Evaluation, sin duda la referencia histórica con mayúsculas en estándares de evaluación, y por supuesto un actor clave en este proceso).

Ya decía Schumacher en los setenta que “lo pequeño es hermoso“. En nuestros días, una idea como ésta, por pequeña que sea, solo necesita ser buena para correr como la pólvora por las redes y hacerse presente, cambiar el mundo a mejor, aunque sea un poquito. ¿Se apuntan?

El próximo día 6 de julio de 2011, tendrá lugar la “Cesta de Aprendizajes (CdA): Sistematización de Experiencias en Cooperación al Desarrollo” en la Universidad Politécnica de Valencia. La dinamización de la sesión de trabajo presencial correrá a cargo de Óscar Jara, y se contará además con la presencia y dinamización on-line de Pablo Rodríguez Bilella.

La sesión de trabajo de la tarde, que tendrá lugar a las 4 p.m. hora española, podrá ser seguida en directo a través de este enlace. Una vez en el entorno virtual, se podrá acceder a la sesión sin necesidad de alta previa al introducir un nombre de usuario en la opción “invitado”. Para dinamización on-line en twitter durante toda la CdA se usará el hastag #sistv.

El término Cesta de Aprendizajes (CdA) se ha acuñado para definir un formato de grupo de trabajo donde cada una de las personas participantes comparte con el resto de asistentes su experiencia en relación a la temática, con una dinámica y un orden de las cosas que se construye en el propio proceso a partir de una creación colectiva.

Bajo este formato, se trabajará con un reducido grupo de asistentes -miembros de ONGD- para poner en común los mecanismos con los que cuentan a nivel institucional para aprender de los procesos que acompañan y profundizar sobre las posibilidades que ofrece la Sistematización de Experiencias en este contexto.

Óscar Jara es educador popular. En la actualidad ejerce como Director del Centro de Estudios y Publicaciones ALFORJA. Oscar es, sin lugar a dudas, la principal referencia en la metodología y la praxis del enfoque de Sistematización de Experiencias en Latinoamérica. Ha participado como educador y facilitador en procesos sociales durante más de 30 años, experiencia que refleja en la abundante bibliografía que ha venido publicando, en la que revisa tanto aspectos teóricos y metodológicos como, sobre todo, reflexiones desde la experiencia.

Pablo Rodríguez Bilella es Profesor de la cátedra “Antropología Social y Cultural”, en la carrera de Trabajo Social, FACSO, Universidad Nacional de San Juan y miembro del Comité Ejecutivo de la Red de Seguimiento, Evaluación y Sistematización de América Latina y el Caribe (ReLAC), así como del Board de la International Organization for Cooperation in Evaluation (IOCE).

Éste ha sido por ahora el panel que más me ha provocado, pero probablemente sea más por una cuestión personal (querencias, como en los toros). A diferencia de los anteriores, me gustaría acompañar esta entrada con algunas de mis reflexiones. Por de pronto, vamos con un resumen.

Ponentes:

  • Inka Mattila, PNUD, Panamá
  • Jean Quesnel, Ex Director Evaluación UNICEF, Canadá
  • Osvaldo Feinstein, Universidad Complutense, España
  • Manuel Fernando Castro, IEG-Banco Mundial, USA
  • María Eulalia Buenahora, Universidad de la Sabana, Colombia

Moderador: Pablo Rodriguez , Universidad San Juan, Argentina

Inka Mattila. Nos presenta la visión de la Gestión Basada en Resultados (usaré a partir de ahora el acrónimo GBR) desde la experiencia de PNUD. Mucho énfais en resultados PARA desarrollo. Mención especialmente el interés de la contribución frente a al atribución (un aspecto que discutiré más adelante). Rendición de cuentas a los actores de los países socios. Evolucionar desde una cultura de informes a una cultura de resultados. Mucho énfasis en integrara al máximo las fase del ciclo, pensar evaluativo desde la planificación. Finalmente, una estrategia muy interesante: apoyar la evaluación en PNUD en Sistemas Nacionales de Evaluación, como enorme oprtunidad para promover fortalecimiento de capacidades y aspectos como cooperación Sur-Sur.

Nota metodológica: ¡Por fin! Alguien usa con precisión el concepto de enfocar hacia “efectos” como elemento intermedio de la cadena de resultados de desarrollo.

Osvaldo Feinstein. Desde su amplia perspectiva de las Agencias del Sistema y los organismos financieros multilaterales, nos hace un repaso muy sintético sobre las claves de la GBR y su conexión con evaluación e institucionalización de la evaluación, ambas cuestiones. Énfasis en dos funciones de la GBR: rendición de cuentas y aprendizaje. Superación de una visión de evaluación centrada en las operaciones para pasar a los resultados de desarrollo (otro tema que comentaremos adelante, la confusión con los temas de “procesos”). repasa los diferentes niveles a los que se puede dar la institucionalización de la evaluación. Finalmente, plantea una breve discusión a vuelta de los Resultados, quizá un tanto manida pero que parece que todavía genera confusiones metodológicas: si resultados son también productos de las operaciones. Breve mención a atribución (lo dicho, para después).

Jean Quesnel. Una intervención muy completa, pero tengo mis dudas si adecuada para un formato de panel, ya que fue la más “magistral” de todas. Un repaso exhaustivo a los diferente niveles de intervención, desde las actividades hasta las políticas. Me quedo con un par de señales interesantes: a) en muchas ocasiones falta identificar quién es el responsable del alcance de los resultados; b) la cultura de proyectos ha marcado enormemente la cultura de gestión (no me acaba de quedar claro si es una crítica o sólo una manifestación de un hecho). Un detalle final: me descoloca toda una disertación apoyada en la idea de causalidad posible, para luego terminar con un llamado de atención a que los procesos sociales son “no lineales”. ¿En qué quedamos?

Manuel Fernando Castro. Una intervención clara, sintética pero con bastante información interesante. Lástima que todos emplearan un tiempo en repasar los básicos de GBR. En su caso, las experiencias que comentó al final y su discusión eran uno de sus mejores aportes y no dio tiempo para profundizar. Veamos.

GBR como medición de desempeño y rendición de cuentas de programas y gasto público como prácticas permanentes del Estado. “Matrimonio por conveniencia” (…¿no será en la práctica un divorcio?, esta es mi duda). Hace énfasis en que la importrancia de la evaluación reside en la atribución (claro, es un Banco). Sobre institucionalización, dos claves:

  • Que la evaluación genere información confiable
  • Que la evaluación es empleada para la toma de decisiones

Caracterización: función liderada por el porpio país, integración son sistemas propios del país (planificación, sistemas estadísticos), respaldo político de los usuarios/beneficiarios (un detalle significativo: se usa éste término y no “socios”).

Hace un repaso a las tres experiencias que según su criterio son los casos en AL en el que mayor nivel de institucionalización se ha alcanzado: México, Chile y Colombia. Comparativa en diferentes aspectos: sorporte normativo, vínculo con presupuesto, orientación, tipos de evaluación. Muy interesante, y lo dicho, lástima que no hubiera más tiempo, aunque en la preguntas se extendió algo más en esta parte.

María Eulalia Buenahora. Lamentablemente, creo que la presentación estaba muy lejana del contexto en el que se movían el resto de panelistas. Temas de calidad en Educación. Seguramente muy interesante para los que estén interesados en este sector. Una lástima, pues la presentación era completa.

No quisiera pasar sin hacer algunos comentarios. De entrada, un tema que ya hemos discutido en los descansos, entre cafés y pastas: hay algo en el formato de los paneles que está dificultando mucho la discusión. Bueno, en realidad es que no hay discusión, ni si quiera entre los panelistas, y eso que en sus discursos hay diferencias de criterio en ocasiones. Creo que este tema suscitó mucho interés y ganas de aportar también por parte de los asistentes. De hecho, hubo dos espontáneos que aportaron dos ideas interesantes para el contraste, ya que la línea general del discurso era que la GBR era la mejor opción en estos momentos. Por un lado, Saville Kushne, de la University of the West of England, apuntó que desde la óptica de los donantes, en este escenario actual de crisis, la GBR puede suponer una excusa peligrosa para centrar excesivamente la colocación de fondos en aquellas políticas, programas, etc. que “demuestran resultados. Elena Duro, de UNICEF Argentina, recordó que el margen de maniobra real de los Estados en Latinoamérica para incorporar GBR con énfasis real en Resultados de Desarrollo es muy bajo, dada la enorme importancia del gasto corriente en los presupuestos generales.

Finalmente, adelanto dos líneas para la discusión, en posteriores entradas (ya que hoy seguimos en otro panel con la GRB):

  • Atribución/contribución: ya he escuchado muchas confusiones durante intervenciones en el Congreso. Sin entrar a posicionar, lo que es claro es que no hay ni consenso en lo que significan, ni tampoco en cuál es la prioridad.
  • Proceso/Resultados y “Procesos Sociales“: un problema más de nomenclatura, pero que esconde un tema de fondo. Se usa el término procesos tanto para hablar de “procesos de gestión” en una institución, como para referirse más genéricamente a “procesos sociales”. Para unos (normalmente las Agencias Internacionales, los funcionarios públicos, etc.) pasar de procesos a resultados es fantástico (centrarse en el QUE y no en el COMO). Pero claro, para otros (quizá más en la onda de la intervención directa), ¿cómo vamos a olvidarnos de los procesos sociales? Y entramos en temas de legitimidad, participación, empoderamiento, etc. Lo dicho…para otra entrada 😉

Una panel muy esperado, y que sin duda cumplió las expectativas, no sólo en asistencia (pleno total en la sala) sino en el nivel del discurso de las ponentes, y lo mejor, en la capacidad de “empoderamiento” del grupo. Ahí comento más adelante.

Las expositoras:

  • Belén Sanz, UNIFEM
  • Alejandra Faúndez, Consultora Inclusión y Equidad
  • Carmen Colazo, Colegio de las Américas ( COLAM)
  • Moderador:  Daniel Brandao, Instituto FONTE

Vamos con algunas ideas. Me es complicado en este caso, porque fueron muchas y la mayoría con una importante carga de profundidad. Hago un intento que ya de entrada, aviso, se queda corto.

Carmen Colazo. Nos comenta la experiencia de incorporar la cuestión de evaluación en un programa formativo en género. Hace énfasis en la necesidad de resaltar la complejidad de los fenómenos relacionados con las cuestiones de género (mmm, vuelve el meme “complejidad”). Importante evitar el uso de herramientas que tiendan a simplificar la problemática. Priorizando lo cualitativo. Dificultades en disponer de indicadores que lean bien la especificidad de género.

Belén Sanz. Lo suyo ha sido una auténtica avalancha de ideas. Algunas de las muchas claves que señala. La igualdad de género es un factor de desarrollo y un derecho humano, luego evaluación debe incorporar estos dos ejes de análisis: factor y derecho. El proceso de reforma NNUU constituye una oportunidad única en la incorporación de género en evaluación: dos hechos que lo explican, la prioridad total al enfoque basado en derechos y creación de la “entidad de género” (una agencia que unifica tres instituciones previas, entre las que se incluye UNIFEM). Expriencia de referencia: creación de un grupo de trabajo enfoque de derechos y género en evaluación en el seno de UNEG. Mandato: a) desarrollar guías para integrar estas dimensiones en los procesos evaluativos; b) Manual práctico. Elemento de interés: distinción de herramientas para, por un lado, programas de sectores diversos que incluyen género como elemento trasnversal, y por otro, programas específicos de igualdad o dirigidos a las mujeres. Para cerrar, tres tesis contundentes:

  • Investigación feminista como marco de referencia para incorporar principios de referencia con respecto a género para realizar procesos evaluativos.
  • Evaluación como elemento de no discriminación, reconocimiento de poder, trasnparencia en la gestión de poder.
  • Empoderamiento como un principio de evaluación en sí mismo.

Alejandra Faúndez. Si pensábamos que la avalancha había terminado, la compañera nos ha dado otra vuelta de tuerca con un repaso lleno de conexiones a otra áreas. Ahí van algunas de las cosas que he sido capaz de cazar al vuelo después de esta tromba. Abre con una reflexión sobre qué impactos ha estado generando enfoque de género en evaluación. incide en lo conceptual: género pone en la mesa una crítica profunda de las políticas públicas. Ha permitido empujar no sólo el hecho de “la diferencia” en género, sino en otros aspectos de grupos invisibilizados. Lista de limitaciones a superar en la evaluación en genero hoy en día, especialmente en la región:

  • Falta de datos desagregados, imposibilidad de visibilizar la diferencia, en ocasiones mucho más que “unos decimales”.
  • Falta de legitimidad de lo cualitativo.
  • Protagonismo de los problemas (me ha sonado a una clara referencia a la metodología apreciativa). Muy importante en género.
  • Mucho que aprovechar todavía sobre la capacidad de  captura de los intangibles

Lo mejor: el contenido (lo expuesto) y el paso a la acción. Al final de la sesión, unanimidad en la creación de un grupo de trabajo en ReLAC para profundizar en Género y Evaluación. Ta estamos todas las asistentes apuntadas a una primera lista.

A mejorar: nos faltó tiempo para el debate y para clarificar cuestiones, nos quedamos demasiado en la “opinología”, y se nota hasta, por ejemplo, en las discrepancias entre las propias ponentes, que simplemente se quedan ahí, sin entrarle a la discusión.

Balance: más que positivo. Sigamos dándole.

PD: hubo una mención a la cuestión de técnicas. ¿Técnicas específicas para evaluación de género o técnicas de evaluación con lentes de género? Me quedo con la respuesta de Belén, que fue clara en esto: la segunda opción. Carmen mencionó varios ejemplos, entre ellos el Mapeo de Alcances. Aprovecho para compartir una referencia sobre el tema (Gendered Outcome Mapping) vía la comunidad de aprendizaje de OM.

Le entramos en la tarde directamente a la reflexión sobre el diálogo necesario entre Sistematización y Evaluación. Síntesis sublime de Oscar Jara. Confieso: hace muchísimo tiempo que no veía una capacidad de resumir, enmarcar, centrar y a la vez motivar y provocar. Me quito el sombrero.

Algunas ideas fuerza. Punto cero: precisión de vocabulario. Hablemos de sistematización de experiencias, muy importante el apellido (experiencias)

Primera idea. Tensión Evaluación-Sistemtización como tensión Proyecto-Proceso. Me gusta no escuchar una demonización del proyecto…al menos por ahora. A cada uno su sitio. ¿Cuál puede ser la intersección de ambos conjuntos? El aprendizaje.

Segunda idea. Nadie puede sistematizar la experiencia de otros, sólo ayudar a sistematizar. La sistematización de experiencias, a diferencia de la evaluación, requiere el liderazgo de los actores participantes como condición previa.

Tercera idea. Condiciones para el encuentro:

  • Problematización para la construcción de pensamiento crítico: entramado de relaciones de poder entre actores
  • Desarrollo de la creatividad inacabada. Pedagogía de la pregunta. Que la experiencia nos interrogue.
  • Rigurosidad metódica de la sistematización: entendida con coherencia ética, entre mi saber y el del resto de personas, que  me deje cuestionar con las mismas preguntas que yo hago al proceso y a los actores.

Como no podría ser de otro modo, referencias constantes a Freire.

Ya hemos empezado. Sobre las 300 personas, de todas partes de Latinoamérica. Se notan las ganas de escuchar, conocer, compartir. Algún problema propio del directo en la mañanita con el registro, pero nada reseñable…aunque claro, empezamos con “hora tica”.

Presentación de Sergio Martinic, coordinador de ReLAC, con un mensaje muy motivador a la colaboración, al diálogo y, como no podría ser de otro modo, a la construcción de red. Mensaje de la Rectora de la Universidad de Costa Rica, Yamileth González, con palabras lucidas sobre los valores de la Universidad: ética, humanismo, colaboración, espíritu crítico (me encanta…todavía queda esperanza en la Universidad, ¡gracias Rectora!). Acto de entrega de varios reconocimientos (se me perdone que no me quedé con todos los nombres de los premiados) y, aquí viene lo máximo, un punto artístico con dos alumnos de la UCR cantando “Alfonsina y el mar” y “Desafinado“, guitarra y voz. Al rato cuelgo un fragmento, que lo grabé. ¡Sublime!

Refrigerio y empezamos con la ponencia marco. Nerio Neirotti, de la Universidad de Lanús (Argentina) dibuja un marco sobre Evaluación y Política Pública en América Latina. Probablemente necesario, pero a mi gusto demasiado básico para el público asistente. Interesante la idea de dialéctica técnica y política, aunque en el desarrollo tampoco acabo de estar de acuerdo. Creo que esta tensión está en un plano diferente con respecto a otras tensiones que el ponente alinea, como las tradiciones investigadoras. Técnica y positivismo no es necesariamente una asociación automática. Me quedo con una frase provocadora y muy necesaria: “si la evaluación no tiene capacidad de persuasión, la batalla está perdida“.

Los visitantes de EVALUATECA

Síguenos en Twitter

Creative Commons License
Esta obra está bajo una licencia de Creative Commons.
A %d blogueros les gusta esto: