Seguimos a vueltas con el desarrollo de capacidades de evaluación, pendientes (y participando en la medida que se pueda) del taller de trabajo para el desarrollo de una norma ISO que comentábamos estos días. Parece que el tema ha despertado interés en blogosfera, tuitesfera, listesfera o como le quieran llamar a nuestra discusión en línea.

De lo que hemos podido ir debatiendo sobre conclusiones del taller, se han abordado temas mucho interés y que darían, cada uno de ellos, para una entrada exclusiva. Extraigo algunos de ellos que me parecen relevantes y que también hemos tratado en EVALUATECA en algunas ocasiones.

En la segunda sesión de taller se hizo un dibujo de las concepciones actuales que rondan sobre el tema, y creo que coinciden mucho con la parcepción que se tuvo en la discusión paralela en la lista de ReLAC: hay una visión reduccionista y con bajo nivel de apropiación del concepto por parte de todos los actores implicados. Frases como «Tiene una agenda impulsada por los donantes«, «Es impuesta externamente«, «Se confunde con la formación (training)» o «Es acerca de la capacitación de los funcionarios públicos, sin otros actores relevantes» parecen definir la visión más extendida, sin duda no es  la deseable. Por oposición, podríamos pensar, de cara a un estándar, que la referencia debiera ser lo contrario: capacidades frente a conocimientos, apropiación frente a imposición, aprendizaje frente a cumplimiento. Un resumen breve, de nuevo, podemos escucharlo en boca de otro de los participantes, Alexey Kuzmin, uno de los máximos impulsores de la cultura de evaluación en la Comunidad de Estados Independientes (ex-repúblicas soviéticas):

Por cierto, por cortesía de Alexey, pueden ver en su (más que recomendable) blog de evaluación el resultado de una de las herramientas empleadas en el taller: un mapa mental sobre el concepto de Desarrollo de Capacidades de Evaluación.

En la tercera sesión, continuando con la visión comentada anteriormente, se ha dado un paso en la conceptualización del Desarrollo de Capacidades de Evaluación que sería desarrollado (valga la redundancia) en la norma. Un par de claves destacaría en esta línea. En primer lugar, el establecimiento de principios básicos, que como dicen los participantes «trascienden al proceso»: apropiación/propiedad (siempre díficil traducir «Ownership»), relevancia, sistémico, propositivo-flexible y sostenible.  Me parece interesante que se incluya lo «sistémico» (quiero pensar que se refieren a enfoque de sistemas, como abordaje de lo complejo -no en vano está Bob Williams moderando-), pues le da al proceso el empaque que veníamos comentando: una conceptualización amplia, que da importancia a la multiplicidad de actores,  relaciones y momentos (dinámica del sistema).  A mi juicio, una acertada actualización. Aquí pueden ver un breve comentario sobre las bondades de la idea, a cargo de otro de los participantes, el especialista holandés Wouter Rijneveld:

Y en segundo lugar, algo que creo que calmará a más de un/a escéptico/a. Se habla de la no vinculación del Desarrollo de Capacidades a un enfoque específico de Evaluación. Como dice el gran Bob Picciotto, en estos tiempos de guerra de paradigmas, es bueno el reconocimiento de que cabe más de un enfoque (dominante). Me parece un buen punto de partida. Ahora bien, me pregunto cómo se articulará en la norma (si es que no se deja simplemente en abierto) la necesidad de conocer, o de usar, o de instalar cierta capacidad de uso de conceptos de evaluación que son más propios de unos enfoques que de otros. ¿Será necesario siempre usar indicadores? ¿Pensaremos siempre en resultados? ¿Será imperativo incorporar la participación en todas las evaluaciones?

Hay un detalle que me gustaría señalar, y que creo que es una buena muestra de cómo están cambiando las cosas…pero de lo mucho que nos queda a la comunidad evaluadora por andar. Hoy los participantes del taller han dedicado un espacio en su agenda para presentar y debatir comentarios vertidos en paralelo en las redes sociales. Buenísima noticia, y buenísimo el criterio de los organizadores. Yo en particular es la priemra vez que veo que una actividad internacional sobre evaluación maneja aportes en tiempo real de twitter, facebook, foros, etc. Ojala se pueda mantener el pulso del debate, y sobre todo, como pedían en las redes, un proceso «post-Ginebra».

Durante estos días está teniendo lugar una actividad en Ginebra, que si bien puede haber pasado algo desapercibida en la comunidad internacional de evaluación (y en especial en la comunidad hispanoparlante), puede ser el germen de algo realmente importante en el futuro de nuestra profesión.

Hablamos del taller para impulsar el proceso de creación de un Estándar para el Desarrollo de Capacidades de Evaluación. Se trata de un primer encuentro de profesionales pertenecientes a instituciones y redes internacionales de evaluación, con el objetivo de trazar los pasos para arrancar con el proceso formal de desarrollo de un estándar dentro de ISO (International Organization for Standarization). A riesgo de simplificar en exceso, pero para que se hagan una idea de la dimensión del asunto, estamos hablando de la institución internacional que entre otras cosas sostiene referencias como los estándares de Gestión de Calidad (las famosas normas ISO 9000, elemento absolutamente básico de calidad para el sector empresarial, y también para instituciones públicas y privadas no lucrativas), Gestión Ambiental, y un larguísimo etcétera. La actividad ha sido impulsada por un grupo de profesionales de la evaluación (me atrevería a decir de locos/as geniales) que forman el Evaluation Capacity Development Group, con Karen Russon a la cabeza, y está siendo dinamizada por el maestro Bob Williams.

Para los/as que no podemos estar presentes en la preciosa Suiza, el ECDG nos pone a disposición las redes sociales para participar y aportar ideas al respecto. Toda la información, programa, documentos de trabajo, etc., está disponible aquí (en inglés). También podemos seguir los avances, distribuir la información y aportar mediante twitter (@ecdgupdates , o con el hastag #ECDG) o en su página de Facebook. Creo que desde la comunidad de evaluadores/as en español tenemos mucho que decir y que aportar en este proceso, así que animo a toda/os las/os compañeras/os a seguir el taller, usar las redes, hablar del tema en nuestros foros.

Y para muestra de las facilidades que comentaba, un botón, como dicen en mi tierra: un resumen de lo acontecido hoy contado por uno de sus protagonistas,  ni más ni menos que Donald Yarbrough, actual presidente del JCSEE (Joint Committee on Standards for Educational Evaluation, sin duda la referencia histórica con mayúsculas en estándares de evaluación, y por supuesto un actor clave en este proceso).

Ya decía Schumacher en los setenta que «lo pequeño es hermoso«. En nuestros días, una idea como ésta, por pequeña que sea, solo necesita ser buena para correr como la pólvora por las redes y hacerse presente, cambiar el mundo a mejor, aunque sea un poquito. ¿Se apuntan?

España en su conjunto ha crecido en los últimos años como donante internacional. Esto no es una opinión, es un hecho, sólo hay que comprobar los datos de la OCDE a este respecto. No voy entrar aquí en el análisis sobre este proceso, por lo complejo (no es sólo una cuestión de cantidades) y porque no es objeto de este artículo ni si quiera de EVALUATECA (aunque en el blog le tenemos un cariño especial a la Cooperación al Desarrollo, ya que es uno de nuestros lugares de referencia).

Sin embargo, y como ya habrán visto en los medios, ya no somos lo que supuestamente fuimos, en nada. Y eso, obviamente, tenía que llegar también a este sector. Nada nuevo, en principio. Lo que resulta simplemente repugnante es la tranquilidad con la que se está admitiendo ya que para muchos «hacedores de política» (si es que incluso merecen el término) el compromiso con la erradicación de la pobreza y la desigualdad social era pura pantomima. Si no me creen, aquí tienen declaraciones públicas de un responsable de la cooperación descentralizada de mi tierra esta pasada semana. «Erradicar la pobreza ya no será prioritario«. ¿Para qué hacen falta tantas cumbres, tanta Declaración de París y tanta mandanga? Olvídese de la agenda internacional, de los consensos, de la Eficacia de la Ayuda. Ellos tienen El criterio claro: «el criterio para elegir los países prioritarios de cooperación es el de la emisión de emigrantes que llegan a nuestro territorio«. Bueno, hasta aquí, salvando la simpleza y con muchas reticencias, podríamos hasta discutir sobre el tema. Pero no, es más simple todavía, más crudo, y ahora más claro: «el objetivo es frenar la migración«.

Sincerándome con ustedes, he de confesar que ya estoy con los últimos cartuchos de fe en el sistema de cooperación (en sentido amplio, con todos sus actores en el ajo). El escenario se está reconvirtiendo, y más pronto que tarde (no sé si para bien, o para mal, o para todo lo contrario) vamos a tener que parafrasear a aquella vieja gloria de la democracia española: a la cooperación que viene «no la va a conocer ni la madre que la parió«.

Sin embargo, en uno de esos rayitos de esperanza, y sobre todo viendo estas lamentables declaraciones, quiero pensar que no toda la descentralizada en España es así, y que otras alternativas son posibles (hablaremos un poco de esto próximamente, en una entrada específica sobre el tema). Pero bueno, viendo a los tristes protagonistas de «la edad de oro de la cooperación» (como también se atreven a denominarla), la verdad cuesta.

Después de leer esta noticia desde luego sí se explica, y con razón, aquello de lo que hablábamos hace una semanas aquí mismo, sobre dejar la evaluación de lado en estos tiempos de crisis. Lógico, muy lógico.

Me llega por un amigo de la Universidad (¡grácias Álvaro!) el documento de «POSICIÓN ESPAÑOLA AL IV FORO DE ALTO NIVEL DE BUSAN«, en la práctica, el argumentario diplomático a defender por nuestro país en el próximo foro sobre la Ayuda al Desarrollo. No encuentro nada de interés sobre Evaluación, excepto una referencia al seguimiento de la Declaración de París.

Lo que sí encuentro son contradicciones, mucha tecno-jerga y, sobre todo, brindis al sol, algo tan propio de la Cooperación Internacional y de lo que España ha hecho gala estos años (con algunos aciertos, todo hay que decirlo…pero ya veremos el balance, y lo peor, el futuro próximo). Hay muchas muy graciosas, como las recomendaciones a los países del Sur sobre evasión de impuestos, control a las trasnacionales, redistribución de la riqueza, etc. Ya quisiera yo estas recomendaciones para mi propio país. Pero como este no pretende ser un espacio de análisis político general, menciono una algo más cercana a nuestro tema, que me ha llamado profundamente la atención.

A vueltas con la Gestión para Resultados de Desarrollo (ya saben, la versión más humana y más chévere de la Gestión basada en Resultados), aparece la siguiente afirmación:

«Deben abordarse con prudencia aquellos enfoques que presenten riesgos tales como la focalización en intervenciones cuantificables o de corto plazo«

Quiero pensar que lo de cuantificable y lo de corto plazo no pretenden ser sinónimo. ¿O sí? Pero EN EL SIGUIENTE PÁRRAFO afirma:

«La implementación de la GpRD pasa por un alto grado de apropiación del país socio, y precisa de sistemas estadísticos y de información de calidad, así como un sistema de gestión pública basado en resultados«

Entonces, ¿en qué quedamos? ¿Cuantificamos o no? Y por cierto, qué bonito sería que España se aplicara las recetas que predica. ¿Dónde se puede acceder en la administración a datos de la AOD española de manera rápida, ágil y fiable? (hablo de datos, ya de resultados, como el chiste, ni hablamos) ¿Qué fue del glorioso intento de generar un sistema único de gestión de la información de la AOD española y favorecer el acceso a los/as ciudadanos/as?

Com deia la meua iaia «arrancá de macho, pará de burro«.

PD: Mejores y más críticas ideas al hilo de la AOD pueden encontrarlas en este documento de la Asociación Latinoamericana de Organizaciones de Promoción al Desarrollo – ALOP , que estos días circulaban en twitter algunos/as colegas

 

 

Esta semana se ha presentado la última versión del manual «Integrando Derechos Humanos y Equidad de Género en Evaluación – Hacia una Guía UNEG» (traducción libre del título Integrating Human Rights and Gender Equality in Evaluation – Towards UNEG Guidance). El pasado miércoles tuve la suerte de poder participar en el Webinar, en el que Belén Sanz, de ONU Mujeres, y Flaminia Minelli, de la Oficina del Alto comisionado para los Derechos Humanos, dieron las claves sobre la necesidad de esta guía, así como algunos de sus elementos más relevantes.

Se trata de un documento de 54 páginas, compacto y muy orientado a la práctica, en el que se pretende dar pistas de cómo hacer que nuestras evaluaciones de proyectos o programas incorporen de manera central estas dimensiones. Si usted está buscando un documento académico y sesudo, esta no es su fuente. Y creo que es uno de sus más importantes aciertos: no inventamos nuevas metodologías, aplicamos «lentes de género» y «lentes de derechos humanos» a los procesos de evaluación. Por ello, si lo consultan verán que el manual repasa las fases principales de una evaluación, subrayando a qué es importante poner atención para que dicho proceso sea más comprehensivo, y por tanto más útil.

En un primer vistazo, y a falta de un análisis más en profundidad, y sobre todo, de «probarlo» en la práctica, me llaman la atención un par de aspectos. Una primera cuestión metodológica, relacionada con la elección de métodos. El manual hace una apuesta explícita por un enfoque mixto, combinando cuantitativo y cualitativo. Más allá de parecer un simplismo o una perogrullada, creo que conlleva una carga importante de significado. Se está afirmando toda una tesis: no se puede hacer una evaluación útil en términos de derechos humanos y equidad de género si no se emplea un enfoque mixto. Así leído, suena más a declaración de intenciones, ¿verdad? El debate metodológico en Evaluación sigue abierto, y hay pugnas interesantes, así que este aporte me parece más que significativo, sobre todo viniendo de UNEG. No obstante, quedamos a la espera de ver cómo se desarrolla esta parte en la versión más completa, que está anunciada para 2012.

Una segunda cuestión, quizá en parte metodológica pero más centrada en el uso de la evaluación. Viendo el énfasis dado en el documento a las diferentes fases, se observa un gran interés por los aspectos previos, en especial por la evaluabilidad (en este caso, obviamente, expresada en términos de derechos humanos y equidad de género), y por el contrario, muy breves menciones a lo relacionado con la difusión de resultados, uso de recomendaciones, etc. Del primer aspecto me queda una duda al estilo «el huevo y la gallina»: si las intervenciones resultan no evaluables en términos de derechos humanos/equidad de género, y por tanto, no las llevamos a cabo, ¿cómo realimentamos los procesos de re-diseño para mejorar los proyectos en este sentido?. Y del segundo, sobre el uso y la difusión de resultados, de nuevo quedaría a la espera de ver la Guía completa que está por salir el año que viene, pero creo que ahí tenemos un gran talón de Aquiles, en especial en cuestiones de resistencia al cambio en los actores involucrados. La experiencia ya nos dice que una cosa es lo que recomienda el evaluador en su informe (el papel lo aguante casi todo), y otra muy distinta qué es lo que cambia (a mejor) como consecuencia de su uso. En el caso de los derechos humanos y la equidad de género, me parece más importante todavía, porque a diferencia de otras cuestiones, seguramente las recomendaciones en este sentido toquen, por ejemplo, cimientos institucionales o valores clave de la cultura organizacional de los implicados.

En cualquier caso, un aporte necesario que seguro va a resultarnos de mucha ayuda para ponernos esas «lentes» en nuestras evaluaciones. Ah, se me olvidaba, como es habitual, el documento está en inglés, pero afortunadamente habrá versión en español (y otras lenguas) próximamente, o al menos así nos lo han prometido 😉

ACTUALIZACIÓN 18/02/2012

Promesa cumplida: aquí está el documento en Español. Enhorabuena.

La Cooperación al Desarrollo de la Generalitat Valenciana elimina de sus funciones cualquier referencia a seguimiento o evaluación en su enésima reestructuración. Así de simple, así de contundente, y así de peligroso. Y si no me creen, lean ustedes mismos el nuevo Reglamento Orgánico y Funcional de la recién estrenada Conselleria de Justicia y Bienestar Social, que ahora incluye las competencias de Cooperación para el Desarrollo (para ahorrarles trabajo, artículo 12, páginas 11 y 12).

Probablemente este comentario pueda parecer un hilado demasiado fino. Sin embargo, más allá de la preocupación que puede suscitarnos a los y las que trabajamos directamente en Evaluación, y más concretamente en Evaluación de la Cooperación para el Desarrollo, creo que es un aporte más al empobrecimiento de las políticas públicas, y en especial a la de Cooperación Internacional en España.

A principios de año, un ex-técnico de la Dirección General de Cooperación al Desarrollo (uso esta denominación por razones didácticas, aunque ha cambiado varias veces de nombre durante los últimos años -interesante indicador, por otra parte-) publicaba un contundente artículo en uno de los diarios locales de mayor tirada sobre la deriva de la cooperación para el desarrollo de la Generalitat Valenciana. Si bien en algunas propuestas operativas, especialmente las relativas a evaluación, no coincido con el autor, no puedo estar más de acuerdo con el sentimiento general que transmite. Deriva ésta que en el área de Evaluación he podido comprobar en primera persona, desde el corte injustificable de proyectos de investigación en evaluación a la Universidad, hasta el bloqueo y el ninguneo constante a toda iniciativa de mejora en procesos y protocolos de seguimiento y evaluación dentro de la propia administración. Eso sin entrar en toda la ola de corrupción que ha rodeado a la gestión de la ayuda al desarrollo valenciana durante los últimos años (un buen amigo se molestó en recopilar todos los artículos de prensa publicados durante Octubre de 2010, en relación a estos escándalos, y fueron cerca de 200, entre prensa local y estatal).

Así, seguramente este nuevo capítulo no es más que la continuidad de esa deriva. De nada sirve que se haya venido trabajando por primera vez un espacio de participación de los actores de cooperación como es el Grupo de Trabajo en Evaluación (emanado del Consell Asesor de Cooperació), o que también por primera vez se cuente con personal técnico en la administración dedicado exclusivamente a la función de evaluación. ¿Falta de criterio? ¿Aleatoriedad? Seguramente una parte sea debido a ello. Pero a estas alturas, y con la que está cayendo, da que pensar.

Error garrafal, no obstante. Y ridículo absoluto, una vez más. Se está elaborando el informe de evaluación del Plan Director de la Cooperación Valenciana, encargado a una «empresa consultora de gran prestigio» (cito textualmente palabras de funcionarios responsables de la Dirección General), por supuesto sin concurso público, con nocturnidad y a precio de saldo. Pero no se preocupen, el informe no hablará de esto, pero sí nos dirá que, en líneas generales, la cooperación valenciana es exitosa, cumple con los estándares de la OCDE y es pionera en la promoción del codesarrollo. Y total, estos pequeños detalles son cuestiones menores, que vendrán en el apartado de recomendaciones, en letra pequeña.

Abro esta nueva temporada de publicación con la bienvenida a la blogosfera de un nuevo sitio que promete muchas lecturas interesantes, pero sobre todo desafiantes. Con el sugerente título Al Borde del Caos: Desarrollo, Evaluación, Complejidad, sale hoy al espacio una publicación de Pablo Rodriguez Bilella, profesor universitario, investigador social y uno de los miembros de la comunidad internacional de evaluadores más activos en la red, en eso que se ha venido en llamar la web 2.0.

En EVALUATECA hemos tenido la suerte de contar con algunos de sus comentarios y aportaciones. También, en lo personal, he tenido el privilegio de contar con su presencia entre nosotros en España, y compartir algunas locuras experimentales, como la pasada Cesta de Aprendizajes, que comentamos en entradas de la anterior temporada, y de cuyos resultados próximamente volcaremos más madera.

No le deseo buena suerte, porque a la gente brillante como Pablo no le hace falta para que esta aventura salga bien. Le deseo mucha paciencia y mucha constancia, que desde nuestra humilde experiencia en la blogosfera, es lo que más falta hace  para darle vida a un blog. Y sobre todo, deseo que esta aventura dure mucho, estoy seguro de que vamos a descubrir nuevas cosas y a debatir mucho más Al Borde del Caos.

Háganme caso. Síganlo, en la web, en su lector de noticias habitual, y si no le tienen miedo a la velocidad, en su tuiter 😉

El próximo día 6 de julio de 2011, tendrá lugar la “Cesta de Aprendizajes (CdA): Sistematización de Experiencias en Cooperación al Desarrollo” en la Universidad Politécnica de Valencia. La dinamización de la sesión de trabajo presencial correrá a cargo de Óscar Jara, y se contará además con la presencia y dinamización on-line de Pablo Rodríguez Bilella.

La sesión de trabajo de la tarde, que tendrá lugar a las 4 p.m. hora española, podrá ser seguida en directo a través de este enlace. Una vez en el entorno virtual, se podrá acceder a la sesión sin necesidad de alta previa al introducir un nombre de usuario en la opción “invitado”. Para dinamización on-line en twitter durante toda la CdA se usará el hastag #sistv.

El término Cesta de Aprendizajes (CdA) se ha acuñado para definir un formato de grupo de trabajo donde cada una de las personas participantes comparte con el resto de asistentes su experiencia en relación a la temática, con una dinámica y un orden de las cosas que se construye en el propio proceso a partir de una creación colectiva.

Bajo este formato, se trabajará con un reducido grupo de asistentes -miembros de ONGD- para poner en común los mecanismos con los que cuentan a nivel institucional para aprender de los procesos que acompañan y profundizar sobre las posibilidades que ofrece la Sistematización de Experiencias en este contexto.

Óscar Jara es educador popular. En la actualidad ejerce como Director del Centro de Estudios y Publicaciones ALFORJA. Oscar es, sin lugar a dudas, la principal referencia en la metodología y la praxis del enfoque de Sistematización de Experiencias en Latinoamérica. Ha participado como educador y facilitador en procesos sociales durante más de 30 años, experiencia que refleja en la abundante bibliografía que ha venido publicando, en la que revisa tanto aspectos teóricos y metodológicos como, sobre todo, reflexiones desde la experiencia.

Pablo Rodríguez Bilella es Profesor de la cátedra “Antropología Social y Cultural”, en la carrera de Trabajo Social, FACSO, Universidad Nacional de San Juan y miembro del Comité Ejecutivo de la Red de Seguimiento, Evaluación y Sistematización de América Latina y el Caribe (ReLAC), así como del Board de la International Organization for Cooperation in Evaluation (IOCE).

Vía ReLAC me llega una crónica de la Conferencia de la Red de Redes de Evaluación de Impacto (NONIE). Con permiso de su autor y buen amigo Pablo Rodríguez Biella, reproduzco textualmente su buenísima síntesis:

Hace una semana se desarrolló en París la conferencia de la red de redes de evaluación de impacto -NONIE, por sus siglas en Inglés-, en la cual tuve la oportunidad de participar. Vistando el sitio web de la conferencia encontrarán el programa de la conferencia, y clickeando en el nombre de cada presentación podrán acceder a un breve resumen de las mismas así como a una copia de la presentación realizada.

Las presentaciones fueron en general de muy buen nivel, y la estructura del evento permitió realizar comentarios y preguntas a los expositores con suficiente tiempo y alcance. Distintas ideas fueron apareciendo recurrentemente, algunas de las cuales me permito reflejar a continuación, con la intención de motivar a los interesados a acceder a los materiales originales en el link anterior:

  • Existe una creciente atención en las prácticas de evaluación de impacto de pasar de QUÉ es lo que funciona a entender CÓMO es que funciona
  • Las evaluaciones de impacto deben acentuar aún más el paso desde el control o la auditoría hacia el aprendizaje
  • La mirada y los métodos de la evaluación de impacto no debe perder de vista el entender procesos
  • Si bien el valor de la evaluación de impacto vía ensayos controlados aleatorios (randomized control trials -RCT) es ampliamente reconocida, sus posibilidades de «ver» la caja negra de los procesos es muy baja.
  • La metodología RCT en la evaluación de impacto es solamente una entre varias posibles, y no debe ser considerada la «bala mágica» para resolver cualquier evaluación
  • Por tanto, al hablar de evaluaciones de impacto rigurosas, debemos mirar a múltiples dimensiones de la misma (ver al respecto la presentación de Jim Rugh)
  • América Latina aparece en distintos estudios como un continente donde se vienen realizando crecientemente evaluaciones de impacto, particularmente en relación a las transferencias de dinero condicionadas (conditional cash transfer)

Creo que este tono y este debate es el que toca, un enfoque del asunto más plural, más «holístico» que dirían los filósofos. Pero este melón no ha hecho más que abrirse, queda mucho por mostrar y demostrar…por todos los frentes.

De tod@s es bien sabido que una imagen vale más que mil palabras, como dice el refranero, o también que con unos datos numéricos y unos grafiquitos de calidad podemos explicar casi cualquier cosa (esto lo digo más en tono irónico, por si no se aprecia). Hace poco colgué de broma en mi FaceBook una imagen de una cadena de TV española, en la que l@s responsables de la cadena pretendían hacernos ver la enorme ventaja en la cuota de audiencia (share) frente a la competencia. Y lo hacía con el siguiente gráfico:

Estoy seguro de que ustedes tendrán muchos más ejemplos como éste. En un mundo dominado más que nunca por la imagen y la rapidez, mostrar datos de forma que la información que se pretende transmitir se capture con facilidad y SIN ERROR por parte del receptor es algo no sólo técnicamente básico, sino éticamente necesario. Por eso, recursos como el que presento a continuación me parecen tan necesarios, en particular en un campo como el nuestro, el de la Evaluación, en el que necesitamos comunicar datos, transmitir información, y hacerlo asequible a un amplio espectro de audiencias. Está claro que en la difusión de resultados de evaluación es necesario muchas veces usar canales y medios diferentes por los tipos de actores a los que nos dirigimos. Pero cada vez más, la Red une a más gente, no sólo en las distancias, sino en los lenguajes, por lo que este tipo de recursos nos ayudan cada vez más a difundir a más gente.

Leo en un tuit de AEA el recurso de Knight Digital Media Center, un espacio en la Universidad de California en Berkeley.  Además de un sitio interesante para l@s que nos interesan también los temas de comunicación, encontramos una colección de TUTORIALES con recomendaciones, sugerencias, tecnología y buenas ideas para presentar mejor nuestros datos. Desde básicos sobre cómo mostrar datos en 2D o 3D, hasta impresionantes gráficos dinámicos o incluso interactivos georeferenciados.

No me ha parecido ver, sin embargo, ninguna referencia al archiconocido GapMinder, el «juguete estadístico de las bolitas que suben y bajan» como alguna vez me lo definió un amigo. Con todas las pegas metodológicas que se le puedan sacar, hay que reconocer la visión de su creador, el profesor show-man Hans Rosling. Para quien no lo conozca, imprescindible su intervención en una conferencia de los TED en 2006.

La idea es buena, y la venta mucho mejor. No en vano, hasta Google la ha incorporado como uno de sus Gadgets. Y para nosotros en Evaluación resuelve bien el problema que comentábamos antes: mostrar datos que realmente transmitan información relevante para los actores participantes, en un lenguaje asequible para la mayoría. Y no es cualquier cosa: si consultan alguna demo de GapMinder verán que se muestra con facilidad algo que con herramientas más convencionales es complejo de transmitir: la dimensión temporal, la variación de datos con el tiempo. Personalmente, la única pega importante que le pondría en nuestro caso es lo peligroso de mostrar «relaciones» o «tendencias» entre dos variables que hemos elegido en nuestro trabajo, obviando la dimensión multivariante del fenómeno (que en las cuestiones de desarrollo, es el caso habitual), que puede estar ocultando otro tipo de evolución si las condiciones cambian. Empleado con mala idea, de nuevo se puede vender casi cualquier cosa. Pero vaya, quizá ya es hilar un poco fino 😉

Por cierto, recomiendo seguir el twitter de AEA (de donde saqué la referencia inicial), están continuamente volcando cosas muy interesantes.

Los visitantes de EVALUATECA

Creative Commons License
Esta obra está bajo una licencia de Creative Commons.