You are currently browsing the tag archive for the ‘Enfoques de Evaluación’ tag.

Mi labor docente en la Universidad Politécnica de Valencia está ligada desde hace más de una década al Project Management (PM). Siempre ha sido una continua dialéctica la confrontación entre las técnicas, instrumentos e incluso la filosofía del PM, y todo lo bebido del la gestión en el mundo del Desarrollo. Y frente a lo que pudiera parecer, no está todo resuelto. ¿Son necesarias las técnicas de PM en los proyectos de Ayuda al Desarrollo? ¿Son compatibles la participación, la trasnformación social, el empoderamiento de los más desfavorecidos, con la gestión técnica profesional? ¿Ayuda el PM a una evaluación últil en términos de mejora y aprendizaje de las organizaciones?

Para seguir pensando y reflexionando en estas y otras cuestiones, hemos organizado un WEBINAR, es decir, una Conferencia On Line, con el sugerente título de «Estrategias del Project Management en la Ayuda al Desarrollo: potencialidades y limitaciones para una gestión responsable de las intervenciones«. Nos facilitará la reflexión José Antonio Monje, coordinador regional de Monitoreo y Evaluación para América Latina y Caribe de Save the Children. La cita: el próximo viernes 30 de marzo, a las 17 horas (GMT +1, Valencia, España) (si quiere conocer la hora de inicio en su localidad, puedo hacerlo aquí). La conferencia forma parte del programa Ágora Global del Máster Universitario en Cooperación al Desarrollo, que en su especialización de Gestión de Proyectos y Procesos de Desarrollo se imparte en la UPV.

Para los que no lo conozcan, José Antonio es un activo miembro de la comunidad evaluadora en español, especialmente en el mundo de las redes sociales. Como en estas cosas es obligado y recomendable hablar de la trayectoria de los/as ponentes, les cuento que José Antonio es especialista en gestión, diseño, seguimiento y evaluación de proyectos de cooperación al desarrollo e inversión social pública, con amplia experiencia en gestión de proyectos en diversos países de América Latina (Ecuador, Perú, Bolivia, Cuba, Guatemala, Nicaragua, El Salvador, Brasil) y Norte de África (Argelia, Sahara Occidental, Mauritania), habiendo trabajado para organizaciones como CARE, ITDG, SOS Kinderdorf International, Caritas Española y Fundación Mundubat. Ha sido asesor de alta dirección en el Despacho Ministerial de Salud Pública en la República del Perú. José Antonio es Antropólogo Social. Cuenta con el Diploma de Estudios Avanzados (DEA) y es candidato a Doctor en Dirección de Proyectos (Universidad de Zaragoza, España). Ha cursado asimismo el Máster in Project Management de la Universitat Ramon Llull.

El Webinar lo implementamos en la plataforma Policonecta de la UPV. Se trata de una sencilla plataforma para formación online síncrona y para trabajo colaborativo. La participación es gratuita y abierta a cualquier profesional que quiera participar. Si les gusta la idea, les dejo las instrucciones para acceder al sistema:

  • Durante una hora antes del inicio de la actividad, conéctese al sistema en la dirección http://policonecta.adobeconnect.com/cfp1
  • Acceda como invitado. Se le solicitará que indique un nombre para ser identificado en la sesión. Durante la sesión podrá participar durante la ronda de preguntas al ponente, bien por medio de la herramienta chat, bien realizando su pregunta mediante su micrónofo. Para reducir la posibilidad de que tenga problemas en el momento de la conexión, le sugerimos que pruebe si su sistema está correctamente configurado para usar este servicio. Puede hacerlo cómodamente accediendo a la siguiente dirección: https://policonecta.adobeconnect.com/common/help/es/support/meeting_test.htm
  • Si nunca ha empleado un sistema de Web-conferencing de este tipo, le sugerimos que consulte este tutorial en video: http://www.adobe.com/es/products/acrobatconnectpro/demo/

Les espero en línea el viernes.

ACTUALIZACIÓN 31/03/2012: Gracias a todas/os las/os participantes. Al final fuimos unos 50 entre las/os presenciales y las/os virtuales. A las/os que se conectaron remotamente, mis más sinceras disculpas por las dificultades técnicas. Estamos afinando la herramienta…y nos estamos afinando nosotros también, que falta nos hace. Esperemos seguir próximamente con más seminarios, más temas, más debate.

El próximo día 6 de julio de 2011, tendrá lugar la “Cesta de Aprendizajes (CdA): Sistematización de Experiencias en Cooperación al Desarrollo” en la Universidad Politécnica de Valencia. La dinamización de la sesión de trabajo presencial correrá a cargo de Óscar Jara, y se contará además con la presencia y dinamización on-line de Pablo Rodríguez Bilella.

La sesión de trabajo de la tarde, que tendrá lugar a las 4 p.m. hora española, podrá ser seguida en directo a través de este enlace. Una vez en el entorno virtual, se podrá acceder a la sesión sin necesidad de alta previa al introducir un nombre de usuario en la opción “invitado”. Para dinamización on-line en twitter durante toda la CdA se usará el hastag #sistv.

El término Cesta de Aprendizajes (CdA) se ha acuñado para definir un formato de grupo de trabajo donde cada una de las personas participantes comparte con el resto de asistentes su experiencia en relación a la temática, con una dinámica y un orden de las cosas que se construye en el propio proceso a partir de una creación colectiva.

Bajo este formato, se trabajará con un reducido grupo de asistentes -miembros de ONGD- para poner en común los mecanismos con los que cuentan a nivel institucional para aprender de los procesos que acompañan y profundizar sobre las posibilidades que ofrece la Sistematización de Experiencias en este contexto.

Óscar Jara es educador popular. En la actualidad ejerce como Director del Centro de Estudios y Publicaciones ALFORJA. Oscar es, sin lugar a dudas, la principal referencia en la metodología y la praxis del enfoque de Sistematización de Experiencias en Latinoamérica. Ha participado como educador y facilitador en procesos sociales durante más de 30 años, experiencia que refleja en la abundante bibliografía que ha venido publicando, en la que revisa tanto aspectos teóricos y metodológicos como, sobre todo, reflexiones desde la experiencia.

Pablo Rodríguez Bilella es Profesor de la cátedra “Antropología Social y Cultural”, en la carrera de Trabajo Social, FACSO, Universidad Nacional de San Juan y miembro del Comité Ejecutivo de la Red de Seguimiento, Evaluación y Sistematización de América Latina y el Caribe (ReLAC), así como del Board de la International Organization for Cooperation in Evaluation (IOCE).

El intento de buscar mecanismos «alternativos» a las corrientes «dominantes» no es nuevo en Evaluación, tampoco en casi nada en el campo del Desarrollo. Llevo tiempo coleccionando artículos, referencias, experiencias de gentes, y creo que lo más positivo de todo es que hay movimiento. Me cuesta ver que se esté dando con alternativas realmente nuevas, más bien nuevos usos a viejas técnicas, eso sí, anclados en nuevos enfoques, que es quizá lo relevante.

Soy escéptico por naturaleza, y al igual que desconfío de las bondades de lo establecido, también me escama lo maravillosamente bueno que parece resultar siempre «lo alternativo». Creo que al final lo que vale la pena es echar un vistazo a lo que va ocurriendo, aprovechando que afortunadamente ahora más que nunca tenemos fácil y rápido acceso a compartir información.

Una de esas corrientes «alternativas» son las cuestiones relacionadas con el «poder«. Por la parte de Evaluación, leo en una referencia de Rick Davies en la lista de MSC, «Positive deviance: spotting the hidden innovations in development work» (Desviación positiva: identificando las innovaciones ocultas en el trabajo de desarrollo). Se trata de un trabajo de la gente de OXFAM Gran Bretaña, concretamente un interesante blog mantenido por Duncan Green, «From Poverty to Power«. Se trata de un trabajo de evaluación, intentando usar SyE como mecanismo de innovación.

El ejemplo es interesante (una especie de sistema de microcrédito en grupos de mujeres en zonas rurales muy pobres, muy al estilo original del archipremiado Yunnus).  Me cuesta ver el escalado y la replicabilidad (necesitaríamos programas siempre con acciones sencillas, poco programadas y amplísima cobertura, para tener variabilidad), pero la idea es muy sugerente.

Le daremos vueltas…a ver que pasa. Lo peor que pueda pasar es que nos mareemos un rato 😉

ACTUALIZACIÓN (09/02/2011): Gracias a Pablo, adjunto un par de enlaces más que complementan muy bien la entrada del blog de fp2p. Los tienen en el comentario abajo, pero se los copio también acá:

Positive Deviance Initiative (PDI)

A Q&A on Positive Deviance, Innovation and Complexity


logo_escuela_pastilla_verde

Hace aproximadamente un año, la gente del Área de Cooperación Internacional de la Escuela Andaluza de Salud Pública tuvo el detalle de invitarme a participar en un estudio sobre el impacto de sus intervenciones en este sector en las diferentes acciones que había venido trabajando. Lamentablemente no pude participar porque la cosa requería presencialidad y yo estaba huído en el GIOS en Arizona (como seguramente algún amigo recordará). Una vez acabado el trabajo, llega el momento de socializar. Y ahora que estoy por Valencia de nuevo (más o menos), tienen de nuevo la amabilidad de invitarme a participar en una jornada para discutir sobre el tema, junto a otros ponentes y un reducido grupo de gente vinculada a la cooperación internacional desde las instituciones públicas.

Ni que decir tiene que me parece una iniciativa genial, de las que lamentablemente hay pocas en España. Pero además creo que han dado en el clavo promoviendo la asistencia y el diálogo con la cooperación descentralizada de otras comunidades autónomas, entre ellas la que resido habitualmente. El papel de la descentralizada es clave en una nueva manera de entender la articulación de actores a nivel internacional, y la evaluación debe formar parte de este nuevo discurso. Pero de este tema, evaluación y actores locales, hablaremos en otra entrada 😉

A continuación comparto el programa. Como veréis se trata de un plantel bien interesante. De hecho, vamos a ver si soy capaz de contar algo interesante ;-(  Paradójicamente, como podrán ver en el guión, me han pedido que haga un resumen del polémico informe del CDG When we ever learn?‘ y de lo que ha venido pasando al rededor del tema desde 2006. Anda que con lo que servidor ha rajado de este tema…

10’00 Presentación del evento.
José Luis Rocha. Secretario General de Calidad y Modernización.
Consejería de Salud de la Junta de Andalucía
10’15 MESA DEBATE 1
PUNTOS CRÍTICOS EN LA EVALUACIÓN DE IMPACTO EN
COOPERACIÓN INTERNACIONAL.
Modera: Miguel Casado
Responsable de Salud.
Dirección General de Planificación y Evaluación de Políticas para el
Desarrollo Ministerio de Asuntos Exteriores y de Cooperación
Conclusiones del grupo de trabajo sobre la brecha de evaluación: ¿cuándo
aprenderemos? Avances producidos desde el informe de 2006.
Ponente: Rafael Monterde Díaz.
Universidad Politécnica de Valencia
11’00 Café
11’30 La evaluación del impacto en cooperación internacional: ¿en qué punto estamos?
Ponente: José Antonio Alonso
Instituto Complutense de Estudios Internacionales
12’00 El papel de la ética en la evaluación de la cooperación al desarrollo.
Ponente: Alejandra Boni.
Escuela Técnica Superior de Ingenieros Industriales. Universidad de Valencia
12’30 La cadena de resultados y la evaluación de políticas públicas en el sector social
Ponente: Juan Murciano Rosado.
Consultor. Evaluación de Políticas Públicas
13’00 La evaluación de impacto: estado de la cuestión y aplicaciones en la cooperación para el
desarrollo en salud
Ponente: José María Larrú Ramos
Universidad CEU‐San Pablo
13’30 Debate abierto.
14’00 Comida
15’30 MESA DEBATE 2
MODELOS, BUENAS PRÁCTICAS, DIFICULTADES E INSTRUMENTOS
DISPONIBLES PARA EL DESARROLLO DE EVALUACIONES DE
IMPACTO.
Modera: Sandra Pinzón Pulido.
Escuela Andaluza de Salud Pública
Ponentes:
􀂙 Miguel Casado.
Dirección General de Planificación y Evaluación de Políticas de Desarrollo
􀂙 Carmen Pérez Samaniego.
Deutsche Gesellschaft für Technische Zusammenarbeit (GTZ)
􀂙 Carlos Asenjo.
Fondo Español de Evaluación de Impacto. Banco Mundial.
􀂙 Marie Gaarner.
Representante de IP3 (Video‐conferencia)
17’30 Identificación de líneas de trabajo conjunto.
Debate dirigido con la participación de los responsables de evaluación de las
cooperaciones descentralizadas de Andalucía, Asturias, Canarias, Cantabria,
Castilla La Mancha, Castilla y León, Cataluña, Comunidad Valenciana,
Extremadura, Galicia, Islas Baleares, La Rioja, Región de Murcia, Comunidad
Foral de Navarra y País Vasco.

Programa

Lee el resto de esta entrada »

cimg0272-copia1

Estos días andamos por el Ecuador con varias actividades de Evaluación en marcha. Una de ellas, una colaboración con los amigos y amigas del PNUD, en un interesante programa que quizá conozcan, pero que si no es el caso, les animo a echar un ojo: se trata del programa ART (Articulación de Redes Territoriales). Pueden consultar el modelo general aquí, y el caso particular de Ecuador aquí.

Andamos escasos de poesía, de innovaciones, de riesgo, en esto de la Evaluación, así que cruzarse con locos que se echan al ruedo e intentan ver esto del trabajo en desarrollo desde otra óptica, sinceramente se agradece. Hemos estado hablando mucho sobre el seguimiento y la evaluación. En particular lo primero, pero dado que en el programa hay un importante componente de apoyo a procesos, el seguimiento vira (o debería) hacia el intento de capturar los logros que las pequeñas intervenciones consensuadas entre actores locales van alcanzando.

Hemos discutido muchas cosas estos días con compañeros y compañeras que trabajan el día a día de la política pública local en lo más terrenal, y fruto de ello me surgen interrogantes/reflexiones que comparto:

a) Abro los ojos ante la articulación/coordinación/concertación. Sin duda la mejor de las estrategias para resolver viejos problemas. Lanzo un mensaje, en especial para los más heterodoxos/progres/antimétodo: el hábito no hace al monje y esta es una buena muestra. LA articulación de actores en el territorio creo que resuelve en buena parte las simplificaciones que cometemos constantemente al diseñar programas con herramientas orientadas por objetivos, orientadas a resultados, modelos lógicos o como buenamente le quieran ustedes llamar. No es tanto problema de la herramienta (que obviamente, en tanto que herramienta, tiene sus limitaciones y en este caso probablemente el límite elástico -por aquello de la flexibilidad que claman sus detractores- sea sin duda más corto). Es problema de usar ésta (o cualquier herramienta) y pensar en solucionar un problema complejo SIN TENER EN CUENTA AL RESTO DE ACTORES, que en una aproximación más sistémica, son entidades con alto grado de autonomía e intereses y mandatos no necesariamente alineados.

cimg0277-copia

b) Siguiendo con el argumento, ¿qué utilidad tendría un enfoque articulado de Evaluación? Pienso en una doble vía: que hay de bueno en la articulación para alimentar la evaluación, y viceversa. En el primer caso, un enfoque coordinado implicaría directamente réditos tan apetecibles como: menores costes y tiempos, mayor riqueza de información, aproximación más certera a la complejidad del hecho evaluado, y la guinda del pastel, una mayor probabilidad de incorporación de aprendizajes en el centro de la gestión de cada actor. En la vista opuesta: en un enfoque articulado de trabajo, la evaluación necesariamente debe decantarse hacia un enfoque formativo, una marcada orientación al aprendizaje social.

c) Todo suena a música celestial. Bajemos un poco al mundo real. ¿Qué nos hace falta para orientarnos de este modo? Si bien es cierto que hay técnicas y herramientas de evaluación disponibles para dar y vender, necesitamos una primera barrida para buscar las más apropiadas. Esto es un trabajo pendiente, y que sin poder prometer ahora que lo abordaremos, es sin duda una tentación. Apunto claves casi, casi, hablando en voz alta:

  • Necesitamos enfoques/herramientas que capturen complejidad: así que chao, chao diseños experimentales, fue bonito mientras duró 😉 Vámonos por aproximaciones en red (ARS) o herramientas cualitativas ad hoc para este tipo de intervenciones complejas (Cambio Más Significativo, MSC)
  • Necesitamos herramientas fuertemente apoyadas en la «iniciativa evaluativa» de los participantes: término casi imporvisado con el que quiero evitar decir «participativas». Pienso incluso en enfoques en los que sin el trabajo activo de los actores la herramienta simplemente no funciona, ni trucándola. Estoy pensando en Mapeo de Alcances, más su filosofía que su praxis.
  • Necesitamos definir qué es «exitoso» en términos de articulación y como darle valor. Quisiera no caer en la simplificación de anhelar «indicadores de articulación», aunque puede ser un paso para inocular este nuevo virus a sistemas enquistados (supongo que sería más fácil esto que decirle al PNUD que se deje de Gestión Basada en Resultados).

Veo mimbres, pero no sin cierto escepticismo. Así como creo que una iniciativa como la que he podido conocer más en detalle y compartir durante esto días es una buena muestra de que todavía hay esperanza, también me preocupa la atadura a las viejas prácticas que necesariamente mantiene (por su propia supervivencia, básicamente). Me refiero a los vicios de la cadena de la ayuda, los intereses de los donantes, la maquinaria burocrática del sistema, etc.

albufera21

Hoy he tenido la oportunidad (un lujo, diría) de dedicar un tiempo a dejarme interpelar por viejas y nuevas ideas. Esta mañana hemos asistido a la conferencia «Diálogos sobre Planificación del Desarrollo«, que en realidad ha sido un agradable e innovador formato entre mesa redonda /debate /videoconferencia (uno de los ponentes estaba en Londres). Los ponentes: Gabriel Ferrero, Subdirector de la Dirección General de Planificación y Evaluación de Políticas de Desarrollo (DGPOLDE), y Alex Frediani, consultor y profesor de Development Planning Unit en el University College of London. Una iniciativa de Master en Políticas y Procesos de Desarrollo, programa impulsado por mi Departamento y en el que tengo el privilegio de participar como docente en su curso de Evaluación de Programas.

Ha sido un bombardeo termendo de ideas, y en especial de ideas «contemporáneas» (palabra que ha usado Alex un par de veces y que me parece muy apropiada), conectando paradigmas de desarrollo con enfoques de planificación, para al final aterrizar en la Ayuda al Desarrollo como parte importante en el entramado. Algunos de los enfoques nombrados: Modos de Vida Sostenibles (Sustainable Livelihoods Approach), Empoderamiento (algún día encontraremos en español una buena traducción para Empowerment), Ciudadanía (Citizenship), Enfoque basado en Derechos (Rights Based Approach)  y, cómo no, Enfoque de Capacidades (Capability Approach).

Durante estos meses he estado envuelto en un trabajo con gente del GIOS en Arizona que precisamente trabajaba con Modos de Vida Sostenibles, y en él hemos intentado operativizar ciertas valoraciones mediante modelos en red. Ya de vuelta en Valencia (de la que les regalo una instantánea del lago de la Albufera), reengancho con algunos proyectos rondando las remesas, la vivienda social, el desarrollo local, y en ellos nos ronda la idea de atrevernos con el Enfoque de Capacidades en un aterrizaje, esperemos que no demasiado forzoso, como posible marco de Evaluación.

Así que los aires frescos de esta mañana me han vuelto a recordar algunas locas ideas. ¿Qué tal un repaso a estos «contemporáneos» marcos teóricos para desarrollar nuevos enfoques de evaluación? Me consta que hay algunos en los que ya se ha andado, en especial Empowerment Evaluation (con san David Fetterman), y aunque no se ha hablado esta mañana mucho, encontraríamos un paralelismo en Collaborative Evaluation de Rita O’Sullivan con Collaborative Planning.

Se admiten tanto sugerencias como apuestas 😉

evaluacionescolaborativas2

Mucho discurso, poca praxis. Como dirían algunos del lado occidental del charco (atlántico) «mucho lilili, poco lalala». Como cualquiera que esté mínimamente involucrado en la práctica de la evaluación, tanto los condicionantes operativos como en ocasiones los intereses estructurales, impiden la inclusión de formas más flexibles y más democratizadoras en los procesos evaluativos. Resulta complejo y pretendidamente caro poner en práctica mecanismos de participación activa en evaluaciones de programas. Complejo por la enorme carga de gestión de un proceso en el que tomen parte activa un buen número de actores involucrados, no necesariamente en armonía entre ellos. Por otro lado, pretendidamente caro, pues el mismo «requisito», si así se quiere entender la evaluación en el contexto del ciclo de proyectos, se puede salvar con un paracaidista de una semana en terreno y otra en escritorio. 

En este contexto, propuestas prácticas para incorporar procesos colaborativos son sin duda un soplo de aire fresco más que necesario. Evaluaciones Colaborativas es un texto de Liliana Rodríguez, profesora del Departamento de Investigación y Medición Educativa de la Universidad de Florida del Sur. Traducción de una primera versión en inglés, el texto presenta una propuesta práctica articulada sobre un modelo en seis pasos, a partir de los cuales se ofrecen consejos prácticos extraídos de casos reales de evaluación. Tuve la suerte de conocer a Lili y a Rigo (Rigoberto Rincones, su pareja), en una conferencia de la American Evaluation Association. Ambos excelentes profesionales de la evaluación, es un gusto saber que a pesar de residir y desarrollar su carrera profesional en Estados Unidos, su compromiso con el desarrollo de una cultura evaluativa de calidad en habla hispana sigue más vigente que nunca.  

[Vía ReLAC]

En un mundo transdisciplinar, en el que carece de sentido entender la ciencia como un conjunto de cajones estancos, tiene todo el sentido del mundo la búsqueda de conexiones neuronales entre conceptos, enfoques, mecanismos, etc.

Una combinación interesante, de la que se está hablando mucho en muchos ámbitos de Evaluación (inclusive el sector privado, del que por cierto proviene esta filosofía), es la que vincula nuestra área con Gestión del Conocimiento (o como se conoce en la jerga anglosajón, KM o Knowledge Management). En una definición muy burda, vendría a ser el conjunto de procedimientos y recursos establecidos por una organización para facilitar a la misma tanto el acceso a información relevante para la toma de decisiones como la absorción y posterior uso de lecciones aprendidas a partir de la práctica en actividades previas.

En la vida real, la Gestión del Conocimiento se está quedando en muchos casos en la instalación de sistemas (basados en software) que almacenan datos y más datos sobre «cosas» que acontecen en la institución: actividades, recursos, proyectos, etc. Sin embargo, así como hay una transformación para llevar un «dato» a ser «información», también hay otro salto entre «información» y «conocimiento». Y esto último tiene mucho que ver con Evaluación.

Cada vez tenemos más acceso a datos, y también a información en políticas públicas. Pero, ¿sabemos más de los procesos que se están generando dentro y fuera de la institución? Y si la respuesta es afirmativa, ¿quién sabe más? ¿Se puede hablar de la organización que aprende?

Toda esta intro para dejar una pregunta en el aire y empezar a hablar. Y también para introducir alguna propuesta interesante. La Iniciativa Pelícano (no confundir con la conspiradora película de Julia Roberts) es una actividad impulsada por un grupo de instituciones con el IDRC de Canadá a la cabeza (los creadores del Mapeo de Alcances). El resto son: European Centre for Development policy Management (ECDPM), Exchange, Bellanet and Unicef East Africa Regional Office. Se trata de un sitio web para discutir sobre Aprendizaje Organizacional basado en la evidencia. ¿De dónde pueden surgir evidencias de las que aprender? Pues de los procesos de evaluación, por supuesto ;-). Para más información sobre el proceso de esta iniciativa y los alcances que se van dando, puede consultar aquí.

El foro están en inglés (en fin…). Hay temas muy interesantes, como por ejemplo «¿Cómo evaluar pertenariados?» o «Aprendizaje en la nueva arquitectura de la AOD».

¡Ánimo y al toro! (ups, esta última expresión puede herir sensibilidades)

De nuevo, tras otro paréntesis con viajes y trabajos tan encantadores como entorpecedores, escribo en EVALUATECA porque esta semana lo merece. Esta semana terminamos con la fase presencial de nuestra asignatura de Evaluación de Programas, en el marco del Master en Políticas y Procesos de Desarrollo (especialidad en Gestión de Proyectos y Procesos) de la Universidad Politécnica de Valencia. Y para ello, tengo el inmenso placer de contar con dos invitados de excepción: Mr. Craig Russon, actualmente Senior Evaluation Officer de la Organización Internacional del Trabajo, y D. Rogério Silva, actualmente Director del Instituto FONTE de Brasil, especializado en apoyo a procesos participativos. Ambos son, sin duda, líderes internacionales en el campo de evaluación, como ya hemos comentado en alguna otra entrada.

Y empezamos las actividades presenciales con una mezcla de conferencia, mesa redonda, panel…uno nunca sabe ya cómo llamar a esto. En el fondo es un intento de réplica de las conversaciones de café que hemos tenido en alguna ocasión. Por eso la hemos titulado «Evaluación a dos voces». Hablaremos de los temas que nos interesan en evaluación, lo que se está discutiendo por ahí, algunas pistas sobre hacia dónde caminar, etc. Será el jueves 17 a las 12. Aquí podéis ver el cartel anunciador. Es una actividad abierta, patrocinada por la Asociación Valenciana de Ingeniería sin Fronteras. Estáis todos y todas cordialmente invitados. Para los que no podáis venir, intentaremos al menos conseguir unas fotografías (ojala un video que pudiéramos colgar).

Un breve comentario, «por el camino». Hace unos días ha vuelto el debate que tiene como sustrato la cuestión sobre si un tipo de enfoques de evaluación son más científicos que otros, y por tanto ofrecen más valor añadido. Todo arranca con un post de Craig Russon, líder internacional de evaluación, muy conocido y querido por muchos de nosotros por su espíritu internacionalista e integrador, uno de los principales impulsores de la tan atacada Organización Internacional para la Cooperación en Evaluación. El Dr. Russon comenta el tema a raíz de una actividad de investigación de una compañera, que actualmente se doctora en la archiconocida meca de la Evaluación, The Evaluation Center de la Universidad West Michigan. Daniela Schroeter lanzó hace poco una encuesta a evaluadores de la lista XCeval sobre «Evaluación de la Sostenibildad«.

Prometo hacer un resumen de las discusiones que están teniendo lugar en estos días (en español, ¡ya sabéis de nuestra lucha!). Mientras tanto, si algun/a aevaluador/a o simpatizante se anima a apoyar a Daniela en su investigación, aquí os adjunto parte del mensaje que nos enviaba, con su contacto. Seguro que la realimentación que nos dé tras su trabajo será de gran utilidad para nuestra práctica diaria.

<<If you are interested in participating in the study and willing to volunteer some of your valuable time for providing critical feedback on the checklist, please reply favorably to my personal e-mail address: Daniela.Schroeter@gmail.com . I will respond to you with a copy of the checklist and the survey. Please indicate if you prefer taking the survey via a web-based link or a word document in which you can save your answers>>

Los visitantes de EVALUATECA

Creative Commons License
Esta obra está bajo una licencia de Creative Commons.