Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
RPP Data
Urgen medidas para reducir los accidentes de tránsito en carretera
EP 192 • 03:10
Informes RPP
Mateo Castañada: El abogado de Dina Boluarte implicado en el caso Los Waykis en la sombra
EP 1131 • 06:30
Espacio Vital
¿Los ruidos causados por el tráfico automotor pueden causar enfermedades del corazón?
EP 373 • 07:09

Maximizando el uso de la evidencia: la contribución de los asesores científicos

El estado peruano gasta miles de millones en consultorías. De eso, una parte no insignificante se destina a investigaciones o evaluaciones de políticas públicas. Pero pocas son utilizadas. ¿Por qué?

¿Cuánto de todos los recursos públicos destinados a investigaciones y evaluaciones – incluyendo de políticas públicas- es usado por los decisores de política pública?

La respuesta rápida es que no sabemos. Pero podemos estimar que poco, muy poco.

Existen diversas razones para explicar por qué el Estado no usa toda la evidencia generada por investigaciones y evaluaciones contratadas – pedidas- por el mismo Estado.

Primero, porque la evidencia no se genera de una forma que facilite su uso. Un error común, tanto de los que comisionan estos estudios como de los que los ejecutan, es no elegir el método adecuado para lo que se necesita. Un método preferido por los economistas hoy en día es la evaluación de impacto, usando los experimentos controlados aleatorios. Estas, que son adaptaciones de los experimentos usados en la medicina, típicamente buscan determinar la relación casual entre dos variables. Dicho de otra manera: quieren saber si una intervención (por ejemplo, un bono de dinero) tuvo un impacto sobre un resultado (por ejemplo, mejora en la alimentación familiar).

El eso de sus resultados enfrenta muchos problemas. Primero, no puede determinar si una intervención va a tener un impacto similar sobre un resultado similar en el futuro – esto es porque las evaluaciones de impacto no se preguntan bajo qué circunstancias se dio o no el impacto. Esto es fundamental para poder usar el resultado. Sin esta información, un decisor no puede determinar si esa intervención podría funcionar para resolver los problemas de política que enfrenta en otro caso o que enfrentará en el futuro.

Otro problema tiene que ver con su complejidad  y costo. Las evaluaciones de impacto son, por lo general, experimentos altamente costosos. Y por ello no se pueden – ni se debieran - hacer muchas. Y el costo muchas veces tiene que ver con el nivel de complejidad de las intervenciones y la forma en la que debe diseñarse el experimento: con grupos beneficiarios y grupos de control. Esto contribuye a que sea un método de evaluación muy poco amigable para los decisores de política que encuentran dificultoso interactuar con los investigadores o con el proceso mismo.

Segundo, la evidencia generada no se comunica bien. De hecho, las pocas veces que sí se considera cómo se va a comunicar la evidencia esto se hace al final, cuando el resultado ya ha sido entregado. Esto es como si un estudio de películas empezase a desarrollar una estrategia de distribución después de recibir la política del director. Ya sería muy tarde; nadie iría al estreno.

 

| Fuente: Freeimages

Lo mismo sucede con las investigaciones o evaluaciones. Debemos pensar en los usuarios desde el inicio y ellos, sobre todo si se quiere que la evidencia se usada, deben incidir en el diseño de los proyectos. Son ellos quienes deben ayudar a definir las preguntas de investigación, los métodos, los productos y formatos de presentación, los tiempos de entrega, etc. Todo esto debe informar la estrategia de comunicación.

Tercero, son muchas, demasiadas, las veces en la que la evidencia generada no se puede usar. La información que ofrecen, entonces, puede ser interesante, pero no es útil.

Esto es, por ejemplo, porque los estudios no hicieron las preguntas correctas. Confundieron una pregunta de investigación con una pregunta de política o de gestión. No son lo mismo.

O no tomaron en cuenta la economía política de los proyectos, programas o instituciones que buscaban informar. O porque no llegó en el momento indicado – se demoró o se apresuró. O porque no fue comunicada al nivel de decisiones adecuado. O porque los investigadores jamás abandonaron el laboratorio o dejaron la seguridad de las bases de datos. Etcétera.

Para resolver estos impases no se requiere de grandes innovaciones ni existen balas mágicas. Se requiere de mayor diálogo entre los usuarios y los generadores de evidencia. Pero este diálogo debe ser permanente y transparente para evitar que sea capturado por un puñado de investigadores o evaluadores.

Cuando Harry Jones y yo estudiamos el uso de la evidencia en el departamento británico para el desarrollo internacional (ex – DFID; ahora parte de relaciones exteriores) encontramos que los decisores preferían acudir a redes de contactos profesionales y personales antes de buscar evidencia directamente en los documentos de los estudios o evaluaciones; y menos aún en bases de datos o publicaciones. Lo que querían era la oportunidad de tener una conversación con una persona que los ayudase a aclarar sus propias preguntas, definir bien cómo podrían absolverlas y ayudarlos, en confianza, a encontrar las fuentes de evidencia o asesoría más adecuadas. Muchas veces acudían, a través de sus redes, a investigadores que tuviesen “experiencia de campo”. Los preferían mucho más que a aquellos que acumulaban publicaciones.

La solución, como en el judo, fue usar esta preferencia en lugar de combatirla. DFID instauró la figura de los brokers de conocimiento. Estos actuaron como asesores científicos encargados de fomentar estas conexiones y diálogo con un número más amplio de investigadores y evaluadores. Su labor principal era corregir los errores en la elección de métodos, o evitar faltas de comunicación o maximizar la utilidad de los resultados y recomendaciones.

Los asesores científicos pueden jugar un rol crucial en promover el uso de evidencia en la política pública; empezando por la evidencia que demanda el Estado. La Comisión de Ciencia, Innovación y Tecnología del Congreso de la República ha tomado tema en un reciente proyecto de ley: propone la figura del asesor científico en jefe. Y esto es también una preocupación actual del CONCYTEC. Estos son pasos en la dirección correcta.

 

NOTA: “Ni el Grupo RPP, ni sus directores, accionistas, representantes legales, gerentes y/o empleados serán responsables bajo ninguna circunstancia por las declaraciones, comentarios u opiniones vertidas en la presente columna, siendo el único responsable el autor de la misma.
Enrique Mendizabal

Enrique Mendizabal Res publica

Enrique es fundador y director de On Think Tanks, una iniciativa global enfocada en el estudio y el fortalecimiento de centros de pensamiento. Es promotor de la Semana de la Evidencia Latinoamericana y del Premio PODER al think tank peruano del año. Es miembro del Fellowship Council del Royal Society of Arts y ha sido director de programas del Overseas Development Institute. Enrique es investigador afiliado de la Universidad del Pacífico y profesor de su Escuela de Gestión Pública.

Tags

Otros columnistas

Ver más

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Últimas noticias

Contenido promocionado

Taboola
SIGUIENTE NOTA