Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
Las cosas como son
Una extraña incursión policial en la sede de la Fiscalía
EP 358 • 02:03
Espacio Vital
¿Existen tratamientos contra el Dengue que pueden ser dañinos?
EP 360 • 08:42
Informes RPP
Desayuno de Líderes 2024 RPP
EP 1118 • 06:39

Cómo extraer información médica más allá del caos de datos en internet

Algunos de los objetivos son: favorecer el acceso de doctores a datos actualizados y fidedignos sobre avances sanitarios, procesar automáticamente el historial de pacientes de un hospital o agilizar la predicción de posibles efectos secundarios de nuevos medicamentos.
Algunos de los objetivos son: favorecer el acceso de doctores a datos actualizados y fidedignos sobre avances sanitarios, procesar automáticamente el historial de pacientes de un hospital o agilizar la predicción de posibles efectos secundarios de nuevos medicamentos. | Fuente: Getty Images

Se trata de im proyecto europeo de "Big Data" sobre salud que está dirigido a la creación de servicios "web" que garanticen el acceso a información médica fiable y de calidad en la red.

Cómo extraer valor médico más allá del caos que generan los millones de datos sobre enfermedades y fármacos en internet, no siempre fiables o incluso peligrosos, es el objetivo de un proyecto europeo de "Big Data" sobre salud, del que habla su coordinador en una entrevista a Efefuturo.

Este físico de la Universidad Tecnológica de Viena dirige una iniciativa de la UE sobre procesamiento automatizado de datos médicos en el marco del proyecto Kconnect, que involucra a una treintena de investigadores, y que está dirigido a la creación de servicios "web" que garanticen el acceso a información médica fiable y de calidad en la red.

Acreditar de forma automatizada "webs" con información médica fiable, favorecer el acceso de doctores a datos actualizados y fidedignos sobre avances sanitarios en distintos idiomas, procesar automáticamente el historial de pacientes de un hospital o agilizar la predicción de posibles efectos secundarios de nuevos medicamentos a partir de datos anonimizados son algunos objetivos del proyecto.

Hanbury, director de varios proyectos de envergadura sobre analítica "inteligente" de datos en salud, participó en Madrid en unas recientes jornadas de "Big Data", organizadas por la Escuela Técnica Superior de Ingenieros de Telecomunicación (Etsit) de la Universidad Politécnica de Madrid (UPM).

Tendencia a informarse en internet antes de acudir al doctor

Hanbury explicó que su grupo trabaja con varias fuentes informativas para su proyecto de "Big Data". En concreto, con datos de páginas de internet con información médica de calidad, publicaciones científicas y asimismo informes médicos de hospitales (donde se describen síntomas, previsibles patologías, tratamientos, etc).

La relación médico-paciente ha cambiado drásticamente con la irrupción de internet, según el experto. De hecho, dos tercios de la población se informa sobre sus dolencias en la red antes de acudir al doctor, según un reciente estudio en EEUU, recordó.

Por el contrario, hasta el 50% de los contenidos en internet sobre salud podrían estar bajo sospecha de ser inciertos o falsos, lo que agrava las alertas sobre la fiabilidad médica de los mismos, advertió.

Como parte del proyecto iniciado en 2010, con el compromiso de estar operativo en un año y medio, el equipo de Hanbury está desarrollando complejos algoritmos basados en el "aprendizaje automático".

El objetivo es garantizar acceso a información fiable

Las soluciones en desarrollo permiten extraer datos médicos relevantes de páginas "web", y acreditar de forma automatizada si cumplen una serie de criterios para que puedan ser certificadas como plataformas de información fiable, así como agilizar y mejorar las predicciones de posibles efectos secundarios de nuevos medicamentos.

Se busca así complementar los resultados de los obligados ensayos clínicos, que no siempre delatan todos los posibles riesgos de un nuevo fármaco, por las limitaciones en la duración de las pruebas, y el número de pacientes involucrados.

De hecho, se refirió a un caso muy polémico de un tratamiento que disparaba la posibilidad de ataques al corazón. El problema no se descubrió durante la fase de ensayos clínicos y causó 26.000 muertes en cinco años antes de ser retirado del mercado.

El procesado de millones de datos en tiempo real ayuda a determinar patrones, modelos, tendencias y hacer predicciones de todo tipo, ha subrayado el experto.

Varias entidades colaboran con esta iniciativa europea: la ONG suiza "Health on the Net"; un hospital psiquiátrico en Londres asociado al King's College, el Departamento de Salud de Suecia y una pequeña empresa en el Reino Unido.

Según Hanbury, uno de los mayores desafíos del proyecto está en el procesado automático de informes en manos de médicos: no suelen ser fácilmente legibles dadas las prisas con las que habitualmente escriben los facultativos, quienes además utilizan muchas abreviaturas, que complican el análisis automático de los datos.

Otro reto es el idioma, teniendo en cuenta el alto número de lenguas con las que se trabaja en el proyecto, que son siete, incluido el español.

EFE

Edson Salas

Edson Salas Productor Web

Tags

Lo último en Expertos

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA