Un reciente estudio destacó el potencial de ChatGPT-4 para revolucionar la medicina con diagnósticos más precisos, aunque enfatiza que su eficacia depende de un uso adecuado.
ChatGPT, el modelo de lenguaje de inteligencia artificial desarrollado por OpenAI, es quizás uno de los más conocidos a nivel mundial. Ha demostrado ser una herramienta útil para muchas personas en diversos campos, y ahora, un estudio ha mostrado su potencial en el ámbito médico, especialmente en el apoyo a diagnósticos clínicos.
Un reciente estudio publicado en la revista JAMA Network, dirigido por el Dr. Adam Rodman, experto en medicina interna del Centro Médico Beth Israel Deaconess de Boston, buscó analizar el potencial de los modelos de IA para apoyar a los médicos en diagnósticos precisos. Sin embargo, los resultados revelaron una conclusión inesperada.
La investigación incluyó a 50 médicos, 26 adjuntos y 24 residentes, los cuales fueron divididos en dos grupos. Cada participante debía analizar hasta seis casos clínicos en un lapso de 60 minutos. Lo interesante fue que un grupo contaba con acceso al chatbot de IA ChatGPT-4 y recursos de diagnóstico convencionales, mientras que el otro únicamente podía utilizar herramientas tradicionales, como UpToDate o Google.
Los resultados: IA y médicos en comparación
En un principio, se esperaba que los médicos que contaron con la ayuda de ChatGPT-4 obtuvieran resultados notablemente superiores a los que utilizaron únicamente recursos convencionales. Sin embargo, la diferencia fue mínima: el grupo que utilizó el chatbot alcanzó una precisión del 76%, mientras que el otro grupo obtuvo un 74%.
A pesar de esta pequeña diferencia del 2%, hubo un tercer participante en el estudio: ChatGPT-4 por sí solo, sin participación de médicos. El chatbot logró una precisión del 90% al diagnosticar una afección médica a partir de un informe de caso y explicar su razonamiento, superando en un 16% al grupo que se limitó a métodos convencionales.
El factor humano: barrera para aprovechar la IA
Los resultados fueron sorprendente y, al mismo tiempo, generaban dudas del por qué el grupo que contó con la ayuda del chatbot no obtuvo una puntuación significativamente mayor. Según Rodman, citado en declaraciones a The New York Times, esto se debe a que los médicos suelen mostrar sesgos y rechazar diagnósticos que contradicen su propia percepción, aferrándose a su idea de lo que consideran correcto.
El Dr. Rodman explicó que estos médicos “no escuchaban a la IA cuando les decía cosas con las que no estaban de acuerdo”, manteniéndose firmes en no considerar diagnósticos alternativos. Laura Zwaan, experta en razonamiento clínico del Centro Médico Erasmus de Rotterdam, quien no participó en el estudio, respaldó esta observación. “La gente se confía demasiado cuando cree que tiene razón”, señaló.
Otro factor que contribuyó a la baja puntuación de los médicos con acceso a la IA, en comparación con la IA utilizada de forma autónoma, fue la falta de conocimiento sobre cómo aprovechar al máximo las capacidades del chatbot, según explicó Jonathan H. Chen, coautor del estudio, a The New York Times.
“Lo trataban como un motor de búsqueda para consultas específicas: ‘¿Es la cirrosis un factor de riesgo de cáncer? ¿Cuáles son los posibles diagnósticos del dolor ocular?’. Solo una fracción de los médicos reconoció las respuestas sorprendentemente completas e inteligentes que el chatbot podía generar”, señaló Chen.
Uso de la IA en medicina
A pesar del destacado desempeño de ChatGPT-4 como herramienta autónoma, el estudio advierte contra su uso independiente para diagnósticos sin supervisión médica. El Dr. Rodman enfatizó que los modelos de lenguaje no deben reemplazar a los médicos, sino actuar como "extensores" que proporcionen valiosas segundas opiniones.
"El LLM (modelo de lenguaje de gran tamaño) por sí solo demostró un rendimiento superior al de ambos grupos de médicos, lo que indica la necesidad de desarrollo de la tecnología y la fuerza laboral para aprovechar el potencial de la colaboración entre médicos e inteligencia artificial en la práctica clínica", advierten los investigadores.
La investigación deja claro que, aunque la IA tiene un gran potencial, su efectividad depende en gran medida de la interacción humana y de cómo los profesionales médicos se adapten a esta nueva herramienta. Esto abre la puerta a futuros estudios sobre cómo capacitar a los médicos para aprovechar al máximo las capacidades de estas tecnologías emergentes.
Te recomendamos
Comparte esta noticia