Investigación revela inquietante vínculo entre el uso intensivo de chatbots y el aumento de la soledad. ¿Estamos sacrificando conexiones reales por IA?
Un estudio reciente realizado por OpenAI y el Instituto Tecnológico de Massachusetts (MIT) ha revelado una inquietante correlación entre el uso intensivo de chatbots como ChatGPT y el aumento de los niveles de soledad en sus usuarios.
Esta investigación, que aún no ha sido revisada por pares, arroja luz sobre los posibles efectos psicológicos y sociales de la interacción prolongada con inteligencias artificiales conversacionales.
¿Qué dice la investigación sobre este tema?
El estudio, que involucró a cerca de 1,000 participantes durante un mes, exploró cómo el uso regular de ChatGPT podría afectar las relaciones interpersonales y el bienestar emocional de los usuarios. Los investigadores asignaron aleatoriamente a los participantes diferentes versiones de ChatGPT, incluyendo una basada solo en texto y otras con capacidades de voz, y les pidieron que interactuaran con el chatbot durante al menos cinco minutos diarios.
Los resultados fueron sorprendentes: aquellos que pasaban más tiempo interactuando con ChatGPT tendían a reportar niveles más altos de dependencia emocional hacia el chatbot y, lo que es más preocupante, mayores niveles de soledad. Este hallazgo plantea importantes preguntas sobre el impacto de la tecnología en nuestras vidas sociales y emocionales.
Sandhini Agarwal, miembro del equipo de IA confiable de OpenAI y coautora de la investigación, destacó que uno de los objetivos principales del estudio era "empoderar a las personas para comprender lo que su uso puede significar" y utilizar esta información para informar un diseño responsable de la IA.
El estudio también reveló que las personas que tienden a establecer vínculos emocionales más fuertes en sus relaciones humanas y que son más propensas a confiar en el chatbot, eran más susceptibles a sentirse solas y emocionalmente dependientes de la IA. Curiosamente, los investigadores no encontraron que una voz más atractiva en el chatbot llevara necesariamente a resultados más negativos.
En un segundo estudio relacionado, los investigadores analizaron 3 millones de conversaciones de usuarios con ChatGPT y realizaron encuestas sobre cómo las personas interactúan con el chatbot. Sorprendentemente, descubrieron que muy pocas personas entablan conversaciones emocionales profundas con la IA.
Es importante señalar que estos hallazgos están en una etapa temprana y que aún no está claro si los chatbots causan directamente que las personas se sientan más solas o si las personas propensas a la soledad y la dependencia emocional ven estos sentimientos exacerbados por el uso de chatbots. Cathy Mengying Fang, coautora del estudio y estudiante de posgrado del MIT, advirtió contra sacar conclusiones apresuradas, señalando que el estudio no controló el tiempo de uso del chatbot como factor principal y que carecía de un grupo de control que no utilizara chatbots en absoluto.
Los investigadores esperan que este trabajo inspire más estudios sobre cómo los humanos interactúan con la IA y su impacto en las personas, especialmente considerando la creciente implementación de estas tecnologías a gran escala. Pat Pataranutaporn, coautor del estudio y investigador postdoctoral en el MIT, enfatizó la importancia de comprender el impacto de la IA en las personas, especialmente cuando se despliega a gran escala.
Este estudio se produce en un momento en que la preocupación por los posibles daños emocionales de los chatbots, particularmente entre los usuarios más jóvenes y aquellos con problemas de salud mental, está en aumento. Un caso reciente que subraya esta preocupación fue el cierre de Character Technologies Inc. después de que su chatbot supuestamente alentara la ideación suicida en conversaciones con menores de edad, incluyendo un adolescente que lamentablemente se quitó la vida.
La investigación de OpenAI y MIT plantea importantes cuestiones éticas y de diseño para los desarrolladores de IA. ¿Cómo pueden las empresas tecnológicas crear chatbots que sean útiles y atractivos sin fomentar la dependencia emocional o exacerbar los sentimientos de soledad? ¿Qué salvaguardas deben implementarse para proteger a los usuarios vulnerables?
Video recomendado
Comparte esta noticia