A medida que la inteligencia artificial se vuelve parte de la vida cotidiana, surgen preguntas urgentes sobre cómo se protege la información que compartimos con ella.
Millones de personas en todo el mundo usan ChatGPT, el chatbot de inteligencia artificial desarrollado por OpenAI, para hacer preguntas, resolver dudas o simplemente conversar. Pero en muchos casos, estas interacciones van mucho más allá: usuarios —especialmente jóvenes— están compartiendo temas profundamente personales, como si la IA fuera un terapeuta, un confidente o incluso un abogado.
El propio CEO de OpenAI, Sam Altman, acaba de poner el foco en un tema sensible pero crucial: la falta de protección legal sobre lo que se dice en estas conversaciones. Altman expresó su preocupación por el hecho de que no existe todavía una figura legal que garantice la confidencialidad de las interacciones con una IA.
"Las personas hablan de las cosas más personales de sus vidas con ChatGPT. Los jóvenes lo usan como terapeuta, como coach de vida, para problemas de pareja: '¿Qué debería hacer?'. Y en este momento, si hablas con un terapeuta o un abogado sobre esos problemas, hay confidencialidad médico-paciente, confidencialidad legal. Pero no hemos resuelto eso aún para cuando hablas con ChatGPT", dijo Altman.
El problema es concreto: si una persona revela información sensible a ChatGPT —como un problema de salud o una situación legal complicada—, esa conversación podría no estar protegida si una corte exige su divulgación. A diferencia de una charla con un psicólogo o un abogado, no hay garantías de confidencialidad.
¿Qué tan privadas son estas conversaciones?
OpenAI ha implementado medidas de privacidad y seguridad, y afirma que no utiliza las conversaciones de los usuarios para entrenar sus modelos. Pero el punto de Altman va más allá de las prácticas empresariales: habla de la necesidad de establecer leyes que regulen cómo deben tratarse estas interacciones en el ámbito legal y ético.
"Deberíamos tener el mismo concepto de privacidad para tus conversaciones con una IA que el que tenemos con un terapeuta. Y nadie tuvo que pensar en eso hace un año. Pero ahora es un gran problema", dijo en el podcast 'This Past Weekend With Theo Von'.
¿Qué podemos hacer como usuarios?
Mientras no exista un marco legal claro que garantice la confidencialidad de las conversaciones con inteligencias artificiales como ChatGPT, los usuarios deben actuar con cautela. Es importante tener presente que no existe una protección legal equivalente a la confidencialidad médico-paciente o abogado-cliente.
Por eso, es recomendable evitar compartir información sensible, no por ocultar nada, sino porque no hay certeza de cómo podrían utilizarse esas conversaciones si llegaran a salir del entorno privado. Ajustar las configuraciones de privacidad disponibles en la plataforma —como desactivar el historial de chats— puede ofrecer cierto control, pero no sustituye una política legal clara de confidencialidad.
En este contexto, lo más responsable es tratar a la IA como una herramienta útil, pero no como un sustituto de un profesional en temas que requieren resguardo, orientación especializada o respaldo legal. Hasta que existan leyes que protejan este tipo de interacciones, la privacidad sigue dependiendo del criterio de cada usuario.
Noticias, entretenimiento en vivo, debates intensos sobre fútbol y más. ¡Entra ya! 👇