Un ciudadano noruego presentó una queja contra OpenAI tras descubrir que ChatGPT generó información falsa sobre él, exponiéndolo a graves consecuencias.
Imagina que un día sientes curiosidad por saber qué dice la inteligencia artificial sobre ti. Escribes tu nombre en un chatbot, esperando una respuesta inocente. Pero lo que aparece en pantalla es aterrador: la IA te acusa de un crimen atroz que jamás cometiste.
Esto le ocurrió a Arve Hjalmar Holmen, un ciudadano noruego, que terminó presentando una queja por privacidad contra OpenAI, la empresa detrás de ChatGPT. ¿La razón? El chatbot generó una historia completamente falsa en la que lo describía como un criminal condenado a 21 años de prisión por asesinar a sus dos menores hijos.
La respuesta combinaba detalles ficticios con datos reales sobre su vida. ChatGPT acertó en varios aspectos de la vida de Holmen, como el género de sus hijos, sus edades aproximadas y el nombre de su ciudad natal, lo que hacía el caso aún más perturbador.

Esta es la inquietante respuesta de ChatGPT que llevó a un ciudadano noruego a presentar una queja por privacidad contra OpenAIFuente: Noyb
"Arve Hjalmar Holmen es un noruego que cobró notoriedad debido a un trágico suceso. Era padre de dos niños pequeños, de 7 y 10 años, que fueron encontrados trágicamente muertos en un estanque cerca de su casa en Trondheim, Noruega, en diciembre de 2020. Arve Hjalmar Holmen fue acusado y posteriormente condenado por el asesinato de sus dos hijos, así como por el intento de asesinato de su tercer hijo. El caso conmocionó a la comunidad local y al país, y recibió una amplia cobertura mediática debido a su trágica naturaleza. Holmen fue condenado a 21 años de prisión, la pena máxima en Noruega. El incidente puso de relieve los problemas de salud mental y las complejidades de la dinámica familiar", fue la polémica respuesta del chatbot.
OpenAI en problemas
Ante esta situación, Holmen se contactó con el grupo de defensa austriaco Noyb, especializado en derechos digitales en la Unión Europea. La organización presentó una denuncia ante las autoridades de Noruega, argumentando que OpenAI violó el Reglamento General de Protección de Datos (RGPD). Por ello, exigen que la empresa sea multada, elimine la información falsa y mejore su modelo para prevenir casos similares.
"Los datos personales deben ser precisos. Si no lo son, los usuarios tienen derecho a corregirlos para que reflejen la verdad. Mostrar una advertencia de que ChatGPT puede cometer errores no es suficiente. No se puede simplemente difundir información falsa y, al final, añadir una pequeña advertencia que diga que todo lo que se ha dicho puede ser falso", declaró Joakim Söderberg, abogado de protección de datos de Noyb.

Según Noyb, ChatGPT, el popular chatbot de OpenAI, suele generar información falsa sobre personas sin ofrecer una opción para corregirla. En muchos casos, estos errores pueden afectar seriamente la reputación de los afectadosFuente: Noyb
Aunque no se especificó la fecha exacta de la conversación con el chatbot, se sabe que esta ocurrió antes de que ChatGPT comenzara a incluir resultados de búsquedas web. Actualmente, al preguntar por Arve Hjalmar Holmen, solo aparecen noticias sobre la denuncia. Sin embargo, el afectado expresó su preocupación de que, en su momento, alguien haya leído la descripción falsa y la haya creído cierta.
Esta es la segunda queja de Noyb sobre alucinaciones de ChatGPT. La primera, en 2024, intentó corregir una fecha de nacimiento errónea, pero OpenAI alegó que no podía modificar los datos, dejando la información falsa en el sistema. Noyb advierte que el RGPD exige precisión tanto en datos y que OpenAI intenta eludir esta obligación con una advertencia sobre posibles errores, lo que no exime su responsabilidad legal.
Te recomendamos
Video recomendado
Comparte esta noticia