Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Entrevistas ADN
Desde el sábado puerto de Chancay comenzará a operar carga, anunció gerente general adjunto del concesionario
EP 1748 • 08:36
El Club de la Green Card
¿Quiénes pueden recibir la pensión de un familiar fallecido en EE.UU.?
EP 124 • 01:30
RPP Data
¿Qué hacer para que Lima Metropolitana no siga creciendo de forma desordenada?
EP 237 • 02:58

ChatGPT: empleados de Samsung filtraron datos confidenciales de la empresa al chatbot, según reporte

Los tres empleados de Samsung filtraron datos confidenciales de la empresa a ChatGPT mientras lo estaban usando.
Los tres empleados de Samsung filtraron datos confidenciales de la empresa a ChatGPT mientras lo estaban usando. | Fuente: Unsplash | Fotógrafo: BABAK HABIBI/ZACK WOLFF

Un nuevo reporte señala que uno de los empleados de Samsung pidió a ChatGPT que generara notas a partir de una reunión grabada.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

ChatGPT ha cambiado el paradigma de lo que un sistema de inteligencia artificial de consumo masivo puede lograr y resulta sumamente útil para una amplia variedad de tareas. No obstante, una gran parte de sus millones de usuarios olvidan que, al pedirle al chatbot que resuma notas importantes o que compruebe si hay errores en sus trabajos, este puede utilizar dicha información para entrenar su sistema y hasta puede mostrarla en las respuestas de otros usuarios. Esto se ha puesto en manifiesto con el más reciente caso que involucra a trabajadores de Samsung.

Tal como señala el portal The Economist Korea, vía Mashable, varios empleados de Samsung no fueron conscientes sobre el detalle antes mencionado antes de compartir información confidencial de la empresa con ChatGPT. Poco después de que la división de semiconductores de la empresa permitiera a sus ingenieros utilizar el chatbot, los trabajadores le filtraron datos secretos en al menos tres ocasiones.

Problemas con ChatGPT y la confidencialidad de las empresas

Aparentemente, un empleado pidió a ChatGPT, chatbot de OpenAI, que comprobara si había errores en el código fuente de una base de datos confidencial, otro solicitó la optimización de un código y un tercero introdujo una reunión confidencial grabada en la plataforma para solicitarle que generara un documento en base a ella.

Los informes sugieren que, tras conocer dichas filtraciones, Samsung intentó limitar el alcance de futuros errores restringiendo la longitud de las solicitudes de ChatGPT de los empleados a un kilobyte, o 1024 caracteres de texto. También se dice que la empresa está investigando a los tres empleados en cuestión y hasta habría decidido crear su propio chatbot para evitar percances de esta magnitud.

Una delicada situación que involucra a ChatGPT

La política de datos de ChatGPT establece que, a menos que los usuarios lo excluyan explícitamente, el sistema puede utilizar sus mensajes para entrenar sus modelos de lenguaje. OpenAI, empresa dueña del chatbot, insta a los usuarios a no compartir información confidencial con ChatGPT en las conversaciones, ya que "no puede eliminar mensajes específicos del historial".

El soporte de la plataforma de inteligencia artificial indica que la única forma de eliminar la información personal de ChatGPT es borrar la cuenta, un proceso que puede llevar hasta cuatro semanas. El caso de los empleados de Samsung es un ejemplo más de por qué es importante ser precavido al utilizar chatbots, algo que cada usuario debería extender a toda su actividad en línea ya que uno nunca sabe realmente dónde acabarán estos datos.

Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA