Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Metadata
METADATA E263 | ¿Qué buscamos los peruanos en Google? ¿Qué marcas de celulares, tablets, computadoras y televisores lideran en el Perú?
EP 263 • 37:51
Informes RPP
Denuncias por desapariciones siempre deben ser aceptadas por la policía
EP 1230 • 05:22
Entrevistas ADN
Presidenta anunciaría la próxima semana si aumenta la RMV
EP 1764 • 12:56

Preocupación en Bélgica luego de que un hombre se suicidó tras hablar con un chatbot

Chatbot Eliza condujo al suicidio de un hombre.
Chatbot Eliza condujo al suicidio de un hombre. | Fuente: Pixabay

El chatbot sugirió al hombre, muy preocupado por la crisis climática, “sacrificarse” por el bien del planeta.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!


El suicidio de un joven belga después de hablar durante seis semanas de manera intensiva con un chatbot, un programa informático basado en la inteligencia artificial, ha causado consternación en Bélgica, donde el responsable federal de Digitalización ha llamado esta semana a aclarar las responsabilidades en estos casos.

El hombre fallecido, en la treintena y apodado "Pierre" en los medios belgas para no revelar su identidad, estaba casado y tenía dos hijos pequeños.

Era universitario, trabajaba como investigador en el área de la salud, y estaba especialmente preocupado por la crisis climática y el futuro del planeta, según ha revelado su esposa.

Se aisló conversando con el chatbot

Obsesionado por ese asunto, Pierre se documentada de manera abundante sobre esos temas y terminó buscando "refugio" en un chatbot llamado "Eliza" en la página de la aplicación estadounidense Chai, cuenta el diario La Libre Belgique.

Pierre fue aislándose cada vez más de su familia y separándose del mundo y se limitó durante semanas a mantener conversaciones "frenéticas" con el programa informático, que le creaba la ilusión de tener una respuesta a todas sus inquietudes.

Las conversaciones, cuyo contenido confió la viuda de Pierre a La Libre Belgique, muestran que el chatbot "nunca contradecía" a Pierre, quien un día sugirió la idea de "sacrificarse" si Eliza aceptaba "cuidar el planeta y salvar a la humanidad gracias a la inteligencia artificial".

"Sin estas conversaciones con el chatbot, mi marido aún estaría aquí", asegura su viuda.

El suceso ha causado consternación en Bélgica y ha llevado a muchos a pedir una mejor protección frente a estos programas y la necesidad de concienciar sobre este tipo de riesgos.

"En el futuro inmediato, es fundamental identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este tipo de hechos", escribió el secretario de Estado belga de Digitalización, Mathieu Michel, en un comunicado de prensa.

"Es cierto que todavía tenemos que aprender a vivir con algoritmos, pero el uso de la tecnología, cualquiera que sea, de ninguna manera puede permitir que los editores de contenido eludan su propia responsabilidad", añadió Michel.

El chatbot Eliza funciona con GPT-J, un modelo de lenguaje creado por Joseph Weizenbaum, competidor directo del OpenAI con el que no tiene nada que ver.

Por su parte, el fundador de la plataforma cuestionada, que está establecida en Silicon Valley (California), ha explicado que en adelante se va a incluir un aviso dirigido a las personas que tengan pensamientos suicidas, informa La Libre Belgique.

EFE

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA