Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Entrevistas ADN
Desde el sábado puerto de Chancay comenzará a operar carga, anunció gerente general adjunto del concesionario
EP 1748 • 08:36
El Club de la Green Card
¿Quiénes pueden recibir la pensión de un familiar fallecido en EE.UU.?
EP 124 • 01:30
RPP Data
¿Qué hacer para que Lima Metropolitana no siga creciendo de forma desordenada?
EP 237 • 02:58

La inteligencia artificial es un 'riesgo de extinción’ similar al de la guerra nuclear, afirman expertos

Los expertos quieren llamar la atención sobre el desarrollo de la IA.
Los expertos quieren llamar la atención sobre el desarrollo de la IA. | Fuente: Foto de Hitesh Choudhary en Unsplash

De acuerdo con el Center for AI Safety, la inteligencia artificial debe ser “una prioridad mundial” como las pandemias y la guerra nuclear.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Un grupo de líderes de la inteligencia artificial ha asegurado que la tecnología puede ser tan riesgosa como la propia guerra nuclear.

El informe fue publicado por el Center for AI Safety, una organización encargada de “reducir los riesgos a escala social de la inteligencia artificial”. Dentro de los firmantes de la carta hay grandes personalidades como Sam Altman, el creador de ChatGPT.

Te recomendamos

Los riesgos de la IA

En esta segunda carta abierta de especialistas, se expresa que “mitigar el riesgo de extinción a causa de la inteligencia artificial debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

“Los expertos en inteligencia artificial, periodistas, legisladores y el público están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA”, se lee. “Aun así, puede ser difícil expresar inquietudes sobre algunos de los riesgos más graves de la inteligencia artificial avanzada. Por eso, esta declaración tiene como objetivo superar este obstáculo y abrir el debate. También pretende crear un conocimiento común del creciente número de expertos y figuras que también se toman en serio algunos de los riesgos más graves de esta tecnología”.

La breve carta fue firmada por el director ejecutivo de OpenAI, Sam Altman, el director de Google DeepMind, Demis Hassabis, además de los ganadores del Premio Turing Geoffrey Hinton y Yoshua Bengio.

Te recomendamos

Segundo llamado

Esta es la segunda carta de expertos llamando a la concientización sobre el desarrollo de la inteligencia artificial.

En marzo, fueron Elon Musk, Steve Wozniak y más de 1000 científicos más quienes pidieron una pausa de 6 meses en el desarrollo de la tecnología para poder generar una legislación que la regule y se expanda a la población.

El propio presidente de Estados Unidos, Joe Biden, está reuniéndose con personalidades de este campo para “asegurarse de que sea seguro antes de hacerse masivo”.

Te recomendamos

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA