Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
Entrevistas ADN
Hoy celebramos "El Día del Queso Peruano"
EP 1674 • 10:36
Nutriagenda
EP30 | ¡Ojo con los envases que utilizas para la lonchera!
EP 30 • 40:22
Reflexiones del evangelio
Domingo 26 de mayo | (Santísima Trinidad) - "Vayan y hagan discípulos de todos los pueblos, bautizándolos en el nombre del Padre y del Hijo y del Espíritu Santo"
EP 644 • 12:14

“Puede dañar y matar”: ex CEO de Google advierte sobre el "riesgo existencial" de la IA

Eric Schmidt, ex CEO de Google, advierte sobre la necesidad de una regulación de las IAG
Eric Schmidt, ex CEO de Google, advierte sobre la necesidad de una regulación de las IAG | Fuente: RPP

El ex CEO de Google, Eric Schmidt, afirma que la inteligencia artificial (IA) podría representar ‘riesgos existenciales’ para la humanidad y que los gobiernos deben tomar medidas para regular la tecnología.

Las voces sobre el avance de la Inteligencia Artificial siguen apareciendo, ya hora provienen de uno de los históricos pilares de Google. Eric Schmidt, el ex CEO de la compañía, manifestó su preocupación por el potencial de la IA para dañar o matar a las personas; y comparó la propagación de la IA con el surgimiento de la tecnología nuclear, diciendo que sería extremadamente difícil de controlar. Schmidt también advirtió que la IA podría usarse para desarrollar nuevas armas o llevar a cabo ataques cibernéticos.

"Mi preocupación con la IA es en realidad existencial, y el riesgo existencial se define como muchas, muchas, muchas, muchas personas perjudicadas o muertas. Y hay escenarios no en el presente, pero razonablemente pronto, en los que estos sistemas podrán encontrar vulnerabilidades de día cero, problemas cibernéticos o descubrir nuevos tipos de biología", dijo Schmidt en la conferencia del Wall Street Journal CEO Council en Londres.

Los comentarios de Schmidt llegan en un momento en que existe una creciente preocupación por los peligros potenciales de la IA. En los últimos años, ha habido varios incidentes de alto perfil relacionados con la IA, como el caso de un coche autónomo que mató a un peatón. Estos incidentes han planteado preguntas sobre si la IA es segura y si se está desarrollando de manera responsable.

"Creo que debemos tener mucho cuidado con cómo desarrollamos la inteligencia artificial", dijo Schmidt. "Tenemos que asegurarnos de que se utilice para el bien y no para el mal".

Te recomendamos

Necesidad de un marco internacional

El llamado de Schmidt a regular la IA es respaldado por varios expertos. En un informe reciente, la Academia Nacional de Ciencias, Ingeniería y Medicina de los Estados Unidos abogó por el desarrollo de estándares internacionales para el desarrollo y uso de la IA. El informe también instó a la creación de una nueva agencia gubernamental encargada de supervisar la investigación y desarrollo de la IA.

"Necesitamos tener algún tipo de marco internacional para el desarrollo de la inteligencia artificial", dijo Schmidt. "Asegurarnos de que se desarrolle de manera segura y responsable".

El debate sobre los peligros de la IA probablemente continúe en los próximos años. Sin embargo, los comentarios de Schmidt son un recordatorio de que la IA es una tecnología poderosa que podría ser utilizada para el bien o para el mal. Es importante ser conscientes de los peligros potenciales de la IA y trabajar para asegurar que se desarrolle y utilice de manera responsable.

Te recomendamos

Soy Editor de Tecnología en RPP Noticias. Conduzco #FamiliaPuntoCom los sábados a las 10:30 de la mañana via RPP Radio. Reseño dispositivos, estoy en contacto con la industria de la innovación, y desarrollo contenido para NIUSGEEK y METADATA, el podcast de tecnología de RPP.

Tags

Lo último en Google

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA