Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
El Club de la Green Card
¿Cuánto tiempo necesitas vivir en EE.UU. para ser ciudadano?
EP 136 • 01:55
El poder en tus manos
EP136 | INFORMES | Las fechas electorales clave del 2025 y los retos de los organismos previo a las próximas elecciones
EP 136 • 00:15
Letras en el tiempo
Cómo elegir un cuento
EP 41 • 37:40

Apple asegura que su sistema de "seguridad infantil" no será usado por gobiernos como un arma de vigilancia

Apple responde a las críticas de su nuevos software de
Apple responde a las críticas de su nuevos software de "seguridad infantil". | Fuente: Unsplash

Luego de haber enfrentado varias críticas sobre su nuevo "sistema de seguridad infantil", Apple asegura que no permitirá que el gobierno se aproveche del software.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Luego de enfrentar varias críticas, Apple se ha mantenido en la defensa de su plan para lanzar nuevas y controvertidas herramientas con el objetivo de identificar y denunciar material de abuso sexual infantil (CSAM) en la galería de fotos de iOS.

La semana pasada, el gigante tecnológico anunció una serie de actualizaciones pendientes, las cuales nombró "Protecciones ampliadas para niños" y se implementarán a finales de este año con el lanzamiento de iOS 15 y iPadOS 15.

Este sistema funciona aplicando un algoritmo que detecta material CSAM en las fotos de los usuarios que decidieron alojarlo en iCloud, mientras que otra función escaneará los iMessages enviados desde y hacia cuentas de niños que incluyan mensajes explícitos. 

Las críticas a Apple

Este sistema ha sido tachado como controversial por varios analístas, incluyendo el jefe de WhatsApp, quien ha comunicado su preocupación sobre las posibles aplicaciones de estos nuevos algoritmos por parte de gobiernos, además de que atenta contra la privacidad de los usuarios y la denuncia de falsos positivos.

Por otro lado, Apple publicó una respuesta alegando, específicamente, que no permitirá que sus herramientas de escaneo sea aplicado para buscar otra cosa que no sea CSAM. 

"Apple rechazará tales demandas [de un gobierno]. La capacidad de detección de CSAM de Apple está diseñada únicamente para detectar imágenes de CSAM conocidas almacenadas en iCloud Photos que han sido identificadas por expertos del NCMEC y otros grupos de seguridad infantil.", dijo Apple.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA