Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Entrevistas ADN
Abogada de Keiko Fujimori espera que no prospere apelación fiscal contra anulación de juicio por caso cócteles
EP 1775 • 18:03
Metadata
METADATA E264: CES 2025... ¿Es el año de Windows 11? Los lanzamientos de celulares que llegan este enero
EP 264 • 18:08
Letras en el tiempo
Historias con suerte
EP 1 • 41:11

Apple asegura que su sistema de "seguridad infantil" no será usado por gobiernos como un arma de vigilancia

Apple responde a las críticas de su nuevos software de
Apple responde a las críticas de su nuevos software de "seguridad infantil". | Fuente: Unsplash

Luego de haber enfrentado varias críticas sobre su nuevo "sistema de seguridad infantil", Apple asegura que no permitirá que el gobierno se aproveche del software.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Luego de enfrentar varias críticas, Apple se ha mantenido en la defensa de su plan para lanzar nuevas y controvertidas herramientas con el objetivo de identificar y denunciar material de abuso sexual infantil (CSAM) en la galería de fotos de iOS.

La semana pasada, el gigante tecnológico anunció una serie de actualizaciones pendientes, las cuales nombró "Protecciones ampliadas para niños" y se implementarán a finales de este año con el lanzamiento de iOS 15 y iPadOS 15.

Este sistema funciona aplicando un algoritmo que detecta material CSAM en las fotos de los usuarios que decidieron alojarlo en iCloud, mientras que otra función escaneará los iMessages enviados desde y hacia cuentas de niños que incluyan mensajes explícitos. 

Las críticas a Apple

Este sistema ha sido tachado como controversial por varios analístas, incluyendo el jefe de WhatsApp, quien ha comunicado su preocupación sobre las posibles aplicaciones de estos nuevos algoritmos por parte de gobiernos, además de que atenta contra la privacidad de los usuarios y la denuncia de falsos positivos.

Por otro lado, Apple publicó una respuesta alegando, específicamente, que no permitirá que sus herramientas de escaneo sea aplicado para buscar otra cosa que no sea CSAM. 

"Apple rechazará tales demandas [de un gobierno]. La capacidad de detección de CSAM de Apple está diseñada únicamente para detectar imágenes de CSAM conocidas almacenadas en iCloud Photos que han sido identificadas por expertos del NCMEC y otros grupos de seguridad infantil.", dijo Apple.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA