Luego de haber enfrentado varias críticas sobre su nuevo "sistema de seguridad infantil", Apple asegura que no permitirá que el gobierno se aproveche del software.
Luego de enfrentar varias críticas, Apple se ha mantenido en la defensa de su plan para lanzar nuevas y controvertidas herramientas con el objetivo de identificar y denunciar material de abuso sexual infantil (CSAM) en la galería de fotos de iOS.
La semana pasada, el gigante tecnológico anunció una serie de actualizaciones pendientes, las cuales nombró "Protecciones ampliadas para niños" y se implementarán a finales de este año con el lanzamiento de iOS 15 y iPadOS 15.
Este sistema funciona aplicando un algoritmo que detecta material CSAM en las fotos de los usuarios que decidieron alojarlo en iCloud, mientras que otra función escaneará los iMessages enviados desde y hacia cuentas de niños que incluyan mensajes explícitos.
Las críticas a Apple
Este sistema ha sido tachado como controversial por varios analístas, incluyendo el jefe de WhatsApp, quien ha comunicado su preocupación sobre las posibles aplicaciones de estos nuevos algoritmos por parte de gobiernos, además de que atenta contra la privacidad de los usuarios y la denuncia de falsos positivos.
Por otro lado, Apple publicó una respuesta alegando, específicamente, que no permitirá que sus herramientas de escaneo sea aplicado para buscar otra cosa que no sea CSAM.
"Apple rechazará tales demandas [de un gobierno]. La capacidad de detección de CSAM de Apple está diseñada únicamente para detectar imágenes de CSAM conocidas almacenadas en iCloud Photos que han sido identificadas por expertos del NCMEC y otros grupos de seguridad infantil.", dijo Apple.
Comparte esta noticia