Apple planeaba desplegar un escáner para iPhone, iPad y computadoras Mac en busca de imágenes de abuso sexual infantil en estos meses.
Apple ha retrasado su plan de implementar una tecnología de detección en las galerías de fotos de dispositivos iPhone con el fin de encontrar material de abuso sexual infantil.
Cuando la compañía anunció esta función, empezaron las críticas generalizadas de grupos de privacidad y varios usuarios, preocupados de que el escáner pueda sentar un precedente peligroso.
El gigante tecnológico informa que recibieron todos los comentarios entorno a su plan y están reconsiderando el despliegue de esta tecnología.
Apple NeuralHash
Este escáner que planeaba habilitar Apple, llamada NeuralHash, habría analizado fotografías previas a cargarse en iCloud Photos. Luego, los habría comparado con la base de datos de abuso sexual infantil administrada por el Centro Nacional para Niños Desaparecidos y Explotados en Estados Unidos.
De encontrarse algo sospechoso, pasaría a revisión manual y, de ser necesario, se tomarían las medidas necesarias para deshabilitar la cuenta del usuario, además de la denuncia respectiva con las autoridades.
Sin embargo, la función está pausada. "Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica", dijo Apple.
Comparte esta noticia