Apple quiere evitar que sus usuarios compartan y almacenen material ilegal como la pornografía infantil a través de sus iPhone.
Apple está trabajando en una herramienta para detectar si sus usuarios almacenan y comparten pornografía infantil a través de sus iPhone.
El reporte ha sido encontrado por 9to5Mac y recoge declaraciones de Matthew Green, profesor de criptografía de la Universidad Johns Hopkins, quien obtuvo más fuentes sobre cómo Apple está buscando una herramienta para escanear este material en los propios iPhone.
Mediante algoritmos, el sistema dentro del iPhone buscará coincidencias entre las imágenes del teléfono y el material ya hallado por investigaciones policiacas de pornografía infantil, los cuales servirán como pistas.
En un nivel alto, este tipo de sistema es similar a las funciones de aprendizaje automático para la identificación de objetos y escenas que ya están presentes en Apple Photos. El análisis se realiza en el dispositivo y los usuarios pueden aprovechar una mejor funcionalidad de búsqueda.
Pero hay contras
Claro está que los algoritmos no son 100% infalibles y podrían generar coincidencias equívocas como falsos positivos y, en el caso de material ilegal y tan sensible como el abuso infantil, podría provocar hasta arrestos o condenas por malentendidos.
También está por ver si Apple permitirá a las autoridades controlar esas “huellas” que se descargarán en el iPhone, porque podría abrir la puerta para que los gobiernos busquen otro tipo de imágenes en los teléfonos de los usuarios, como por ejemplo imágenes de activismo político.
Apple aún no ha anunciado oficialmente esta nueva iniciativa y los detalles serán importantes.
Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico. Para escucharlo mejor, #QuedateEnCasa.
Comparte esta noticia