El jefe de WhatsApp está en contra de lo que piensa aplicar Apple en su sistema iOS, indicando que la compañía tecnológica introduce "algo muy preocupante en el mundo".
La nueva herramienta que Apple planea agregar a su sistema iOS para detectar posible abuso infantil en las fotos guardadas del iPhone ha generado una ola de críticas.
Luego de un día del anuncio, Will Cathcart, director de WhatsApp, dijo que la compañía se negará a adoptar el software argumentando preocupaciones legales y de privacidad.
En un hilo de Twitter, Cathcart calificó el nuevo sistema de Apple como un "sistema de vigilancia construido y operado por Apple que podría usarse fácilmente para escanear contenido privado en busca de cualquier cosa que ellos o un gobierno decidan que quieren controlar".
También cuestionó las posibles formas en la que este sistema de Apple puede ser explotado en países controversiales como China, o abusado por empresas de software espía.
Sistema controversial
Apple dijo que había planeado la actualización para finales de 2021 como parte de una serie de cambios que la compañía planea integrar para ser participe activo en la protección de los niños contra abusos sexuales.
Por otro lado, Apple indica que la calificación de "escáner", indicado por Cathcart, no es realmente exacta. Si bien el escaneo implica un resultado, dijo la compañía, el nuevo software simplemente estaría ejecutando una comparación de cualquier imagen que el usuario decida cargar a iCloud usando la herramienta NeuralHash.
Sin embargo, los algoritmos no son perfectos y es posible que Apple se enfrente a revisiones manuales por enormes cantidades, ya que los usuarios de iOS son millones. Según la empresa tecnológica, la tasa de usuarios enviados falsamente para una revisión manual será uno entre un billón por año.
Comparte esta noticia