A través de un software sin revelar, Facebook ha podido erradicar en tres meses 8,7 millones de fotografías inapropiadas en diferentes perfiles y servidores. Esta herramienta comenzará a probarse en Instagram.
La red social Facebook ha eliminado 8.7 millones de imágenes de abuso infantil en los últimos tres meses, mientras la compañía lucha contra la presión de los reguladores y legisladores de todo el mundo para acelerar la eliminación de material ilícito. Facebook se ha comprometido a acelerar la eliminación de material extremista e ilícito, y los programas de aprendizaje automático que analizan las miles de millones de piezas de contenido, que los usuarios publican cada día, son esenciales para su plan.
El jefe de seguridad global de Facebook, Antigone Davis, dijo a Reuters en una entrevista que "la máquina nos ayuda a establecer prioridades y hacer colas de espera más eficientes" para sus revisores. Este software, aun no revelado en detalle, marca automáticamente las imágenes que contienen desnudos y un niño, ayudando a quienes revisan el contenido.
Junto a este servicio, la red social de Mark Zuckerberg ha implementado una herramienta de aprendizaje automático capaz de detectar casos de “grooming” o acoso sexual a menores, por parte de pedófilos. El responsable de seguridad mencionó también que esta tecnología también se aplicará en Instagram.
A pesar de la implementación, aun hay errores que corregir en el sistema. Estas fallas ocurridas durante el barrido, han afectado a agencias de noticias y anunciantes en la plataforma. Sin embargo, Davis mencionó que este resultado se puede apelar sin problemas. "Preferimos errar por el lado de la precaución con los niños", dijo.
Michelle DeLaune, directora de operaciones del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), dijo que esperaba recibir alrededor de 16 millones de denuncias de abuso infantil en todo el mundo este año de parte de Facebook y otras compañías de tecnología, en comparación con los 10 millones del año pasado.
DeLaune reconoció que un punto ciego crucial eran las aplicaciones de chat cifradas y los sitios secretos de "sitios oscuros" donde se originan la mayoría de las nuevas imágenes de abuso infantil. El cifrado de mensajes en WhatsApp, propiedad de Facebook, evita que el aprendizaje automático los analice. DeLaune dijo que el NCMEC educaría a las empresas de tecnología y "espero que utilicen la creatividad" para abordar el problema.
Comparte esta noticia