Pasó desapercibido por la Inteligencia Artificial, pero el principal problema fue que nadie reportó la transmisión en vivo.
Facebook reveló más detalles de cómo actuó luego de que el autor de la masacre en mezquitas de Nueva Zelanda, que dejó 50 muertos, transmitió en Facebook Live las imágenes del ataque.
Guy Rosen, vicepresidente de Manejo de Producto de Facebook, explicó que el video original del ataque fue reproducido unas 4,000 veces antes de ser dado de baja.
Uno de los aspectos más preocupantes es que tuvo que pasar casi media hora hasta que los usuarios adviertan
“El primer reporte de un usuario en el video original llegó 29 minutos después de que inició el video, 12 minutos luego de que la transmisión en vivo terminó”, detalló en Facebook.
¿Y la Inteligencia Artificial?
Muchos usuarios se han preguntado si la Inteligencia Artificial pudo detectar la naturaleza violenta del video. Esto es lo que alegó Rosen.
“La Inteligencia Artificial ha tenido un progreso masivo con el paso de los años y, en muchas áreas, nos ha permitido detectar proactivamente la gran mayoría de contenido que borramos, pero no es perfecta”.
Los sistemas basados en Inteligencia Artificial necesitan miles de ejemplos de contenido para “entrenar” un sistema capaz de detectar textos, imágenes y videos. Por ello, Facebook necesitaría proveer a sus sistemas con un gran volumen de este tipo de contenido, que es afortunadamente escaso.
¿Qué hará Facebook a futuro?
El alto mando de Facebook ya indicó que están trabajando en métodos para mejorar la detección de este tipo de contenido. Uno de ellos ya fue probado el viernes, aplicando una tecnología basada en audio para identificar videos violentos.
Comparte esta noticia