Usuarios de Instagram reportaron estar recibiendo videos de violencia extrema en sus feeds, generando preocupación sobre los sistemas de moderación.
Meta, la empresa matriz de Instagram, confirmó haber solucionado un error técnico que expuso a numerosos usuarios de la plataforma a videos violentos y gráficos en sus feeds de Reels, generando preocupación sobre la efectividad de sus sistemas de moderación de contenido.
"Hemos corregido un error que causó que algunos usuarios vieran contenido en su feed de Instagram Reels que no debería haber sido recomendado", declaró un portavoz de Meta en un comunicado oficial. "Pedimos disculpas por el error", añadió la compañía, sin revelar detalles sobre las causas del problema técnico.
El incidente se produjo el martes cuando numerosos usuarios reportaron en redes sociales estar recibiendo recomendaciones de videos explícitos que mostraban personas siendo golpeadas o asesinadas. Lo más inquietante fue que muchos de estos usuarios tenían activada la configuración de "control de contenido sensible", diseñada precisamente para filtrar este tipo de material.
Esta falla técnica ocurre en un momento estratégico para Meta, que está impulsando agresivamente los videos de formato corto en sus plataformas, especialmente mientras el futuro de su competidor TikTok en Estados Unidos permanece incierto.
La red social china enfrenta una posible prohibición si no encuentra un nuevo propietario no chino para sus operaciones estadounidenses en el próximo mes, tras la promulgación de una ley durante la administración Biden, posteriormente extendida por el presidente Trump.
Meta y el reto de moderar contenido
Este incidente revela las dificultades que enfrentan las grandes plataformas para equilibrar la recomendación de contenido y la seguridad de los usuarios. Meta ha enfrentado críticas similares en el pasado, como durante el genocidio en Myanmar, cuando se difundió contenido violento en sus plataformas, o cuando Instagram promovió contenido sobre trastornos alimentarios a adolescentes.
El error técnico surge también poco después de que Meta anunciara cambios significativos en sus políticas de moderación de contenido. En enero, la compañía reveló que eliminaría su programa de verificación de hechos en Estados Unidos, adoptando un modelo similar a "Community Notes" para agregar contexto a las publicaciones, y que reduciría sus sistemas automatizados para eliminar contenido, centrándose solo en las violaciones más extremas de sus reglas, como terrorismo, explotación sexual infantil, drogas, fraude y estafas.
Cuando el CEO Mark Zuckerberg anunció estos cambios, reconoció que la compañía "detectaría menos contenido dañino" en sus plataformas, pero argumentó que esto permitiría más libertad de expresión. Sin embargo, un portavoz de Meta aseguró que el error que causó que los usuarios vieran videos violentos no está relacionado con estos cambios en la moderación de contenido.
Las políticas de moderación de Meta prohíben explícitamente los videos violentos y gráficos, y la compañía generalmente elimina dicho contenido para proteger a los usuarios, con excepciones para videos que aumentan la conciencia sobre temas como abusos contra los derechos humanos y conflictos.
Comparte esta noticia