El CEO de Instagram, Adam Mosseri, admitió públicamente que la red social no está haciendo un buen trabajo al restringir la difusión del contenido sobre suicidio y daño auto infligido. En el caso de YouTube, un reporte reciente menciona que el portal de videos ha sugerido este contenido a menores de 13 años.
Las redes sociales son el gran difusor de pensamiento en este siglo. Cada tópico que el mundo propone tiene presencia y espacio en ellas, hasta los más preocupantes. El nuevo CEO de Instagram, Adam Mosseri, ha admitido abiertamente en una publicación de The Daily Telegraph que la red social que lidera no está haciendo lo suficiente por bloquear y dar de baja imágenes de daño auto infligido y de suicidio, a pesar de desarrollar algoritmos que previenen la presencia de este tipo de contenidos.
Esta publicación aparece luego de la historia de Molly Russell, una adolescente de 14 años que se suicidó en 2017, y que usaba su perfil de Instagram para recopilar contenido asociado a suicidio y daño auto provocado. Su padre, Ian Russell ha acusado públicamente a la red social por la muerte de su hija: “Instagram ayudó a que mi hija se matara”, mencionó en una entrevista a la BBC. Parte de las expresiones de Ian Russel se basan en que su hija pudo encontrar de manera muy sencilla el contenido a través de un hashtag. Tras la disculpa pública emitida por la directiva de Instagram, el padre de Molly mencionó que “la mejor manera de disculparse sería quitar ese contenido”.
De acuerdo con la investigación de BBC, alrededor de 200 jóvenes en edad escolar se suicidan en el Reino Unido. Según cifras del Boletín Epidemiológico del Perú, al 2018 fueron 251 los intentos de suicidio reportados en menores de 19 años.
Estas cifras llevaron a Mosseri a pronunciarse sobre el tema, estructurar este mea culpa desde su plataforma y a solicitar una reunión con el secretario de salud inglés Matt Hancock, para discutir sobre estrategias claras y reducir la incidencia de muertes en edad escolar.
“Estamos tomando medidas para detener la recomendación de estas imágenes, hashtags, cuentas o sugerencias de búsqueda”, mencionó el CEO de Instagram. “El fondo de esto es que no estamos encontrando estas imágenes antes que las vean otros usuarios. No avalamos que la gente se auto inflija daño, sino que, por recomendaciones que hemos recibido, no queremos estigmatizar la salud mental al borrar imágenes que reflejen estos asuntos tan difíciles con los que la gente lidia”.
En el caso de YouTube, reportes de usuario mencionan que la plataforma de videos ha recomendado reiteradamente contenido referido a daño auto infligido o suicidio a usuarios menores de 13 años. El informe de The Telegraph sostiene que al menos una docena de videos en donde se muestran imágenes y videos de daño a uno mismo, a pesar de que la plataforma elimina este tipo de categorías automáticamente. Videos en donde adolescentes muestran cortes en brazos permanecen aún en el servicio.
"Sabemos que muchas personas utilizan YouTube para encontrar información, consejos o asistencia en las circunstancias más difíciles. Trabajamos arduamente para garantizar que nuestras plataformas no sean usadas para fomentar comportamientos peligrosos", dijo un portavoz de YouTube a Business Insider en una declaración. "Debido a esto, tenemos políticas estrictas que prohíben videos que promueven la autolesión y eliminaremos los videos marcados que violen esta política".
Hace unas semanas, y a raíz de conductas virales como el #BirdBoxChallenge, YouTube ha endurecido la política de publicación, retirando la monetización a videos que fomenten conductas de auto agresión, o que provoquen daño a terceros. Esta nueva medida busca reducir la presencia de retos en los canales personales.
Comparte esta noticia