Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
Metadata
METADATA |E241: Lo nuevo de Motorola desde México, aterriza Infinix y nos ponemos tecnofanáticos
EP 241 • 40:31
Nutriagenda
EP25 | Qué es el gluten y cuándo eliminarlo de la dieta
EP 25 • 36:19
Ruido político
EP29 | T7 | Boluarte alcanza a Castillo
EP 29 • 24:20

Instagram y YouTube en la mira: redes sociales no controlan el contenido sobre auto lesiones y suicidio

Las redes sociales presentan problemas para lidiar con temas referidos a suicidio y auto lesiones
Las redes sociales presentan problemas para lidiar con temas referidos a suicidio y auto lesiones | Fuente: Getty Images | Fotógrafo: Mirusiek

El CEO de Instagram, Adam Mosseri, admitió públicamente que la red social no está haciendo un buen trabajo al restringir la difusión del contenido sobre suicidio y daño auto infligido. En el caso de YouTube, un reporte reciente menciona que el portal de videos ha sugerido este contenido a menores de 13 años.

Las redes sociales son el gran difusor de pensamiento en este siglo. Cada tópico que el mundo propone tiene presencia y espacio en ellas, hasta los más preocupantes. El nuevo CEO de Instagram, Adam Mosseri, ha admitido abiertamente en una publicación de The Daily Telegraph que la red social que lidera no está haciendo lo suficiente por bloquear y dar de baja imágenes de daño auto infligido y de suicidio, a pesar de desarrollar algoritmos que previenen la presencia de este tipo de contenidos.

Esta publicación aparece luego de la historia de Molly Russell, una adolescente de 14 años que se suicidó en 2017, y que usaba su perfil de Instagram para recopilar contenido asociado a suicidio y daño auto provocado. Su padre, Ian Russell ha acusado públicamente a la red social por la muerte de su hija: “Instagram ayudó a que mi hija se matara”, mencionó en una entrevista a la BBC. Parte de las expresiones de Ian Russel se basan en que su hija pudo encontrar de manera muy sencilla el contenido a través de un hashtag. Tras la disculpa pública emitida por la directiva de Instagram, el padre de Molly mencionó que “la mejor manera de disculparse sería quitar ese contenido”.


De acuerdo con la investigación de BBC, alrededor de 200 jóvenes en edad escolar se suicidan en el Reino Unido. Según cifras del Boletín Epidemiológico del Perú, al 2018 fueron 251 los intentos de suicidio reportados en menores de 19 años.

Adam Mosseri, CEO de Instagram
Adam Mosseri, CEO de Instagram | Fuente: Getty Images

Estas cifras llevaron a Mosseri a pronunciarse sobre el tema, estructurar este mea culpa desde su plataforma y a solicitar una reunión con el secretario de salud inglés Matt Hancock, para discutir sobre estrategias claras y reducir la incidencia de muertes en edad escolar.

“Estamos tomando medidas para detener la recomendación de estas imágenes, hashtags, cuentas o sugerencias de búsqueda”, mencionó el CEO de Instagram. “El fondo de esto es que no estamos encontrando estas imágenes antes que las vean otros usuarios. No avalamos que la gente se auto inflija daño, sino que, por recomendaciones que hemos recibido, no queremos estigmatizar la salud mental al borrar imágenes que reflejen estos asuntos tan difíciles con los que la gente lidia”.

Las temáticas sobre suicidio se presenta en cuentas, grupos, hashtags y publicaciones directas
Las temáticas sobre suicidio se presenta en cuentas, grupos, hashtags y publicaciones directas | Fuente: Getty Images | Fotógrafo: kertu_ee

En el caso de YouTube, reportes de usuario mencionan que la plataforma de videos ha recomendado reiteradamente contenido referido a daño auto infligido o suicidio a usuarios menores de 13 años. El informe de The Telegraph sostiene que al menos una docena de videos en donde se muestran imágenes y videos de daño a uno mismo, a pesar de que la plataforma elimina este tipo de categorías automáticamente. Videos en donde adolescentes muestran cortes en brazos permanecen aún en el servicio.

"Sabemos que muchas personas utilizan YouTube para encontrar información, consejos o asistencia en las circunstancias más difíciles. Trabajamos arduamente para garantizar que nuestras plataformas no sean usadas para fomentar comportamientos peligrosos", dijo un portavoz de YouTube a Business Insider en una declaración. "Debido a esto, tenemos políticas estrictas que prohíben videos que promueven la autolesión y eliminaremos los videos marcados que violen esta política".

Hace unas semanas, y a raíz de conductas virales como el #BirdBoxChallenge, YouTube ha endurecido la política de publicación, retirando la monetización a videos que fomenten conductas de auto agresión, o que provoquen daño a terceros. Esta nueva medida busca reducir la presencia de retos en los canales personales.

Soy Editor de Tecnología en RPP Noticias. Conduzco #FamiliaPuntoCom los sábados a las 10:30 de la mañana via RPP Radio. Reseño dispositivos, estoy en contacto con la industria de la innovación, y desarrollo contenido para NIUSGEEK y METADATA, el podcast de tecnología de RPP.

Tags

Lo último en Redes Sociales

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA