Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
Ruido político
EP29 | T7 | Boluarte alcanza a Castillo
EP 29 • 24:20
Reflexiones del evangelio
Domingo 21 de abril | "El buen pastor da la vida por las ovejas; el asalariado, que no es pastor ni dueño de las ovejas, ve venir el lobo, abandona las ovejas y huye"
EP 609 • 12:21
Entrevistas ADN
El retiro anticipado de los fondos para pensiones debe ser el último recurso, señala especialista de la OCDE
EP 1679 • 23:16

YouTube usará de nuevo moderadores humanos: su algoritmo ya no es confiable

Los moderadores humanos dejaron de trabajar con un recorte de personal tras la explosión de la pandemia.
Los moderadores humanos dejaron de trabajar con un recorte de personal tras la explosión de la pandemia. | Fuente: Difusión

Solo entre abril y junio, la plataforma eliminó más de 11 millones de videos por decisión de la inteligencia artificial.

La plataforma de vídeos YouTube ha vuelto a utilizar más moderadores humanos para analizar contenido dañino, después de que los sistemas automáticos utilizados por la compañía eliminaran vídeos de la plataforma en exceso.

Entre los meses de abril y junio, YouTube eliminó más de 11,4 millones de vídeos por infringir las normas de la plataforma, una cifra bastante más elevada que la del mismo periodo el año anterior, cuando retiró alrededor de nueve millones de vídeos.

Esta cifra tan elevada de vídeos eliminados se debió a las medidas tomadas por la compañía para reducir el personal en sus oficinas con motivo de la pandemia de la Covid-19.

Por esta razón, YouTube comenzó a dar a su sistema de Inteligencia Artificial (IA) una mayor autonomía para evitar que los usuarios de la plataforma vieran vídeos violentos, de odio u otros contenidos dañinos o de desinformación.

"Dependemos temporalmente más de la tecnología para ayudar con parte del trabajo que normalmente realizan los revisores humanos, lo que significa que estamos eliminando más contenido que puede no infringir nuestras políticas", señaló YouTube en un comunicado.

Ahora, el director de Productos de YouTube, Neal Mohan, ha afirmado en una entrevista al diario Financial Times que han recuperado al equipo de moderadores humanos, ya que a pesar de que la tecnología puede eliminar de forma rápida contenidos claramente dañinos, sus capacidades tienen límites.

En este sentido, los algoritmos pudieron identificar vídeos que podrían ser potencialmente dañinos, pero en varias ocasiones no fueron tan buenos a la hora de decidir qué debería eliminarse.

"Ahí es donde entran nuestros revisores humanos capacitados", ha señalado Mohan, quien ha añadido que cogieron los vídeos destacados por las máquinas y después "tomaron decisiones que tienden a ser más matizadas, especialmente en temas como el discurso del odio o la desinformación médica o el acoso".

Sin embargo, uno de los beneficios que tienen los sistemas automáticos de YouTube es la velocidad con la que logran analizar el contenido dañino.

Mohan ha subrayado que más del 50 por ciento de los 11,4 millones de vídeos eliminados de la plataforma durante el segundo trimestre del año fueron retirados sin que un solo usuario real de YouTube los hubiera visto, mientras que más del 80 por ciento fueron retirados con menos de diez vistas.

(Con información de Europa Press)

Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico.

Tags

Lo último en Redes Sociales

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA