YouTube recupera a su equipo humano para moderar contenido
La plataforma de vídeos vuelve a recurrir a su equipo humano para moderar su contenido, ya que los sistemas automáticos eliminaban vídeos en exceso.
YouTube ha recuperado a sus moderadores humanos para analizar el contenido dañino que circula por su red. Tras la experiencia de utilizar sistemas automáticos, han comprobado que estos eliminaban vídeos de la plataforma en exceso.
En plena pandemia mundial, exactamente entre los meses de abril a junio, YouTube eliminó más de 11,4 millones de vídeos por incumplir las normas de la plataforma, una cifra muy elevada si la comparamos con el año anterior en las que hubo un total de 9 millones de vídeos eliminados durante esos meses.
Se eliminaron tantos vídeos porque la compañía decidió tomar medidas y redujo el personal en sus oficinas debido a la pandemia de la Covid-19.
De este modo, YouTube utilizó un sistema de Inteligencia Artificial (IA). Este tenía una mayor autonomía y evitaba así que los usuarios pudieran ver vídeos violentos, de odio u otros contenidos dañinos. Así como evitar la desinformación.
«Dependemos temporalmente más de la tecnología para ayudar con parte del trabajo que normalmente realizan los revisores humanos, lo que significa que estamos eliminando más contenido que puede no infringir nuestras políticas«, aclaró YouTube en un comunicado.
Neal Mohan, director de Productos de YouTube, ha afirmado en una entrevista para el Financial Times que se han encargado de recuperar a su equipo de moderadores humanos, ya que aunque el sistema de Inteligencia Artifical controla la eliminación de contenidos dañinos de forma rápida, sus capacidades tienen límites.
Por ello, a pesar de que los algoritmos fueron capaces de identificar vídeos que podrían ser dañinos, no alcanzaron a decidir con claridad qué vídeos deberían eliminarse.
YouTube vuelve a recurrir a humanos para moderar contenido, ya que los sistemas automáticos eliminan vídeos en exceso
«Ahí es donde entran nuestros revisores humanos capacitados», ha señalado Mohan. También quiso aclarar que reunieron los vídeos destacados por las máquinas y después «tomaron decisiones que tienden a ser más matizadas, especialmente en temas como el discurso del odio o la desinformación médica o el acoso«.
Cabe destacar, que uno de los mayores beneficios que ofrecen los sistemas automáticos de la plataforma es la velocidad con la que alcanzan analizar el contenido perjudicial.
Mohan ha querido destacar que más del 5o por ciento de los 11,4 millones de vídeos eliminados durante el periodo de abril a junio, se retiraron sin que un solo usuario real pudiera haberlo visto. Mientras que más del 80 por ciento se retiraron con menos de diez visitas.
- Anterior ‘La Roca’ derriba la cancela de sus casa con sus propias manos
- Siguiente Un resort en las Maldivas ofrece «trabajar» de lujo junto al océano