Actualidad |

Youtube elimina 8 millones de vídeos inadecuados en un solo trimestre.24 de abril de 2018 (20m)

La mayoría de ellos fueron eliminados antes de que fueran vistos más de 10 veces. Más información: Youtube impone más requisitos para para poder monetizar los vídeos. Youtube YouTube en un teléfono móvil. Pexels YouTube eliminó más de ocho millones de vídeos en el último trimestre de 2017 que infringían su política, al tratarse de "spam" (correo no deseado) o contenidos considerados inadecuados, como los que incitan al odio, la violencia, los actos peligros o el abuso infantil, entre otros.

Se trata del primer informe trimestral que se publica sobre cumplimiento de las Políticas de la Comunidad de YouTube con el que la plataforma pretende mostrar su "progreso" a la hora de eliminar los contenidos que infringen sus normas, según explica en su blog. Un total de 6,7 millones de vídeos fueron marcados o señalados para ser revisados de forma automática.

Las indicaciones de supervisión pueden proceder también de los miembros del llamado programa "Trusted Flagger" que incluye a ONG, agencias de Gobiernos e individuos, o por los propios usuarios de la comunidad de YouTube. De los vídeos marcados para ser eliminados, el 76 % fue borrado antes incluso de ser visualizado una sola vez. La India, EEUU, Brasil, Rusia, Alemania, Reino Unido, México, Turquía, Indonesia y Arabia Saudí son los países desde donde más usuarios y miembros del "Trusted Flagger" notifican supuestos contenidos inadecuados. La mitad de los contenidos eliminados se visualizan menos de 10 veces La plataforma introdujo el sistema de marcado de vídeos mediante tecnologías de aprendizaje automático frente a contenidos supuestamente inadecuados en junio de 2017.

En la actualidad, más de la mitad de los contenidos eliminados por extremismo violento se borran tan rápido que se visualizan menos de 10 veces. "Las máquinas nos ayudan a marcar contenidos para su revisión a gran escala, facilitando la eliminación de millones de vídeos que infringen nuestras políticas incluso antes de que puedan ser vistos por los usuarios", explica YouTube.

El aprendizaje automático acelera la eliminación de contenidos de alto riesgo, aunque menos frecuentes, como los de extremismo violento, pero asimismo otros más habituales como el "spam". Este tipo de tecnología no supone reducciones de la plantilla sino todo lo contrario. "Nuestros sistemas confían en la revisión por parte del personal para valorar si los contenidos infringen nuestras políticas", señala la plataforma.

Dejá tu comentario