YouTube elimina más de 8 millones de vídeos por incumplir las normas de conducta en la plataforma

Madrid.- YouTube ha eliminado más de 8,2 millones de vídeos de su plataforma durante el último trimestre de 2017, la mayoría de ellos detectados mediante herramientas de la plataforma basadas en inteligencia artificial, como recoge el primer informe de sobre Cumplimiento de las Políticas de la Comunidad de YouTube.

La plataforma de vídeo de Google ha emitido un comunicado este martes en el que explica cómo actúan sobre los vídeos que incumplen las reglas de la comunidad, y que arroja datos sobre los vídeos totales eliminados. En este sentido, la compañía ha eliminado en total 8.284.039 vídeos durante el último trimestre de 2017, de los cuales un 80% han sido detectados por un sistema automático de la plataforma basado en inteligencia artificial.

YouTube dispone también de una serie de 'moderadores' de confianza que marcan como inapropiados vídeos de manera profesional, quienes detectaron el 13,6% del total de vídeos eliminados. Después, se sitúan los usuarios normales y corrientes, que pueden reportar los vídeos por incumplir las normas, y que suponen aproximadamente el 5% de vídeos.

YouTube elimina, en la mayoría de las ocasiones, rápidamente el contenido incorrecto antes de que tenga visitas. El informe muestra que un 75,9% de los vídeos borrados aún no contaba con visitas, mientras que el 24,1%, sí.

Las razones que llevan a que un usuario humano marque un vídeo como inapropiado son varias, y en la nota se revela que el 30% lo hace por incluir contenido sexual explícito y el 26,4% por ser engañoso o 'spam' (mensajes no deseados, habitualmente de publicidad). El 15,6% de los vídeos son reportados por incitar al odio y/o abusos, mientras que los relacionados con la violencia ocupan el 13,5% del total. Existen otras razones con menor representación, como incluir contenido dañino o peligroso, abusos a menores y apología al terrorismo.

En relación con los países, YouTube muestra una tabla de los diez países en los que existe mayor volumen de reportes por parte de usuarios reales. En el primer lugar se encuentra la India, seguido de Estados Unidos y Brasil. Después, aparecen otros como Rusia, Alemania o Reino Unido.

YouTube explica que antes de eliminar las publicaciones marcadas se realiza una revisión estricta para determinar la condición del vídeo. Para facilitar estas tareas, la plataforma desarrolló un sistema automatizado que detecta contenidos sensibles como abusos y violencia extrema, para lograrlo se utiliza la tecnología 'Hash sharing', y que evita también que vuelvan a subirse a la plataforma. Del mismo modo, la compañía no recalca la importancia de sus usuarios corrientes en la detección de contenido inapropiado.

Fuente: Europa Press
Share on Google Plus
    Comentar
    Comenta en Facebook

0 comentarios:

Publicar un comentario