Según un informe de la Fundación Mozilla, el algoritmo de YouTube sugiere la visualización de información errónea, estafas y contenido violento y gráfico; incluso se han señalado perturbadores contenidos "infantiles" de carácter sexual. 
De acuerdo a una nota de prensa de Mozilla, mientras los usuarios miran contenido en YouTube "es muy fácil hacer clic en el vídeo equivocado y acabar en una dimensión desconocida plagada de información errónea, teorías conspirativas y recomendaciones de vídeos perjudiciales".
A lo largo de los últimos 10 meses y con la participación de 37 380 usuarios de YouTube, Mozilla ha llevado a cabo la mayor investigación colaborativa hasta la fecha sobre las recomendaciones perjudiciales en YouTube usando una herramienta de diseño propio llamada RegretsReporter.
A partir de ese informe, se llegó a la conclusión que muchas veces el algoritmo de YouTube sugiere la visualización de información errónea, estafas y contenido violento y gráfico; incluso se han señalado perturbadores contenidos "infantiles" de carácter sexual durante la investigación. 
"Hemos hallado pruebas de que su algoritmo recomienda vídeos que infringen las políticas de contenidos de la propia plataforma. También hemos detectado que el problema es particularmente grave en países de habla no inglesa", señala Mozilla.
Según el documento, la fundación ha elaborado recomendaciones claras sobre qué debería hacer YouTube para garantizar la seguridad de los usuarios en su plataforma. Ver las recomendaciones

Deja tu comentario

Artículo Anterior Artículo Siguiente