El Sumario – «YouTubeRegrets» es la campaña impulsada por Mozilla con la que la compañía tecnológica espera conseguir que Google haga más accesible para los investigadores externos el estudio de los algoritmos con los que se rige YouTube para recomendar vídeos.

La campaña recoge 28 historias de diferentes personas del mundo, como por ejemplo un usuario que buscó una vez un vídeo sobre un aeropuerto y desde entonces solo le aparecen vídeos de accidentes de aviones. También historias como la de una mujer que indagó canciones populares alemanas y le acabaron apareciendo vídeos relacionados con neonazis.

Conoce más: WhatsApp bloqueó cuentas por utilizar términos inadecuados

Estos son algunos de los ejemplos de las historias que han surgido después de ver vídeos recomendados por el algoritmo de YouTube. Con su publicación, Mozilla quiere que Google facilite la investigación para conocer cómo se rigen los algoritmos que recomiendan estos vídeos con el fin de comprender el funcionamiento de la Inteligencia Artificial (IA) de Google, que selecciona vídeos que cree que serán del gusto del usuario.

Como muestra esta campaña, en muchas ocasiones la IA falla y acaba mostrando contenidos «extraños y peligrosos», como en el caso de un chico que comenzó a ver vídeos de boxeo y le acabaron saliendo videos de violencia callejera que tenían un grado de violencia muy alto.

La preocupación de la compañía es que la plataforma tiene más de 2.000 millones de usuarios al mes que ven vídeos recomendados constantemente, y por ello creen que YouTube debería revisar su tecnología de recomendaciones, puesto que en muchos casos lleva a sus usuarios a un contenido inapropiado o totalmente opuesto a lo que estaban buscando.

Con información de dpa