YouTube ignoró las advertencias sobre que su algoritmo potenciaba las teorías conspiranoicas

La lucha por la desinformación en internet se extiende por las principales plataformas digitales. Los contenidos «tóxicos» que buscan enredar y manipular es uno de sus mayores quebraderos de cabeza. Un problema que firmas como Facebook o Twitter no han sabido atajar del todo, pero que también afecta incluso a servicios como YouTube.

El conocido contenedor de vídeos, propiedad de Google, tampoco se escapa de esta lacra. Durante años ha estado albergando publicaciones, algunas muy populares, que difundían discursos y mensajes que alimentaban las teorías conspiranoicas, extremistas o, incluso, «colaban» imágenes de violencia extrema entre vídeos destinados al público infantil.

Según un demoledor informe de Bloomberg, ejecutivos de la compañía dirigida por Susan Wojcicki ignoraron las denuncias de un grupo de trabajadores que alertaban de un aumento de vídeos extremistas y teorías científicas falsas. El algoritmo de recomendación ha alimentado los bulos y el contenido «tóxico». Vídeos y canales que se recomendaban, además, a los usuarios sin reparar en que tendrían un efecto peligroso al causar desinformación.

Algunas de estas publicaciones cuestionaban la llegada del ser humano en la Luna o la eficacia de las vacunas. El informe critica, en ese sentido, la falta de «supervisión editorial» que provoca que la biblioteca de vídeos creciera a base de secuenciasaparentemente divertidas pero en muchas ocasiones falsas. «El problema de YouTube es que permite que florezca la tontería. Y, en algunos casos, a través de su poderoso sistema de inteligencia artificial, proporciona el combustible que le permite propagarse», denuncia la investigación.

Aunque los ejecutivos, según se desvela de la publicación, sabían de la presencia de estos contenidos «tóxicos», la compañía prefirió mirar hacia otro lado al entender que podría coartar la libertad de expresión y provocar un derrumbe de las interacciones de los usuarios. En definitiva, afectar a la rentabilidad. La prioridad era alcanzar los objetivos para mantener un crecimiento positivo.

El informe se hace eco de algunas propuestas interesantes de ingenieros para corregir estos problemas, como introducir alertas que adviertieran al usuario de la existencia de un vídeo problemático. Todas las ideas se rechazaron. Otros, incluso, reclamaron dejar de recomendar vídeos cargados de mensajes de odio al entender que vulneraban sus términos de uso.

La respuesta que recibieron los empleados fue una negativa por parte de la empresa, denuncia «Bloomberg», que asegura haber entrevistado a una veintena de trabajadores de YouTube en las últimas semanas. Uno de ellos se atreve, incluso, a señalar a una responsable, la directora general de la compañía, Susan Wojcicki, que supuestamente les daba largas al responder a cada petición con una frase estándar: «Mi trabajo es dirigir la compañía, no lidiar con esto».

El texto recuerda que no fue hasta el año 2017 cuando se empezaron a tomar medidas para frenar la difusión de contenidos pseudocientíficos como evitar que pudieran ser monetizados a través de su herramienta publicitaria. Expertos independientes como Brittan Heller, del Centro Carr de la Universidad de Harvard, explica en declaraciones a «Bloomberg» que uno de los obstáculos a la hora de frenar estos contenidos es que «no saben cómo funciona el algoritmo, pero sí saben que cuanto más escandaloso es el contenido, más vistas».

Fuente:
https://www.abc.es/tecnologia/redes/abci-youtube-ignoro-advertencias-sobre-algoritmo-potenciadaba-teorias-conspiranoicas-201904031439_noticia.html