Teorias conspiratórias prejudiciais no YouTube
15 Out, 2020 – [[read-time]] minutos de leitura
15 Out, 2020 – [[read-time]] minutos de leitura
Enfrentar a desinformação e teorias conspiratórias prejudiciais é um grande desafio, pois esse tipo de conteúdo está em permanente mudança e evolução. Para tratar do assunto com eficiência, é fundamental que nossa equipe esteja sempre revendo e atualizando políticas e sistemas, de modo a refletir as constantes transformações sofridas por esses conteúdos. Hoje estamos dando um novo passo para aumentar ainda mais nosso trabalho de contenção ao discurso de ódio e agressão, removendo mais conteúdo com teorias conspiratórias com frequência usadas para justificar atos reais de violência. Esse avanço dá continuidade ao trabalho que fazemos há anos para reforçar e aprimorar nossa política e o cumprimento das regras – trabalho organizado em torno de quatro pilares centrais: remover conteúdo que desrespeite as regras, reduzir a disseminação de informações enganosas e prejudiciais, dar destaque a vozes respeitadas e favorecer criadores confiáveis.
Há cerca de dois anos tomamos uma medida importante para limitar o alcance de desinformação prejudicial: atualizamos nosso sistema de recomendações. Isso levou a uma queda considerável no número de visualizações vindas dos sistemas de busca e descoberta do YouTube. Na verdade, quando observamos conteúdos relacionados à teoria QAnon, desde janeiro de 2019 houve uma queda de mais de 80% nas visualizações de canais “Q” vindas de recomendações para pessoas não inscritas. .
Além disso, removemos do ar dezenas de milhares de vídeos “Q” e encerramos centenas de canais por descumprimento de nossas políticas – sobretudo canais com ameaças explícitas de violência, que negam a existência de episódios importantes de violência ou afirmam que integrantes de um ou outro grupo protegido são maus ou corruptos. Essas iniciativas foram fundamentais para reduzir o alcance de teorias conspiratórias prejudiciais – mas sabemos que é possível fazer ainda mais para enfrentar determinados tipos de teoria (como QAnon) usados para justificar atos reais de violência.
Hoje estamos ampliando nossa política referente a discurso de ódio e agressão, para proibir conteúdo que tenha como alvo uma pessoa ou grupo específico, sugerindo que esse alvo seja cúmplice de uma teoria conspiratória usada para justificar atos reais de violência. Isso inclui, por exemplo, conteúdo que ameace ou assedie uma pessoa ao sugerir que ela esteja envolvida em teorias conspiratórias prejudiciais, como QAnon ou Pizzagate. E, como sempre, o contexto é importante. Por isso, alguns conteúdos que discutem esse tipo de assunto sensível podem continuar no ar – desde que não tenham como alvo nenhuma pessoa ou grupo protegido. Essa política atualizada passa a valer a partir de hoje, e será ampliada nas próximas semanas.
Os grupos que promovem essas teorias evoluem constantemente e estão sempre usando novas táticas, e por isso continuaremos também a ajustar nossas políticas para que elas estejam sempre atualizadas. Temos o compromisso de tomar as medidas necessárias para cumprir essa responsabilidade – hoje, amanhã e sempre.