Acesse o menu principal

Responsabilidade: o que vem por ai nos nossos esforços sobre desinformação

Estamos lançando uma nova série que mostra os bastidores de como estamos lidando com alguns dos maiores desafios que o YouTube enfrenta.

Bilhões de pessoas de todo o mundo acessam o YouTube por vários motivos. Não importa se você quer assistir um show difícil de encontrar ou aprender uma habilidade nova, o YouTube conecta espectadores a uma diversidade incrível de vozes e conteúdo. Contudo, nada disso seria possível sem o compromisso de proteger nossa comunidade. Esse princípio fundamental é a base de todos os sistemas e aspectos dos nossos produtos.

4r

Algumas vezes por ano, vou trazer informações sobre como estamos lidando com alguns dos maiores desafios no YouTube e vou mostrar os prós e contras de cada ação que consideramos. Nas próximas publicações, vamos falar de temas como o desenvolvimento das políticas, além de explicar melhor como lidamos com problemas complexos ou fazer um resumo das principais metas de responsabilidade. Nesta primeira edição, quero falar sobre nosso trabalho atual para enfrentar desinformações nocivas em potencial no YouTube.

Nos últimos cinco anos, fizemos investimentos altos em um framework chamado os quatro Rs de Responsabilidade. Conseguimos remover rapidamente qualquer conteúdo que viola nossas políticas, dar mais visibilidade a fontes confiáveis e diminuir a propagação de conteúdo problemático graças ao trabalho conjunto do aprendizado de máquina e recursos humanos (apresentei os detalhes dos motivos em uma postagem do blog). Juntas, essas ferramentas de trabalho têm sido essenciais para manter baixo o número de visualizações desse tipo de conteúdo ao mesmo tempo que preservam a liberdade de expressão da nossa plataforma. Mesmo assim, nossa abordagem precisa evoluir para acompanhar o ritmo atual, já que narrativas voltadas à desinformação são criadas com muita rapidez e espalhadas amplamente. Nossa equipe tem mais três desafios pela frente.

Identificação de novas fontes de desinformação antes que elas viralizem

Por alguns anos, o cenário on-line de desinformações foi dominado por algumas narrativas principais. Podemos pensar, por exemplo, nas teorias da conspiração de 11 de setembro, da chegada à lua e da terra plana. Essas teorias de longa data se acumulam e formam um arquivo de conteúdo. Como resultado, conseguimos treinar nossos sistemas de aprendizado de máquina para diminuir o número de recomendações desse conteúdo e de vídeos parecidos com base em padrões encontrados neles. No entanto, cada vez mais narrativas totalmente novas podem surgir do nada e ganhar visualizações. Ou as narrativas passam de um tema para outro. Por exemplo, alguns vídeos de bem-estar, em geral, podem levar ao receio de tomar as vacinas. Cada narrativa também pode ser apresentada e se espalhar de maneiras diferentes. Em alguns casos, elas são muito específicas de uma região.

Enfrentamos esses desafios logo no início da pandemia da COVID-19, como quando surgiu uma teoria da conspiração sobre as torres de 5G causarem a propagação do coronavírus, o que fez pessoas queimarem torres de celular no Reino Unido. Por causa dos danos reais que esse tipo de informação pode causar, nossa resposta foi atualizar as diretrizes para classificar esse tipo de conteúdo como uma violação. Nesse caso, agimos rapidamente porque já tínhamos políticas em vigor relacionadas à desinformação sobre a pandemia e baseadas em orientações de autoridades de saúde locais e mundiais.

Para grandes eventos de notícias, como um desastre natural, apresentamos painéis de notícias que vão recebendo atualizações para direcionar os espectadores a textos de artigos sobre o ocorrido.”

Mas não vamos ter orientações de especialistas que podem guiar nossas políticas para todas as narrativas de amplo alcance que surgirem no futuro. E quanto mais recente for a desinformação, menor a quantidade de exemplos que temos para treinar nossos sistemas. Treinamos continuamente nosso sistema com novos dados para resolver essa situação. Estamos buscando um conjunto ainda mais segmentado de classificadores, palavras-chave em outros idiomas e informações de analistas regionais para identificar narrativas que nosso classificador principal não detecta. Com o tempo, vamos conseguir identificar essas narrativas virais de desinformação com mais rapidez e precisão.

Além de reduzir a propagação de determinados conteúdos, nossos sistemas conectam espectadores a vídeos confiáveis nos resultados da pesquisa e nas recomendações. Porém, alguns temas não têm muitas fontes de conteúdo confiável. São o que chamamos de “vazios de dados”. Por exemplo: imagine um evento de notícias de última hora, como um desastre natural. Em casos como esse, podemos nos deparar com conteúdo não verificado logo após o incidente, com especulações sobre as causas e as vítimas. As fontes confiáveis podem levar algum tempo para criar conteúdo de vídeo sobre o desastre, e quando a desinformação se espalha rapidamente, nem sempre temos fontes de conteúdo confiável suficientes para indicar em curto prazo.

Para grandes eventos de notícias, como um desastre natural, apresentamos painéis de notícias que vão recebendo atualizações para direcionar os espectadores a textos de artigos sobre o ocorrido. Alguns temas de nicho que podem não receber cobertura da mídia. Nesses casos, fornecemos aos usuários painéis de checagem de fatos. Porém, reunir informações confiáveis pode levar algum tempo e nem sempre vamos conseguir cobrir todos os temas urgentes. Nesses casos, estamos buscando outros tipos de marcadores que podem ser adicionados a um vídeo ou no início dos resultados da pesquisa, como um aviso para alertar os espectadores sobre a falta de informações de alta qualidade. Além disso, precisamos avaliar se colocar um novo marcador poderia, de maneira não intencional, dar destaque a um tema que talvez não tivesse tanta atenção do público. Nossas equipes estão discutindo todas essas considerações enquanto buscamos a abordagem ideal.

O problema do compartilhamento de desinformação em várias plataformas

Outro desafio é a propagação de vídeos com conteúdo duvidoso fora do YouTube. Esses vídeos não chegam a ultrapassar os limites das nossas políticas a ponto de serem removidos, mas não são materiais que queremos recomendar. Revisamos nossos sistemas de recomendação para reduzir de maneira considerável, abaixo de 1%, o consumo de conteúdo duvidoso originado das nossas recomendações. Mas mesmo se nós não estivermos recomendando determinado conteúdo duvidoso, talvez o vídeo em questão ainda receba visualizações por meio de outros sites que inserem links para vídeos do YouTube ou incorporam esses materiais.

Uma das possibilidades de lidar com essa questão é desativar o botão de compartilhamento ou os links dos vídeos que já estamos limitando nas recomendações. Isso significa que você não vai conseguir incorporar ou vincular um vídeo de conteúdo duvidoso em outro site. Porém, ainda estamos pensando se a prevenção do compartilhamentos pode acabar restringindo demais a liberdade dos espectadores.

É preciso ter cuidado na hora de equilibrar a restrição da propagação de desinformações nocivas em potencial e a abertura para conversas e educação sobre temas delicados e controversos.”

Nossos sistemas reduzem as recomendações de conteúdo duvidoso, mas compartilhar um link é uma escolha individual, diferente de uma ação mais passiva, como assistir um vídeo recomendado.

O contexto também é uma prioridade: conteúdo duvidoso incorporado em uma pesquisa ou em notícias talvez seja uma exceção e precise de um tratamento diferente. É preciso ter cuidado na hora de equilibrar a restrição da propagação de desinformações nocivas em potencial e a abertura para conversas e educação sobre temas delicados e controversos.

Outra abordagem seria mostrar um aviso antes que um espectador assista um conteúdo duvidoso em outro site, permitindo que essas pessoas saibam que o vídeo talvez tenha desinformação. Esses avisos são como lombadas: fazem com que os espectadores pausem antes de assistir ou compartilhar conteúdo. Na verdade, já usamos esses elementos em conteúdo com restrição de idade ou em vídeos explícitos ou com violência, e os consideramos uma ferramenta importante para dar aos espectadores o poder de escolha em relação àquilo que estão prestes a assistir.

Vamos continuar buscando mais opções para limitar a propagação de desinformação nociva pela Internet.

Fortalecimento dos nossos esforços contra a desinformação em todo o mundo

Nosso trabalho para conter a desinformação tem gerado resultados reais, mas ainda há complexidades enquanto nos esforçamos para levar esses processos a mais de 100 países e dezenas de idiomas em que operamos.

As culturas têm perspectivas diferentes em relação àquilo que torna uma fonte confiável. Em alguns países, considera-se que emissoras públicas (como a BBC no Reino Unido) transmitem notícias confiáveis. Enquanto isso, em outros países, emissoras estatais podem pender mais para o lado da propaganda. Alguns países também contam com diversidade de conteúdo nos próprios ecossistemas de notícias e informações, desde meios de comunicação que exigem padrões rigorosos de checagem de fatos até aqueles que praticamente não verificam o conteúdo. Além disso, ambientes políticos, contextos históricos e notícias de última hora podem gerar narrativas de desinformação hiperlocais que não aparecem em nenhuma outra parte do mundo.Por exemplo, durante o surto do Zika vírus no Brasil, algumas pessoas usaram teorias da conspiração para explicar a doença. Outro exemplo recente aconteceu no Japão, quando rumores falsos divulgados on-line afirmavam que um terremoto foi causado por intervenção humana.

Tendo que enfrentar essa diversidade regional, nossas equipes lidam com muitos dos mesmos problemas que temos com desinformações recentes, desde mudanças em narrativas até a falta de fontes confiáveis. Por exemplo, no início da pandemia vimos que nem todos os países tinham os últimos estudos disponibilizados pelas autoridades de saúde dessas regiões, e que as autoridades locais às vezes davam orientações diferentes.

O que é considerado conteúdo duvidoso também pode variar de maneira significativa. Sempre consideramos como nossas diretrizes de avaliação de conteúdo podem ser interpretadas de maneiras diversas em idiomas e culturas diferentes. Leva certo tempo para trabalhar com especialistas e equipes locais e entender o contexto cultural que afeta a classificação de um vídeo como borderline ou não.

Além de ampliar nossas equipes com mais pessoas que entendem as nuances regionais interligadas à desinformação, estamos considerando investir mais em parcerias com especialistas e organizações não governamentais ao redor do mundo. Além disso, de maneira parecida com nossa abordagem relacionada a temas novos que viralizam, estamos buscando formas de atualizar modelos com mais frequências para identificar desinformações hiperlocais, com capacidade de suporte a idiomas locais.

Reforço da nossa transparência

No YouTube, vamos continuar nos esforçando para reduzir a quantidade de conteúdo com desinformação nociva em todos os nossos produtos, tudo isso enquanto protegemos a variedade de vozes na plataforma. Reconhecemos que talvez não tenhamos todas as respostas, mas entendemos que é importante compartilhar as questões e os problemas que estamos enfrentando. Mais do que nunca é urgente ampliar nossos esforços em relação à segurança e ao bem-estar da nossa comunidade, e espero manter vocês informados ao longo do tempo.