Ir para o Conteúdo Principal

Por dentro do YouTube

Aplicação responsável das nossas políticas durante a COVID-19

  • De Equipe do YouTube
  • 25.Ago.2020
Relatório de Transparência do YouTube

No início deste ano, compartilhamos algumas das medidas que tomamos para proteger nossos funcionários e força de trabalho estendida durante a pandemia da COVID-19. Um passo importante foi confiar mais na tecnologia para identificar e remover rapidamente conteúdo que viole nossas diretrizes de comunidade para que nossas equipes que revisam o conteúdo possam permanecer em casa com segurança. 


O segundo trimestre de 2020 foi o primeiro em que operamos completamente sob essa estrutura de aplicação modificada das nossas diretrizes. Por causa das escolhas que fizemos para priorizar a segurança da comunidade, nunca havíamos removido tanto conteúdo em um único trimestre desde 2017, ano de divulgação do nosso primeiro relatório. Hoje, estamos divulgando os dados completos do segundo trimestre em nosso Relatório de Transparência.


Priorizando a segurança da comunidade do YouTube

Normalmente contamos com uma combinação de pessoas e tecnologia para fazer cumprir nossas políticas. O aprendizado de máquina ajuda a detectar conteúdo potencialmente perigoso e, em seguida, o envia a revisores humanos para avaliação. A revisão humana não é apenas necessária para treinar nossos sistemas de aprendizado de máquina, ela também serve como uma verificação, fornecendo feedback que melhora a precisão de nossos sistemas ao longo do tempo. A cada trimestre, milhões de vídeos que são primeiro sinalizados por nossos sistemas automatizados são avaliados posteriormente por nossa equipe de revisão humana e determinados a não violar nossas políticas. 


Ao contar com a capacidade de revisão humana muito reduzida devido à COVID-19, fomos forçados a fazer uma escolha entre a possível subexecução ou a potencial aplicação excessiva. Uma opção era desacelerar nossa tecnologia e limitar nossa aplicação apenas ao que poderia ser tratado com nossa capacidade de revisão reduzida. Isso manteria um alto nível de precisão, mas resultaria em menos conteúdo sendo removido do YouTube, incluindo algum conteúdo que viole nossas políticas. 


A outra opção era usar nossos sistemas automatizados para lançar uma rede mais ampla, de modo que a maior parte do conteúdo que poderia prejudicar a comunidade fosse rapidamente removida do YouTube, sabendo que muitos vídeos não receberiam uma análise humana e alguns que não violam nossas políticas seriam removidos.


Como a responsabilidade é nossa prioridade, escolhemos a última opção - usar a tecnologia para ajudar em parte do trabalho normalmente realizado pelos revisores. O resultado foi um aumento na quantidade de vídeos removidos do YouTube: mais que o dobro da quantidade de vídeos removidos no trimestre anterior. Para certas áreas de políticas delicadas, como extremismo violento e segurança infantil, aceitamos um nível mais baixo de precisão para garantir que estávamos removendo o máximo possível de conteúdo violento. Isso também significa que, nessas áreas especificamente, uma quantidade maior de conteúdo que não viola nossas políticas também foi removida. A decisão de aplicar um nível mais baixo de precisão, por cautela, levou a um aumento de mais de 3 vezes nas remoções de conteúdos que nossos sistemas suspeitavam estar vinculado ao extremismo violento ou potencialmente prejudicial às crianças. Isso inclui desafios ou outro conteúdo postado inocentemente que possa colocar menores em perigo. 


Minimizando o impacto para os criadores

Como começamos a confiar mais na automação, também tomamos medidas para minimizar o impacto dessa ação para nossos criadores. Conforme compartilhamos anteriormente, tomamos a decisão de não emitir avisos sobre o conteúdo removido sem revisão humana, exceto nos casos em que temos grande confiança de que ele viole nossas políticas. Dessa forma, o criador não precisa interromper sua produção de conteúdo (como acontece ao receber um aviso em seu canal), se a remoção automática tiver sido feita indevidamente.


Além disso, sempre oferecemos aos criadores uma maneira fácil de denunciar caso acreditem que o vídeo tenha sido removido por engano. Sabendo que as decisões tomadas por nosso sistema são, em alguns casos, menos precisas do que a revisão humana, nos preparamos para mais notificações e dedicamos recursos extras para garantir que sejam revisadas rapidamente. Embora o número de recursos continue sendo uma pequena fração das remoções totais - menos de 3% das remoções de vídeo - vimos o volume de recursos e a taxa de reintegração dobrar em relação ao trimestre anterior. O número de vídeos restabelecidos em recurso aumentou de 25%, no primeiro trimestre, para 50% dos recursos no segundo trimestre.


O impacto da COVID-19 foi sentido em todas as partes do mundo e em todos os cantos do nosso negócio. Em tempos difíceis, nosso compromisso com a responsabilidade permanece inabalável. Tomamos medidas extraordinárias para garantir que cumpramos esse compromisso - protegendo os usuários, removendo rapidamente o conteúdo que viola nossas políticas e minimizando o impacto nos criadores. Seguimos buscando melhorar a precisão dos nossos sistemas e, assim que a equipe revisora puder voltar ao trabalho, direcionaremos os esforços para as áreas mais afetadas. Continuaremos a atualizar regularmente a comunidade sobre nosso progresso.