Ir para o Conteúdo Principal

Por dentro do YouTube

Os 4 Rs da Responsabilidade: Parte 1 - Removendo conteúdo nocivo

De Equipe do YouTube

Nos últimos anos, dobramos nossos esforços para estar de acordo com nossa responsabilidade ao mesmo tempo que preservamos o poder de uma plataforma aberta. Nosso trabalho está orientado em torno de quatro princípios:

jEpwoCqRoNDz5zSk6DN_YRyHI7Tm-lVU612HQWknMHQ1ttyj2hJrd6objTj5k20gmTmu-00aCoSs9KqyblXPiqigv7NPmdO0rgp_t3uZ96kzOYw5Qv7P68ntObYaq1LuvveGOkxn

Nos próximos meses, vamos dar mais detalhes do trabalho desenvolvido em cada um desses princípios. O primeiro foco será em como Removemos. Nós removemos conteúdo nocivo desde que o YouTube passou a existir, mas nossos investimentos nessa área aceleraram nos últimos anos. Abaixo há uma linha do tempo das melhorias mais significativas implementadas desde 2016. Graças a esse trabalho constante, nos últimos 18 meses reduzimos as visualizações em vídeos que seriam removidos por nossas políticas em 80% e continuamos trabalhando para reduzir esse número (de Janeiro de 2018 a Junho de 2019).

udJMcdGYE-TDGDMyGil6RqFv0_SoDM_GEGhDoiqXJWMul3ECVmCreM8kE_ftQ0ru7SeXEHm3_JgvTyUc__ldMugiJIRBDzUbsm65yT59ghY0X_WFDEDWrgJDcS3bXweNVwJB7Kof

Desenvolvendo políticas para uma plataforma global

Antes de trabalharmos na remoção de conteúdo que viola nossas políticas, temos de garantir que a linha que separa o que removemos do que permitimos está no lugar certo, já que nosso objetivo é preservar a liberdade de expressão enquanto protegemos e promovemos nossa comunidade. Contamos com um time dedicado ao desenvolvimento de políticas que faz a revisão sistemática das nossas diretrizes, garantindo que estejam atualizadas, que protejam a comunidade e não prejudiquem a abertura do YouTube.

Após revisar a política, muitas vezes descobrimos que mudanças fundamentais não são necessárias, mas descobrimos áreas que podem estar descobertas, vagas ou não tão claras à comunidade. Como resultado, muitas atualizações são na verdade esclarecimentos às nossas diretrizes já existentes. Por exemplo, este ano oferecemos mais detalhes sobre quando consideramos um desafio muito perigoso para estar no YouTube. Desde 2018 fizemos dezenas de atualizações para reforçar nossas políticas, muitas delas foram esclarecimentos e outras alterações mais substanciais.

Para assuntos mais complexos pode ser que precisemos de alguns meses para desenvolver uma política nova. Durante esse tempo, consultamos especialistas externos e criadores para compreender como nossa política atual está falhando, considerando diferenças regionais para garantir que a alteração proposta seja aplicada de forma justa em todo o mundo.

Nossa atualização para discurso de ódio representa uma mudança fundamental em nossas políticas. Passamos meses desenvolvendo a política e trabalhando com nossos times para criar as ferramentas e treinamentos necessários para sua aplicação. A diretriz foi lançada em Junho deste ano e nossos times passaram a revisar e remover conteúdo, enquanto nossa detecção por máquina evoluiu em paralelo. Pode levar meses até que organizemos todos os esforços para aplicar uma nova política. Mesmo assim, o profundo impacto da nossa política de discurso de ódio já é evidente em nosso relatório Aplicação das diretrizes da comunidade do YouTube:
-yCMewXIvhhQ4uJa9KdJ0n1lRp7IHP-acd4mzxdKy-PC4W9IQOlxKgEGpCwRjx3GoYpmjne3mSeWb1vPvObWxfXR42Yqj5MKTtplK8g3wWSBU_dNe55HKHWKNMaHbe0PUoj0MST5

Os picos nos números de remoção devem-se, em parte, à remoção de comentários antigos, vídeos e canais que eram permitidos anteriormente. Em abril de 2019, anunciamos que também estamos trabalhando para atualizar nossa política de assédio, incluindo assédio de criador contra criador. Compartilharemos nosso progresso em relação a este trabalho nos próximos meses.

Usando máquinas para sinalizar conteúdo incorreto

Depois de definir uma política, nós contamos com uma combinação de pessoas e tecnologia para sinalizar o conteúdo para nossas equipes de revisão. Às vezes, usamos hashes (ou "rastros digitais") para capturar cópias conhecidas de conteúdo violador antes que eles estejam disponíveis para visualização. Para alguns conteúdos como imagens de abuso sexual infantil (CSAI) e vídeos de recrutamento de terroristas, nós contribuímos com bancos de dados compartilhados do setor de hashes, para aumentar o volume de conteúdo que nossas máquinas podem capturar no upload.

Em 2017, nós expandimos nosso uso da tecnologia de machine learning para ajudar a detectar conteúdo potencialmente violador e enviá-lo para análise humana. A tecnologia é apropriada para detectar padrões, o que nos ajuda a encontrar conteúdo semelhante (mas não exatamente o mesmo) a outro conteúdo que já removemos, mesmo antes de ser visualizado. Esses sistemas são particularmente eficazes na sinalização de conteúdo com a mesma aparência - como spam ou conteúdo adulto. As máquinas também podem nos ajudar a sinalizar discursos de ódio e outros conteúdos violadores, mas essas categorias dependem muito do contexto e destacam a importância da revisão humana para tomar decisões diferenciadas. Ainda assim, mais de 87% dos 9 milhões de vídeos removidos no segundo trimestre de 2019 foram sinalizados pela primeira vez por nossos sistemas automatizados.

Estamos investindo significativamente nos sistemas de detecção automatizada e nossas equipes de engenharia continuam atualizando e aprimorando-os mês a mês. Por exemplo, uma atualização de nossos sistemas de detecção de spam no segundo trimestre de 2019 levou a um aumento de mais de 50% no número de canais que encerramos por violar nossas políticas de spam.

Remoção de conteúdo antes de ser amplamente visto

Nos esforçamos ao máximo para garantir que o conteúdo que viole nossas regras não seja amplamente exibido, ou mesmo visualizado, antes de ser removido. Como vimos acima, as melhorias em nossos sistemas de sinalização automatizada nos ajudaram a detectar e revisar o conteúdo antes mesmo de ser sinalizado por nossa comunidade. Consequentemente, no segundo trimestre de 2019, mais de 80% desses vídeos com sinalização automática foram removidos antes de receber uma única visualização.

Nós também reconhecemos que a melhor maneira de remover rapidamente um conteúdo é antecipar problemas antes que eles surjam. Em janeiro de 2018, lançamos nosso Intelligence Desk, uma equipe que monitora notícias, mídias sociais e relatórios de usuários a fim de detectar novas tendências em torno de conteúdo inapropriado, e trabalha para garantir que nossas equipes estejam preparadas para abordar estes temas antes que possam se tornar questões maiores.

Estamos determinados em continuar a reduzir a exposição de vídeos que violam nossas políticas. Por isso, no Google, confiamos em mais de 10.000 pessoas para detectar, revisar e remover conteúdo que viola nossas diretrizes. Devido à nossa capacidade de remover esse conteúdo rapidamente, os vídeos que violam nossas políticas geram uma fração de um por cento das visualizações no YouTube.

Por exemplo, os quase 30.000 vídeos que removemos por discursos de ódio no último mês geraram apenas 3% das visualizações que os vídeos de tricô produziram no mesmo período.

z2vWFhKlDXYNbqWdiDU5b02pi0mUywd011clDqsAg_10n1Hkmn52se7eUMHsLPo4hFcuL807ikyKVj5wfr4CuS-VCdXBLZto0Fjiw7-93t75QeS2Ja7U1sDzA--jfMTpFnRc3eeX
Atualizamos nosso Relatório de aplicação das diretrizes da comunidade, um relatório trimestral que fornece informações adicionais sobre a quantidade de conteúdo que removemos do YouTube, por que ele foi removido e como foi detectado pela primeira vez. Esse relatório demonstra como a tecnologia implantada nos últimos anos nos ajudou a remover conteúdo prejudicial do YouTube mais rápido do que nunca. Ele também destaca como a revisão humana ainda é um componente crítico de nossos esforços de fiscalização, à medida que trabalhamos para desenvolver políticas ponderadas, revisar o conteúdo com cuidado e implantar com responsabilidade nossa tecnologia de machine learning.