Sobre o Desenvolvimento das Políticas do YouTube
01 Dez, 2022 – [[read-time]] minutos de leitura
01 Dez, 2022 – [[read-time]] minutos de leitura
Desde a fundação do YouTube, temos diretrizes da comunidade para determinar o que é permitido na plataforma. Essas regras viabilizam a expressão criativa, mas também priorizam a proteção de toda a comunidade do YouTube contra conteúdo nocivo. Esse equilíbrio é essencial para promover o compartilhamento de ideias e permitir que novas vozes participem da plataforma. Ele também é importante para garantir o sucesso da empresa YouTube a longo prazo, já que nossos parceiros de publicidade não querem ser associados a conteúdo nocivo.
Com frequência, surgem perguntas sobre como decidimos estabelecer limites e porque demoramos tanto para desenvolver e lançar novas políticas. Para saber mais sobre nossos esforços de responsabilidade, clique aqui. Neste blog, vamos contar como desenvolvemos e aplicamos nossas políticas.
Acreditamos que o debate aberto e a liberdade de expressão geram os melhores resultados sociais. Mas temos o cuidado de monitorar o conteúdo que pode causar danos graves aos nossos usuários ou à plataforma. ”
O mundo gira depressa, e nossas políticas não podem ficar atrás. Elas são sempre revisadas para garantir que (assim como as leis da sociedade civil) reflitam as mudanças dentro e fora da plataforma. Em poucas palavras: a maior parte do conteúdo do YouTube não viola nossas diretrizes. Ainda assim, vamos atrás de possíveis lacunas e riscos emergentes que podem trazer novos desafios às nossas políticas.
Quando trabalhamos para que nossas políticas acompanhem o cenário atual, temos como principal objetivo evitar danos graves no mundo real. Isso não significa que removemos todo o conteúdo ofensivo do YouTube. Acreditamos que o debate aberto e a liberdade de expressão geram os melhores resultados sociais. Mas temos o cuidado de monitorar o conteúdo que pode causar danos graves aos nossos usuários ou à plataforma.
Isso inclui danos físicos. Por exemplo, quando vídeos que ligavam a tecnologia 5G à disseminação da COVID-19 resultaram em danos a torres de celular no Reino Unido, rapidamente marcamos esse conteúdo como violador. Também pode haver danos significativos às instituições democráticas. É por isso que não permitimos conteúdo enganoso sobre votações, que promovam informações falsas sobre horários, locais e requisitos de qualificação para as eleições.
Também trabalhamos com ONGs, acadêmicos e especialistas internacionais relevantes de todos os lados para aprimorar a análise de compliance com a política do YouTube. Eles ajudam a sinalizar novos problemas e trazem um conhecimento profundo de temas complexos propensos a mudanças constantes. Por exemplo, estabelecemos nossa política de desinformação sobre a COVID-19 no início da pandemia com autoridades de saúde como o Centro de Controle e Prevenção de Doenças (CDC) e a Organização Mundial da Saúde. Quando as orientações mudaram e restrições como o uso de máscara e o distanciamento social foram aliviadas, atualizamos nossas políticas sobre o conteúdo que questionava a eficácia dessas medidas.
Uma política nova nunca diz respeito a um único vídeo. É preciso pensar no impacto que ela vai ter sobre todos os vídeos, quais deles seriam removidos e quais continuariam na plataforma de acordo com a nova diretriz.”
Depois que identificamos a área que precisa de uma atualização de política, nossa Equipe de confiabilidade e segurança desenvolve uma solução personalizada. Para começar, avaliamos alguns itens importantes. Com que frequência vemos esse tipo de conteúdo nocivo no YouTube e qual é o potencial de crescimento dele? Como isso é gerenciado pelas nossas diretrizes da comunidade atuais?
Depois, vemos dezenas e até centenas de vídeos para entender as implicações de definir política diferentes. Uma política nova nunca diz respeito a um único vídeo. É preciso pensar no impacto que ela vai ter sobre todos os vídeos, quais deles seriam removidos e quais continuariam na plataforma de acordo com a nova diretriz. Após essa análise abrangente, a equipe compartilha várias opções de diretrizes da política com exemplos de vídeos que seriam removidos e aprovados em cada uma, além de diferentes ações de cumprimento, como remoção e restrição de idade.
A partir dessas opções, a melhor política é escolhida e passa por outras rodadas de avaliação. Nessa fase, tentamos entender se a proposta vai atingir alguns objetivos importantes de maneira significativa:
Quando estamos convencidos de que vamos atingir esses objetivos, um grupo executivo de líderes da empresa inteira analisa a proposta. A aprovação final vem dos principais executivos da empresa, como o diretor de produtos e a CEO do YouTube. Quando as equipes discordam significativamente sobre os detalhes da diretriz, a política volta para etapa de elaboração.
Durante todo o desenvolvimento das políticas, trabalhamos com renomados profissionais terceirizados que se especializaram em tópicos como discurso de ódio e assédio. Também discutimos questões importantes, como extremismo violento e segurança infantil, com várias autoridades governamentais.
Essas parcerias também são muito importantes na aplicação de políticas em questões regionais quando, muitas vezes, é necessário ter conhecimento linguístico ou cultural para contextualizar o conteúdo corretamente.
Os especialistas ajudam a prever como eventos globais podem causar a disseminação de conteúdo nocivo na plataforma. Isso inclui a descoberta de lacunas no sistema que podem ser usadas por usuários de má fé e recomendações de novas atualizações. Como aconteceu no caso da COVID-19, eles nos ajudam a adaptar políticas em situações em que as orientações mudam rapidamente.
Essas parcerias também são muito importantes na aplicação de políticas em questões regionais quando, muitas vezes, é necessário ter conhecimento linguístico ou cultural para contextualizar o conteúdo corretamente. Por exemplo, criamos uma parceria estreita com especialistas durante o golpe de estado de Mianmar em 2021, para identificar casos de incitação ao ódio e violência contra minorias étnico-religiosas. Isso permitiu a remoção rápida do conteúdo violador da plataforma.
As pessoas costumam pensar que a moderação de conteúdo é reativa por natureza, que nós só removemos vídeos quando nossos sistemas e especialistas sinalizam que eles são problemáticos. ”
As pessoas costumam pensar que a moderação de conteúdo é reativa por natureza, que nós só removemos vídeos quando nossos sistemas e especialistas sinalizam que eles são problemáticos. Na verdade, grande parte do nosso trabalho se concentra no futuro. Nossas equipes seguem um longo processo que foi desenvolvido para apontar potenciais problemas antes que eles cheguem ou se espalhem na plataforma.
Quem faz esse trabalho valioso é a nossa Central de inteligência, um grupo de profissionais que faz parte da Equipe de confiabilidade e segurança do YouTube. Esse grupo de analistas especializados identifica potenciais tendências de violação (novos vetores de desinformação e desafios perigosos da Internet) e os riscos que elas representam. Ele também está sempre monitorando ameaças constantes, como teorias da conspiração extremistas, seja acompanhando o destaque que elas recebem na mídia ou avaliando as transformações que sofrem ao longo do tempo.
Com essas informações, nossa equipe discute as possíveis formas de gerenciar essas novas ameaças com políticas novas e atuais. Por exemplo, com base em evidências coletadas pela Central de inteligência atualizamos nossas políticas contra ódio e assédio para combater melhor as teorias da conspiração nocivas na plataforma.
A implementação de uma nova política é um esforço conjunto entre as pessoas e nossa tecnologia de aprendizado de máquina. Na prática, para que uma política seja lançada e aplicada com sucesso, pessoas e máquinas precisam trabalhar juntas. Isso garante níveis altos e consistentes de precisão na análise do conteúdo.
Para começar, damos à nossa equipe mais experiente de moderadores de conteúdo as diretrizes de aplicação (explicação detalhada do que é uma violação de conteúdo) e pedimos a ela que diferencie o material violador do não violador. Se a equipe atingir um nível muito alto de precisão com as novas diretrizes, ampliamos o grupo de testes para centenas de moderadores de várias origens, idiomas e níveis de experiência.
Nessa fase, começamos a revisar as diretrizes para que elas sejam interpretadas com precisão em um grupo maior e mais diverso de moderadores. Esse processo pode levar alguns meses e só é concluído quando o grupo atinge um grau de precisão igualmente alto. Essas descobertas ajudam a treinar nossa tecnologia de aprendizado de máquina a detectar conteúdo potencialmente violador em grande escala. Como fazemos com nossos moderadores de conteúdo, testamos modelos para ver se o contexto fornecido é suficiente para gerar avaliações precisas sobre o conteúdo a ser analisado pela equipe.
Após o período de teste, a nova política é finalmente lançada. Mas ela é lapidada nos meses seguintes. Toda semana, nossa liderança de confiabilidade e segurança se reúne com líderes de controle de qualidade do mundo inteiro (responsáveis por supervisionar as equipes de moderação de conteúdo) para debater casos mais complexos e analisar a qualidade da aplicação das nossas políticas. Quando necessário, as políticas são adaptadas para lidar com lacunas ou tornar mais claras as ações em casos extremos.
O aprendizado de máquina identifica o conteúdo violador potencial em grande escala e envia para análise tudo o que pode ser contrário às nossas diretrizes da comunidade. Os moderadores ajudam a confirmar ou negar que o conteúdo deve ser removido. ”
Depois que os modelos são treinados para identificar conteúdo violador potencial, a função dos nossos moderadores continua essencial durante todo o processo de aplicação. O aprendizado de máquina identifica o conteúdo violador potencial em grande escala e envia para análise tudo o que pode ser contrário às nossas diretrizes da comunidade. Os moderadores ajudam a confirmar ou negar que o conteúdo deve ser removido.
Essa abordagem colaborativa aprimora a precisão dos nossos modelos ao longo do tempo, já que eles estão sempre aprendendo e se adaptando com os feedbacks dos moderadores de conteúdo. Isso também permite que nossos sistemas de aplicação gerenciem o conteúdo total enviado ao YouTube (mais de 500 horas por minuto), enquanto investigam as nuances que determinam as violações.
Por exemplo, um discurso de Hitler nos comícios de Nuremberg sem contexto pode violar nossa política contra discurso de ódio. Mas, se o mesmo discurso fosse incluído em um documentário que denunciasse as ações dos nazistas, o conteúdo provavelmente seria permitido por nossas diretrizes EDAC. Essas diretrizes levam o material violador potencial em consideração quando há contexto suficiente, como em um vídeo educacional ou documentário histórico.
Os modelos podem ter mais dificuldade de fazer essa distinção. Já um moderador de conteúdo identifica facilmente o contexto adicionado. Essa é uma das razões porque a fiscalização é uma responsabilidade fundamentalmente compartilhada. Por isso que o julgamento humano sempre será uma parte importante do nosso processo. Para a maioria das categorias de conteúdo potencialmente violadoras no YouTube, um modelo simplesmente envia o conteúdo para a revisão de um moderador de conteúdo, antes que qualquer ação possa ser tomada.
Somos motivados a cumprir as diretrizes da comunidade e a promover nossa missão de permitir que novas vozes e comunidades tenham espaço no YouTube. O sucesso nessa área é difícil de definir com uma métrica única, mas estamos sempre ouvindo o feedback das partes interessadas e dos membros da comunidade sobre formas de melhorar. Procuramos continuamente ter mais transparência em nossos sistemas e processos (incluindo esforços como este blog).
De julho a setembro deste ano, esse número foi de 0,10% a 0,11%, o que significa que para cada 10.000 visualizações, entre 10 e 11 eram de conteúdo que violava nossas diretrizes da comunidade.
Para medir a eficácia da fiscalização, lançamos uma métrica chamada taxa de visualização de conteúdo violatório, que analisa quantas visualizações no YouTube foram de material violatório. De julho a setembro deste ano, esse número foi de 0,10% a 0,11%, o que significa que para cada 10.000 visualizações, entre 10 e 11 eram de conteúdo que violava nossas diretrizes da comunidade.
Nós também rastreamos o número de contestações enviadas por criadores em resposta a vídeos removidos (uma opção disponível para qualquer criador de conteúdo no YouTube). isso ajuda a entender melhor a precisão dos nossos sistemas. Por exemplo, durante o mesmo período mencionado acima, removemos mais de 5,6 milhões de vídeos, porque violaram nossas diretrizes da comunidade, e recebemos cerca de 271.000 contestações de remoção. Após a revisão desse conteúdo, restabelecemos cerca de 29.000 vídeos contestados.
Embora métricas como contestações, restabelecimentos e a taxa de visualização de conteúdo violatório não ofereçam uma solução perfeita para entender a consistência ou a precisão, elas ainda são essenciais para definir os parâmetros de sucesso de forma contínua.
As diretrizes da comunidade se preocupam com a linguagem e a expressão, duas coisas que, por natureza, evoluem com o tempo. Dentro desse cenário em constante mudança, vamos continuar a revisar regularmente os limites traçados para nossas políticas para garantir que sejam precisas. Nos próximos meses, para manter nossa comunidade informada, vamos compartilhar mais sobre como estamos nos adaptando.