Expandindo a Detecção de Semelhanças no YouTube para Líderes Cívicos e Jornalistas
10 Mar, 2026 [[read-time]] minutos de leitura
10 Mar, 2026 [[read-time]] minutos de leitura
O YouTube é o lugar onde o mundo vem para entender os eventos que moldam suas vidas — desde notícias de última hora até os debates que movem o discurso cívico. À medida que o conteúdo gerado por IA evolui, os indivíduos no centro dessas conversas precisam de ferramentas confiáveis para proteger suas identidades.
No ano passado, lançamos a detecção de imagem (likeness detection) para criadores no Programa de Parcerias do YouTube, uma ferramenta pioneira no setor para gerenciar conteúdo gerado por IA. Hoje, estamos expandindo para um grupo piloto de autoridades governamentais, jornalistas e candidatos políticos.
Esta ferramenta funciona de forma semelhante ao Content ID, mas voltada para a imagem (likeness). Ela busca a aparência de um participante em conteúdos gerados por IA e, se uma correspondência for encontrada — como um deepfake de seu rosto — o indivíduo pode revisar o conteúdo e solicitar a remoção, caso este viole nossas diretrizes de privacidade.
Embora esta ferramenta ofereça uma maneira poderosa de gerenciar a personificação não autorizada por IA, a detecção não garante a remoção. O YouTube tem um longo histórico de proteção à liberdade de expressão e ao conteúdo de interesse público — incluindo a preservação de conteúdos como paródia e sátira, mesmo quando usados para criticar líderes mundiais ou figuras influentes. Continuaremos avaliando cuidadosamente essas exceções ao receber pedidos de remoção.
Estamos começando com este grupo para garantir que a ferramenta atenda às suas necessidades específicas, com planos de expandir significativamente o acesso nos próximos meses.
Para evitar abusos e garantir que a ferramenta seja usada apenas por aqueles que ela visa proteger, exigimos que os participantes verifiquem sua identidade antes de se inscreverem na detecção de imagem. Os dados fornecidos durante a configuração são usados estritamente para fins de verificação de identidade e para alimentar este recurso de segurança, não sendo utilizados para treinar os modelos de IA generativa do Google.
A tecnologia por si só não é a linha de chegada. Continuaremos defendendo estruturas legais robustas, como a Lei NO FAKES (nos EUA), que estabelece um direito federal de publicidade e serve como um modelo para adoção internacional, garantindo que a tecnologia sirva — e nunca substitua — a criatividade humana.