Skip to Main Content
Las cuatro claves de la responsabilidad: Parte 1 - Eliminar contenidos dañinos

Dentro de YouTube

Las cuatro claves de la responsabilidad: Parte 1 - Eliminar contenidos dañinos

Por El equipo de YouTube




Durante los últimos años, hemos redoblado nuestros esfuerzos para cumplir nuestra responsabilidad al tiempo que preservamos la magia de nuestra abierta plataforma. Nuestro trabajo se basa en cuatro principios:





En los próximos meses, daremos a conocer más detalles sobre cómo trabajamos para cumplir cada uno de estos principios. El primer paso se centrará en Eliminar. Hemos estado eliminando contenido dañino desde que se inició YouTube, pero nuestra inversión en este trabajo se ha acelerado en los últimos años. Más abajo puedes comprobar en un gráfico algunos de nuestros avances más notables en este sentido desde 2016. Gracias a este trabajo continuado, en los últimos 18 meses hemos reducido en un 80% las visitas a los vídeos que posteriormente se eliminaron por violar nuestras políticas, y seguimos trabajando para reducir aún más este número (enero 2018 a junio 2019).





Desarrollando políticas para una plataforma global


Antes de eliminar cualquier contenido que viole nuestras políticas, tenemos que asegurarnos de que la línea que separa aquello que eliminamos de lo que permitimos se encuentra en el lugar correcto, con el objetivo de preservar la libertad de expresión al tiempo que protegemos nuestra comunidad. Para ello, contamos con un equipo dedicado al desarrollo de nuestras políticas que las revisa sistemáticamente para asegurarnos de que están actualizadas, de que preservan la seguridad de la comunidad y garantizan la apertura de YouTube.


Tras revisar una política, a menudo descubrimos que no se necesitan cambios trascendentales, sino que hay algunas áreas que pueden ser vagas o confusas para la comunidad. De este modo, muchas de las actualizaciones son clarificaciones sobre las normas ya existentes. Por ejemplo, hace algunos meses proporcionamos más detalles sobre lo que consideramos un “reto” demasiado peligroso para YouTube. Desde 2018, hemos introducido decenas de actualizaciones en nuestras normas: muchas de ellas son pequeñas aclaraciones, pero otras son más profundas.


En otras ocasiones, para asuntos especialmente complejos, podemos dedicar varios meses a desarrollar una política. En este período consultamos a expertos externos y creadores de YouTube para comprender aquellos aspectos en que la política actual no es suficiente, y tenemos en cuenta las diferencias entre las distintas regiones para asegurarnos de que los cambios propuestos se pueden llevar a cabo en todo el mundo.
Nuestra actualización sobre el discurso del odio representó un cambio fundamental en nuestras políticas. Dedicamos varios meses a desarrollar esta política y trabajar con nuestros equipos para crear las herramientas y establecer las formaciones necesarias para garantizar su cumplimiento. Esta política se lanzó a comienzos de junio, y mientras que nuestros equipos revisan y eliminan cada vez más contenidos en línea con esta política, nuestro sistema de detección automática está mejorando al mismo ritmo. Aunque nos puede tomar meses aumentar la aplicación de una nueva política, el gran impacto de la actualización de nuestra política sobre el discurso del odio ya es evidente en los datos de nuestro informe trimestral sobre Aplicación de las Normas de la Comunidad.

Los picos en las cifras se deben en parte a la eliminación de comentarios, vídeos o canales antiguos que anteriormente estaban permitidos. En abril de 2019 anunciamos también que estamos trabajando para actualizar nuestra política de acoso, incluyendo el acoso entre creadores. Compartiremos nuestros progresos sobre este asunto en los próximos meses.



Usar la tecnología para detectar contenidos dañinos

Una vez que hemos definido una política, combinamos personas y tecnología para detectar y derivar contenidos a nuestros equipos de revisión. A veces utilizamos hashes o “huellas digitales” para detectar copias de contenidos que violan nuestras políticas incluso con anterioridad a que sean visibles para los usuarios. En el caso de algunos contenidos, como imágenes de abuso sexual infantil o vídeos para reclutar terroristas, contribuimos a bases de datos de hashes compartidas de la industria para aumentar el volumen de contenidos que nuestros equipos pueden detectar en el momento de subida del vídeo.


En 2017, aumentamos el uso de nuestra tecnología de aprendizaje automático para ayudar a detectar contenidos que potencialmente podrían violar nuestras políticas y remitirlos para su revisión por parte de un equipo humano. El aprendizaje automático está preparado para detectar patrones, lo que nos ayuda a localizar contenidos similares (aunque no sean exactamente los mismos) a otros contenidos que ya hemos eliminado, incluso antes de que puedan verse. Estos sistemas son especialmente eficaces a la hora de detectar contenidos que se asemejan, como el spam o los contenidos para adultos. La tecnología también puede señalar contenidos que incluyan entre otros, discurso del odio, pero estas categorías dependen en gran medida del contexto, lo que pone de relieve la importancia de la revisión humana para tomar las decisiones adecuadas. Aún así, más del 87% de los 9 millones de vídeos que hemos eliminado en el segundo trimestre de 2019 fueron detectados en primer lugar por nuestros sistemas automáticos.


Estamos invirtiendo de forma significativa en nuestros sistemas de detección automática, y nuestros equipos de ingenieros siguen actualizándolos y mejorándolos mes a mes. Por ejemplo, una actualización en nuestro sistema de detección de spam en el segundo trimestre de 2019 condujo a un incremento de un 50% de los canales eliminados por violar nuestras políticas de spam.


Eliminar contenidos antes de que se popularicen

Hacemos todo lo posible para asegurarnos de que los contenidos que violan nuestras políticas no se popularicen, o incluso que no sean vistos en absoluto antes de su eliminación. Como hemos comentado anteriormente, las mejoras en nuestros sistemas automáticos nos han ayudado a detectar y revisar contenidos antes de que sean reportados por nuestra comunidad, lo que ha permitido que en el segundo trimestre de 2019, más del 80% de los vídeos reportados de forma automática hayan sido borrados antes de tener una sola visualización. 


Estamos decididos a continuar reduciendo la exposición a vídeos que transgredan nuestras políticas. Es por eso que, en Google, tenemos a más de 10.000 personas encargadas de detectar, revisar y eliminar contenidos que violan nuestras normas. Gracias a nuestra capacidad de borrar estos contenidos de forma rápida, los vídeos que incumplen nuestras políticas suponen un ínfimo porcentaje de las visitas a otros tipos de vídeos que conforman el ecosistema de YouTube


Por ejemplo, los casi 30.000 vídeos que eliminamos por discurso del odio durante el último mes han generado solo un 3% de las visitas que obtuvieron, por ejemplo, los vídeos de calceta en el mismo periodo.


La semana pasada actualizamos nuestro informe de Aplicación de las Normas de la Comunidad, un estudio que proporciona más detalles sobre la cantidad de contenidos que eliminamos de YouTube, los motivos de su eliminación, y cómo se detectó en primer lugar. Este informe muestra cómo la tecnología que hemos desarrollado en los últimos años nos ha ayudado a eliminar contenidos dañinos de YouTube más rápido que nunca. Además, concluye cómo la experiencia humana sigue siendo crítica en nuestros esfuerzos para crear políticas, revisar cuidadosamente los contenidos, y gestionar de forma responsable nuestra tecnología de aprendizaje automático.