Inside Responsibility: ¿Qué sigue en nuestros esfuerzos de desinformación?
17 Feb, 2022 – [[read-time]] mins de lectura
17 Feb, 2022 – [[read-time]] mins de lectura
Miles de millones de personas alrededor del mundo entran a YouTube por todas las razones imaginables. Ya sea que estés buscando ver un concierto difícil de encontrar o planeando aprender una nueva habilidad, YouTube conecta a los espectadores con una increíble variedad de contenido y voces diversas. Pero nada de esto sería posible sin nuestro compromiso de proteger a nuestra comunidad: este principio fundamental impulsa todos nuestros sistemas y sustenta todos los aspectos de nuestros productos.
Algunas veces al año, les mostraré detrás de escena cómo estamos abordando algunos de los desafíos más grandes que enfrenta YouTube y lo que implica cada acción que estamos considerando. En futuras entregas, podríamos explorar temas como nuestro trabajo de desarrollo de políticas, dar más visibilidad sobre el pensamiento detrás de un tema espinoso o, en general, esbozar hitos clave de nuestra responsabilidad. Pero para esta primera edición, quiero profundizar en nuestro trabajo en curso para abordar la información errónea, que podría ser dañina, en YouTube.
Durante los últimos cinco años, hemos invertido mucho en un marco que llamamos las 4Rs de la Responsabilidad. Usando una combinación de machine learning y personas, eliminamos contenido infractor rápidamente, buscamos fuentes autorizadas y reducimos la difusión de contenido problemático (discutí en profundidad por qué en una publicación de blog aquí). El trabajo conjunto de estas herramientas ha sido fundamental para mantener bajas las visualizaciones de contenido inadecuado y, al mismo tiempo, preservar la libertad de expresión en nuestra plataforma. Y, sin embargo, a medida que las narrativas de desinformación surgen más rápido y se propagan más ampliamente que nunca, nuestro enfoque debe evolucionar para mantener el ritmo. Estos son los próximos tres desafíos que nuestros equipos buscan abordar.
Durante varios años, el panorama de la desinformación en línea estuvo dominado por algunas narrativas principales: como los conspiracionistas del 11 de septiembre, las teorías de conspiración sobre el alunizaje y los terraplanistas. Estas teorías de conspiración acumularon un archivo de contenido. Como resultado, pudimos entrenar nuestros sistemas de machine learning en función de patrones en ese tipo de contenido para reconocer videos similares. Pero cada vez más, una narrativa completamente nueva puede surgir rápidamente y ganar vistas. O las narrativas pueden pasar de un tema a otro; por ejemplo, algún contenido general sobre bienestar puede generar dudas sobre las vacunas. Cada narrativa puede verse y propagarse de manera diferente y, en ocasiones, incluso ser hiperlocal.
Enfrentamos estos desafíos al principio de la pandemia de COVID-19, cuando una teoría de conspiración de que las torres 5G causaron la propagación del coronavirus llevó a las personas a quemar torres celulares en el Reino Unido. Debido al claro riesgo de daño en el mundo real, respondimos actualizando nuestras pautas y haciendo que este tipo de contenido sea infractor. En este caso, pudimos actuar rápidamente porque ya teníamos políticas implementadas para la información errónea sobre el COVID-19 basadas en la orientación de las autoridades sanitarias locales y mundiales.
Estamos buscando formas de aprovechar una combinación más específica de clasificadores, palabras clave en decenas de idiomas e información de analistas regionales para identificar narrativas que nuestro clasificador principal no capta.”
Pero no todas las narrativas de rápida difusión en el futuro tendrán una guía experta que pueda informar nuestras políticas. En estas situaciones, generalmente confiamos en reducir la propagación de información errónea potencial a través de nuestros sistemas. Pero con una narrativa tan nueva tenemos menos ejemplos para entrenar a nuestros sistemas. Para abordar esto, estamos continuamente entrenando nuestro sistema con nuevos datos. Estamos buscando formas de aprovechar una combinación más específica de clasificadores, palabras clave en decenas de idiomas e información de analistas regionales para identificar narrativas que nuestro clasificador principal no capta. Con el tiempo esto nos hará más rápidos y más precisos para detectar estas narrativas virales de desinformación
Además de reducir la difusión de algunos contenidos, nuestros sistemas conectan a los espectadores con videos acreditados en los resultados de sus búsquedas y sus recomendaciones. Pero ciertos temas carecen de un cuerpo de contenido confiable, lo que llamamos vacíos de datos. Por ejemplo, un evento noticioso de última hora como un desastre natural, donde inmediatamente después podríamos ver contenido no verificado que especula sobre las causas y las víctimas. Las fuentes confiables pueden tardar en crear nuevo contenido de video, y cuando la información errónea se propaga rápidamente, no siempre hay suficiente contenido autorizado que podamos señalar en el corto plazo.
Para eventos noticiosos importantes, como un desastre natural, desarrollamos paneles de noticias para dirigir a los espectadores a artículos de texto sobre eventos noticiosos importantes. Para temas de nicho que los medios de comunicación podrían no cubrir, proporcionamos a los espectadores casillas de verificación de hechos. Pero la verificación de hechos también lleva tiempo, y no se cubrirán todos los temas emergentes. Es por eso que estamos explorando diferentes tipos de etiquetas para agregar a un video o resultado de búsqueda, como una verificación de hechos o un panel de contexto que apunta a fuentes de terceros, o incluso descargos de responsabilidad que advierten a los espectadores que existe una falta de información de alta calidad sobre el tema. También tenemos que sopesar si la aparición de una etiqueta podría llamar la atención sobre un tema que, de otro modo, no ganaría fuerza. Nuestros equipos están discutiendo activamente estas consideraciones mientras buscamos el enfoque correcto.
Debemos tener cuidado de equilibrar la limitación de la difusión de información errónea potencialmente dañina, al mismo tiempo que damos espacio para la discusión y la educación sobre temas delicados y controvertidos.”
Otro desafío es la difusión de videos con información dudosa fuera de YouTube. Hemos revisado nuestros sistemas de recomendación para reducir significativamente el consumo de contenido dudoso que proviene de nuestras recomendaciones por debajo del 1%. Pero incluso si no estamos recomendando un determinado video dudoso, aún puede obtener vistas a través de otros sitios web que tienen insertado o vinculan al video de YouTube.
Una posible forma de atender esto sería deshabilitar el botón de compartir o inhabilitar el enlace en videos que ya estamos limitando en las recomendaciones. Si bien esto bloquearía en gran medida que un video dudoso se vincule o se inserte en otro sitio, existen argumentos que indican que evitar que se comparta es ir demasiado lejos al restringir la libertad de expresión de un espectador. Nuestros sistemas reducen el contenido límite en las recomendaciones, pero compartir un enlace es una elección individual que hace una persona, distinta de una acción más pasiva como mirar un video recomendado.
El contexto también es importante: los videos dudosos insertados en un estudio de investigación o reporte de noticias pueden requerir excepciones o un tratamiento completamente diferente. Debemos tener cuidado de equilibrar la limitación de la difusión de información errónea potencialmente dañina, al mismo tiempo que damos espacio para la discusión y la educación sobre temas delicados y controvertidos.
Otro enfoque sería mostrar un mensaje intercalado que aparezca antes de que un espectador pueda ver un video dudoso vinculado o insertado, haciéndole saber que el contenido puede contener información errónea. Los mensajes intercalados son como un tope de velocidad: el paso adicional hace que el espectador haga una pausa antes de ver o compartir contenido. De hecho, ya usamos mensajes intercalados para contenido con restricción de edad y videos violentos o gráficos, y hemos descubierto que son una herramienta importante para que los espectadores puedan elegir lo que van a ver.
Continuaremos explorando todos los enfoques y sopesando cuidadosamente los posibles efectos a lo largo de Internet.
Nuestro trabajo para frenar la desinformación ha arrojado resultados reales, pero persisten las complejidades mientras trabajamos para llevarlo a los más de 100 países y decenas de idiomas en los que operamos.
Las culturas tienen diferentes actitudes hacia lo que hace que una fuente sea confiable. En algunos países, se considera que las emisoras públicas como la BBC en el Reino Unido, transmiten noticias acreditadas. Mientras tanto, en otros, las emisoras estatales pueden acercarse más a la propaganda. Los países también muestran una variedad de contenido dentro de su ecosistema de noticias e información, desde medios que exigen estrictos estándares de verificación de hechos hasta aquellos con poca supervisión o verificación. Además, los entornos políticos, los contextos históricos y las noticias de última hora pueden dar lugar a narrativas hiperlocales de desinformación que no aparecen en ningún otro lugar del mundo. Por ejemplo, durante el brote de Zika en Brasil, algunos culparon de la enfermedad a conspiraciones internacionales. O recientemente en Japón, se difundieron falsos rumores en línea de que un terremoto fue causado por la intervención humana.
Frente a esta diversidad regional, nuestros equipos se encuentran con muchos de los mismos problemas que vemos con la desinformación emergente, desde narrativas cambiantes hasta la falta de fuentes autorizadas. Al principio de la pandemia, vimos que no todos los países tenían las últimas investigaciones disponibles de sus autoridades sanitarias, y esas autoridades locales a veces tenían una orientación diferente.
Lo que se considera contenido dudoso también puede variar significativamente. Siempre tenemos en cuenta cómo las pautas de nuestros evaluadores de contenido podrían interpretarse de manera diferente a lo largo de diferentes idiomas y culturas. Se necesita tiempo para trabajar con equipos y expertos locales para informar el contexto cultural que afecta si un video se clasifica como dudoso.
Más allá del crecimiento continuo de nuestros equipos con aún más personas que entienden los matices regionales entrelazados con la información errónea, estamos explorando nuevas inversiones en asociaciones con expertos y organizaciones no gubernamentales alrededor del mundo. Además, de manera similar a nuestro enfoque con nuevos temas virales, estamos trabajando en formas de actualizar los modelos con más frecuencia para detectar información errónea hiperlocal, con capacidad para admitir idiomas locales.
Ampliando nuestra transparencia
En YouTube, continuaremos desarrollando nuestro trabajo para reducir la desinformación dañina en todos nuestros productos y políticas. Reconocemos que es posible que no tengamos todas las respuestas, pero creemos que es importante compartir las preguntas y las cuestiones que estamos analizando. Nunca ha habido un momento más urgente para avanzar en nuestro trabajo por la seguridad y el bienestar de nuestra comunidad, y espero mantenerlos a todos informados en el camino.