Zum Hauptinhalt springen

Inside YouTube

Verantwortung bei YouTube: Unsere nächsten Schritte bei der Bekämpfung von Fehlinformationen

  • Von Neal Mohan
  • Chief Product Officer, YouTube
  • 17.Feb.2022
„Verantwortung“ ist das zentrale Thema für YouTube. Neal Mohan gibt neue Einblicke wie YouTube aktuell mit potenziell schädlichen Fehlinformationen umgeht.
Portrait von Neal Mohan

Milliarden von Menschen auf der ganzen Welt besuchen YouTube aus den unterschiedlichsten Gründen. Von seltenen Konzertmitschnitten bis hin zu praktischen Tutorials – auf YouTube findet sich eine unglaubliche Vielfalt an Inhalten und auch Meinungen. Dies ist aber nur möglich, weil wir uns systematisch dafür einsetzen, unsere Community zu schützen. Auf diesem Grundsatz basieren alle unsere Systeme und jeder Aspekt unserer Produkte. Und weil diese Bemühungen so wichtig sind, möchten wir sie transparenter und besser verständlich machen. Hierzu veröffentlichen wir dieses Update zum Thema Verantwortung.

Mehrmals pro Jahr bieten wir hier einen Blick hinter die Kulissen. Wir schildern, wie wir mit einigen unserer größten Herausforderungen umgehen und welche komplexen Auswirkungen und Zielkonflikte jede Maßnahme, die wir ergreifen, mit sich bringt. In Zukunft werden wir dabei Themen wie die Einstufung zuverlässiger Inhalte sowie Sicherheit und Datenschutz von Kindern behandeln. In dieser ersten Ausgabe geht es aber darum, wie wir aktuell mit potenziell schädlichen Fehlinformationen auf YouTube umgehen.

In den letzten fünf Jahren haben wir zentrale Prinzipien aufgestellt und umgesetzt, die wir als vier Stufen der Verantwortung bezeichnen. Mithilfe automatisierter Systeme werden nicht richtlinienkonforme Inhalte schnell entfernt, vertrauenswürdige Quellen in den Vordergrund gestellt und die Verbreitung problematischer Inhalte eingeschränkt. Hintergründe hierzu liefert dieser Blogpost. Durch die Kombination dieser Maßnahmen konnten wir die Aufrufe potenziell schädlicher Inhalte gering halten und gleichzeitig die Offenheit der Plattform wahren. Da sich aber Fehlinformationen heute schneller und weiter verbreiten als je zuvor, müssen wir unsere Strategie kontinuierlich anpassen, um jederzeit zügig reagieren zu können. Hier also einige Einblicke dazu, wie wir die Herausforderungen angehen, die durch die immer rasantere Verbreitung von Fehlinformationen entstehen.

Shorts

Neue Arten von Fehlinformationen erkennen

Lange waren Fehlinformationen auf einige wenige, aber zentrale Narrative beschränkt – so zum Beispiel die Verschwörungstheorien zu den Terroranschlägen vom 11. September 2001 und zur Mondlandung oder etwa der Glaube an eine flache Erde. Aus diesen sich hartnäckig haltenden Theorien entstand ein ganzes Archiv von Inhalten. Wir konnten unsere automatisierten Systeme anhand bestimmter Muster in dieser Art von Inhalten so einstellen, dass weniger Empfehlungen für diese und ähnliche Videos angezeigt werden. Zusehends entstehen aber auch völlig neue Vorstellungen, die sich schnell verbreiten. Oder es gibt Überschneidungen zwischen nahe beieinander liegenden Themen – zum Beispiel in einem Video zu allgemeinen Gesundheitsthemen, in dem schließlich die Wirkung von Impfungen infrage gestellt wird. Dabei können sich Theorien auf unterschiedliche Arten darstellen und verbreiten. Manche sind auch hyperlokal.

Zu Beginn der Coronapandemie verbreitete sich zum Beispiel die Theorie, dass 5G-Mobilfunkmasten das Virus verbreiten, woraufhin in England einige Masten in Brand gesetzt wurden. Weil die Verbreitung dieser Falschinformation eine deutliche, reale Gefahr darstellte, haben wir unsere Richtlinien überarbeitet, um entsprechende Inhalte auf unserer Plattform als nicht richtlinienkonform zu kennzeichnen. In diesem Fall konnten wir schnell handeln, da wir auf Grundlage der Empfehlungen lokaler und globaler Gesundheitsbehörden bereits Richtlinien zu Fehlinformationen im Zusammenhang mit der Pandemie verfasst hatten.

Es wird aber nicht zu jeder neuen Theorie Empfehlungen von Experten geben, an denen wir uns beim Verfassen unserer Richtlinien orientieren können. In solchen Fällen reduzieren wir üblicherweise mithilfe unserer Systeme die Geschwindigkeit, mit der sich potenzielle Fehlinformationen auf unserer Plattform verbreiten. Doch bringen neue Theorien auch neue technische Herausforderungen mit sich: Je aktueller die Fehlinformationen, desto weniger Muster sind verfügbar, auf deren Grundlage wir unsere Systeme anpassen können. Ein auf ältere Videos eingestelltes Modell kann anhand einiger allgemeiner Merkmale aktuelle Verschwörungstheorien erkennen. Würden wir aber kontinuierlich neuere Daten in das System einspeisen, gelänge die Erkennung schneller und präziser. Deshalb beschäftigen wir uns derzeit mit Möglichkeiten, eine zielgerichtetere Kombination aus Klassifikatoren, Suchbegriffen in mehreren Sprachen und Informationen aus regionalen Analysen zu nutzen, um problematische Inhalte zu identifizieren, die der Haupt-Klassifikator nicht erkennt.

Unsere Systeme reduzieren nicht nur die Geschwindigkeit, mit der sich manche Inhalte verbreiten, sie machen auch zuverlässige Inhalte sichtbar und bieten zusätzlichen Kontext für Themen, zu denen häufig Fehlinformationen kursieren. Das Erstellen zuverlässiger Inhalte braucht aber Zeit, und wenn sich Verschwörungstheorien schnell verbreiten, können wir anfangs oft keine ausreichenden zuverlässigen Inhalte in den Suchergebnissen und Empfehlungen anzeigen. Deswegen testen wir verschiedene Arten von Labels, die zu Videos oder über Suchergebnissen hinzugefügt werden können. Das sind etwa Infobereiche mit Faktenchecks, in denen auf relevante unabhängige Quellen verwiesen wird, oder Hinweise auf einen Mangel an hochwertigen Informationen zum jeweiligen Thema. Laut wissenschaftlichen Forschungsergebnissen lässt sich durch solche Labels die Verbreitung von Fehlinformationen effektiv eindämmen. Wir haben außerdem festgestellt, dass verschiedene Arten von Infobereichen für verschiedene Arten von Inhalten funktionieren: So kann ein Faktencheck in den Suchergebnissen verhindern, dass sich Falschannahmen festsetzen, während ein Informationsbereich unter Videos hilfreichen zusätzlichen Kontext liefern kann. Labels können aber auch das Gegenteil bewirken – also unbeabsichtigt auf eine Theorie hinweisen, die andernfalls vielleicht kein großes Interesse geweckt hätte. Auf der Suche nach der richtigen Strategie berücksichtigen und besprechen unsere Teams alle diese Aspekte.

Wiedergabe von Inhalten mit potenziellen Fehlinformationen außerhalb von YouTube eindämmen

Eine weitere Herausforderung liegt darin, die Verbreitung grenzwertiger Videos außerhalb unserer Plattform einzudämmen. Gemeint sind Videos, die wir Zuschauer:innen nicht empfehlen möchten, auch wenn sie keinen klaren Verstoß gegen unsere Richtlinien darstellen. Durch die Überarbeitung unseres Empfehlungssystems ist es uns gelungen, die Wiedergabe grenzwertiger Inhalte aus unseren Empfehlungen auf deutlich unter 1 % zu senken. Aber selbst wenn wir ein bestimmtes grenzwertiges Video nicht empfehlen, kann es trotzdem auf anderen Websites wiedergegeben werden, die einen YouTube-Link beinhalten oder auf denen ein YouTube-Video eingebettet ist.

Dieses Problem ließe sich zum Beispiel dadurch beheben, dass die Schaltfläche „Teilen“ oder der Link zu einem Video, dessen Verbreitung wir bereits durch unser Empfehlungssystem einschränken, deaktiviert wird. Ein grenzwertiges Video könnte dann nicht mehr auf anderen Websites verlinkt oder eingebettet werden. Die Funktion zum Teilen zu deaktivieren würde aber möglicherweise die Freiheiten der Zuschauer:innen auf unserer offenen Plattform zu sehr einschränken. Denn das Teilen eines Links ist eine bewusste Entscheidung und zu unterscheiden von eher passiven Handlungen wie dem Ansehen eines empfohlenen Videos. Außerdem muss immer auch der Kontext berücksichtigt werden. Sind grenzwertige Videos beispielsweise Teil einer Forschungsstudie oder eines Nachrichtenbeitrags, sind möglicherweise Ausnahmen oder völlig andere Herangehensweisen erforderlich. Unsere Aufgabe besteht schließlich darin, die Verbreitung potenziell schädlicher Fehlinformationen einzudämmen und gleichzeitig Diskussionen und Informationen über sensible, kontroverse Themen zuzulassen.

Es wäre auch möglich, vor der Wiedergabe eines eingebetteten oder verlinkten Videos mit grenzwertigen Inhalten ein sogenanntes Interstitial, einen großformatigen Hinweis, einzublenden, der den Zuschauer:innen vor potenziellen Fehlinformationen im Video warnt. Das würde wirken wie eine Bremsschwelle – sie bringt den/die Zuschauer:in dazu, innezuhalten, bevor er/sie sich Inhalte ansieht oder sie teilt. Wir nutzen Interstitials bereits für Inhalte mit Altersbeschränkung sowie für Videos mit gewalttätigen oder grausamen Inhalten und betrachten sie als wichtiges Tool, um Zuschauer:innen über Inhalte aufzuklären, bevor sie wiedergegeben werden.

Uns ist jedoch auch bewusst, dass böswillige Akteur:innen unser System ausnutzen können, da wir genaue Informationen über unsere Definition grenzwertiger Inhalte öffentlich zugänglich machen. Wir geben diesen Personen damit quasi eine Anleitung, wie sie problematische oder schädliche Inhalte veröffentlichen können, ohne die Grenze zu überschreiten. Dies ist einer der Zielkonflikte, mit denen wir konfrontiert sind. Die Tatsache, dass eine bestimmte Maßnahme Nachteile hat, bedeutet aber nicht gleich, dass sie verworfen werden sollte. Die Auswirkungen, die jede einzelne Aktion im Internet hat, werden wir auch weiterhin sorgfältig abwägen.

Maßnahmen zur Eindämmung von Fehlinformationen global ausdehnen

Die Maßnahmen, mit denen wir die Verbreitung von Fehlinformationen eindämmen, haben bereits Wirkung gezeigt. Sie auf über 100 Länder und Dutzende von Sprachen auszuweiten, bleibt allerdings eine Herausforderung.

Die Meinungen dazu, was Inhalte zuverlässig macht, unterscheiden sich je nach Kultur. In vielen Ländern werden öffentlich-rechtliche Sender allgemein als Quelle vertrauenswürdiger Nachrichten betrachtet – wie beispielsweise die ARD hierzulande oder die BBC im Vereinigten Königreich. In anderen Ländern wiederum können öffentlich-rechtliche Sender mitunter propagandistische Tendenzen haben. Auch das Inhaltsspektrum von Nachrichtenplattformen variiert je nach Land – in manchen Regionen der Welt werden Inhalte strengen Faktenchecks unterzogen, in anderen werden sie kaum überwacht oder geprüft. Außerdem können das politische Umfeld, der historische Kontext und aktuelle Ereignisse hyperlokale Fehlinformationen hervorbringen, die nirgendwo sonst auf der Welt kursieren. Während der Zika-Epidemie in Brasilien grassierte zum Beispiel die Theorie, eine internationale Verschwörung stecke hinter der Verbreitung der Krankheit. Und in Japan verbreitete sich im letzten Jahr online das Gerücht, ein Erdbeben sei von Menschen herbeigeführt worden.

Im Umgang mit diesen regionalen Besonderheiten sehen sich unsere Teams mit vielen Problemen konfrontiert, die es ähnlich auch bei neu auftretenden Fehlinformationen gibt – von Überschneidungen zwischen verschiedenen Themen bis hin zum Mangel an vertrauenswürdigen Quellen. Zu Beginn der Pandemie wurden zum Beispiel nicht überall auf der Welt die neuesten Forschungsergebnisse von lokalen Gesundheitsbehörden bereitgestellt, deren Empfehlungen auch noch mitunter variierten.

Auch die Definition grenzwertiger Inhalte kann sich je nach Region stark unterscheiden. Deshalb haben wir immer die Tatsache im Hinterkopf, dass die Richtlinien unserer Prüfteams in anderen Sprachen und Kulturen unterschiedlich ausgelegt werden können. Es braucht Zeit, mit Unterstützung lokaler Teams und Expert:innen den kulturellen Kontext zu verstehen, der beeinflusst, welche Videos als grenzwertig betrachtet werden und welche nicht.

Neben der Einstellung neuer Teammitglieder, die regionale Nuancen auch im Hinblick auf Fehlinformationen verstehen, bauen wir außerdem unsere Partnerschaften mit Fachleuten und Nichtregierungsorganisationen auf der ganzen Welt weiter aus. Ähnlich wie bei unserer Strategie in Bezug auf neu aufkommende Verschwörungstheorien prüfen wir außerdem Möglichkeiten, unsere Modelle häufiger zu aktualisieren, damit hyperlokale Fehlinformationen besser und auch in lokalen Sprachen erkannt werden können.

Für mehr Transparenz sorgen

Der Schutz unserer Community ist heute wichtiger denn je. Deswegen werden wir auch weiterhin über alle Produkte und Richtlinien hinweg Maßnahmen gegen schädliche Fehlinformationen ergreifen, gleichzeitig aber die Offenheit wahren, dank der unterschiedlichste Meinungen auf YouTube Gehör finden können. Uns ist bewusst, dass wir nicht auf alles eine Antwort haben. Wir möchten unsere Community aber an den Fragen und Problemen teilhaben lassen, die uns besonders beschäftigen. Wir melden uns bald wieder mit Neuigkeiten zu unseren Fortschritten und aktuellen Maßnahmen.