Perspektiven: Vom Umgang mit Fehlinformationen auf YouTube
06 Sep, 2021 – Lesedauer: [[read-time]] Minuten
06 Sep, 2021 – Lesedauer: [[read-time]] Minuten
Fehlinformationen haben sich von einer Randerscheinung zu einem großen Thema entwickelt. Sie sind nicht mehr auf die abgeschotteten Welten der Holocaust-Leugner oder der 9-11-Verschwörungstheoretiker beschränkt. Vielmehr betreffen sie heute alle Bereiche der Gesellschaft und verbreiten sich mitunter mit rasender Geschwindigkeit in den Communities. Kein Thema scheint dagegen immun zu sein. Nur allzu oft erleben wir, wie sich Fehlinformationen in aktuelle Berichterstattungen mischen. Nach tragischen Ereignissen wie Terroranschlägen werden im Sekundentakt Theorien über alles Mögliche aufgestellt, von der Identität des Angreifers bis hin zum Motiv. In solchen Momenten passiert das, was in der Welt passiert, auch auf YouTube. Das heißt, wir als Plattform spiegeln die Welt um uns herum wider, können sie gleichzeitig aber auch helfen mitzugestalten. Wir haben es uns zur Aufgabe gemacht, die Weiterverbreitung von Fehlinformationen zu stoppen.
Die Lösung sieht vielleicht nicht so aus, wie man spontan denken würde: dass wir einfach besser darin werden müssen, noch mehr Inhalte schneller von unserer Website zu entfernen. Das Entfernen von Inhalten haben wir seit den Anfängen von YouTube über das Enforcement unsere Community-Richtlinien getan. Heute entfernen wir fast 10 Millionen Videos pro Quartal, von denen die meisten bis zum Zeitpunkt der Entfernung nicht einmal zehn Aufrufe erreichen. Es wird immer wichtig sein, Videos schnell zu löschen. Uns ist jedoch klar, dass das nicht annähernd ausreicht. Vielmehr kommt es auch darauf an, wie wir mit all den Inhalten umgehen, die wir auf YouTube belassen, wenn wir die bestmögliche Lösung finden wollen.
Das Wichtigste, was wir tun können, ist, qualitativ hochwertige Inhalte zu fördern und minderwertige zu bremsen. Deshalb machen wir bei YouTube Informationen aus zuverlässigen Quellen sichtbar und reduzieren die Verbreitung von Videos mit Fehlinformationen. Wenn Menschen heute auf YouTube nach Nachrichten oder Informationen suchen, erhalten sie Ergebnisse, die durch ihre Qualität überzeugen, und nicht dadurch wie sensationsgetrieben der Inhalt sein könnte. Entsprechend haben wir folgende Prämisse zum Kern unseres Konzepts gemacht:
Zunächst einmal: Wenn wir uns nur darauf konzentrieren, was wir entfernen, entgeht uns die große Menge an Inhalten, die die Menschen tatsächlich ansehen. Schädliche Inhalte machen nur einen winzigen Prozentsatz der Milliarden von Videos auf YouTube aus (etwa 0,16 bis 0,18 % der gesamten Aufrufe betreffen Inhalte, die gegen unsere Richtlinien verstoßen). Unsere Richtlinien konzentrieren sich auf die Entfernung von Videos, die in der realen Welt zu direkten Schäden für Menschen führen könnten. So haben wir beispielsweise seit Februar letzten Jahres über 1 Million Videos entfernt, die sich auf möglicherweise gefährliche Informationen zum Coronavirus bezogen, wie z. B. schädliche „Heilmittel“ oder Falschmeldungen. Mitten in einer globalen Pandemie sollte jeder die besten verfügbaren Informationen zur Verfügung haben, um sich und seine Familie zu schützen.
Um schädliche Inhalte zu erkennen, braucht man jedoch eine klare Faktenlage. Bei Corona verlassen wir uns auf die Empfehlung der Experten von Gesundheitsorganisationen wie der BZgA und der WHO, um die wissenschaftliche Entwicklung nicht zu verpassen. Jedoch sind Fehlinformationen nicht eindeutig zu erkennen. Es liegt in der Natur der Sache, dass sie sich ständig weiterentwickeln und es oft keine primäre Quelle gibt, die uns genau sagt, wer Recht hat. Beispielsweise können nach einem Anschlag widersprüchliche Informationen unterschiedlichen Richtungen kommen. Hinweise aus der Bevölkerung haben sogar schon den falschen Täter oder die falschen Opfer identifiziert – mit verheerenden Folgen. Sollte ein Technologieunternehmen entscheiden, wann und wo es im unübersichtlichen Gebiet der Fehlinformationen Grenzen setzt, obwohl es keine Gewissheit gibt? Meine feste Überzeugung ist: nein.
Das haben wir in den Tagen nach den Präsidentschaftswahlen 2020 in den USA erlebt. Ohne eine offizielle Wahlbestätigung, auf die man sich sofort hätte berufen können, konnten weiterhin Stimmen aus dem gesamten Spektrum zu Wort kommen. Dennoch versorgten unsere Systeme die Nutzer mit zuverlässigen Inhalten. In der ersten Woche stammten die meistgesehenen Kanäle und Videos zur Wahlberichterstattung von zuverlässigen Nachrichtenanbietern. Als die Bundesstaaten Anfang Dezember ihre Wahlergebnisse bestätigten, begannen wir sofort damit, Inhalte mit der falschen Behauptung zu entfernen, dass umfangreiche Betrügereien das Ergebnis der US-Präsidentschaftswahlen beeinflusst hätten. Seitdem haben wir Tausende von Videos entfernt, weil sie gegen unsere Richtlinien für die Wahlberichterstattung verstoßen haben. Über 77 % davon wurden entfernt, bevor sie 100 Aufrufe erreicht hatten.
Ein zu aggressives Vorgehen bei der Entfernung von Videos könnte allerdings auch eine abschreckende Wirkung auf die Meinungsfreiheit haben. Löschungen sind ein stumpfes Instrument, wenn sie zu häufig eingesetzt werden, und könnten die Botschaft vermitteln, dass kontroverse Ideen nicht akzeptiert werden. Wir beobachten aktuell eine beunruhigende Dynamik bei Regierungen, die die Entfernung von Inhalten zu politischen Zwecken fordern. Ich bin jedoch überzeugt, dass wir als Gesellschaft besser dran sind, wenn wir eine offene Debatte führen können. Was für den einen eine Fehlinformation ist, ist für den anderen eine feste Überzeugung. Dazu gehören auch Ansichten, die provokant sind und als beleidigend empfunden werden oder in manchen Fällen sogar Informationen enthalten, die einer Überprüfung durch einen Faktenprüfer nicht standhalten würden. Weil wir eine offene Plattform befürworten, haben wir hier eine noch größere Verantwortung, Menschen Zugang zu hochwertigen Informationen zu geben. Wir werden auch weiterhin in alle unsere Produkte investieren und sie innovativ gestalten, um ein vernünftiges Gleichgewicht zwischen Redefreiheit und Reichweite herzustellen.
Gelegentlich werde ich gefragt, ob wir brisante Inhalte nicht deshalb hochladen, weil wir davon finanziell profitieren. Wir haben festgestellt, dass diese Art von Inhalten auf YouTube – vor allem im Vergleich zu populären Inhalten wie Musik und Comedy – nicht nur nicht gut abschneidet, sondern auch das Vertrauen von Nutzern und Werbekunden untergräbt. Wir haben viel Zeit und Geld investiert, um dieses Problem zu lösen, und davon haben unser Unternehmen und damit auch die Herausgeber profitiert. Kurz gesagt: Verantwortung ist gut fürs Geschäft.
Einige werden wahrscheinlich mit unserem Ansatz nicht einverstanden sein und uns auffordern, noch mehr Inhalte zu entfernen. Ich finde die Fortschritte unserer frühzeitigen Investitionen jedoch sehr ermutigend. Unsere Teams arbeiten rund um die Uhr daran, unsere Systeme zu verbessern. Wir werden weiterhin auf ihrer grundlegenden Arbeit aufbauen, die uns hilft, Fehlinformationen zu bekämpfen. Demnächst werde ich mehr darüber berichten, aber ich hoffe, dass diese „Perspektiven“ bereits einen ersten Eindruck davon vermitteln, wie wir bei YouTube über das Problem der Fehlinformationen im Allgemeinen denken.