YouTube schafft mehr Transparenz
06 Apr, 2021 – Lesedauer: [[read-time]] Minuten
06 Apr, 2021 – Lesedauer: [[read-time]] Minuten
2018 haben wir den Bericht YouTube-Community-Richtlinien und ihre Anwendung eingeführt. Ziel war es, unsere Bemühungen zum Schutz der Zuschauerinnen und Zuschauer transparenter zu gestalten und unserer Rechenschaftspflicht nachzukommen. Der neuartige Bericht enthielt Informationen zu den Inhalten, die aufgrund von Richtlinienverstößen auf YouTube entfernt wurden. Außerdem umfasste er Angaben dazu, wie viele Videos entfernt wurden, was die Gründe dafür waren und wie die nicht richtlinienkonformen Inhalte zuerst erkannt wurden. Im Laufe der Jahre kamen weitere Messwerte hinzu, beispielsweise die Anzahl an Inhaltsbeschwerden und folgenden Reaktivierungen. Seit der Einführung haben wir mehr als 83 Millionen Videos und 7 Milliarden Kommentare wegen Verstößen gegen unsere Community-Richtlinien entfernt. Ebenso wichtig ist zu erwähnen, dass anhand des Berichts die Auswirkungen unserer enormen Investitionen in maschinelles Lernen im Jahr 2017 nachvollziehbar sind. Der Bericht zeigt, wie erfolgreich wir nicht richtlinienkonforme Inhalte erkennen. 94 Prozent der Inhalte mit Richtlinienverstößen auf YouTube werden jetzt beispielsweise durch automatische Meldungen erkannt. 75 Prozent davon werden sogar vor den ersten zehn Aufrufen entfernt. Heute führen wir einen neuen Datenpunkt in unserem Bericht ein, der noch mehr Transparenz bezüglich der Effektivität unserer Systeme bietet: die VVR (Violative View Rate).
Einfach gesagt, können wir anhand der Violative View Rate (VVR) leichter ermitteln, wie hoch der prozentuale Anteil an Aufrufen nicht richtlinienkonformer Inhalte auf YouTube ist. Unsere Teams beobachten das schon seit 2017 und unternehmensweit ist die VVR der wichtigste Messwert dafür, wie gut wir unserer Verantwortung nachkommen. Mit steigenden Investitionen in Mitarbeiter und Technologien ging die VVR zurück. Aktuell liegt sie bei 0,16–0,18 Prozent. Das bedeutet, dass auf 10.000 Aufrufe 16–18 Inhalte kommen, die nicht richtlinienkonform sind. Im Vergleich zum selben Quartal 2017 ist das ein Rückgang von mehr als 70 Prozent. Das liegt vor allem an unseren Investitionen in maschinelles Lernen. In Zukunft werden wir die VVR im Bericht YouTube-Community-Richtlinien und ihre Anwendung vierteljährlich aktualisieren.
VVR-Daten geben Aufschluss darüber, wie wir unsere Community schützen. Auch andere Branchenstandards sind wichtig, beispielsweise die Zeit bis zum Entfernen nicht richtlinienkonformer Videos. Sie liefern aber kein umfassendes Bild von den tatsächlichen Auswirkungen, die solche Inhalte auf Zuschauer haben. Wo sind die Auswirkungen beispielsweise größer - bei einem nicht richtlinienkonformen Video mit 100 Aufrufen, das mehr als 24 Stunden auf der Plattform verfügbar war, oder bei einem Video, das in den ersten Stunden vor der Entfernung Tausende Aufrufe erzielt hat? Die VVR ist unserer Meinung nach die beste Möglichkeit, um die Auswirkungen schädlicher Inhalte auf Zuschauerinnen und Zuschauer festzustellen und zu erkennen, wo Optimierungsbedarf besteht.
Zur Berechnung der VVR picken wir einige Videos auf YouTube heraus und senden sie an unsere Prüferinnen und Prüfer. Das Team sieht sich dann an, welche Videos gegen unsere Richtlinien verstoßen und welche nicht. Durch einen solchen Test erhalten wir einen umfassenderen Überblick der nicht richtlinienkonformen Inhalte, die von unseren Systemen vielleicht nicht erkannt worden wären. Die VVR unterliegt allerdings Schwankungen – sowohl nach oben als auch nach unten. Unmittelbar nach der Aktualisierung einer Richtlinie kann es beispielsweise zu einem Anstieg kommen. Das liegt daran, dass unsere Systeme anlaufen und verstärkt nach Inhalten gesucht wird, die den neuen Richtlinien nicht entsprechen.
Unser nachhaltiges Ziel ist es, dass die YouTube-Community wächst, während wir unserer Verantwortung weiterhin gerecht werden. Im Bericht YouTube-Community-Richtlinien und ihre Anwendung ist der Fortschritt seit 2017 deutlich zu erkennen. Dennoch wissen wir, dass unsere Arbeit noch nicht beendet ist. Wir verpflichten uns zu diesen Änderungen, weil sie gut für unsere Zuschauerinnen und Zuschauer und gut für unser Geschäft sind - verletzende Inhalte haben auf YouTube keinen Platz. Wir investieren erheblich, um unsere Plattform von derartigem Content freizuhalten. Die VVR untermauert unsere Verantwortung und hilft uns dabei, die Fortschritte beim Schutz der Nutzerinnen und Nutzer vor schädlichen YouTube-Inhalten besser nachzuvollziehen.