Zum Hauptinhalt springen

Verantwortungsvolle Richtliniendurchsetzung während der Coronakrise

Heute veröffentlichen wir die kompletten Daten aus dem 2. Quartal unseres vierteljährlichen Berichts zur Durchsetzung der Community-Richtlinien.

Wir haben dieses Jahr bereits einige Schritte mitgeteilt, die wir zum Schutz unserer Mitarbeiter und erweiterten Belegschaft während der Coronakrise ergriffen haben. Am wichtigsten war uns dabei, mehr auf Technologie zu setzen, um Inhalte, die gegen unsere Community-Richtlinien verstoßen, schnell zu identifizieren und zu entfernen, sodass unsere für die Überprüfung zuständigen Teams zu Hause in einer sicheren Umgebung bleiben können. Das zweite Quartal 2020 war das erste Quartal, in dem wir komplett in diesem Modus gearbeitet haben. Wir waren gezwungen, Entscheidungen zugunsten der Sicherheit unserer Community zu treffen, die für uns höchste Priorität hat. Deshalb haben wir so viele Videos in einem einzigen Quartal aus YouTube entfernt wie nie zuvor. Heute veröffentlichen wir die kompletten Daten aus dem 2. Quartal unseres vierteljährlichen Berichts zur Durchsetzung der Community-Richtlinien.


Die Sicherheit der YouTube-Community hat oberste Priorität


Normalerweise verlassen wir uns bei der Durchsetzung unserer Richtlinien auf eine Kombination aus Technologie und Mensch. Dank maschinellem Lernen lassen sich eventuell gefährliche Inhalte erkennen, die dann zur manuellen Überprüfung an unsere Mitarbeiter gesendet werden. Die manuelle Überprüfung ist nicht nur wichtig, um die Systeme des maschinellen Lernens zu trainieren, sie bietet außerdem Prüf- und Feedbackfunktionen, durch die unsere Systeme mit der Zeit immer genauer arbeiten. Jedes Quartal werden Millionen von Videos von unseren automatisierten Systemen gemeldet, um später von unserem Team manuell auf eventuelle Verstöße gegen unsere Richtlinien überprüft zu werden.

 

Durch COVID-19 mussten wir die manuelle Überprüfung stark reduzieren und uns entscheiden, ob wir bei den Inhalten in Bezug auf die Richtlinien eher lockerer oder strenger vorgehen. Eine Variante bestand darin, dass wir bei unserer Technologie einen Gang zurückschalten und die Durchsetzung der Richtlinien soweit beschränken, dass wir den manuellen Prüfaufwand mit den zur Verfügung stehenden Mitarbeitern schaffen. Auf diese Weise wären die Überprüfungen zwar genauer, aber wir hätten weniger Inhalte entfernen können, was auch Inhalte betrifft, die gegen unsere Richtlinien verstoßen. Bei der anderen Variante kamen unsere automatisierten Systeme ins Spiel, mit denen wir mehr für die Community bedrohliche Inhalte aus YouTube entfernen konnten, wobei uns bewusst war, dass dabei viele Videos nicht zusätzlich manuell überprüft werden können und entfernt werden, auch wenn diese unsere Richtlinien nicht verletzten.

 

Da Verantwortung bei uns oberste Priorität hat, haben wir uns für die zweite der beiden Varianten entschieden, um die Arbeit zu erledigen, die normalerweise unsere Prüfer übernehmen. Das führte zu mehr Videos, die aus YouTube entfernt wurden, nämlich mehr als doppelt so viele Videos wie im vorherigen Quartal.  Für bestimmte sensible Bereiche unserer Richtlinien, zum Beispiel gewalttätiger Extremismus und Schutz von Kindern, akzeptierten wir ein niedrigeres Genauigkeitsniveau, um sicherzustellen, dass wir so viele gegen die Richtlinien verstoßenden Inhalte entfernen wie möglich. Natürlich hat das zur Folge, dass auch mehr richtlinienkonforme Inhalte entfernt wurden. Die Entscheidung, in diesen Bereichen strenger vorzugehen — sowie eine Reihe weiterer Sicherheitsmaßnahmen — führte dazu, dass mehr als dreimal so viele Inhalte von unseren Systemen verdächtigt wurden, in Verbindung mit gewalttätigem Extremismus zu stehen oder eine potenzielle Gefahr für Kinder darzustellen, und daher entfernt wurden. Dazu gehörten auch Inhalte mit Mutproben, Herausforderungen oder weitere ohne böswillige Absicht gepostete Inhalte, die für Minderjährige gefährlich sein könnten. 

 

 Weniger Störungen für Creator

 

Mit dem intensiveren Einsatz unserer automatisierten Systeme führten wir gleichzeitig Schritte ein, um mögliche Beeinträchtigungen für unsere Creator zu senken. Wie schon erwähnt, entschieden wir uns dafür, keine Verwarnungen für Inhalte zu erteilen, die nicht manuell geprüft wurden, außer es handelte sich um Fälle mit eindeutigen Hinweisen auf Verstöße gegen unsere Richtlinien.

 

Außerdem haben wir den Creatorn immer eine einfache Möglichkeit zur Beschwerde eingeräumt, sollte ihr Video fälschlicherweise entfernt worden sein. Da wir uns darüber im Klaren waren, dass unsere Systeme ungenauer sind als die manuelle Überprüfung, haben wir uns auf ein erhöhtes Beschwerdeaufkommen vorbereitet und zusätzliche Ressourcen geschaffen, um den Beschwerden schneller nachzugehen. Obwohl sich nur ein kleiner Teil der Creator von entfernten Inhalten beschwerten, nämlich nur 3 %, verdoppelte sich im Vergleich zum vorherigen Quartal sowohl die Anzahl der Beschwerden als auch die Anzahl der reaktivierten Inhalte. Vor allem die Anzahl der nach Beschwerde reaktivierten Videos stieg von 25 % in Q1 auf 50 % in Q2. 

 

COVID-19 hat weltweit Einfluss auf alles und jeden, auch auf jegliche Belange unseres Geschäfts. Auch in diesen herausfordernden Zeiten bleiben wir uns uneingeschränkt unserer Verantwortung bewusst. Deshalb haben wir außergewöhnliche Maßnahmen ergriffen, um dieser Verantwortung weiterhin nachzukommen. Wir entfernen Inhalte, die gegen unsere Richtlinien verstoßen, so schnell wie möglich und minimieren zugleich mögliche Beeinträchtigungen für unsere Creator. Wir arbeiten weiterhin daran, die Genauigkeit unserer Systeme zu verbessern, und setzen diese jetzt, da unsere Mitarbeiter des Prüfteams wieder an ihre Arbeitsplätze zurückkehren, in den Bereichen ein, die die höchste Priorität haben. Wir werden die Community regelmäßig über unsere Fortschritte auf dem Laufenden halten.