Zum Hauptinhalt springen

Inside YouTube

Wir verstärken unser Vorgehen gegen den Missbrauch unserer Plattform

Durch Susan Wojcicki

CEO, YouTube

Als CEO von YouTube sehe ich seit Jahren, wie unsere offene Plattform als wertvolle Quelle für Kreativität, Wissen und Information genutzt wird. Ich sehe, wie Aktivisten sie einsetzen, um sich für sozialen Wandel stark zu machen, Anhänger für Proteste zu mobilisieren und Kriegsverbrechen zu dokumentieren. Ich beobachte, wie die Plattform weltweit als Unterhaltungsmedium und als Video-Bibliothek genutzt wird. YouTube hat zudem wirtschaftliche Chancen geschaffen und ermöglicht es kleinen Unternehmen, ihre Waren auf den Markt zu bringen und diese grenzüberschreitend zu verkaufen. Die Plattform hat das Leben meiner Kinder bereichert und ihnen zu einem besseren Verständnis für unsere Welt und die Milliarden von Menschen, die dort leben, verholfen.

Aus nächster Nähe sehe ich aber auch, dass der offene Charakter von YouTube auch eine andere, beunruhigende Seite haben kann. Unsere Offenheit wird von manchen ausgenutzt, um andere zu täuschen, zu manipulieren, zu belästigen oder ihnen sogar zu schaden.

Letztes Jahr haben wir Maßnahmen ergriffen, um unsere Community vor gewalttätigen und extremistischen Inhalten zu schützen und dabei neue Systeme getestet, um bestehende bzw. sich entwickelnde Bedrohungen zu bekämpfen. Wir haben unsere Richtlinien dahingehend verschärft, welche Inhalte auf unserer Plattform erscheinen dürfen und wie YouTube Creators mit ihren Videos Geld verdienen können. Wir haben unsere Enforcement Teams verstärkt. Und wir haben in leistungsstarke neue Technologien des maschinellen Lernens investiert, um unsere menschlichen Moderatoren dabei zu unterstützen, Videos und Kommentare, die gegen unsere Richtlinien verstoßen, im großen Umfang zu entfernen.

Jetzt wenden wir das, was wir letztes Jahr in unserem Kampf gegen gewalttätige, extremistische Inhalte gelernt haben, an, um gegen weitere problematische Inhalte vorzugehen. Unser Ziel ist es, missbräuchlichen Nutzern einen Schritt voraus zu bleiben und es schwieriger zu machen, richtlinienwidrige Inhalte auf YouTube zu veröffentlichen.

Mehr Menschen prüfen mehr Inhalte 

Menschliche Prüfer sind auch weiterhin unverzichtbar, um Inhalte zu entfernen und die Systeme des maschinellen Lernens mit Wissen zu versorgen, denn die menschliche Einschätzung ist entscheidend dafür, kontextbezogene Entscheidungen im Hinblick auf Inhalte zu treffen. Seit Juni haben unsere Trust & Safety Teams manuell fast 2 Millionen Videos auf gewalttätige und extremistische Inhalte hin geprüft und so dazu beigetragen, dass unsere Technologien des maschinellen Lernens zukünftig vergleichbare Videos selbst erkennen können. Darüber hinaus führen wir auch rigorose Maßnahmen im Kommentarbereich durch und haben entsprechende neue Moderations-Tools eingeführt. In einigen Fällen werden sämtliche Kommentare entfernt. In den letzten Wochen haben wir maschinelles Lernen eingesetzt, um menschliche Prüfer dabei zu unterstützen, Hunderte von Konten aufzufinden und dann zu schließen sowie Hunderttausende Kommentare zu entfernen. Außerdem haben unsere Teams eng mit dem NCMEC, der IWF und anderen Organisationen für Kindersicherheit auf der ganzen Welt zusammengearbeitet, um unlauteres Verhalten und missbräuchliche Konten bei den zuständigen Strafverfolgungsbehörden zu melden.  

Bei Google setzen sich verschiedene Teams mit Inhalten auseinander, die möglicherweise gegen unsere Richtlinien verstoßen. Wir werden diese Teams weiter ausbauen, ab dem kommenden Jahr auf über 10.000 Personen weltweit.

Gleichzeitig weiten wir auch das Netzwerk an Akademikern, Branchenorganisationen und Fachexperten aus, um von ihnen zu lernen und uns dabei unterstützen zu lassen, auftretende Problematiken noch besser zu verstehen.

Probleme auf breiter Ebene angehen 

Wir werden unsere hochmodernen Technologien des maschinellen Lernens noch breiter einsetzen, um richtlinienwidrige Inhalte besonders schnell und effizient zu entfernen. Im Juni haben wir diese bereits eingesetzt, um gewalttätige und extremistische Inhalte für die menschliche Überprüfung zu kennzeichnen und dabei enorme Fortschritte erzielt.


  • Seit Juni haben wir über 150.000 Videos aufgrund gewalttätiger und extremistischer Inhalte entfernt.
  • Dank maschinellen Lernens konnten unsere Prüfteams fast fünfmal so viele Videos entfernen als zuvor.
  • Heute werden 98 % der Videos, die wir aufgrund gewalttätiger, extremistischer Inhalte entfernen, durch unsere Algorithmen des maschinellen Lernens aufgespürt.
  • Dank der Fortschritte, die wir im Bereich maschinelles Lernen erzielen konnten, können wir heute fast 70 % der gewalttätigen, extremistischen Inhalte innerhalb von 8 Stunden nach dem Upload und die Hälfte davon in nur 2 Stunden entfernen. Wir arbeiten stetig daran, diese Zeiten weiter zu verkürzen.
  • Seitdem wir im Juni damit begonnen haben, mit Hilfe von Systemen des maschinellen Lernens gewalttätige und extremistische Inhalte zu kennzeichnen, konnten Inhalte in einem Umfang geprüft und markiert werden, für die wir ansonsten 180.000 Menschen benötigt hätten, die 40 Stunden pro Woche arbeiten.

Aufgrund dieser positiven Ergebnisse haben wir damit begonnen, die Technologie des maschinellen Lernens auch für andere herausfordernde Bereiche, wie etwa Kindersicherheit und Hassrede, zu trainieren.

Mehr Transparenz 

Wir verstehen, dass die Menschen gerne mehr darüber erfahren würden, wie genau wir gegen diese problematischen Inhalte vorgehen. Unseren Community-Richtlinien können die Nutzer entnehmen, was wir auf unserer Plattform nicht erlauben. Da wir gerne mehr Informationen dazu liefern möchten, wie wir diese konkret umsetzen, werden wir 2018 einen Bericht einführen, in dem wir regelmäßig mehr aggregierte Daten zu den Inhalten veröffentlichen, die uns als unangemessen gemeldet werden, sowie zu den Maßnahmen, die wir durchführen, um richtlinienwidrige Inhalte und Kommentare zu entfernen. Um noch mehr Transparenz rund um die uns gemeldeten Inhalte zu schaffen, ist außerdem die Entwicklung weiterer spezieller Tools geplant.

Neuer Ansatz für Werbeinhalte auf YouTube 

Darüber hinaus ergreifen wir auch Maßnahmen, um Werbetreibende und YouTube Creators vor unangemessenen Inhalten zu schützen. Wir möchten, dass Werbetreibende beruhigt sein können, dass ihre Anzeigen neben Inhalten geschaltet werden, die die Werte ihrer Marke widerspiegeln.  Ebenso wollen wir den Videomachern die Gewissheit geben, dass ihre Einnahmen nicht durch die Aktionen schlechter Uploader geschädigt werden.

Wir sind der Überzeugung, dass dies einen neuen Ansatz für Werbeinhalte auf YouTube erforderlich macht, bei dem sorgfältig berücksichtigt werden muss, welche Kanäle und Videos sich für Werbung eignen. Wir planen, strengere Kriterien in diesem Bereich einzuführen, die Inhalte verstärkt manuell zu pflegen und gleichzeitig unser Team an Anzeigenprüfern signifikant zu verstärken, um sicherzustellen, dass die Werbeinhalte nur dort angezeigt werden, wo sie hingehören. So erhalten auch etablierte und einwandfreie Creator mehr Stabilität rund um ihre Einnahmen. Es ist wichtig, dass wir dies sowohl für Werbetreibende als auch für Videomacher richtig machen. Deshalb werden wir in den nächsten Wochen mit beiden Seiten sprechen, um diesen Ansatz noch weiter zu verbessern.

Wir ergreifen all diese Maßnahmen, weil wir dies als richtig und wichtig erachten. YouTube Creators sorgen für unglaublich tolle Inhalte und tragen damit zum Aufbau weltweiter Fan-Gemeinden bei. Die Fans kommen zu YouTube, um sich diese Inhalte anzusehen, sie zu teilen und sich mit ihnen auseinanderzusetzen. Werbetreibende, die diese Menschen erreichen wollen, finanzieren wiederum diese kreative Wirtschaft. Sowohl Nutzer, YouTube Creators als auch Werbetreibende sind von grundlegender Bedeutung für das kreative Ökosystem von YouTube – keiner kann sich ohne den anderen erfolgreich auf YouTube entfalten – und alle drei haben es verdient, dass wir das Bestmögliche für sie tun.

Da sich die Bedrohungen für unsere Plattform in Zukunft weiterentwickeln und verändern werden, müssen und werden sich auch unsere Methoden weiterentwickeln, mit denen wir diese bekämpfen. Doch welche Herausforderungen auch immer auf uns zukommen werden: Unsere Verpflichtung, gegen diese anzugehen, bleibt unerschütterlich bestehen. Wir werden alle erforderlichen Schritte unternehmen, um unsere Community zu schützen und sicherzustellen, dass YouTube auch weiterhin ein Ort bleibt, auf dem Creators, Werbetreibende und Zuschauer sich entfalten und erfolgreich sein können.