Zum Hauptinhalt springen

Neuigkeiten & Veranstaltungen

Mythos “Rabbit Hole” - Aktuelle Studie zur Wirkung von Empfehlungen auf YouTube

  • Von Sabine Frank
  • Leiterin Government Affairs und Public Policy YouTube für Deutschland, Österreich und der Schweiz (DACH)
  • 24.Feb.2021
Mythos “Rabbit Hole” - Aktuelle Studie zur Wirkung von Empfehlungen auf YouTube
Die Ergebnisse einer Studie der Landesmedienanstalten zeigt in weiten Teilen, dass unsere anhaltenden Investitionen und Maßnahmen im Kampf gegen Fehlinformation auf YouTube Früchte tragen.

Das Leben im Lockdown und die anhaltende Corona-Pandemie stellen alle vor neue Herausforderungen. Das gilt natürlich auch für YouTube. Jeden Tag kommen Millionen von Menschen auf unsere Plattform, um sich zu unterhalten, sich inspirieren zu lassen oder zu informieren. Wir sind dafür verantwortlich, sicherzustellen, dass die Erfahrung auf YouTube positiv, hilfreich und sicher ist, für unsere Nutzer und Creator. Dies bedeutet: Inhalte zu entfernen, die gegen unsere Richtlinien verstoßen; zuverlässige Quellen sichtbarer zu machen; grenzwertige Inhalte wie Fehlinformation zu reduzieren; und vertrauenswürdige Kanäle und Quellen zu unterstützen. Diese Grundsätze leiten uns beim Umgang mit allen Inhalten, und somit auch zu Themen, die Gegenstand schädlicher Fehlinformation sind.


Vor diesem Hintergrund haben wir mit Interesse die Studie “Empfehlungen in Krisenzeiten. Welche Inhalte machen die Empfehlungsalgorithmen von YouTube sichtbar?” gelesen, die im Auftrag der Medienanstalt Berlin-Brandenburg (mabb), der Senatskanzlei Berlin, der Bayerischen Landeszentrale für neue Medien (BLM), der Landesanstalt für Medien NRW und der LMK Medienanstalt Rheinland-Pfalz erstellt wurde.


Zunächst spiegelt die Methodik dieser Studie - wie anderer ähnlicher Untersuchungen - nur einen kleinen Ausschnitt der realen Nutzererfahrung wider. Dennoch bestätigen die Ergebnisse in weiten Teilen, dass unsere anhaltenden Investitionen und Maßnahmen im Kampf gegen Fehlinformation auf YouTube Früchte tragen. 


Die Studie untersuchte zu den drei Themen Covid-19-Pandemie, Klimawandel und der sogenannten „Flüchtlingskrise“ insgesamt 9.000 Einzelvideos aus über 2.300 Kanälen, um festzustellen, “inwiefern durch YouTubes Empfehlungsalgorithmen desinformative Inhalte auf der Plattform befördert werden und inwieweit verlässliche und vielfältige Informationsangebote dabei sichtbar werden”. 

 

Die wesentlichen Ergebnisse:


1. Obwohl Fehlinformationen in einzelnen Videos auftauchen, spielen Empfehlungen durch YouTube bei der Verbreitung nur eine relativ geringe Rolle. 

 

“Die in Politik und Gesellschaft häufig geäußerte Befürchtung, dass soziale Medien wie YouTube durch ihre automatisierten Empfehlungen Desinformations- und Radikalisierungsspiralen in Gang setzen, bei der Nutzerinnen und Nutzer sogar ausgehend von unverfänglichen Inhalten bei fragwürdigen Videobeiträgen enden können, scheint sich ... weniger zu bewahrheiten. Das „rabbit hole of extremism“ konnte in dieser Studie nicht nachgewiesen werden.” (S. 37)

 

Dies bestätigt eine kürzlich in den USA veröffentlichte Studie sowie unseren eigenen Befund. In den USA haben wir beispielsweise seit Anfang Januar 2020 beobachtet, dass die Aufrufe von Verschwörungstheorien und anderer grenzwertiger Inhalte um über 70 Prozent zurückgingen, nachdem sie in unseren Empfehlungssystemen herabgestuft wurden. 

 
2. Je weiter man den Empfehlungen von YouTube folgt, desto mehr wird der thematische Fokus verbreitert, dies bedeutet: Neben den drei betrachteten Ausgangsthemen werden  immer mehr andere Inhalte empfohlen.

 

“Bereits in der zweiten Ebene, also ein Klick nach dem jeweiligen Startvideo, behandeln nur noch sieben bis elf Prozent der empfohlenen Videos das ursprüngliche Thema. Themen „verdünnen“ sich somit überaus schnell, eine bestimmte „Themenblase“ bildet sich so gut wie nicht. Startet man in einem bestimmten Themenkosmos, ist die Chance recht hoch, dass man diesen, wenn man den Empfehlungen YouTubes folgt, recht schnell wieder verlässt.” (S. 21)  

Eine Vielfalt an Informationen anzubieten, ist zentral dafür, wie YouTube angelegt ist. So sollen auch Empfehlungen den Nutzern neue Inhalte liefern. Bei bestimmten Themen empfehlen wir daher insbesondere zuverlässige Quellen. Bei Themen wir Covid-19 zeigen wir zusätzlich Informationstafeln, um den Nutzern entsprechenden Kontext zu geben.

 

3. Einzelne Videos, die Fehlinformation zu den drei Themen enthalten, erzielen hohe Reichweiten, doch diese scheint in erster Linie durch Mechanismen ausgelöst zu werden, die außerhalb von YouTube liegen. 
 

Für die meisten Videos gilt ..., dass Empfehlungen nicht die Treiber der hohen Zuschauerzahlen sind. … Hier vermutet eine aktuelle Recherche von Correctiv, dass desinformative Inhalte auf YouTube vor allem auf anderen Social Media-Plattformen und Messengerdiensten verbreitet werden, wo dann durch einen Link auf YouTube verwiesen wird. Somit scheinen für desinformative Videos diese anderen, weniger gut öffentlich sichtbaren Verbreitungswege relevanter zu sein als der Empfehlungsalgorithmus der Plattform.” (S. 32)

 

Dieser Befund unterstreicht, dass Fehlinformation ein komplexes gesellschaftliches Problem darstellt, für das Wirtschaft, Politik und Zivilgesellschaft gemeinsam Verantwortung übernehmen müssen. Aus diesem Grund arbeiten wir mit anderen wichtigen Plattformen der Branche sowie Vertretern der gesamten digitalen Werbewirtschaft mit der Europäischen Kommission zusammen, indem wir den Verhaltenskodex der Kommission für Desinformation unterzeichnet haben.

 

4. Quellen von klassischen (öffentlich-rechtlichen und privaten) Medienanbietern werden bei zwei der drei betrachteten Themen bevorzugt angezeigt. 

Bei Videos zur Covid-19-Pandemie und zur “Flüchtlingskrise” liegt der Anteil der betreffenden Quellen bei 54 bzw. 60 Prozent. “Der geringere Anteil an Medienangeboten beim Thema Klimawandel hängt wahrscheinlich mit der generellen Verfügbarkeit solcher Inhalte zusammen”, schreibt die Studie (S. 13).

 Die Hervorhebung entsprechender Inhalte ist schon seit langem ein wichtiger Teil unserer Arbeit. So zeigen wir auf unserer Homepage den Bereich Top-News zu Themen wie Covid-19 an, er enthält ausschließlich Nachrichten von zuverlässigen  Nachrichtenanbietern. Der Inhalt wird algorithmisch generiert, wobei Hunderte von Signalen verwendet werden, einschließlich der Relevanz zum betreffenden Thema. Alle Quellen müssen die Richtlinien für Google News Inhalte einhalten. Seit Anfang 2020 ist die weltweite “Watchtime” für entsprechende Nachrichteninhalte auf YouTube um mehr als 75% gestiegen.So wuchs zum Beispiel die Reichweite der ARD-Tagesschau auf YouTube in 2020 um 75 Prozent, der ZDF-YouTube-Kanal sogar um 350 Prozent. 


Das sind die Herausforderungen 

Neben diesen vier Punkten weist die Studie auch auf Herausforderungen hin, die im Umgang mit den betreffenden Inhalten auf sozialen Medien wie YouTube zweifellos bestehen. So beklagen die Autoren einen Mangel an Transparenz. Es bleibe “oft unklar, was YouTube genau aus welchen Gründen als Desinformation klassifiziert sowie warum manche Videos sanktioniert werden”, heißt es dort. 


YouTube veröffentlicht seit April 2018 vierteljährliche Berichte zur Durchsetzung unserer Community-Richtlinien, dort geben wir regelmäßig Einblicke in unsere Prozesse und erklären unter anderem, welche Inhalte aus welchen Gründen von der Plattform entfernt wurden. Uns ist bewusst, dass dies vielen Beobachtern nicht genügt. So mahnen auch die Autoren der Studie einen besseren “Zugang zu aussagekräftigen Daten” an, aus denen sich “repräsentativ großflächige Trends ablesen lassen”. Wir verstehen diesen Wunsch, möchten jedoch hier ausdrücklich auf die Gefahren hinweisen. Eine genaue Kenntnis unserer Empfehlungsalgorithmen könnte am Ende von genau jenen Akteuren missbraucht werden, deren Inhalte eigentlich bekämpft werden sollen. Trotzdem sehen wir Transparenz als einen wichtigen Teil unserer Arbeit und einer Rechenschaftspflicht gegenüber der Öffentlichkeit an. Unser gerade eröffnetes Globales Zentrum “Content Responsibility” in Dublin (GSEC) dient genau diesem Zweck, und soll sukzessive zu einem Ort des Austauschs zu den genannten Fragen ausgebaut werden.

 

Die Studie kritisiert des weiteren, dass bei einigen Videos, die Fehlinformation enthalten, Werbung geschaltet wurde. Hier ist jedoch zu berücksichtigen, dass wir neben den Richtlinien, die regeln, welche Inhalte auf unserer Plattform zugelassen sind, auch Werberichtlinien haben. Diese legen fest, welche Inhalte für Werbung in Frage kommen. Außerdem liegt es natürlich im Ermessen des Werbetreibenden, in welchem Umfeld seine Werbung geschaltet werden darf. 

 

In Ihrem Fazit weist die Studie zu Recht darauf hin, dass Online-Plattformen eine “besondere Verantwortung zukommt”, es sich aber “bei der Bekämpfung von „Desinformation“ um eine komplexe gesamtgesellschaftliche Aufgabe”  handele. Insbesondere betonen die Autoren die Bedeutung der Medienkompetenz in allen Altersgruppen: 

 

“Die Fähigkeit der Bevölkerung, gefälschte Nachrichten von echten Nachrichten zu unterscheiden, kann letztendlich bestimmen, ob Desinformation Auswirkungen auf die Gesellschaft hat oder nicht.” (S. 58)

 

Das können wir nur unterstreichen. Fehlinformation bleibt ein zentrales gesellschaftliches Problem. Doch die Antworten sind nicht immer einfach. Als große Plattform müssen wir unsere Richtlinien und Maßnahmen weiterhin stetig anpassen, um auf neue Herausforderungen zu reagieren und unsere Community vor schädlichen Inhalten zu schützen. Unsere Arbeit ist noch lange nicht abgeschlossen, die aktuelle Studie liefert dafür wichtige Impulse.