Drei Viertel der gemeldeten Youtube-Inhalte bleiben im Netz

Das Gesetz gegen Hass im Internet gilt seit Januar. Erste Berichte der Plattformen zeigen: Vergleichsweise wenige gemeldete Inhalte mussten gelöscht werden.


Die Politik kritisiert schon lange, Hass, Hetze und gefälschte Nachrichten würden im Netz nicht konsequent genug gelöscht – auch nachdem die großen sozialen Netzwerke ihr Vorgehen Schritt für Schritt verschärft hatten. Die Unzufriedenheit mündete schließlich in das sogenannte Netzwerkdurchsetzungsgesetz (NetzDG).

Das Regelwerk soll dafür sorgen, dass rechtswidrige Postings schneller und konsequenter aus dem Internet entfernt werden. Dienste wie Facebook, Twitter und Youtube (Google) müssen seit dem 1. Januar klar strafbare Inhalte binnen 24 Stunden nach einem Hinweis löschen. Bei weniger eindeutigen Fällen haben sie eine Woche Zeit. Bei systematischen Verstößen gegen die Verpflichtung drohen Strafen bis zu 50 Millionen Euro.

Nun geben die Plattformbetreiber, wie im Gesetz vorgeschrieben, erstmals Auskunft über ihren Umgang mit Problem-Inhalten. Am Freitag veröffentlichten die drei großen Netzwerkanbieter ihre Transparenzberichte. Beachtlich sind dabei die teils erheblichen Unterschiede beim Beschwerdeaufkommen. Dass die Zahlen der gemeldeten Inhalte bei den beiden Plattformen so weit auseinanderliegen, hat wohl auch mit dem unterschiedlichen Meldeweg zu tun. So kritisierte das Bundesjustizministerium den „komplizierten Beschwerdeweg“ bei Facebook.

Registrierte Facebook im ersten Halbjahr 886 NetzDG-Beschwerden, in denen insgesamt 1704 Problem-Inhalte (eine Beschwerde kann sich dabei auf mehrere Inhalts beziehen) genannt wurden, meldeten Youtube-Nutzer im selben Zeitraum  214.827 Inhalte – entweder direkt an die Plattform oder indirekt über Beschwerdestellen wie jugendschutz.net oder dem Eco-Internetverband. Den Kurznachrichtendienst Twitter erreichten etwa 265.000 NetzDG-Beschwerden.

Die Löschungen und Sperrungen sind bei Facebook sehr überschaubar. Lediglich 218 NetzDG-Beschwerden zogen Konsequenzen nach sich. Danach wurden, wie das weltgrößte Online-Netzwerk in seinem nur neun Seiten umfassenden Transparenzbericht mitteilt, insgesamt 362 Inhalte gelöscht oder gesperrt. Im zehnseitigen Bericht von Twitter ist von knapp 29.000 Inhalten die Rede, die gelöscht oder gesperrt wurden, ebenfalls vergleichsweise wenig zu den gemeldeten Inhalten.

Der Bericht von Googles Videoplattform Youtube fällt deutlich detaillierter und länger aus: Auf 26 Seiten legt der Netzwerkanbieter anhand von Statistiken seinen Umgang mit Hasskommentaren dar. Die Zahlen legen nahe, dass das NetzDG offenbar einen deutlich geringeren Einfluss auf die Löschpraxis des Unternehmens hat als die eigenen Regeln.

Arnd Haller, Leiter der Google-Rechtsabteilung in Nord- und Zentraleuropa, äußerte dennoch scharfe Kritik am NetzDG. „Wir sind weiterhin besorgt darüber, dass dieses Gesetz Unternehmen dazu zwingt, bei der Prüfung primär auf Schnelligkeit zu achten, wo es doch eigentlich um sorgfältiges Abwägen gehen müsste“, sagte Haller.

Ähnlich äußerte sich Facebooks Chef-Lobbyist Richard Allen. As seiner Sicht sollte die Entscheidung, ob ein Inhalt rechtswidrig sei, bei Gerichten und nicht bei Unternehmen liegen. "Einige öffentlich diskutierten Fälle haben die Komplexität des Gesetzes deutlich gemacht und die Herausforderungen aufgezeigt, vor denen Unternehmen stehen, wenn sie die Rechtswidrigkeit von Inhalten in Grenzfällen beurteilen müssen", so Allen.



Noch deutlicher wurde Oliver Süme, Vorstandsvorsitzender des Eco-Verbands der Internetwirtschaft. „Die Unternehmen löschen zwar mehr als noch vor einigen Jahren“, so Süme, „dies ist aber nicht auf das Gesetz, sondern auf extrem verbesserte Technologien sowie ein gesteigertes Problembewusstsein bei den Unternehmen zurückzuführen.“ Meldungen zum NetzDG fielen indes in der Gesamtbilanz kaum ins Gewicht.

Gerd Billen, Staatssekretär im Ministerium, zeigte sich dagegen zufrieden, dass das Gesetz erste Wirkung zeige: „Dennoch, wir stehen erst ganz am Anfang.“ Das NetzDG hatte allerdings auch für Kritik gesorgt. Gegner argumentieren, dass es die Plattformbetreiber dazu verleitet, aus Angst vor Bußgeldern grenzwertige Inhalte eher zu sperren. Das könne zu Zensur führen.

Bei Youtube wurden nach der Prüfung von 214.827 Inhalten aber letztlich nur 58.297 entfernt. Das heißt: Knapp 73 Prozent der gemeldeten Inhalte blieben im Netz stehen, weil diese, wie Youtube erklärt, „nicht gegen unsere Community-Richtlinien oder gegen einen der im NetzDG genannten Straftatbestände verstoßen haben“.

Die meisten anderen Inhalte (knapp 93 Prozent davon) seien innerhalb von 24 Stunden nach Erhalt einer Rechtsbeschwerde entfernt worden. „Größtenteils wurden die Inhalte aufgrund eines Verstoßes gegen die Community-Richtlinien von Youtube weltweit entfernt und nicht bloß lokal aufgrund eines rechtswidrigen Inhalts nach dem NetzDG gesperrt.“ Die Entfernung wegen eines „Community-Richtlinien-Verstoßes“ betraf demnach 42.121 Inhalte, die Entfernung wegen des NetzDG 16.176 Inhalte.

Drei Kategorien stechen hervor

Die meisten Inhalte, die entfernt wurden, betrafen laut Youtube die Kategorie „Hassrede oder politischen Extremismus“ (24.804), gefolgt von „Persönlichkeitsrechtsverletzung oder Beleidigung“ (11.428) und „Pornografische Inhalte“ (7.338).

Auch bei den Beschwerden insgesamt stechen diese drei Kategorien hervor. Aus dem Bereich „Hassrede oder politischer Extremismus“ wurden etwa 75.892 Inhalte gemeldet, aus dem Bereich „Persönlichkeitsrechtsverletzung oder Beleidigung“ 45.190 Inhalte und dem Bereich „Pornografie“ 27.308 Inhalte.

Bei Facebook waren vor allem Inhalte der Kategorien „Beleidigung“ (114), „üble Nachrede“ (90) oder „Volksverhetzung“ (74) von Löschung oder Sperrung betroffen. Diese geschah größtenteils innerhalb von 24 Stunden.

Bei Twitter betrafen die meisten Beschwerden gegen die vorgegangen wurde die Kategorien Volksverhetzung (9.828), Beleidigung (4.495) und Verwenden von Kennzeichen verfassungswidriger Organisationen (2.472). In nur etwa 600 Fällen habe das länger als 24 Stunden gedauert, in nur 37 Fällen länger als sieben Tage.

Wenn die Netzwerke nicht schnell genug reagieren, können sich die User beim Bundesamt für Justiz beschweren. Dort ist die erwartete Beschwerdewelle allerdings ausgeblieben. Bis zum 23. Juli seien über das Online-Formular erst 558 Anzeigen eingegangen, teilte die Bonner Behörde dem Handelsblatt mit. Die Prognosen lagen nach Angaben einer Sprecherin des Bundesamtes bei 25.000 Fällen im Jahr.

Da es Fälle im Strafrecht gibt, die spezifisches juristisches Fachwissen erfordern, können die Plattformanbieter externen Rat einholen. Indem sie etwa eine auf Strafrecht spezialisierte Anwaltskanzlei einschalten oder sich an eine Einrichtung der „Regulierten Selbstregulierung“ im Rahmen des NetzDG wenden.


Youtube wandte sich eigenen Angaben zufolge in nur 40 Fällen an eine Anwaltskanzlei. Facebook konsultierte zur Entscheidungsfindung in 54 der 886 Beschwerden externe Rechtsberater. Twitter nahm in 107 Fällen externe Hilfe in Anspruch.

Die Prüfung von Inhalten ist komplex. Je nach Anzahl der eingehenden Beschwerden nach dem NetzDG könne die Anzahl der Prüfer variieren, schreibt Youtube in seinem Bericht. Derzeit arbeiten demnach rund 100 Prüfer eines externen Dienstleisters ausschließlich an Beschwerden, die über die NetzDG-Meldeverfahren bei Youtube und Google+ eingereicht werden. Um die kulturelle Vielfalt zu gewährleisten, haben diese Prüfer unterschiedliche berufliche Hintergründe, sprechen verschiedene Sprachen und kommen aus unterschiedlichen Altersgruppen.

Bei Facebook bestehen die Teams, die die über das NetzDG-Formular übermittelten Beschwerden bearbeiten, nach eigenen Angaben aus etwa 65 Personen, wobei der Personalbestand bei einem erhöhten Beschwerdeaufkommen angepasst werden könne.

Bei Twitter bearbeiten nach eigenen Angaben "mehr als 50 Leute" die NetzDG-Beschwerden. "Da nicht alle gemeldeten Inhalte in deutscher Sprache sind, haben die für die Bearbeitung von diesen Beschwerden zuständigen Personen außerdem Kenntnisse in anderen Sprachen, darunter Arabisch, Englisch, Französisch, Griechisch, Holländisch, Italienisch, Katalanisch, Polnisch, Portugiesisch, Russisch, Spanisch und Türkisch."

Plattformen nutzen mehrstufige Prüfverfahren

Die NetzDG-Beschwerden werden laut Facebook in zwei Stufen geprüft. In einem ersten Schritt würden die gemeldeten Inhalte durch das Partnerunternehmen Arvato überprüft. Wenn die Überprüfung ergibt, dass der Inhalt gegen die Gemeinschaftsstandards verstößt, wird er entfernt. In einem zweiten Schritt werden sämtliche gemeldeten Inhalte, die nicht wegen Verstößen gegen Gemeinschaftsstandards entfernt wurden, einem mehrstufigen rechtlichen Prüfverfahren durch das „Rechtsteam“ unterzogen. Die Mitglieder dieses Teams seien insoweit qualifiziert, als sie „Komplexität der NetzDG-Beschwerden“ handhaben könnten.

Bei Twitter wird nach Angaben des Kurznachrichtendienstes jede erhaltene NetzDG - Beschwerde zuerst anhand der Allgemeinen Geschäftsbedingungen und Twitter-Regeln überprüft. Stellen man Verstöße fest, würden diese „gänzlich“ von der Plattform entfernt. „Stellen wir fest, dass Inhalte gegen NetzDG verstoßen, werden diese basierend auf lokalem Recht in Deutschland zurückgezogen.“

YouTube teilte zum Prozedere seiner Prüfungen mit, dass die Teams den Kontext eines gemeldeten Inhalts während ihrer Prüfung sehen, einschließlich der Videobeschreibung, anderer in den Kanal hochgeladener Inhalte sowie der Metadaten (Titel, Tags oder Bildunterschriften). Diese kontextabhängigen Hinweise seien wichtig für die Beurteilung der Intention des Inhalteerstellers.

„Darüber hinaus“, so Youtube, „erfasst unser System den Zeitstempel, zu welchem Zeitpunkt des Videos der Inhalt gemeldet wurde.“ Auch würden die Beschwerdeführer in Meldeformularen gebeten, den „einschlägigen Zeitstempel“ anzugeben. „So können sich unsere Prüfer auf die potenziell kritischen Abschnitte innerhalb eines Videos konzentrieren.“

Youtube setzt für die Prüfung auch spezielle Technologien ein, die bei der Identifizierung problematischer Inhalte helfen. Etwa, um die Objekte und Muster schnell und maßstabsgetreu in Bildern, Videos und Audioaufnahmen zu finden. Gleichwohl betont das Unternehmen aber auch, dass es nach wie vor nur Menschen seien, die den Kontext beurteilen könnten.


„Beispielsweise können Algorithmen nicht den Unterschied zwischen terroristischer Propaganda und kritischer Berichterstattung über solche Organisationen oder zwischen volksverhetzenden Inhalten und politischer Satire erkennen“, heißt es in dem Transparenzbericht. „Deshalb müssen in der Regel Menschen – gerade in Bereichen, in denen die Meinungsfreiheit betroffen ist – die Inhalte letztlich beurteilen.“

Als Beispiel führt Youtube etwa ein Video eines Terroranschlags an. Dieses könne eine „informative Nachrichtenberichterstattung“ sein, wenn es von einer Nachrichtenagentur oder einem Zeitzeugen hochgeladen werde. Das gleiche Video könne jedoch für die Rekrutierung verwendet werden, wenn es von der Terrororganisation selbst in dem Bestreben hochgeladen werde, zu verherrlichen oder zu rekrutieren.

„Informative Nachrichten wären im Rahmen unserer weltweiten Community-Richtlinien wahrscheinlich erlaubt, während die Rekrutierung von Terroristen gegen unsere Community-Richtlinien verstoßen und deshalb entfernt werden würden“, so Youtube.

Die Video-Plattform wird auch mit rechtlich nicht relevanten Beschwerden konfrontiert – möglicherweise ist die Zahl der insgesamt beanstandeten Inhalte deshalb so groß, die Zahl der Löschungen dagegen verhältnismäßig klein. So sei eine Rede von Bundeskanzlerin Angela Merkel über die Zugehörigkeit des Islams zu Deutschland sowohl als Hassrede als auch als terroristischer Inhalt gemeldet worden, weil Merkel nach Ansicht der Beschwerdeführer den Staat in Gefahr bringe und Deutschland in eine Katastrophe führe. Freilich zog diese Beschwerde keine Konsequenz für den Inhalt nach sich.