„Wir haben erhebliche Fortschritte erzielt“


Am 1. Oktober 2017 tritt das Netzwerkdurchsetzungsgesetz (NetzDG) in Kraft. Danach müssen soziale Netzwerke unter anderem Beschwerden über Hasskriminalität und andere strafbare Inhalte deutlicher stärker in den Blick nehmen und entsprechende Inhalte schneller und konsequenter löschen. Keine einfache Aufgabe. Die Anforderungen des neuen Gesetzes stellen die betroffenen Online-Plattformen offenbar vor große Herausforderungen. „Die Umsetzung des NetzDG ist komplex“, sagte ein Facebook-Sprecher dem Handelsblatt. „Wir haben viel Zeit und Ressourcen investiert, um dem NetzDG zu entsprechen und arbeiten hart daran, die richtigen Prozesse für die verschiedenen Bestimmungen aufzusetzen, die ab dem 1. Oktober 2017 beziehungsweise Januar 2018 gelten.” Gleichwohl teile man das Ziel der Bundesregierung, Hassrede zu bekämpfen. „Bei der Entfernung illegaler Inhalte haben wir bereits erhebliche Fortschritte erzielt“, betonte der Sprecher.


Das Bundesamt für Justiz (BfJ) in Bonn kontrolliert, inwieweit die sozialen Netzwerke ihre im NetzDG geregelten Pflichten auch erfüllen. Dazu zählt etwa, dass die Plattform-Betreiber ein wirksames und transparentes Beschwerdemanagement für den Umgang mit Beschwerden über strafbare Inhalte aufbauen und unterhalten. Wenn die sozialen Netzwerke Beschwerden nicht genügend Beachtung schenken, können sich Bürger in einem zweiten Schritt an das BfJ wenden. Ergeben sich Anhaltspunkte für Mängel im Beschwerdemanagement, prüft die Aufsichtsbehörde, ob gegen den Anbieter des betroffenen Netzwerks ein Bußgeldverfahren eingeleitet wird.

Um die neuen Aufgaben bewältigen zu können, wurde die Bundesbehörde entsprechend personell verstärkt. Die Rede ist von etwa 50 zusätzlichen Mitarbeitern. Eine „Startmannschaft“ hat laut BfJ im September ihre neuen Diensträume bezogen. Bis zum Jahresende 2017 werde sie so weit aufgestockt, dass der vom Gesetzgeber angenommene Personalbedarf gedeckt ist. Das Bundesamt sei für die Umsetzung des Gesetzes „auf seine neuen Aufgaben gut vorbereitet“, sagte der Staatssekretär Bundesjustizministerium, Gerd Billen, dem Handelsblatt.


Billen verteidigte die neuen Regeln zugleich gegen Kritik. „Das Gesetz ist ein ganz wichtiger Schritt zur Bekämpfung von Hasskriminalität und strafbaren Fake News in sozialen Netzwerken. Wir werden die Rechtsdurchsetzung im Netz damit entscheidend verbessern“, sagte Billen. Mit dem Inkrafttreten des NetzDG würden die Rechte der Betroffenen gestärkt, die sich gerichtlich oder durch Strafanzeige gegen strafbare Inhalte wehren wollten. „Sie bekommen künftig eine schnelle und sichere Zustellungsmöglichkeit und eine konkrete Ansprechperson bei den sozialen Netzwerken.“

Diese sogenannte individuelle Rechtsdurchsetzung gilt schon ab dem 1. Oktober. Die sozialen Netzwerke sind dann verpflichtet, einen inländischen Zustellungsbevollmächtigten sowie eine Person zu benennen, an die sich die deutschen Strafverfolgungsbehörden (Polizei oder Staatsanwaltschaft) mit Auskunftsersuchen wenden können. Auf entsprechende Auskunftsersuchen muss dann innerhalb von 48 Stunden geantwortet werden. Bei Verstößen gegen die Vorgaben kann das Bundesamt ein Bußgeldverfahren einleiten. Es drohen dann Geldstrafen in Millionenhöhe.


Gericht warnt vor schwierigen rechtlichen Entscheidungen

Zur vollen Wirkung kommt das NetzDG erst zum Jahresende. Bis dahin gilt eine dreimonatige Übergangsregelung, nach der soziale Netzwerke ein wirksames und transparentes Beschwerdemanagement aufbauen oder ein bestehendes Beschwerdemanagement verbessern können. Wenn eine nach dem 1. Januar 2018 bei einem sozialen Netzwerk eingereichte Beschwerde nicht ordnungsgemäß bearbeitet wird, kann der Sachverhalt beim BfJ angezeigt werden. Eine Ordnungswidrigkeit liegt dann vor, wenn eine systemisch falsche Entscheidungspraxis des sozialen Netzwerks festzustellen ist.

Das NetzDG sieht verschiedene Fristen für den Umgang mit Nutzerbeschwerden zu strafbaren Inhalten vor. Offensichtlich strafbare Inhalte sollen demnach binnen 24 Stunden nach Eingang der Beschwerde gelöscht oder gesperrt werden. Über andere gemeldete Inhalte müssen die Netzwerkbetreiber unverzüglich, in der Regel innerhalb von 7 Tagen nach Eingang der Beschwerde, entscheiden.

In schwierigen Fällen kann die Frist auch überschritten werden. Auch wenn das soziale Netzwerk eine Entscheidung über das Löschen oder Nichtlöschen auf eine vom BfJ anerkannte Einrichtung der „Regulierten Selbstregulierung“ überträgt. „Die Möglichkeit, in bestimmten, vor allem komplizierteren Fällen von der strikten 7-Tages-Frist abzuweichen, soll auch sicherstellen, dass das soziale Netzwerk nicht versehentlich Inhalte sperrt oder löscht, die nicht rechtswidrig sind“, heißt im BfJ.


Einen Haken hat die Umsetzung des NetzDG aber dennoch. Beim Bonner Amtsgericht, das in strittigen Fällen für eine Prüfung eingeschaltet werden soll, ist man weit entfernt davon, gerüstet zu sein. Es sei überhaupt nicht absehbar, in welchem Umfang Verfahren auf das Gericht zukommen, sagte die Amtsgerichtsdirektorin Birgit Niepmann dem Bonner „Generalanzeiger“.

Zudem rechnet sie damit, dass man es künftig mit teilweise schwierigen rechtlichen Entscheidungen zu tun bekomme. Denn es sei ein Unterschied, ob jemand eine Politikerin eine Schlampe nenne, was klar eine Beleidigung darstelle, oder ob ein Gedicht wie das von Jan Böhmermann über den türkischen Präsidenten zu bewerten sei.

KONTEXT

Warum das Gesetz gegen Hass umstritten ist

Welche Neuerungen schreibt das Gesetz vor?

Online-Netzwerke wie Facebook, Twitter und YouTube sollen "offenkundig strafbare Inhalte" binnen 24 Stunden nach dem Hinweis darauf löschen. Bei weniger eindeutigen Fällen ist eine Frist von sieben Tagen vorgesehen. Bei Verstößen sind Strafen von bis zu 50 Millionen Euro vorgesehen. Dazu soll es aber nur bei systematischer Missachtung der Regeln kommen und nicht bei einzelnen Fällen, betont die Bundesregierung. Auch sollen die Unternehmen künftig einen Ansprechpartner in Deutschland benennen, an den sich Bürger und Behörden mit Beschwerden wenden können und der binnen 48 Stunden reagieren soll.

Warum gibt es Widerstand gegen das Gesetz?

Die Internet-Firmen sehen sich dadurch gezwungen, selbst über die Rechtswidrigkeit von Inhalten zu entscheiden - was aber Sache der Gerichte wäre. Denn neben klar strafbaren Äußerungen gibt es viele nicht eindeutige Fälle. Netzaktivist Markus Beckedahl von Netzpolitik.org sprach von einer "Privatisierung der Rechtsdurchsetzung". Kritiker der Gesetzes sehen auch die Gefahr, Online-Netzwerke könnten in Zweifelsfällen Beiträge eher löschen, statt sie auf der Plattform zu lassen - um auf der sicheren Seite zu sein. Sie befürchten dadurch Einschnitte bei der Meinungsfreiheit.

Was sagt die Bundesregierung dazu?

Bundesjustizminister Maas erwartet kein "Overblocking" - weil Strafen nicht bei jedem Verstoß fällig würden und die Anbieter zum Geldverdienen grundsätzlich an mehr Inhalten interessiert seien. Stattdessen sei das Gesetz eine "Garantie der Meinungsfreiheit", weil damit Hetze gegen Andersdenkende beendet werden könne. Als Kompromissangebot an die Unternehmen sollen sie die Entscheidung in schwierigen Fällen auch einem neuen unabhängigen Gremium überlassen können, das dem Bundesamt für Justiz untersteht. Wie genau dieses Gremium ausgestaltet und besetzt werden soll, ist aber zunächst noch unklar.

Warum hält die Bundesregierung das Gesetz überhaupt für notwendig?

Die Politik kritisiert schon lange, Hass, Hetze und gefälschte Nachrichten würden nicht konsequent genug gelöscht - auch nachdem die Online-Firmen ihr Vorgehen Schritt für Schritt verschärft hatten. Laut einer jüngsten Studie von jugendschutz.net entfernte Twitter nur ein Prozent der gemeldeten strafbaren Inhalte, Facebook immerhin 39 Prozent. Maas versichert, es gehe bei dem Gesetz nur "darum, dass Äußerungen, die gegen Strafgesetze verstoßen, aus dem Netz gelöscht werden". In 14-monatigen Verhandlungen mit den Internet-Firmen sei aber zu wenig passiert.

Wie weit könnte der Widerstand der Internet-Branche gegen das Gesetz gehen?

Facebook beschritt den ungewöhnlichen Weg, eine ausführliche Stellungnahme zu dem Gesetz zu veröffentlichen. Darin argumentierte das weltgrößte Online-Netzwerk, der Entwurf sei verfassungswidrig, zu unklar formuliert und könne die Meinungsfreiheit einschränken. Es wird aber erwartet, dass die Konzerne nicht selbst vor das Verfassungsgericht ziehen, sondern stattdessen auf mögliche Klagen von Bürgern warten. Unterdessen versuchen Facebook und Googles Videoplattform YouTube unter anderem mit dem Einsatz künstlicher Intelligenz, den Kampf gegen Terror-Propaganda effizienter zu machen und damit etwas vom politischen Druck zu nehmen.

KONTEXT

Was man zu Hasskommentaren wissen sollte

Was ist "Hate Speech"?

Eine feste Definition des Begriffs "Hate Speech" gibt es nicht. Gemeint sind allgemein Meinungsäußerungen, die bestimmte Personen oder Personengruppen herabsetzen und verunglimpfen sollen. In der politischen Debatte geht es nur um solche Formen von Hate Speech, die gegen Gesetze verstoßen, insbesondere gegen Paragraphen des Strafgesetzbuchs (StGB). Ein Beispiel ist § 130 des Strafgesetzbuchs (Volksverhetzung). Diese Vorschrift verbietet es, zum Hass gegen eine nationale, rassische, religiöse oder durch ihre ethnische Herkunft bestimmte Gruppe, gegen Teile der Bevölkerung oder gegen einen Einzelnen wegen seiner Zugehörigkeit zu einer solchen Gruppe aufzustacheln oder zu Gewalt gegen sie aufzufordern. Außerdem ist danach unter bestimmten Umständen die Leugnung des Holocaust strafbar.

Quelle: Bundesjustizministerium.

Bundesjustizministerium

Wer definiert, welche Äußerungen rechtswidrige "Hate Speech" sind?

Weder das Bundesjustizministerium noch die vom Ministerium eingerichtete Task Force prüfen, ob konkrete Inhalte gegen Gesetze verstoßen und entscheiden daher auch nicht über die Entfernung von rechtswidrigen Inhalten. Diese Prüfung führen die in der Task Force vertretenen Unternehmen vielmehr in eigener Verantwortung und in eigener Zuständigkeit durch. Die Unternehmen haben zugesagt, hasserfüllte Inhalte und Aufstachelung zu Gewalt einerseits auf ihre Gemeinschaftsrichtlinien ("Community Standards") hin und andererseits auf Grundlage des deutschen Rechts zu überprüfen, sobald ihnen konkrete Inhalte dieser Art gemeldet worden sind.

Welche Themen werden betrachtet?

Thema der Task Force ist ganz generell der Umgang mit rechtswidrigen Hassbotschaften im Internet. Die Diskussion ist nicht auf rechtsextremistische Inhalte beschränkt, sondern umfasst rechtswidrige Aufrufe zu Hass und Gewalt unabhängig von ihren Motiven oder den Personen, gegen die sie sich richten. Fragen im Zusammenhang mit der Löschung konkreter Beiträge können nur die Unternehmen beantworten.

Verstößt die Löschung von Hassbotschaften gegen die Meinungsfreiheit?

In Deutschland gilt Meinungs- und Pressefreiheit. Das ist im Grundgesetz verankert. In Absatz 2 des entsprechenden Artikels 5 steht allerdings auch: "Diese Rechte finden ihre Schranken in den Vorschriften der allgemeinen Gesetze, den gesetzlichen Bestimmungen zum Schutze der Jugend und in dem Recht der persönlichen Ehre." Das heißt: Niemand darf sein Recht auf Meinungsfreiheit dafür nutzen, die Rechte anderer zu verletzen, zum Beispiel, indem er gegen sie hetzt, zu Gewalt aufruft oder sie verleumdet. Diese Gesetze gelten - sie müssen in sozialen Netzwerken aber konsequenter als bislang zur Anwendung kommen. Und nur darum geht es: Dass Kommentare, die gegen das Strafrecht verstoßen, gelöscht werden.

Wie unterscheidet sich das Löschen von rechtswidriger "Hate Speech" von der Strafverfolgung?

Die Strafverfolgung dient dazu, den verantwortlichen Autor zur Rechenschaft zu ziehen. Dies ist Sache der zuständigen Strafverfolgungsbehörden. Die Staatsanwaltschaften werden Anzeigen schnell prüfen und zur Anklage bringen, wenn die Voraussetzungen hierfür gegeben sind. Ziel des Löschens von rechtswidrigen Beiträgen ist es, für eine angemessene Kommunikationskultur zu sorgen und die vom Hass betroffenen Gruppen und Personen zu schützen. Die beiden Ziele ergänzen sich.

In welchem Verhältnis steht das Vorgehen der Task Force zum normalen Rechtsweg?

Die Task Force nimmt keine Prüfung von Inhalten vor und entscheidet auch nicht über die Entfernung von strafbaren Inhalten. Die strafrechtliche Verfolgung von Hasskriminalität im Internet obliegt den zuständigen Strafverfolgungsbehörden.