Das Geschäft mit den Lügen

Facebook will im Kampf gegen Fake News den Auftraggebern und Verbreitern den Geldhahn zudrehen und verbannt entsprechende Werbeanzeigen von der Plattform. Denn mit den Halbwahrheiten und Lügen lässt sich Kasse machen.


Fake News sind spätestens seit dem US-Wahlkampf ein Thema, das mal mit mehr, mal mit weniger Sachlichkeit debattiert und analysiert wird. Manch einer spricht von einer Gefahr für die Demokratie, andere halten sie für ein aufgebauschtes Phänomen, so alt wie die Menschheit selbst. Tatsache ist aber: Selbst wenn an Stammtischen und in Hinterzimmern Halbwahrheiten und Verschwörungstheorien verbreitet wurden, hat sich in Zeiten der Digitalisierung doch etwas verändert: die Reichweite.

Plattformen wie Facebook oder Twitter versprechen zwar grenzenlose Kommunikation, haben es bislang aber nicht geschafft, die dunklen Seiten der digitalen Offenheit vollständig aus ihren Nachrichtenströmen zu verbannen. Auch die Politik hat das erkannt: In Deutschland soll das Netzwerkdurchsetzungsgesetz von Justizminister Heiko Maas die Plattformen dazu zwingen, Hass und Fälschung schneller zu identifizieren und zu eliminieren – andernfalls droht eine Geldstrafe.


Facebook verschärft nun seine Kampagne gegen die Verbreiter solcher Falschmeldungen erneut: Seitenbetreiber, die wiederholt bereits angezweifelte Inhalte geteilt haben, dürfen künftig nicht länger Werbeanzeigen auf der Plattform schalten. Diese Neuerung werde dazu beitragen, die Verbreitung von Falschmeldungen weiter zu reduzieren, da eine weitere Verbreitung durch Seitenbetreiber auf diese Weise unwirtschaftlich werde, heißt es in einem Blog-Eintrag. „Wir haben gesehen, dass es Seitenbetreiber gibt, die Werbeanzeigen auf Facebook gezielt dazu nutzen, ein großes Publikum aufzubauen und somit eine größere Reichweite für Falschmeldungen zu erzielen.“

Bei dem Thema ist in der Tat viel geld im Spiel: Der Softwareanbieter Trend Micro sah sich in einer im Juli veröffentlichten Studie das Geschäft mit dem Fake News genauer an – und kam zu überraschenden Ergebnissen. Im Darknet und auf ominösen Marktplätzen bieten Anbieter ganze Pakete für das Erstellen und Verbreiten derartiger Meldungen an. Für das Verfassen einer Meldung will ein Anbieter rund 30 Dollar für bis zu 1.500 Zeichen. Für die Verbreitung einer Pressemitteilung in den entsprechenden Kanälen schlagen rund 802 Dollar zu Buche.

Ein Anbieter verlangt für Inhalte, die von einem Follower-starken Nutzer auf der chinesischen Plattform Weibo geteilt und beworben werden, sogar rund 180.000 Dollar, so Trend Micro. Die Beeinflussung einer Online-Petition schlägt bei einem anderen Anbieter mit rund 1000 Dollar zu Buche. Für den Spotpreis von 29 Dollar gibt es 5000 Follower auf Twitter, ein „Bestseller“, wie der Anbieter selbst ausweist.


Hinter solchen Accounts in den sozialen Netzwerken stecken oft sogenannte Social Bots. Quasi Mini-Maschinen, die von wenigen Personen gesteuert werden, und zum Beispiel spezifische Meldungen reichweitenstark veröffentlichen und weiterverbreiten können. Britische Forscher entdeckten Anfang des Jahres ein Botnetz, also einen Zusammenschluss von mehreren gefälschten Accounts, das bis zu 350.000 der Mini-Maschinen beinhalten könnte. Den Wissenschaftlern aus London war aufgefallen, dass die Accounts Textteile aus „Star Wars“ von sich gaben. Der Name „Star-Wars-Botnetz“ war geboren. Einmal aktiviert, könnte so eine Maschinen-Armee versuchen, Einfluss auf die öffentliche Meinung zu nehmen.

Das Geld verdienen nicht nur die Erschaffer von Social Bots oder die Verfasser von Fake News – auch die Betreiber von Plattformen, die derartige Inhalte verbreiten. Ein Beispiel ist die fast schon zur Fake-News-Ikone aufgestiegene Meldung während des US-Wahlkampfs, dass Papst Franziskus eine Wahlempfehlung für Donald Trump ausgesprochen hätte. Selbst wenn damit nicht auf politische Willensbildung Einfluss genommen werden sollte, ließ sich mit der Verbreitung Geld machen. Denn je reichweitenstärker eine Seite ist, desto attraktiver wird sie auch für automatisch ausgespielte Anzeigenplätze, für die der Inhaber der Seite dann Erlöse erhält.


Facebook und Mozilla verschärfen die Maßnahmen


Zuvor hatte Facebook bereits Anzeigen blockiert, die einzelne Geschichten und Inhalte bewerben, deren Wahrheitsgehalt von unabhängigen Faktenprüfern bereits angezweifelt wurde. Mit der neuen Richtlinie geht Facebook nun noch einen Schritt weiter. Seiten-Betreiber, die als systematische Fake-News-Verbreiter aufgefallen sind, können künftig generell nicht mehr für sich selbst auf Facebook werben. Auch Anzeigen für nicht gefälschte Inhalte wären dann nicht mehr möglich, wenn die Betreiber zuvor negativ aufgefallen sind.

Facebook, das größte soziale Netzwerk der Welt, reagiert schon seit geraumer Zeit auf die immer neu aufkommenden Vorwürfe, es würde zu zögerlich gegen die Schandflecken der digitalen Kommunikation vorgehen. Auf der einen Seite setzt das Netzwerk auf eigene Initiativen wie das „Facebook Journalism Project“, das die Sichtbarkeit von etablierten Medien auf der Plattform verbessern soll. Unlängst wurde deshalb in einer Neuerung das „Publisher-Logo“ bei Nachrichten prominenter platziert. Auf der anderen Seite unterstützt das Unternehmen aus Kalifornien Initiativen wie die „News Integrity Initiative“ des New Yorker Journalistik-Professors Jeff Jarvis. Der will ein internationales Netzwerk zur Erforschung und Verbesserung der Medienkompetenz aufbauen.


Doch das reicht nicht: Vor geraumer Zeit kündigte Facebook-Gründer Mark Zuckerberg an, die Mitarbeiterzahl, die sich mit der Bewertung derartiger Inhalte beschäftigen, weltweit von 4500 auf 7500 aufzustocken. Auch in Deutschland wird die Personaloffensive bereits umgesetzt: In Essen soll im Herbst ein neues Team seine Arbeit aufnehmen, dafür sollen 500 neue Mitarbeiter am Standort eingestellt werden. Facebook unterhält bereits ein sogenanntes Löschzentrum in Berlin, betrieben von der Bertelsmann-Tochter Arvato.

Facebook ist mit seiner Maßnahme nicht allein: Auch Browser-Anbieter Mozilla will den Profiteuren von Fake News den Geldhahn zudrehen. Die „Information Trust Initiative“ will verschiedene Methoden fördern und erforschen, die beim Aufspüren und Verhindern von Falschnachrichten helfen sollen. Vorgestellt hat die Initiative Chief Innovation Officer Katharina Borchert, die gegenüber dem Handelsblatt die Gefahr von Falschnachrichten verdeutlichte: „Falschnachrichten hat es schon immer gegeben – von Propaganda im Mittelalter bis zur Yellow Press“, sagte die Managerin.

Allerdings habe die Technologie etwas verändert: Heute würden die guten Seiten der digitalen Revolution missbraucht, um diesen Inhalten eine nie dagewesene Reichweite zu liefern: „Es geht um die Produktion und die Verbreitung, aber auch die Finanzierung – hinter Fake News steckt nicht nur Ideologie, sondern ein riesiger Markt.“ Ein Markt, für den es zumindest etwas schwieriger geworden ist.

KONTEXT

Was man zu Hasskommentaren wissen sollte

Was ist "Hate Speech"?

Eine feste Definition des Begriffs "Hate Speech" gibt es nicht. Gemeint sind allgemein Meinungsäußerungen, die bestimmte Personen oder Personengruppen herabsetzen und verunglimpfen sollen. In der politischen Debatte geht es nur um solche Formen von Hate Speech, die gegen Gesetze verstoßen, insbesondere gegen Paragraphen des Strafgesetzbuchs (StGB). Ein Beispiel ist § 130 des Strafgesetzbuchs (Volksverhetzung). Diese Vorschrift verbietet es, zum Hass gegen eine nationale, rassische, religiöse oder durch ihre ethnische Herkunft bestimmte Gruppe, gegen Teile der Bevölkerung oder gegen einen Einzelnen wegen seiner Zugehörigkeit zu einer solchen Gruppe aufzustacheln oder zu Gewalt gegen sie aufzufordern. Außerdem ist danach unter bestimmten Umständen die Leugnung des Holocaust strafbar.

Quelle: Bundesjustizministerium.

Bundesjustizministerium

Wer definiert, welche Äußerungen rechtswidrige "Hate Speech" sind?

Weder das Bundesjustizministerium noch die vom Ministerium eingerichtete Task Force prüfen, ob konkrete Inhalte gegen Gesetze verstoßen und entscheiden daher auch nicht über die Entfernung von rechtswidrigen Inhalten. Diese Prüfung führen die in der Task Force vertretenen Unternehmen vielmehr in eigener Verantwortung und in eigener Zuständigkeit durch. Die Unternehmen haben zugesagt, hasserfüllte Inhalte und Aufstachelung zu Gewalt einerseits auf ihre Gemeinschaftsrichtlinien ("Community Standards") hin und andererseits auf Grundlage des deutschen Rechts zu überprüfen, sobald ihnen konkrete Inhalte dieser Art gemeldet worden sind.

Welche Themen werden betrachtet?

Thema der Task Force ist ganz generell der Umgang mit rechtswidrigen Hassbotschaften im Internet. Die Diskussion ist nicht auf rechtsextremistische Inhalte beschränkt, sondern umfasst rechtswidrige Aufrufe zu Hass und Gewalt unabhängig von ihren Motiven oder den Personen, gegen die sie sich richten. Fragen im Zusammenhang mit der Löschung konkreter Beiträge können nur die Unternehmen beantworten.

Verstößt die Löschung von Hassbotschaften gegen die Meinungsfreiheit?

In Deutschland gilt Meinungs- und Pressefreiheit. Das ist im Grundgesetz verankert. In Absatz 2 des entsprechenden Artikels 5 steht allerdings auch: "Diese Rechte finden ihre Schranken in den Vorschriften der allgemeinen Gesetze, den gesetzlichen Bestimmungen zum Schutze der Jugend und in dem Recht der persönlichen Ehre." Das heißt: Niemand darf sein Recht auf Meinungsfreiheit dafür nutzen, die Rechte anderer zu verletzen, zum Beispiel, indem er gegen sie hetzt, zu Gewalt aufruft oder sie verleumdet. Diese Gesetze gelten - sie müssen in sozialen Netzwerken aber konsequenter als bislang zur Anwendung kommen. Und nur darum geht es: Dass Kommentare, die gegen das Strafrecht verstoßen, gelöscht werden.

Wie unterscheidet sich das Löschen von rechtswidriger "Hate Speech" von der Strafverfolgung?

Die Strafverfolgung dient dazu, den verantwortlichen Autor zur Rechenschaft zu ziehen. Dies ist Sache der zuständigen Strafverfolgungsbehörden. Die Staatsanwaltschaften werden Anzeigen schnell prüfen und zur Anklage bringen, wenn die Voraussetzungen hierfür gegeben sind. Ziel des Löschens von rechtswidrigen Beiträgen ist es, für eine angemessene Kommunikationskultur zu sorgen und die vom Hass betroffenen Gruppen und Personen zu schützen. Die beiden Ziele ergänzen sich.

In welchem Verhältnis steht das Vorgehen der Task Force zum normalen Rechtsweg?

Die Task Force nimmt keine Prüfung von Inhalten vor und entscheidet auch nicht über die Entfernung von strafbaren Inhalten. Die strafrechtliche Verfolgung von Hasskriminalität im Internet obliegt den zuständigen Strafverfolgungsbehörden.