Werbung
Deutsche Märkte öffnen in 3 Stunden 18 Minuten
  • Nikkei 225

    37.780,35
    +151,87 (+0,40%)
     
  • Dow Jones 30

    38.085,80
    -375,12 (-0,98%)
     
  • Bitcoin EUR

    60.075,51
    -5,53 (-0,01%)
     
  • CMC Crypto 200

    1.391,28
    +8,70 (+0,63%)
     
  • Nasdaq Compositive

    15.611,76
    -100,99 (-0,64%)
     
  • S&P 500

    5.048,42
    -23,21 (-0,46%)
     

Gegen die Märchenerzähler

Facebook sagt den Falschmeldungen auf seiner Plattform den Kampf an und will mit Journalisten diese als solche kennzeichnen. Doch viele Experten sehen den Vorstoß kritisch und fordern weitergehende Maßnahmen.

ist sich sicher: Facebook übernimmt Verantwortung im Kampf gegen die Fake-News. Wie zum Beispiel mit dem ins Leben gerufenen Journalismus-Projekt, bei dem Facebook mit Medienunternehmen neue Möglichkeiten des Journalismus entwickeln will. Der Kampf gegen Fake-News, er wird auch mit einem Mehr an Qualität gewonnen. Und noch eine weitere Maßnahme soll diese Verantwortung kennzeichnen: In Deutschland will das soziale Netzwerk jetzt eine Meldemöglichkeit für Falschmeldungen einführen und mit dem Recherchezentrum „Correctiv“ zusammen arbeiten.

Das tut Not: In den Vereinigten Staaten sind sich viele Experten einig, dass Falschmeldungen und Halbwahrheiten die Stimmung für Donald Trump beeinflusst haben. Noch scheint das Thema kein großes Problem in Deutschland, doch die Gefahr besteht. Das sagt auch Bundeswahlleiter Dieter Sarreither in einem Gespräch mit der „Frankfurter Allgemeinen Sonntagszeitung“: Darin warnt er vor sogenannten Fake-News. Seiner Einschätzung zufolge könnten die sogar am Wahltag eine Rolle spielen, wenn zum Beispiel gemeldet würde, dass bestimmte Wahllokale geschlossen seien.

Falschmeldungen wie diesen will Sarreither „öffentlichkeitswirksam schnell entgegenwirken“. Und auch Facebook erkennt nun endlich seine Verantwortung und hat am Wochenende ein neues Verfahren vorgestellt: Wird eine Meldung als Falschnachricht von den Nutzern erkannt, wird das Recherchenetzwerk „Correctiv“ eine inhaltliche Prüfung vornehmen. Wird die Nachricht als falsch enttarnt, erhält sie einen entsprechenden Hinweis. Vielen Experten ist das noch nicht genug.

Für Facebook-Geschäftsführerin Sheryl Sandberg aber ist klar: „Wir wollen nicht entscheiden, was die Wahrheit ist. Sie Und ich glaube, niemand will, dass wir das tun.“ Also müsse man mit Dritten zusammenarbeiten, die Experten sind - mit dem gerade verkündeten Facebook Journalismus Projekt zum Beispiel. „Wenn wir sagen, dass wir das nicht selber übernehmen können, bedeutet das aber nicht, dass wir keine Verantwortung übernehmen wollen. Wir übernehmen Verantwortung“, sagte Sandberg in einem .

WERBUNG

In Bezug auf Hasskommentare meint Sandberg zudem, dass man sich an deutsches Recht halten würde. Wenn über illegale Inhalte Kenntnis erlangt würde, werden diese gelöscht: „ Aber unterhalb dieser Schwelle ist es eine gesellschaftliche Herausforderung, die nur gemeinsam von Unternehmen, Politikern und der Zivilgesellschaft gelöst werden kann“, so Sandberg weiter. In diese Maßnahme passt auch die Zusammenarbeit mit „Correctiv“.

Die Kooperation kann aber nicht die einzige sein. Das findet auch „Correctiv“-Leiter David Schraven und schreibt : „Wir sind davon überzeugt, dass dieser Ansatz alleine nicht ausreicht, Fake News nachhaltig zu bekämpfen. Es müssen viele verschiedene Ansätze gefunden werden.“ Das ganze Projekt sieht er zudem als einen Betatest.


Experten kritisieren Allgorithmen

Facebook hat lange auf sich warten lassen. Zu lange, findet Julia Krüger, freie Autorin beim Blog : In den sei das Kind bereits in den Brunnen gefallen. In Deutschland hingegen sei es noch nicht ganz zu spät, der „gefährlichen Polarisierung des Diskurses“ entgegenzuwirken. Doch die vorgeschlagenen Maßnahmen reichten nicht aus, meint Krüger: „Wichtig wäre vor allem, dass Facebook seinen Algorithmus transparent macht.“ Die Sozialwissenschaftlerin ist sicher: Facebook selbst hat einen großen Anteil an der Verbreitung von Fake News. Schließlich bestimmt das Unternehmen völlig intransparent über seinen Algorithmus selbst, welche Nachrichten im Newsfeed der Nutzer angezeigt werden – und welche nicht.

Auch Andre Wolf vom , der tagtäglich über aktuelle Falschmeldungen aufklärt, hält die Möglichkeit, Fake News markieren zu können, nur für eine „schnelle Interimslösung“. Langfristig müsse es darum gehen, den Nutzern Medienkompetenz zu vermitteln und sie dazu zu befähigen, falsche von echten Nachrichten zu unterscheiden. Wünschenswert sei deswegen zum Beispiel, dass Facebook in die Schulbildung investiere.

Wie schnell sich Nachrichten mit falschem Bezug bei Facebook verbreiten können, das hat das Handelsblatt selbst erlebt: Anfang vergangenen Jahres hatte die zweifelhafte Seite „Deutschland deckt auf“, auf der gegen Flüchtlinge und Andersdenkende gehetzt wird, einen Handelsblatt-Artikel gepostet und dabei die Überschrift verfälscht: „Regiobahn führt Frauenabteile ein, wegen Übergriffe durch Flüchtlinge" stand plötzlich über dem Artikel, obwohl es im Originalartikel keineswegs um Flüchtlinge ging und es auch keine Übergriffe gegeben hatte. Zwar veröffentlichte das Handelsblatt mehrere Tweets und Facebook-Beiträge, um sich von der Manipulation zu distanzieren. Doch die erfundene Überschrift waberte lange weiter durchs Netz und wurde von tausenden Facebook-Nutzern für wahr gehalten. Denn oft werden bei Facebook nur Headlines, nicht aber ganze Artikel gelesen.

„Spiegel Online“ und die „Münchner Abendzeitung“ haben ähnliche Erfahrungen mit der Manipulation ihrer Überschriften gemacht. Tatsächlich kann jeder Nutzer, der eine eigene Facebook-Seite betreibt, mit nur einem Mausklick Überschriften von Nachrichtenseiten ändern und damit ganz einfach Fake News verbreiten. Facebook ist das Problem bekannt. Bereits Anfang letzten Jahres hatte man versprochen, die Funktion zu überarbeiten und nur noch offiziellen Medienseiten das Editieren ihrer Headlines zu erlauben. Getan hat sich bislang aber: nichts.

KONTEXT

Was man zu Hasskommentaren wissen sollte

Was ist "Hate Speech"?

Eine feste Definition des Begriffs "Hate Speech" gibt es nicht. Gemeint sind allgemein Meinungsäußerungen, die bestimmte Personen oder Personengruppen herabsetzen und verunglimpfen sollen. In der politischen Debatte geht es nur um solche Formen von Hate Speech, die gegen Gesetze verstoßen, insbesondere gegen Paragraphen des Strafgesetzbuchs (StGB). Ein Beispiel ist § 130 des Strafgesetzbuchs (Volksverhetzung). Diese Vorschrift verbietet es, zum Hass gegen eine nationale, rassische, religiöse oder durch ihre ethnische Herkunft bestimmte Gruppe, gegen Teile der Bevölkerung oder gegen einen Einzelnen wegen seiner Zugehörigkeit zu einer solchen Gruppe aufzustacheln oder zu Gewalt gegen sie aufzufordern. Außerdem ist danach unter bestimmten Umständen die Leugnung des Holocaust strafbar.

Quelle: Bundesjustizministerium.

Bundesjustizministerium

Wer definiert, welche Äußerungen rechtswidrige "Hate Speech" sind?

Weder das Bundesjustizministerium noch die vom Ministerium eingerichtete Task Force prüfen, ob konkrete Inhalte gegen Gesetze verstoßen und entscheiden daher auch nicht über die Entfernung von rechtswidrigen Inhalten. Diese Prüfung führen die in der Task Force vertretenen Unternehmen vielmehr in eigener Verantwortung und in eigener Zuständigkeit durch. Die Unternehmen haben zugesagt, hasserfüllte Inhalte und Aufstachelung zu Gewalt einerseits auf ihre Gemeinschaftsrichtlinien ("Community Standards") hin und andererseits auf Grundlage des deutschen Rechts zu überprüfen, sobald sie ihnen konkrete Inhalte dieser Art gemeldet worden sind.

Welche Themen werden betrachtet?

Thema der Task Force ist ganz generell der Umgang mit rechtswidrigen Hassbotschaften im Internet. Die Diskussion ist nicht auf rechtsextremistische Inhalte beschränkt, sondern umfasst rechtswidrige Aufrufe zu Hass und Gewalt unabhängig von ihren Motiven oder den Personen, gegen die sie sich richten. Fragen im Zusammenhang mit der Löschung konkreter Beiträge können nur die Unternehmen beantworten.

Verstößt die Löschung von Hassbotschaften gegen die Meinungsfreiheit?

In Deutschland gilt Meinungs- und Pressefreiheit. Das ist im Grundgesetz verankert. In Absatz 2 des entsprechenden Artikels 5 steht allerdings auch: "Diese Rechte finden ihre Schranken in den Vorschriften der allgemeinen Gesetze, den gesetzlichen Bestimmungen zum Schutze der Jugend und in dem Recht der persönlichen Ehre." Das heißt: Niemand darf sein Recht auf Meinungsfreiheit dafür nutzen, die Rechte anderer zu verletzen, zum Beispiel, indem er gegen sie hetzt, zu Gewalt aufruft oder sie verleumdet. Diese Gesetze gelten - sie müssen in sozialen Netzwerken aber konsequenter als bislang zur Anwendung kommen. Und nur darum geht es: Dass Kommentare, die gegen das Strafrecht verstoßen, gelöscht werden.

Wie unterscheidet sich das Löschen von rechtswidriger "Hate Speech" von der Strafverfolgung?

Die Strafverfolgung dient dazu, den verantwortlichen Autor zur Rechenschaft zu ziehen. Dies ist Sache der zuständigen Strafverfolgungsbehörden. Die Staatsanwaltschaften werden Anzeigen schnell prüfen und zur Anklage bringen, wenn die Voraussetzungen hierfür gegeben sind. Ziel des Löschens von rechtswidrigen Beiträgen ist es, für eine angemessene Kommunikationskultur zu sorgen und die vom Hass betroffenen Gruppen und Personen zu schützen. Die beiden Ziele ergänzen sich.

In welchem Verhältnis steht das Vorgehen der Task Force zum normalen Rechtsweg?

Die Task Force nimmt keine Prüfung von Inhalten vor und entscheidet auch nicht über die Entfernung von strafbaren Inhalten. Die strafrechtliche Verfolgung von Hasskriminalität im Internet obliegt den zuständigen Strafverfolgungsbehörden.