Werbung
Deutsche Märkte geschlossen
  • DAX

    17.737,36
    -100,04 (-0,56%)
     
  • Euro Stoxx 50

    4.918,09
    -18,48 (-0,37%)
     
  • Dow Jones 30

    37.986,36
    +210,98 (+0,56%)
     
  • Gold

    2.403,20
    +5,20 (+0,22%)
     
  • EUR/USD

    1,0658
    +0,0011 (+0,11%)
     
  • Bitcoin EUR

    60.405,31
    +790,61 (+1,33%)
     
  • CMC Crypto 200

    1.379,81
    +67,19 (+5,12%)
     
  • Öl (Brent)

    83,21
    +0,48 (+0,58%)
     
  • MDAX

    25.989,86
    -199,58 (-0,76%)
     
  • TecDAX

    3.187,20
    -23,64 (-0,74%)
     
  • SDAX

    13.932,74
    -99,63 (-0,71%)
     
  • Nikkei 225

    37.068,35
    -1.011,35 (-2,66%)
     
  • FTSE 100

    7.895,85
    +18,80 (+0,24%)
     
  • CAC 40

    8.022,41
    -0,85 (-0,01%)
     
  • Nasdaq Compositive

    15.282,01
    -319,49 (-2,05%)
     

Warum es für Facebook und Google so schwer zu verhindern ist, dass gewalttätige Inhalte gestreamt werden

Ganz gleich, wie hart Google, Facebook und andere Websites daran arbeiten, Videos des Christchurch-Massakers aus ihren Videodiensten zu löschen, sie werden es niemals unterbinden können. (AP Foto / Mark Baker)
Ganz gleich, wie hart Google, Facebook und andere Websites daran arbeiten, Videos des Christchurch-Massakers aus ihren Videodiensten zu löschen, sie werden es niemals unterbinden können. (AP Foto / Mark Baker)

Facebook (FB), Googles YouTube (YouTube) und Twitter (TWTR) erleben einen gewaltigen Rückschlag, nachdem ein mutmaßlicher Scharfschütze eine Massenerschießung auf Facebook live gestreamt hat.

Die drei Unternehmen arbeiten daran, jegliche Spuren des Videos aus ihren Diensten zu entfernen, nachdem am Freitag in zwei Moscheen in Christchurch, Neuseeland, Dutzende von Menschen getötet wurden. Einige der Morde wurden live übertragen.

Aber die schiere Größe ihrer Netzwerke und die unglaubliche Anzahl von Benutzern macht dies zu einer schwierigen Aufgabe – selbst für die größten Technologieunternehmen der Welt.

Kampf auf verlorenem Posten

Facebook teilte mit, dass es versucht habe, die Verbreitung des Videos zu verhindern, nachdem die neuseeländische Polizei das Unternehmen über den Stream informiert hatte.

WERBUNG

„Wir löschen auch jegliche zustimmenden Kommentare oder jegliche Unterstützung für das Verbrechen und den Schützen oder die Schützen, sobald wir davon erfahren. Wir werden weiterhin direkt mit der neuseeländischen Polizei zusammenarbeiten, während diese ihre Ermittlungen fortsetzt“, sagte Mia Garlick von Facebook Neuseeland.

Für einige Kritiker hat das soziale Netzwerk jedoch nicht schnell genug reagiert. „Facebook sollte in der Lage sein, einen solchen Live-Stream innerhalb von ein oder zwei Minuten herunterzunehmen“, sagte Sinan Aral, ein David-Austin-Professor für Management am MIT, sowie Gründungspartner von Manifest Investment Partners.

Google gibt an, Tausende von YouTube-Videos gelöscht zu haben, die sich auf die Angriffe bezogen hatten. Das Unternehmen nutzt eine Smart-Detection-Technologie, um Videos automatisch zu markieren und deren Anzeige zu verhindern. Laut Google können mit dieser Technologie 73 % aller gekennzeichneten Videos entfernt werden, bevor sie angesehen werden. Google sagt auch, dass es die Mehrheit aller Videos mit gewalttätigem Extremismus löschen könne, bevor diese 10-mal aufgerufen wurden.

Mit mehr als einer Milliarde Menschen auf YouTube und mehr als zwei Milliarden auf Facebook gleicht die Überwachung dermaßen vieler Inhalte dem Versuch, einen Tsunami mit einer Fliegengittertür zurückzuhalten. Es gibt einfach keine Möglichkeit für Facebook oder Google, Personen daran zu hindern, gewalttätige oder ausbeuterische Inhalte hochzuladen.

Die neuseeländische Premierministerin Jacinda Ardern spricht am 16. März 2019 in Wellington, Neuseeland, vor den Medien.
Die neuseeländische Premierministerin Jacinda Ardern spricht am 16. März 2019 in Wellington, Neuseeland, vor den Medien.

(Foto von Mark Tantrum / Getty Images)Abgesehen von einer Art Verzögerungspuffer, der es den Unternehmen ermöglicht, Inhalte zu sichten, bevor diese für die breite Öffentlichkeit verfügbar sind, kann keines der beiden Unternehmen das Live-Streaming von Gewalttaten verhindern.

Dann ist da noch die Tatsache, dass eine der größten Stärken des Internets – die Möglichkeit, Informationen einfach auszutauschen und zu verbreiten – verwendet werden kann, um gewalttätige Inhalte schnell in Umlauf zu bringen.

Einzelpersonen können Teile des Videos zuschneiden oder leicht ändern, um die Zensoren zu umgehen und das Video weiter zu verbreiten. Ich konnte am Freitag um 16:00 Uhr auf YouTube immer noch eine Version des Videos finden, bei dem die Gesichter der Opfer verpixelt waren, aber das Gesicht des Schützen und die Attacke sichtbar.

Facebook arbeitet daran, visuell ähnliche Videos zu erkennen und verwendet Audiotechnologie, um Teile eines Videos zu erkennen, die verändert wurden, um die optischen Erkennungssysteme zu umgehen.

Unabhängig davon, wie sehr Facebook, Twitter, Google und andere Social-Media-Netzwerke die Verbreitung des Moscheevideos eindämmen – sie kämpfen auf verlorenem Posten. Sobald etwas online verfügbar ist, ist es fast sicher, dass es dort für immer bleibt.

Jemand hat es irgendwo abgespeichert und kann es mit Leichtigkeit hochladen und an andere weitergeben, die es wiederum nach Belieben herunterladen, freigeben und wieder hochladen können – wenn nicht auf Facebook und YouTube, dann woanders.

Tragen die Tech-Unternehmen Verantwortung für den Inhalt?

Obwohl der Schütze den Angriff auf Facebook gestreamt hat und das Video von anderen Nutzern auf YouTube hochgeladen wurde, wird es wahrscheinlich weder für Facebook noch für Google rechtliche Konsequenzen haben, dass die Inhalte über ihre Dienste verbreitet wurden.

„Es ist unwahrscheinlich, dass sie mit rechtlichen Problemen konfrontiert werden“, erklärte Kendra Albert, klinischer Dozent an der Cyberlaw Clinic der Harvard Law School. „Und das aufgrund eines bestimmten Gesetzes – Paragraph 230 des Communications Decency Act.“

Laut Albert stellt Paragraph 230 sicher, dass Unternehmen wie Facebook, YouTube, Twitter und andere nicht dafür verantwortlich gemacht werden können, was Drittnutzer in ihren Diensten posten.

Wie Albert erläutert, erklärt Paragraph 230, warum Unternehmen wie Yelp nicht für Benutzer verantwortlich sind, die betrügerische Bewertungen von Restaurants veröffentlichen, oder warum Nachrichtenseiten nicht für Kommentatoren haften, die hetzerische Kommentare veröffentlichen. Die meisten großen Technologiefirmen haben ihre eigenen Benutzerrichtlinien und versuchen sicherzustellen, dass diese befolgt werden. Außerdem entfernen sie besonders abstoßende Posts – aber selbst Kommentiersysteme lassen sich täuschen.

Daniel Howley