Terrorabwehr – Facebook, Twitter und Co. in der Verantwortung!

Nun ist die terroristische Bedrohung auch in Deutschland angekommen. Und alle beeilen sich zu versichern, dass man im Netz etwas unternehmen wird, um die Verbreitung terroristischer Inhalte online zu verhindern. Aber kann das eine Beruhigung sein? Wissen wir doch inzwischen, dass es Algorithmen sind, die uns diese Sicherheit geben sollen. Und welche unterschiedlichen Praktiken und Strategien wenden die Unternehmen an?

 

Gemeinsame Datenbank – Microsofts „Hashes“ als Lösung?

Facebook, Twitter, Microsoft und YouTube wollen alle digitalen Fingerabdrücke unerwünschter Inhalte in einer gemeinsamen Datenbank speichern. Darüber hinaus sollen diese „digitalen Fingerabdrücke“ von Terrorbildern, terroristischen Rekrutierungsvideos bzw. -Bildern auch untereinander ausgetauscht werden. So klingt zumindest die gemeinsame Presseerklärung vom 6. Dezember 2016. Die Lösung sind sogenannte #Hashes, die nur Rückschluss auf ein bestimmtes Foto oder Video zulassen sollen. Damit wäre eine schnellere Identifizierung und Austauschen von radikalisierenden Inhalten möglich. Der digitale Fingerabdruck „Hash“ wurde ursprünglich von Microsoft entwickelt und erkennt auch Audio- und Videodateien wieder, die verfremdet bzw. nachbearbeitet wurden.

Alle beteiligten Unternehmen versprechen sich von dieser Kooperation mehr Effizienz in der Bekämpfung terroristischer Inhalte. Betont wurde bei der Presseerklärung allerdings auch, dass alle teilnehmenden Unternehmen unabhängig voneinander bestimmen, welche Bild- und Video-Hashes in die gemeinsame Datenbank übertragen werden.

Unterschiedliche Regelungen – intransparente Kontrollen

Der Umgang mit terroristisch anmutenden Inhalte wird in den Unternehmen ungleich gehandhabt. Mark Zuckerberg hat bei Facebook alles verboten, was auch nur als geringster Hinweis auf die Unterstützung einer terroristischen Organisation dient. Bei YouTube ist der Begriff etwas weiter gefasst: nur eindeutige Rekrutierungsvideos und solche die zur Gewalt aufrufen sind dort verboten.

Markiert also Facebook ein entsprechendes Thema, heißt das noch lange nicht, dass Twitter, Microsoft oder YouTube diesen Inhalt als ebenfalls terroristisch einstufen. Außerdem führt das System zu einer ungesunden und überhöhten Meldezahl, so sagen die Kritiker.

Wer bestimmt dann, welche Inhalte terroristischer Natur sind? Microsofts System wurde bereits sehr erfolgreich bei der Bekämpfung von Kinderpornografie eingesetzt. Allerdings ist hier die Zuordnung der Inhalte eindeutiger und damit auch einfacher zu handhaben.

Denken wir nur an die fehlerhafte Identifizierung der Bilder auf Google und Co, bedeutet dieses Vorgehen eine Erhöhung der Fehlerquote bei der Identifizierung bis zur Löschung eventuell wichtiger Nachrichten.

Soll auch Europol die Technik nutzen?

Wie gehen die vier Unternehmen in Zukunft mit staatlichen Institutionen um? Europol zeigt an einer solchen Meldestelle großes Interesse. Hätte man auf EU-Ebene dadurch Zugriff auf eine der umfangreichsten Datenbanken. Doch was würde das bedeuten? Kooperationen von Facebook, Twitter, Microsoft und YouTube mit staatlichen Organisationen würden die rechtsstaatlichen Grundsätze außer Kraft setzen. Denn der Zensurmechanismus der Unternehmen ist und wird vollkommen intransparent bleiben. Die Internetriesen würden ein Machtpotenzial entwickeln, dass ihnen hinsichtlich der Strafverfolgung nicht zusteht.

Deshalb muss Europa endlich dafür sorgen, seine eigenen Systeme kompatibel und einheitlich zu gestalten und einen problemlosen Datenaustausch zu forcieren. BKA-Präsident Holger Münch analysiert es wie folgt: „In Europa haben wir zu viele Systeme, die nebeneinanderstehen und nicht miteinander kompatibel sind“. Innerhalb des Schengen-Informations-Systems seien zum Beispiel biometrische Daten nicht abfragbar. Ungeklärt ist auch die Zuständigkeit von Polizeibehörden, Zollbehörden und Geheimdiensten. Die EU kann jedoch ihre Verantwortung nicht abschieben, sondern muss sich dringend selbst darum kümmern!

Der Ruf nach Zensur wird lauter

Ende November berichtete die New York Times, dass Facebook für China einen Zensurmechanismus entwickle, der Postings schon vor der Veröffentlichung in bestimmten geografischen Regionen unterdrücke. Dies steht im Gegensatz zu der bisherigen Praxis: momentan müssen die Postings erst gemeldet werden, bevor sie blockiert werden können. Für die neue Software soll laut Facebook „einer dritten Seite“ erlaubt werden, Einträge und Schlagworte zu kontrollieren.

Der Grund ist eindeutig: Facebook möchte den chinesischen Markt erobern. Doch der gefährliche Nebeneffekt ist die Tatsache, dass damit unüberprüfbare Möglichkeiten zur Unterdrückung von Inhalten möglich sind.

Was wollen wir eigentlich mit dieser Zensur erreiche? Sollen private Unternehmen die Richter unserer Meinungsfreiheit werden? Soll keine rechtsstaatliche Kontrolle mehr stattfinden? Die Fragen stellen, heißt sie beantworten: Nein, das kann und darf nicht sein! Die Politik ist in der Verantwortung!

Muss Gabriels Stinkefinger gelöscht werden?

Was aus dem Netz herausgefiltert werden muss, ist für Innenminister Thomas de Maizière klar: Aufrufe zu Hass und Bilder, die zu terroristischen Anschlägen auffordern. Dabei tauchen jedoch viele Fragen auf: für wen zum Beispiel ist Sigmar Gabriels Stinkefinger ein Aufruf zu Hass? Oder sind die Bilder vom Anschlag in Nizza radikalisierend, die Polizisten zeigen, wie sie eine Muslima auffordern, sich zu entkleiden?

Im Rahmen der Terrorismus-Fahndung erscheint ein Upload-Filter – wie sie Facebook, Twitter, Microsoft und YouTube vorgeschlagen haben – als sinnvolle Maßnahme. Allerdings zeigen die beschriebenen Beispiele, dass die Technik dort problematisch ist, wo es keine feste Definition gibt und geben kann, wonach gesucht werden muss. Und damit ist der Willkür Tür und Tor geöffnet. Auf der Twitterseite des Bundesinnenministeriums fragte ein User nach der Definition für „Hate Speech“. Die Antwort lautete, dass es eine konkrete Definition nicht gibt.

Solche Ausführungen zeigen, dass es den jeweiligen privaten Internetkonzernen obliegt, zu entscheiden, welche Inhalte terroristischer Art sind und welche nicht. Damit geben wir nicht nur einen relevanten Teil staatlicher Kontrollen, sondern auch unsere Meinungsfreiheit ein Stück weit auf. Und Experten sprechen sogar schon von einem sogenannten Overblocking, da die Betreiber ihre Zensurmechanismen im Zweifel stärker einstellen als nötig.

Bildquelle: Colourbox ID #16450457

Hinterlasse einen Kommentar