TERREG: „Ausnahmen sind nie die beste Lösung“
Ein Gespräch mit Anna Mazgal, Referentin für EU-Politik bei Wikimedia Deutschland, über die umstrittene „Verordnung zur Verhinderung der Verbreitung terroristischer Inhalte im Netz (TERREG)“ des Europäischen Parlaments.
Was ist in Ihren Augen das Problematische an TERREG?
ANNA MAZGAL: An TERREG hängt eine ganze Reihe von Problemen. Zum einen ist diese Verordnung für die Mitgliedsstaaten bindend, es gibt kaum Spielraum bei der Umsetzung. Noch entscheidender ist aber die Frage: Was sind eigentlich terroristische Inhalte? Die Definition fällt schwer. Wer für die einen als Terrorist gilt, kann für die anderen ein Held sein. Worauf also zielt TERREG? Es geht auf nationaler Ebene zum Beispiel um die Posts oder die Online-Kommunikation rechtsextremer Gruppierungen. Aber auch um Terrorismus außerhalb der EU, außerhalb unserer Rechtsprechung – vor allem um Inhalte, die als islamistische Propaganda eingestuft werden können. Aber wie wollen wir mit einem so allgemeinen Gesetz trennscharf zwischen politischer Rede und Propaganda unterscheiden?
Dennoch scheint die Verordnung gute Absichten zu verfolgen.
Niemand will Bilder von Folter oder Enthauptungen sehen. Das einzige Werkzeug ist, diese Inhalte zu entfernen, die Urheber*innen lassen sich auch nicht in der EU strafrechtlich verfolgen. So weit, so gut gemeint. Aber die Verordnung hat einen rassistischen Bias und kann gerade die ohnehin vulnerablen Gruppen, die Minderheiten einer Gesellschaft treffen. Zum Beispiel Menschen, die auf Arabisch kommunizieren oder Inhalte über Regime posten, deren Unterdrückung sie entkommen sind. Schon das bloße Sammeln von dokumentarischem Material über terroristische Verbrechen gerät ins Visier. Derselbe Inhalt könnte von einer terroristischen Organisation stammen, die um Unterstützung wirbt – oder ein nachrichtlicher Beitrag sein, der die Öffentlichkeit über diese Organisation informiert. Weil der Kontext keine Berücksichtigung findet, ist TERREG ein Schlag gegen die Meinungs- und die Pressefreiheit.
Welche grundsätzlichen Debatten über TERREG hätten geführt werden müssen?
Wir sollten uns grundsätzlich die Frage stellen: Wünschen wir uns eine gesamtgesellschaftliche Debatte über die postkolonialen Nachwehen und Verwerfungen, die weltweit Terrorismus erst entstehen lassen? Nein. Es geht nur darum, das Internet von bestimmten Inhalten zu säubern, damit das Problem aus dem Blickfeld verschwindet. Dabei haben Erhebungen durch das statistische Amt der EU, Eurostat, ergeben, dass überhaupt nur 6 Prozent der Nutzer*innen mit terroristischen Inhalten konfrontiert werden. Und schon das bleibt vage. Was empfindet jemand als „terroristisch“? Genügt es, eine Person ohne Haare mit Springerstiefeln zu sehen? Die Grundlage der gesamten Verordnung ist brüchig.
Wie soll die Verordnung in den Mitgliedstaaten umgesetzt werden?
Auf administrativer Ebene, was wiederum problematisch ist, weil dort ja die Interessensphäre der Politik waltet. In Deutschland soll aller Voraussicht nach das Bundeskriminalamt zuständig sein. Das Prozedere wäre: Jemand beim BKA identifiziert einen vermeintlich terroristischen Inhalt und fordert daraufhin den Plattformbetreiber auf, Facebook zum Beispiel, diesen unter der fraglichen URL nach TERREG zu löschen – und zwar innerhalb einer Stunde. Das gilt genauso für Wikipedia. Es wird nicht zwischen kommerziellen und nicht kommerziellen Plattformen unterschieden.
Was bedeutet das in der Praxis?
Für ein Projekt, das von einer ehrenamtlichen Community selbstverwaltet wird, ist eine solche Stundenfrist natürlich nicht umsetzbar. Was aber in unseren Augen viel schwerer wiegt: Es gibt keine Transparenz, keine juristische Instanz, die über die Rechtmäßigkeit dieser Löschung entscheidet, solange dagegen nicht geklagt wird. Es kann passieren, dass völlig legale Inhalte entfernt werden. Was dazu kommt: Diese Löschentscheidungen gelten EU-weit, auch über Grenzen hinweg. Videos, die in anderen Staaten ungerechtfertigt entfernt werden, stehen auch Nutzer*innen in Deutschland nicht mehr zu Verfügung. Es bedeutet außerdem, dass etwa ein Viktor Orbán gegen einen missliebigen Inhalt über ihn in Spanien vorgehen könnte, den er zur terroristischen Bedrohung erklären lässt.
Konnte Wikimedia Einfluss auf die Gestaltung von TERREG nehmen?
Der ursprüngliche Vorschlag schloss die Forderung ein, dass Plattformen sogenannte proaktive Maßnahmen gegen terroristische Inhalte ergreifen sollten. Das bedeutet de facto den Einsatz von Filtertechnologie. Wir wissen, dass diesen Filtern jede Trennschärfe fehlt. Der Algorithmus kann schließlich nicht unterscheiden, mit welcher Absicht ein Inhalt ins Netz gestellt wird. In der jetzigen Version sind die Uploadfilter nicht mehr vorgeschrieben, sondern optional. Was natürlich nicht bedeutet, dass sie nicht eingesetzt werden. Ein weiterer Punkt ist: TERREG zielt eben nicht nur auf die Löschung gewalttätiger Inhalte, sondern auch auf terroristische Propaganda, auf die „Verbreitung“ von Terrorismus allgemein.
Was heißt das konkret?
Das ist genau die Frage. Ein Beispiel: Im arabischen Raum besitzt Poesie einen hohen Stellenwert, auch Terroristen nutzen sie. Auf der Flagge des IS wird ein Koranvers zitiert. Wo immer sonst dieser Vers im Netz auftaucht, könnte TERREG greifen. Wir haben uns zusammen mit NGOs wie dem deutschen und dem französischen Chapter von „Reporter ohne Grenzen“ dafür stark gemacht, dass wenigstens sinnvolle Ausnahmen für die Kontexte etwa von Journalismus verankert werden, auf die man sich berufen kann. Aber Ausnahmen sind nie die beste Lösung. Es wäre besser, ein gutes Gesetz zu haben.
Wie ist der aktuelle Stand bezüglich TERREG?
TERREG wurde im Frühjahr 2021 beschossen und kurz danach wirksam, im Juni 2021. Das bedeutet, dass die Mitgliedsstaaten die Rechtsgrundlage haben, um die Umsetzung zu organisieren. Anwendung findet es vom 7. Juni 2022 an. Ab diesem Tag können die ersten Löschungen veranlasst werden.