Aufmacherbild: (C) Geralt via Pixabay.de
Die einen befürchten digitale Zensur, die anderen hoffen auf bessere Ergebnisse bei der Identifikation und Löschung illegaler Inhalte als allein durch Algorithmen oder Massen-Sichtungen durch bemitleidenswerte Click-Worker in Drittwelt-Ländern. Was steckt hinter der Diskussion um „Trusted Flagger“. Wo ist Skepsis berechtigt, wo ist die Aufregung übertrieben?
„Digitale Stasi“, „modernes Denunziantentum“ – die Diskussionen in den sozialen Netzwerken schäumen hoch. So weit, so normal. Die jüngste Aufregungswelle bezieht sich auf die Entscheidung der Bundesnetzagentur, mit der Meldestelle „REspect!“ der Stiftung zur Förderung der Jugend in Baden-Württemberg einen ersten „Trusted Flagger“ für Online-Plattformen in Deutschland zuzulassen.
Dass der Präsident der Bundesnetzagentur, Klaus Müller, Parteimitglied der Grünen ist, ist für Skeptiker nur noch das Tüpfelchen auf dem i. Entsprechend ist im üblichen Diskussions-Tumult auch schon mal von „grüner Meinungsdiktatur“ und Ähnlichem mehr zu lesen.
Vertrauenswürdige Hinweisgeber und ihre Rolle
Warum geht es in der Sache? Trusted Flagger, übersetzt etwa „vertrauenswürdige Hinweisgeber“, sind ein Element, das im Digital Services Act (DSA) der EU ausdrücklich vorgesehen sind. Der DSA ist im November 2022 in Kraft getreten. Im Mai 2024 wurde er mit dem sogenannten Digitale-Dienste-Gesetz in deutsches Recht umgesetzt.
Die vertrauenswürdigen Hinweisgeber sollen dazu beitragen, illegale Inhalte auf Plattformen wie sozialen Netzwerken oder auch Online-Marktplätzen zügiger zu entfernen. In diesem Sinne illegal sind eindeutige Delikte wie sexuelle Ausbeutung von Kindern, gefälschte Produkte oder extremistische politische Äußerungen. Die Betreiber der Plattformen sind ohnehin verpflichtet, solche Inhalte zügig zu entfernen. Trusted Flagger sollen sie dabei unterstützen, indem sie „potenziell illegale Inhalte erkennen und melden“, wie es die EU-Kommission formuliert.
Zugelassen werden Trusted Flagger von den im DSA vorgesehenen sogenannten „nationalen Koordinatoren“ – in Deutschland eben der Bundesnetzagentur. Das wichtigste Kriterium bei dieser Entscheidung: die fragliche Organisation soll „besondere Sachkenntnisse und Kompetenzen in der Erkennung, Identifizierung und Meldung rechtswidriger Inhalte“ besitzen und nachweisen. Die Idee dahinter: da sich die Trusted Flagger regelmäßig mit rechtswidrigen Inhalten beschäftigten, soll deren Trefferquote bei der Meldung solcher Inhalte höher sein als bei den normalen Nutzerinnen und Nutzern.
Priorität bei der Bearbeitung
Der DSA legt fest, dass die Online-Plattformen Meldungen von Trusted Flaggers vorrangig behandeln müssen. Dies bedeutet jedoch nicht automatisch, dass sie die gemeldeten Inhalte auch tatsöchlich löschen müssen. Diese Entscheidung bleibt den Plattformen vorbehalten. Kommen sie nach Prüfung zu einem anderen Ergebnis, können sie die Meldung des Trusted Flaggers auch ignorieren. Auch die Zeit für eine solche Prüfung ist nicht fest vorgeschrieben – in der Praxis sollten eindeutige Fälle schneller, und inhaltlich schwierigere oder in einer Grauzone liegende Meldungen länger bearbeitet werden.
Der Streit in den sozialen Medien, aber ein Stück weit auch in der Fachwelt, dreht sich nicht zuletzt um die exakte Definition von „Hatespeech“ und „Fake News“. Da ist nicht gerade hilfreich, dass diese Begriffe in Deutschland keine eigenständigen Straftatbestände sind – wohl aber Straftaten wie Bedrohung, Beleidigung, üble Nachrede oder Verleumdung beinhalten können. Kritiker befürchten, dass diese Grauzone dazu führen könnte, dass unliebsame, aber legale Inhalte entfernt werden könnten.
Die Bundesnetzagentur widerspricht und betont, dass Meldungen immer nur auf der Grundlage geltender Gesetze erfolgen können. Und sollten Trusted Flagger die von ihnen erwartete Sorgfalt nicht erfüllen, kann ihnen ihr Sonderstatus auch wieder entzogen werden. Zu ihren Pflichten zählt, im Jahrestakt ausführliche Berichte über ihre Arbeit zu veröffentlichen.
Hohe Bußgelder erschweren die Diskussion
Weitere Bedenken in den hitzigen Diskussionen in einschlägigen Social-Media-Kanälen resultieren aus der Androhung hoher Bußgelder, wenn die Online-Plattformen gegen den DSA verstoßen. In extremen Fällen sieht der Digital Services Act für diesen Fall bis zu sechs Prozent des Jahresumsatzes vor. Allerdings: diese Strafandrohung sieht der DSA für Fälle vor, in denen Online-Anbieter überhaupt nicht kooperieren und sich zum Beispiel weigern, die zur Bearbeitung von Meldungen nötigen Strukturen schaffen. Selbst eindeutige Fehlentscheidungen der Plattformen sind dagegen nicht mit Bußgeldern bewehrt. Hinzu kommt: bei den wirklich großen Plattformen, die mehr als 45 Millionen Nutzer haben, sind für Verstöße gegen den DSA ohnehin die EU-Kommission und der für das Thema zuständige Koordinator zuständig, der derzeit in Irland sitzt.
Zudem sieht der DSA auch Mechanismen zur Anfechtung gelöschter Inhalte vor – dies wird durch die neue Gesetzgebung sogar einfacher als vorher. So muss die Urheberin oder der Urheber eines Posts über die Löschung informiert werden. Sie oder er hat im Gegenzug die Möglichkeit, sich über diese Entscheidung zu beschweren. Zu diesem Zweck wurden eigens Schlichtungsstellen eingerichtet, die eine niedrigschwelligere Widerspruchsmöglichkeit bieten sollen als eine Klage vor Gericht. Wobei auch letztere Betroffenen offen bleibt.
Zu viel Aufregung über Trusted Flagger?
Tendenziell wird der Einfluss von Trusted Flaggern in der aktuellen Debatte wohl überschätzt. Zumindest zeigt die bisherige Erfahrung, dass rein algorithmische Inhaltseinstufungen, wie sie etwa Facebook und YouTube eine Zeitlang eingesetzt haben, zu deutlich schlechteren Ergebnisse und zu erheblich mehr Widerspruch führen. Letztlich bleibt natürlich abzuwarten, wie sich die Alltagspraxis entwickelt. Eine komplexe Herausforderung bleibt der Schutz der digitalen Welt vor illegalen Inhalten auf jeden Fall. Und ihn einfach komplett zu ignorieren, wäre mit Sicherheit die schlechteste Lösung.