Edit Policy: Die Sperrung von Donald Trump bei Twitter & Co. sorgt für Diskussionen. Dabei verstrickt sich vor allem die Bundeskanzlerin in Widersprüche
Vergangene Woche sorgte Bundeskanzlerin Merkel mit der Aussage für Aufsehen, sie sehe die Sperrung der Social Media-Accounts des US-Präsidenten Donald Trump aus Sicht der Meinungsfreiheit als problematisch an. Diese Entscheidung sei durch die Unternehmensführungen von Facebook und Twitter getroffen wurde, ohne dass es hierfür einen rechtlichen Rahmen gegeben habe.
Diese Aussage ist in zweierlei Hinsicht bemerkenswert. Denn es gibt sehr wohl einen rechtlichen Rahmen für die Moderation von Inhalten auf Social Media-Plattformen in den USA, an dem sich Twitter und Facebook orientiert haben. Außerdem wäre die Entscheidung in Deutschland, wo das Netzwerkdurchsetzungsgesetz den rechtlichen Rahmen absteckt, vermutlich genauso ausgefallen. Dennoch können wir aus dem Trump-Fall lernen, wie eine zeitgemäße europäische Plattformregulierung aussehen sollte.
Meinungsfreiheits-Doktrin in den USA
In der US-amerikanischen Verfassung hat die Meinungsfreiheit eine herausragende Stellung, was bereits daran zu erkennen ist, dass sie – so wie die Menschenwürde im deutschen Grundgesetz – allen anderen Grundrechten vorangestellt ist. Diejenigen, die in der Entscheidung von Twitter und Facebook eine Verletzung von Donald Trumps Meinungsfreiheit sehen, verkennen aber, dass dieses Grundrecht in den USA als klassisches Abwehrrecht gegen den Staat konzipiert ist. Trump wird das Recht zugestanden, nahezu jegliche Äußerung zu tätigen, die Verfassung verpflichtet aber kein Unternehmen, diese Äußerungen zu verbreiten.

Ganz im Gegenteil: Auch Unternehmen können sich auf den Ersten Zusatzartikel der US-Verfassung berufen, wenn sie darüber entscheiden, welchen Aussagen Dritter sie eine Plattform bieten. Laut der amerikanischen Doktrin wäre es eine Einschränkung der Meinungsfreiheit von Facebook und Twitter, wenn diese staatlich verpflichtet würden, bestimmte Aussagen zu verbreiten oder zu sperren.

Es wäre also falsch zu behaupten, die USA hätten keinen rechtlichen Rahmen, auch wenn man diesen Rahmen für falsch hält. Es war eine bewusste Entscheidung des US-Gesetzgebers, Plattformen absolute Freiheit über die Moderation von Inhalten zu geben. Diese Entscheidung wurde in den Neunziger Jahren bestätigt, nachdem ein Gericht eine Plattform für Aussagen ihrer Nutzer:innen in die Haftung genommen hatte, weil das Moderationsteam bestimmte Inhalte moderierte und die Plattform deshalb für alle Inhalte verantwortlich sei. Der Kongress verabschiedete daraufhin Section 230 des Communications Decency Act, um sicherzustellen, dass Unternehmen auch in Zukunft frei über die Moderation von Inhalten entscheiden könnten, ohne dadurch einem Haftungsrisiko ausgesetzt zu sein.
Der Staat sollte Meinungsfreiheit sicherstellen
Diese Herangehensweise lohnt es sich aus europäischer Perspektive durchaus zu hinterfragen. Einige Plattformen, allen voran Facebook, haben inzwischen eine so große Bedeutung für den öffentlichen Diskurs erlangt, dass willkürliche Entscheidungen über die Sperrung bestimmter Accounts durchaus eine Einschränkung der Meinungsfreiheit darstellen können. Das ist dann der Fall, wenn man Meinungsfreiheit nicht rein als Abwehrrecht gegen den Staat versteht, sondern darin auch eine staatliche Verpflichtung erkennt, die Rahmenbedingungen herzustellen, damit Menschen frei an politischen und gesellschaftlichen Debatten teilnehmen können. Eine Sperrung durch die großen Social Media-Plattformen kommt insofern schon einer Einschränkung der Meinungsfreiheit gleich, dass man sich zwar noch öffentlich äußern kann, aber wichtiger Möglichkeiten beraubt wird, von anderen Diskussionsteilnehmer:innen gehört zu werden.

Andererseits sollte diese Verpflichtung zur Wahrung der Meinungsfreiheit nicht so weit gehen, dass alle Plattformen verpflichtet werden, jegliche legalen Äußerungen zu dulden. Andernfalls dürfte es keine Löschung von erfundenen Informationen in Wikipedia-Artikeln mehr geben, keine spezialisierten Plattformen etwa für Kochrezepte, für Gaming oder für kindgerechte Inhalte, bei denen unpassende Inhalte gesperrt werden.

Die EU-Kommission hat insofern mit ihrem Entwurf für einen Digital Services Act, einer europaweiten Plattformregulierung, einen weisen Vorschlag für einen Mittelweg gemacht: Plattformen dürfen demnach zwar weiterhin ihre eigenen Moderationsregeln definieren, diese müssen aber transparent sein und bei deren Durchsetzung müssen sie die Meinungsfreiheit beachten. Dazu gehört, dass sie nicht willkürlich moderieren dürfen, dass Betroffene von Accountsperrungen ein Anrecht auf eine Begründung und menschliche Überprüfung haben – zur Not sogar vor Gericht. Die zügige Verabschiedung des Digital Services Act wäre also durchaus eine sinnvolle Lehre aus der Diskussion, die die Sperrung von Trumps Social Media-Accounts entfacht hat.
Bundesregierung verstrickt sich in Widersprüche
Trotz dieses gesetzgeberischen Handlungsbedarfs ist die Kritik von Kanzlerin Merkel an Twitter und Facebook verwunderlich. Sie hat zwar Recht, dass die Entscheidung über die Sperrung von Trumps Accounts nicht durch den Gesetzgeber, sondern durch Beschlüsse „der Unternehmungsführung von Social Media-Plattformen“ getroffen wurde, wie Regierungssprecher Seibert es formuliert. Genau zu solchen privatwirtschaftlichen Entscheidungen sind die Unternehmen aber auch in Deutschland nach dem NetzDG verpflichtet. Nach diesem Regelwerk können Plattformen mit Bußgeldern belegt werden, wenn sie es systematisch nicht schaffen, Inhalte binnen 24 Stunden zu sperren, die offensichtlich gegen bestimmte strafrechtliche Normen verstoßen. Dafür können sich die Plattformen auch nicht auf eine staatliche Einschätzung stützen, welche Aussagen offensichtlich rechtswidrig sind und welche nicht. Sie müssen diese Entscheidung selbst treffen.

Hätten Twitter und Facebook die Aussagen von Trump, die immer wieder von Nutzer:innen gemeldet wurden, nach den Kriterien des NetzDG beurteilt, wären sie mit hoher Wahrscheinlichkeit ebenfalls früher oder später zu dem Schluss gekommen, dass diese gegen Gesetze verstoßen – zumindest in Hinblick auf Aufrufe zu Gewalt. Einfacher wäre diese Entscheidung dadurch nicht gewesen. Das zeigt sich an dem Umstand, dass selbst das deutsche Bundesamt für Justiz, das mit der Durchsetzung des NetzDG gegenüber den Plattformen betraut ist, sich mit Entscheidungen über die Sperrung von Aussagen politischer Führungsfiguren äußerst schwertut.

Eine Beschwerde nach dem NetzDG gegen einen Tweet von Irans politischem Oberhaupt Chamenei, in dem dieser Israel als „bösartiges Krebsgeschwür“ bezeichnet hatte, das „ausgerottet“ werden müsse, wies das Bundesamt für Justiz mit der fadenscheinigen Begründung zurück, die Aussage stelle keine Volksverhetzung dar, weil sie sich nicht gegen einen Teil der in Deutschland lebenden Bevölkerung richte. In Deutschland lebende Israelis werden sich über diese Einschätzung wundern.

Es liegt die Vermutung nahe, dass das Bundesamt für Justiz, genau wie die Unternehmensführungen von Twitter und Facebook, vor der Sperrung von politischen Entscheidungsträger:innen zurückschrecken, weil sie politische Kontroversen vermeiden wollen. Das Problem der Sperrung rechtswidriger Inhalte (und des Schutzes legaler Inhalte vor widerrechtlichen Sperrungen) ist also nicht dadurch gelöst, dass man ein Gesetz zur Plattformregulierung verabschiedet. Für die Bewertung im Einzelfall, welche Aussagen tatsächlich strafbar sind, fehlt privaten Plattformen sowohl die juristische Expertise als auch die gebotene Neutralität, die Gerichte an den Tag legen.
Gefahr für Meinungsfreiheit durch Filter
Der aktuelle spektakuläre Einzelfall, bei dem Menschen in hohen Verantwortungspositionen bei den betroffenen Unternehmen eine sehr vorsichtige, vielleicht sogar zu zögerliche Entscheidung getroffen haben, dem scheidenden US-Präsidenten nicht länger eine Plattform für seine Aufrufe zu Gewalt und Missachtung eines demokratischen Wahlergebnisses zu bieten, verschleiert die wahren Probleme für die Meinungsfreiheit auf Plattformen. Man kann durchaus kritisieren, dass die Sperrung zu spät kam, nachdem Trump immer wieder durch Wahlmanipulation, die Androhung von Kriegsverbrechen und Aufrufe zu Gewalt aufgefallen war, dass erst mehrere Menschen bei dem Angriff auf das Kapitol ums Leben kommen mussten, ehe die Plattformen Trump die Tür zeigten. Ein rechtlicher Rahmen wie das NetzDG hätte diese Entscheidung jedoch kaum erleichtert, wie der Fall Chamenei zeigt.

Viel problematischer sind die alltäglichen Moderationsentscheidungen auf sozialen Medien, die von Algorithmen getroffen werden und bei denen es weder eine Erklärung über die Beweggründe der Sperrung noch einen effektiven Beschwerdemechanismus gibt. Hierfür einen rechtlichen Rahmen zu schaffen ist dringlicher denn je. Der Digital Services Act ist ein erster Schritt in die richtige Richtung Transparenz über Moderationsentscheidungen zu schaffen, aber er stellt die Praxis der Plattformen, vollautomatisiert zu sperren, nicht infrage. Zwar verpflichtet der Entwurf die Unternehmen nicht zum Einsatz von Uploadfiltern, Plattformen drohen aber trotzdem zu solchen Instrumenten zu greifen, um die Kosten für die Moderation von Inhalten niedrig zu halten. Das Europaparlament sollte sich deshalb für eine deutlichere Einschränkung der automatisierten Sperrungen von Inhalten einsetzen, um die Meinungsfreiheit im Netz effektiv zu schützen.

Die Texte der Kolumne “Edit Policy” stehen unter der Lizenz CC BY 4.0, hier übernommen von heise-online.
Zum Weiterlesen zum Thema:
Claudius Seidl/FAZ: Rettet Twitter vor der Politik!
Mathias Bröckers/telepolis: Clash der Konspirationen
Georg Diez/taz: Symbolische Notbremse

Über den/die Autor*in: Julia Reda (Gastautorin)

Julia Reda war von 2014 bis 2019 Mitglied des Europäischen Parlaments innerhalb der Fraktion Die Grünen/EFA. Später hat sie im Rahmen eines Fellowships am Berkman Klein Center for Internet & Society der Harvard University geforscht und arbeitet seit 2020 bei der Gesellschaft für Freiheitsrechte in Berlin. Ihre Kolumne "Edit Policy" erscheint unter der Lizenz CC BY 4.0. | Foto: CC-BY Diana Levine