EU-Pläne bergen große Risiken – Nicht alle Punkte der EU-Digitalstrategie erfahren die gleiche Aufmerksamkeit. Zum Auftakt ihrer Kolumne warnt Julia Reda vor dem Digital Services Act.

Die neue EU-Digitalstrategie gibt einen Vorgeschmack auf die netzpolitischen Pläne der EU-Kommission unter Präsidentin Ursula von der Leyen. Im Fokus der öffentlichen Aufmerksamkeit steht das Weißbuch zur künstlichen Intelligenz, das aber nur einen Teil des neuen Strategiepakets bildet. Ein weiteres Papier mit dem Titel “Europas digitale Zukunft gestalten” fliegt dagegen bislang unter dem Radar. Die darin angekündigte Gesetzesinitiative, der Digital Services Act, könnte jedoch zum Experimentierfeld für den Einsatz künstlicher Intelligenz werden – mit fatalen Folgen für die digitalen Grundrechte.

Terrorverordnung als Blaupause für Plattformregulierung

Ende des Jahres will die Europäische Kommission ihren Vorschlag für den Digital Services Act präsentieren, der die Pflichten von Plattformen in Bezug auf illegale Inhalte jeglicher Art neu regeln soll. Dabei könnten Uploadfilter vorgeschrieben werden, die mittels künstlicher Intelligenz versuchen, gänzlich neue und unbekannte Inhalte zu erkennen und zu sperren. Die Fehlerraten solcher KI-Filter sind noch viel höher als die Filter-Systeme, die mit der Umsetzung der Urheberrechtsreform verpflichtend werden könnten und auf dem Abgleich mit Fingerprint-Datenbanken bekannter Inhalte basieren.

Die Digitalstrategie bleibt über den Inhalt des geplanten Digital Services Act noch vage. Sie betont lediglich, dass das Internet kein rechtsfreier Raum sein dürfe und dass die Verantwortung von Plattformen für die Verbreitung illegaler Inhalte deshalb verschärft werden müsse. Bislang müssen Plattformen illegale Inhalte nur dann löschen, wenn sie von ihnen Kenntnis erlangen, sie müssen Uploads aber nicht aktiv durchsuchen.

Einen Vorgeschmack, was für eine Art von Plattform-Verantwortung der Kommission vorschwebt, bieten die laufenden Verhandlungen über die Verordnung zur Bekämpfung terroristischer Inhalte im Netz. Bereits am 18. März steht die nächste Verhandlungsrunde zwischen Parlament, Kommission und Rat an, bei der es zu einer Einigung kommen könnte. Nach den Vorstellungen der Kommission sollen Plattformen nicht nur bekannte terroristische Inhalte automatisch sperren, sondern auch “verlässliche technische Werkzeuge zur Erkennung neuer terroristischer Inhalte” einsetzen und entwickeln. Wie unzuverlässig solche KI-basierten Systeme in der Praxis funktionieren, hat kürzlich die Organisation Syrian Archive beklagt, die Menschenrechtsverletzungen im Syrienkrieg dokumentiert. YouTubes Terrorfilter habe bereits jedes zehnte ihrer Videos gesperrt, YouTube trage damit zu einer Auslöschung der Geschichte bei.

Bislang lehnt das Europaparlament in den verpflichtenden Einsatz von Uploadfiltern zur Sperrung terroristischer Inhalte kategorisch ab, sicherlich auch infolge der breiten öffentlichen Kritik an der Urheberrechtsreform, die es im letzten Jahr durchgewunken hat. Kommission und Rat machen aber Druck, den Widerstand des Parlaments zu überwinden. Wenn sich Kommission und Rat durchsetzen, droht die Terrorismusverordnung zur Blaupause für den Digital Services Act zu werden, der dann nicht mehr nur terroristische Inhalte, sondern illegale Uploads jeglicher Art betreffen würde. Die massiven Bedenken gegen Uploadfilter, insbesondere KI-basierte, können die Pläne zur Regulierung künstlicher Intelligenz nicht ausräumen

Mehr legale als illegale Inhalte betroffen

Alle Uploadfilter haben mit dem Problem zu kämpfen, dass sie nach relativ seltenen Inhalten suchen, denn die weit überwiegende Zahl der hochgeladenen Inhalte ist legal. Selbst ein nahezu perfekter Uploadfilter, der nur in einem Prozent der Fälle falsch liegt, sperrt mehr legale als illegale Inhalte, sofern weniger als ein Prozent der hochgeladenen Inhalte tatsächlich illegal ist. Dieses Problem wird von der Politik systematisch unterschätzt, in der Statistik ist es als Prävalenzfehler bekannt. Dieses Problem ist bei KI-basierten Filtern ungleich größer: Sie produzieren höhere Fehlerraten, da sie nicht nur den Upload bekannter, sondern auch unbekannter illegaler Inhalte verhindern sollen.

In ihrer Digitalstrategie offenbart die EU-Kommission einen kindlichen Glauben an die technischen Möglichkeiten der künstlichen Intelligenz. Dabei ist mehr als zweifelhaft, ob es jemals möglich sein wird, neue terroristische oder andere illegale Inhalte zuverlässig automatisch zu erkennen. Was heute unter künstlicher Intelligenz zu verstehen ist, sind insbesondere verschiedene Verfahren des maschinellen Lernens, die Muster in großen Datensätzen erkennen und ihre Entscheidungen mit der Zeit anhand vergangener Fehler verfeinern können. Ihre Stärke liegt in der schnellen Auswertung riesiger Datenmengen und der Identifizierung von Gemeinsamkeiten. Wozu maschinelles Lernen jedoch nicht in der Lage ist, ist das Verständnis, warum bestimmte Inhalte einander ähneln, oder was die Intention und der Kontext eines Uploads ist.

Tatsächlich sehen Videos von Menschenrechtsgruppen denen terroristischer Organisationen mitunter sehr ähnlich. Worauf es ankommt, ist im Zweifelsfall die Kommentierung des Inhalts, sprachliche Nuancen oder auch nur die Absicht, mit der die Inhalte geteilt werden. Nach EU-Recht kommt es nämlich auf die Intention an, ob eine bestimmte Tat als Terrorismus strafbar ist. Solche teils subjektiven Kriterien sind künstlicher Intelligenz unzugänglich, der Algorithmus kann weder einschätzen, was die Absicht hinter einem Upload ist, noch kann er seine Ergebnisse zuverlässig erklären.

Diskriminierung durch Technik

Die Kommission räumt in ihrem Weißbuch zur künstlichen Intelligenz durchaus ein, dass automatisierte Entscheidungssysteme anfällig für Diskriminierung sind, indem sie gesellschaftliche Vorurteile lernen und verstärken. So wird etwa auf Probleme automatischer Gesichtserkennung verwiesen, wenn es darum geht, weibliche oder nicht-weiße Gesichter zu erkennen. Besonders gefährlich ist diese maschinelle Diskriminierung deshalb, weil viele an die Neutralität und Objektivität der Technik glauben. Die Kommission will das Problem dadurch beheben, dass im Ausland entwickelte KI-Anwendungen in besonders risikoreichen Anwendungsbereichen mit europäischen Datensätzen trainiert werden sollen, die auf Repräsentativität geprüft wurden. Besonders überzeugend ist diese Lösung nicht, es sei denn, man glaubt daran, in Europa finde keine Diskriminierung statt.

Technik kann zudem nicht neutral sein, wenn sie in einem sozio-kulturellen System eingesetzt wird. Eine Studie über die Sperrung von Urheberrechtsverletzungen hat beispielsweise ergeben, dass Frauen ihr Nutzungsverhalten stärker einschränken als Männer, nachdem einer ihrer Inhalte automatisch gesperrt wurde. Es findet also eine Selbstzensur statt, die nicht alle gleich stark trifft. Besonders von Rassismus betroffene Gruppen haben außerdem den durchaus berechtigten Einwand, dass es gar nicht in ihrem Interesse ist, von KI-Systemen zuverlässig erkannt zu werden, wenn diese am Ende doch nur dafür eingesetzt werden, sie zu überwachen und zu kriminalisieren.

An Alternativen fehlt es nicht

Das bedeutet nicht, dass man angesichts von Radikalisierung über Online-Plattformen die Hände in den Schoß legen muss. Seit Jahren liegt die geplante ePrivacy-Verordnung auf Eis, die durch neue Regeln für das Tracking von Nutzungsverhalten die Macht großer Technologiekonzerne eindämmen könnte. Auch der Digital Services Act birgt durchaus das Potenzial, sinnvolle Regeln für die größten und meinungsstärksten Plattformen einzuführen. Notwendig für eine sinnvolle Regulierung ist aber die Einsicht, dass sich das Hochladen illegaler Inhalte nicht vollständig verhindern lässt und Verpflichtungen zum Einsatz von Uploadfiltern den größten Plattformen im Zweifel nur noch mehr Macht verschaffen, weil sie die nötigen Technologien und Trainingsdatensätze kontrollieren.

Illegale Inhalte im Netz sind nichts Neues und werden nur dann zu einem strukturellen Problem, wenn Facebook oder YouTube diesen Inhalten ein riesiges Publikum verschaffen. Deren Empfehlungsalgorithmen priorisieren die wirtschaftlichen Interessen der Plattformanbieter über die Vorlieben der Nutzer*innen. Es werden die Inhalte empfohlen, die besonders starke Reaktionen hervorrufen und deshalb zu einem längeren Verbleib auf der Plattform führen, damit den Nutzer*innen mehr Werbung angezeigt werden kann. Dabei handelt es sich oft um Inhalte, die Hass und gesellschaftliche Spaltung befördern.

Anstatt die Meinungsfreiheit durch fehleranfällige Uploadfilter einzuschränken, könnte die EU-Kommission große Plattformen verpflichten, ihren Nutzer*innen mehr Kontrolle darüber zu geben, welche Inhalte sie zu sehen bekommen. Offene APIs könnten einen Wettbewerb verschiedener Drittanbieter für Nutzungsoberflächen ermöglichen, die uns selbst entscheiden lassen, was wir auf Facebook & Co. zu sehen bekommen, und nicht mehr die Werbewirtschaft. Wer gezielt nach terroristischen Inhalten sucht, würde sie vermutlich nach wie vor finden, aber die Gefahr eines graduelles Abrutschens in die Radikalisierung durch automatische Empfehlung immer kontroverserer Inhalte würde mit einem solchen Ansatz abgeschwächt.

Die Texte der Kolumne “Edit Policy” stehen unter der Lizenz CC BY 4.0. Dieser Beitrag ist eine Übernahme von heise-online auf Basis dieser Creative-Commons-Lizenz.

Über Julia Reda (Gastautorin):

Julia Reda war von 2014 bis 2019 Mitglied des Europäischen Parlaments innerhalb der Fraktion Die Grünen/EFA. Später hat sie im Rahmen eines Fellowships am Berkman Klein Center for Internet & Society der Harvard University geforscht und arbeitet seit 2020 bei der Gesellschaft für Freiheitsrechte in Berlin. Ihre Kolumne "Edit Policy" erscheint unter der Lizenz CC BY 4.0. | Foto: CC-BY Diana Levine