von Julia Reda
Edit Policy: – wo bleibt der Aufschrei?
Gesichtserkennung ist eine massive Gefahr fĂŒr die Grundrechte, aber eine Debatte ĂŒber ihren Einsatz gibt es in Deutschland und Europa nicht. Anders in den USA.

Gesichtserkennung stellt eine erhebliche Gefahr fĂŒr unsere Grundrechte dar. Hierzulande muten Debatten ĂŒber das Thema oft so an, als handele es sich dabei um Zukunftsmusik – oder ein Problem, das in erster Linie LĂ€nder mit einem niedrigeren Datenschutzniveau wie die USA oder China betreffe. Dabei breitet sich die automatische Gesichtserkennung in Europa und auch in Deutschland rasant aus. Bundespolizei und KriminalĂ€mter setzen die Technologie bereits seit Jahren ein, Tendenz stark steigend. Die EU-Kommission investiert in unseriöse Startups, die Gesichtserkennung an Europas Außengrenzen als LĂŒgendetektoren einsetzen wollen. Und ein polnisches Clearview-Klon bietet eine frei zugĂ€ngliche Gesichter-Suchmaschine im Netz an. Wo bleibt der Aufschrei?

Das GeschĂ€ft mit biometrischer MassenĂŒberwachung

In einer umfangreichen Recherche hat Netzpolitik kĂŒrzlich auf PimEyes aufmerksam gemacht, ein polnisches Gesichtserkennungs-Startup, das die anonyme Suche nach beliebigen Gesichtern in einer Datenbank aus 900 Millionen, augenscheinlich aus öffentlichen Quellen stammenden, Bildern erlaubt. Auch Screenshots aus YouTube-Videos und Instagram-Fotos wurden von der Webseite gesammelt.

Seit Netzpolitik begonnen hat, kritische Fragen zu stellen, bewirbt die Firma ihre Dienste als PrivatsphĂ€re-Schutz, der ausschließlich die Suche nach eigenen Fotos erlauben soll. Zuvor schlug die Firma Nutzer*innen noch explizit vor, fremde Bilder, etwa von Prominenten, zu suchen. Einen effektiven Schutz gibt es bis heute nicht, der verhindern könnte, dass die Suchmaschine fĂŒr Stalking oder Überwachung von Mitarbeiter*innen missbraucht wird.

Dass PimEyes nicht ausschließlich zur Suche nach dem eigenen Bild gedacht ist, zeigt sein GeschĂ€ftsmodell, basierend auf kostenpflichtigen Premium-Funktionen, die etwa ein Sonderangebot fĂŒr 100 Millionen Datenbankabfragen pro Monat enthalten.

Der Datenschutzbeauftragte fĂŒr Baden-WĂŒrttemberg, Stefan Brink, geht davon aus, dass PimEyes gegen die Datenschutzgrundverordnung verstĂ¶ĂŸt. Da es sich bei biometrischen Daten um besonders schutzwĂŒrdige Informationen handelt, hĂ€tte die Firma von jeder Person in ihrer Datenbank aus 900 Millionen Gesichtern eine Einwilligung einholen mĂŒssen. Dennoch ist es möglich, dass PimEyes schon heute von europĂ€ischen Behörden genutzt wird. Der Firma ist nĂ€mlich der Coup gelungen, eine Kooperation mit dem schwedischen Unternehmen Safer Society einzugehen, das seinerseits PimEyes in seine Überwachungssoftware Paliscope integriert hat, die es Behörden zur staatlichen Überwachung oder Strafverfolgung anbietet. Auch die europĂ€ische Polizeibehörde Europol ist Kundin von Safer Society.

EU-Kommission will Gesichtserkennung nicht bekÀmpfen

Als KommissionsprĂ€sidentin Ursula von der Leyen ins Amt gewĂ€hlt wurde, versprachen sich manche ein hĂ€rteres Durchgreifen gegen Gesichtserkennungs-Technologien. Von der Leyen versprach einen Gesetzesvorschlag zur Regulierung der „kĂŒnstlichen Intelligenz“ innerhalb von 100 Tagen (die inzwischen bereits verstrichen sind). Kern der europĂ€ischen KI-Regulierung sollten hohe ethische Standards sein, die das Vertrauen in die Technologie stĂ€rken und den Vorzug gegenĂŒber rein wirtschaftlichen ErwĂ€gungen bekommen sollten.

Ein solcher Gesetzesvorschlag ist bislang ausgeblieben. Anfang des Jahres hat die EU-Kommission lediglich ein Strategiepapier zur kĂŒnstlichen Intelligenz veröffentlicht. Eine Passage, die in einer frĂŒheren Entwurfsfassung ein zeitweises Verbot von Gesichtserkennung im öffentlichen Raum vorschlug, wurde aus der Endfassung gestrichen.

EU-Kommission investiert in KI-LĂŒgendetektor

Welche ethischen Standards die EU-Kommission tatsĂ€chlich an Gesichtserkennung anlegt, sieht man derweil an ihren Förderprojekten: Aus dem EU-Forschungsfördertopf Horizon 2020 finanziert sie seit Jahren das Programm iBorderCTRL. Hinter dem Programm mit dem dystopischen Namen steckt nichts anderes als ein LĂŒgendetektor, der Menschen bei GrenzĂŒbergĂ€ngen mittels biometrischer Daten vom Gesicht ablesen soll, ob sie in Verhören die Wahrheit sagen.

Dass LĂŒgendetektoren auf Pseudowissenschaft basieren und Gesichtserkennungstechnik insbesondere bei nicht-weißen Menschen erhebliche Fehlerquoten aufweist, hat die EU nicht davon abgehalten, das Programm an den EU-Außengrenzen zu testen, woraufhin Journalist*innen von The Intercept prompt solche Fehler durch iBorderCTRL nachweisen konnten. Dem EU-Abgeordneten Patrick Breyer verweigert die EU-Kommission Informationen ĂŒber die grundrechtliche Evaluation und die Fehlerraten von iBorderCTRL.

Gesichtserkennung auch in Deutschland

Auch deutsche Behörden setzen vermehrt Gesichtserkennung ein. Die Anzahl der Abfragen von Gesichtserkennungsdatenbanken durch Bundespolizei und KriminalĂ€mter nimmt rasant zu. Dennoch ist in Deutschland und Europa bislang eine breite gesellschaftliche Debatte darĂŒber ausgeblieben, wie die immer weitere Verbreitung von Gesichtserkennung im Alltag nicht nur zu falschen VerdĂ€chtigungen beitragen kann, sondern auch unser Verhalten im öffentlichen Raum beeinflusst.

Das GefĂŒhl, unter stĂ€ndiger Beobachtung zu stehen, löst Stress aus und fĂŒhrt zu einem angepassten Verhalten. Wer befĂŒrchten muss, dass bei einer Teilnahme an Demonstrationen Gesichter abfotografiert und von der Polizei – oder sogar von Neonazis – mittels Gesichtserkennung zur Enttarnung von Demonstrierenden genutzt werden, wird sich zweimal ĂŒberlegen, ob die Wahrnehmung des Grundrechts auf Versammlungsfreiheit das Risiko wert ist.

Das ist keine rein theoretische Gefahr: Bei den G20-Protesten in Hamburg hat die Polizei eine umfangreiche Datenbank zur automatischen Gesichtserkennung angelegt. Bei Tests der Software PimEyes durch das Investigativteam von Netzpolitik fand dieses unter anderem auch Fotos der Bundestagsabgeordneten Anke Domscheit-Berg bei der Teilnahme an einer Anti-Überwachungs-Demo. Das Missbrauchspotential von immer grĂ¶ĂŸeren, verdachtsunabhĂ€ngigen Datensammlungen, die sowohl von Behörden als auch von Unternehmen zur Gesichtserkennung genutzt werden, ist also erheblich.

Aufstand gegen Gesichtserkennung in den USA

In den USA ist der Einsatz von Gesichtserkennung zwar bereits weiter fortgeschritten als in Europa. So setzen Strafverfolgungsbehörden die Gesichtserkennungs-Datenbank des umstrittenen Unternehmens Clearview AI ein. Doch auch der Widerstand aus Zivilgesellschaft und Wissenschaft ist deutlich lauter – und zeigt erste Ergebnisse.

Studien ĂŒber die diskriminierende Wirkung von Gesichtserkennung, die bei den Gesichtern von Frauen und nicht-weißen Personen sehr viel höhere Fehlerraten produziert als bei weißen MĂ€nnern, haben die Technologie in Verruf gebracht. Pionierarbeit hat hierbei die Wissenschaftlerin Joy Buolamwini geleistet, deren Studie „Gender Shades“ das PhĂ€nomen bereits 2018 nachgewiesen hat und deren Ergebnisse seitdem mehrfach von renommierten Wissenschaftseinrichtungen reproduziert wurden. Buolamwini grĂŒndete die Algorithmic Justice League), eine zivilgesellschaftliche Initiative gegen den Einsatz diskriminierender Technologien.

Als es dann tatsÀchlich zur falschen Festnahme des Afroamerikaners Robert Williams durch Fehler bei der Gesichtserkennung kam, war das Problem durch die Vorarbeit von Wissenschaft und Zivilgesellschaft der Presse bereits bekannt. Der Fall machte landesweit Schlagzeilen. Auch der Talkshow-Host John Oliver hat die Gefahren von Gesichtserkennung in einem Video aufgegriffen, das allein auf YouTube bereits sieben Millionen Mal gesehen wurde.

Der Aufstand lohnt sich

Die Kampagne gegen Gesichtserkennung in den USA hat bereits eine Reihe von Erfolgen vorzuweisen. Mehrere StĂ€dte, darunter San Francisco und Oakland, haben die Gesichtserkennung im öffentlichen Raum verboten. Der Bundesstaat Massachusetts berĂ€t das Verbot, das mehrere Gemeinden dort bereits beschlossen haben, auf den gesamten Staat auszuweiten. Infolge der Black Lives Matter-Proteste, die Rassismus und Polizeigewalt in den Fokus genommen haben, entzogen Microsoft, Amazon und IBM der US-Polizei (zumindest vorĂŒbergehend) den Zugang zu ihren Gesichtserkennungs-Tools.

Dieses Engagement brauchen wir auch in Deutschland und Europa, um der rasanten Ausbreitung und Normalisierung von Gesichtserkennung etwas entgegenzusetzen. In der Initiative Gesichtserkennung Stoppen! haben sich unter anderem der Chaos Computer Club, D64 – Zentrum fĂŒr digitalen Fortschritt (dessen Beirat ich angehöre) und Digitale Gesellschaft e.V. zusammengeschlossen, um ein Verbot von Gesichtserkennung im öffentlichen Raum und dessen Einsatz durch den Staat zu erreichen.

Die Texte der Kolumne “Edit Policy” stehen unter der Lizenz CC BY 4.0., hier ĂŒbernommen von heise-online.