Kann man Künstliche Intelligenz regulieren, bevor sie zum Überwachungsalbtraum wird? – Während amerikanische KI-Chatbots verblüffende Ergebnisse erzielen, versucht Europa, schädliche Auswirkungen der KI durch Regulierung zu verhindern. Eine Analyse.

Seit dem Auftauchen des leistungsstarken Chatbots ChatGPT im vergangenen Herbst spricht die Welt über eine Zukunft, in der Künstliche Intelligenz in alle Bereiche unseres Lebens eingebettet ist. Maschinen, die eigenständig Entscheidungen treffen – vom Kühlschrank bis zur Militärdrohne – und über die möglichen Risiken und Gefahren einer solchen Zukunft.

Zeitungsartikel zum Thema KI werden oft mit Bildern aus „Terminator“ illustriert, einem Film, in dem ein intelligentes, weltweit umfassendes Computer-Netzwerk namens Skynet, Killer-Androiden beauftragt, die letzten überlebenden Menschen zu jagen. Absurde, übertriebene Vorstellung? Manche seriöse Forscher befürchten tatsächlich, dass Künstliche Intelligenz eine existenzielle Gefahr für die Menschheit darstellen könnte. Und am 30. März unterzeichneten prominente Unternehmer, wie Tesla-Chef Elon Musk und Apple-Mitgründer Steve Wozniak sowie Hunderte von KI-Forschern, einen offenen Brief, in dem sie die führenden KI-Labors aufforderten, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens sechs Monate zu unterbrechen. Die rasch fortschreitende Technologie könnte zu Massenarbeitslosigkeit führen, massenhafte Desinformation ermöglichen und dazu führen, dass die Menschen die Kontrolle über das Geschehen verlieren.

„Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind“, schreiben die Unterzeichner.

Die Pause soll genutzt werden, „um eine Reihe von gemeinsamen Sicherheitsprotokollen für fortschrittliche KI-Designs und -Entwicklungen zu entwickeln und umzusetzen, die von unabhängigen externen Experten streng geprüft und überwacht werden“.

KI-Systeme als Gefahr für den Datenschutz und die Menschenrechte

Genau das wollen politische Entscheidungsträger auf EU-Ebene mit dem „AI-Act“ erreichen. In 2021 veröffentlichte die Europäische Kommission eine Erstfassung von einem umfassenden Rechtsrahmen für Softwareprodukte, die Künstliche Intelligenz nutzen. Hier geht es nicht so sehr darum, die viel gehypten existenziellen Risiken der noch nicht vorhandenen „superintelligenten“ KI-Systeme einzudämmen oder zu verbieten. Vielmehr will sich die EU mit den nicht unbedingt lebensbedrohlichen, aber auch nicht trivialen Risiken von Systemen befassen, die derzeit in allen möglichen Bereichen der Gesellschaft eingesetzt werden oder bald eingesetzt werden könnten.

Bei einem Skandal in den Niederlanden sammelte ein staatliches AI-System fleißig Daten über Bürger, die zuvor separat gespeichert waren, wie z.B. Datensätze über Arbeitsverhältnisse, Schulden und Sozialleistungen sowie Bildungs- und Wohnverhältnisse, und analysierte sie dann mithilfe eines geheimen Algorithmus, um automatisch zu ermitteln, bei welchen Personen ein höheres Risiko besteht, Sozialleistungsbetrug zu begehen. Im Jahr 2020 erklärte ein Gericht das „Smarte“ Überwachungssystem für rechtswidrig, weil es gegen grundlegende Menschenrechte verstoße. Der EU AI Act könnte genau solche intransparente, automatische Entscheidungsfindungssysteme verbieten, oder mindestens streng regulieren. Irgendwann dieses Jahr, wahrscheinlich im Herbst, sollen sogenannten Triologe zwischen EU-Kommission, EU-Rat und dem Europaparlament stattfinden, um eine Einigung über den Text des AI Act zu erreichen.

„Wir sollten uns nicht auf die Maschinen konzentrieren, sondern auf die Menschen, die diese Dinge in Gang setzen“

Joanna Bryson, Professorin für Ethik und Technologie an der Hertie School in Berlin, erklärt das Hauptanliegen des Gesetzesvorschlags: „Es geht vor allem darum, ob Software möglicherweise eine lebenswichtige Angelegenheit ist, wie in den Sozialbehörden. Alles, was man braucht, sind genügend Informationen, damit Menschen das Ergebnis von KI-Entscheidungen überprüfen können. Alles, was der AI Act sagt, ist, dass wir eine stärkere Rechenschaft wollen. Die Menschen sind die Einzigen, die wir zur Verantwortung ziehen können. Wir sollten uns nicht auf die Maschinen konzentrieren, sondern auf die Menschen, die diese Dinge in Gang setzen. Das ist genau das, was Europa tut. Europa ist führend in diesem Bereich.“

Der AI Act kategorisiert die KI-Systeme danach, wie sie sich auf die Gesundheit, die Sicherheit oder die Grundrechte der Menschen auswirken könnten, in den Risikokategorien „inakzeptabel“, „hoch“, „begrenzt“ und „minimal“. „Inakzeptabel“ sind Systeme, die „unterschwellige Techniken, um das Verhalten einer Person in einer Weise zu manipulieren, die psychischen oder physischen Schaden verursachen kann“, Systeme wie das staatliche „Social Scoring“ oder biometrische Echtzeit-Identifikationssysteme im öffentlichen Raum.

Für die Ampel-Koalition ist nun biometrische Nachidentifizierung durch KI in Ordnung

Hier wird über die Details gestritten. Nikolett Aszódi arbeitet als Policy-Expertin bei AlgorithmWatch, eine Berliner NGO, die das Ziel hat „Prozesse algorithmischer Entscheidungsfindung zu betrachten und einzuordnen, die eine gesellschaftliche Relevanz haben“. Im Interview erinnert Aszódi, dass die Ampel-Koalition im Koalitionsvertrag AI-gesteuerte Prozesse wie Gesichtserkennung und biometrische Identifizierung im öffentlichen Raum verbieten wollte. „Sie hat ihre Position geändert: jetzt will sie keine biometrische Fernidentifizierung in Echtzeit, aber biometrische Nachidentifizierung ist in Ordnung.“

„Bei einem Unfall oder ein Raubüberfall, könnten wir das CCTV-Videomaterial nehmen, die Gesichtserkennung und eine Datenbank nutzen, um zu sehen, ob wir das Opfer oder den Täter finden.“ Hört sich vielleicht für manche Politiker vielversprechend an. Aber solche Techniken, auch wenn „Echtzeitgesichtserkennung“ verboten wäre, könnte eine spätere KI-gestützte Identifizierung von Bürgern die Tür öffnen für eine umfassende staatliche Überwachung, von der die Stasi nur träumen könnten. „Aus der Perspektive der Grundrechte wollen wir nicht, dass dies jemals möglich ist“, sagt Nikolett Aszódi.

Der AI Act macht Ausnahmen für Software, die vom Militär oder im Namen der nationalen Sicherheit verwendet wird – ein ziemlich dehnbarer Begriff. Nachdem Ungarn die Pegasus-Software, die kritische Journalisten und Aktivisten der Zivilgesellschaft abhörte, nutzte, erklärt Aszódi, „stellte die ungarische Datenschutzbehörde fest, dass sie gegen kein Gesetz und keine Grundrechte verstößt, weil alles im Rahmen der nationalen Sicherheit geschah“.

Unter der Ausnahme „Sicherheit“ könnten auch KI-Technologien fallen, die an den Außengrenzen von Europa genutzt werden. Nikolett Aszódi: „Wir setzen derzeit eine breite Palette von Technologien ein, um potenzielle Migranten, Menschen auf der Flucht, zu überwachen. Es gibt auch Systeme, mit denen die Herkunft von Menschen untersucht wird, um anhand ihrer Sprache, vielleicht ihres Dialekts, zu überprüfen oder herauszufinden, ob sie die sind, die sie zu sein behaupten.“ AlgorithmWatch vertritt die Position, dass solche KI-Anwendungen verboten gehören, weil sie unvereinbar mit unseren Grundrechten sind. Ob und in welchem Ausmaß die EU ein solches umfassendes Verbot hinbekommt, bleibt unklar.

Wie hoch werden die Kosten für ein EU-Gesetz sein?

Nur ein kleiner Teil der KI-Anwendungen in der realen Welt gehören aber zur Risikoklasse „inakzeptabel“, die möglicherweise verboten werden sollen. Andere, zum Beispiel in sensiblen Bereichen wie Medizin, Verkehr, Bildung, Migration oder Justiz, werden als „Hoch-Risiko“ eingestuft. Unternehmen, die solche KIs einsetzen, müssen eine Reihe von Vorschriften einhalten. Zum Beispiel Risikomanagementsysteme einführen und Sicherheitstests ausführen. Sie sollen sicherstellen, dass die AI-Trainingsdaten fehler- und vorurteilsfrei sind. Die Software muss umfassend dokumentiert werden, z.B. über die Struktur des Algorithmus. Und die ständige menschliche Aufsicht soll möglich sein. Ein „Off-Schalter“ soll jederzeit verfügbar sein, für den Fall, dass die KI am Ende etwas Unvorhergesehenes und Schädliches tut.

Solche Auflagen werden von manchen Fachverbänden stark kritisiert. Die amerikanische Lobby-Gruppe „Center for Data Innovation“, die von Konzernen wie Google und Amazon finanziert wird, schreibt, dass die vorgeschlagene Regulierung Europa als Standort für KI-Entwicklung beeinträchtigen wird und „erhebliche Kosten für die Unternehmen und Verbraucher in der EU mit sich bringen könnte“.

Der Thinktank warnt: „Der AI Act wird die europäische Wirtschaft in den nächsten fünf Jahren 31 Milliarden Euro kosten und die KI-Investitionen um fast 20 Prozent verringern.“

Joanna Bryson von der Hertie School findet diese Argumentation wenig überzeugend. Das „Center for Data Innovation“ macht falsche Behauptungen über die Kosten der Einhaltung des EU-Rechtsrahmens, sagt sie. Die meisten Kosten für die in der Verordnung geforderten Maßnahmen sollten bereits in den Budgets der Unternehmen enthalten sein, die in ihrer Branche „Best Practice“ anwenden. Kurzum, ihrer Meinung nach sollten die Kosten des EU-Gesetzes kein Hindernis für die Entwicklung von KI in Europa sein.

Experten warnen: Die EU soll die Branche nicht zu schnell und umfassend regulieren

Ines Montani ist Mitgründerin und Geschäftsführerin von ExplosionAI, einer Berliner Firma, die ca. 30 Menschen beschäftigt. ExplosionAI liefert Software-Tools, die von Entwicklern, die KI-Programme im Bereich „Natural Language Processing“, benutzt werden. Die Anwendungen werden in jeglichen Branchen verwendet, um riesige Textmengen besser zu organisieren und zu analysieren.

Grundsätzlich begrüßt Ines Montani den AI Act. Sie ist froh, dass er sich auf reale Anwendungen konzentriert und nicht „eine magische KI“, die den Menschen irgendwie Schaden zufügt: „Es geht darum, was die Menschen tatsächlich tun, wie sich das auf echte Menschen auswirkt, welche Produkte es gibt, welche Branchen es gibt, und nicht um die Frage: KI – schlecht oder nicht.“

Da es sich um neu entstehende Technologien handelt, befürchtet Montani aber, dass die EU ihre Branche zu schnell und umfassend regulieren möchte. Am Ende, meint sie, könnte man ein Gesetz haben, das nicht zweckdienlich ist und später nur schwer geändert werden kann. Außerdem könnte die Glaubwürdigkeit der EU infrage gestellt werden, wenn wir am Ende etwas haben, das das Falsche tut – und die Leute glauben lässt, dass die Regulierung aus den falschen Gründen schlecht ist. „Das könnte sehr schädlich sein, denn insgesamt gibt es hier eine Menge positives Potenzial, und ich würde es ungern sehen, wenn dieses verschwendet würde.“

Tatsächlich hat die Künstliche Intelligenz das Potenzial, unser Leben, unsere Wirtschaft und unsere Gesellschaft zu bereichern, da sind sich fast alle einig. „Mit KI kann die Menschheit eine blühende Zukunft erleben“, steht es auch in dem offenen Mahnbrief der KI-Forscher. Wie KI eingesetzt wird und was für Folgen es haben wird, meint Joanna Bryson, ist vor allem eine politische Frage.

Über Maurice Frank / Berliner Zeitung:

Dieses ist ein Beitrag aus der Open-Source-Initiative der Berliner Zeitung. Mit Open Source gibt der Berliner Verlag freien Autorinnen und Autoren sowie jedem Interessierten die Möglichkeit, Texte mit inhaltlicher Relevanz und professionellen Qualitätsstandards anzubieten. Ausgewählte Beiträge werden veröffentlicht und honoriert. Dieser Beitrag unterliegt der Creative-Commons-Lizenz (CC BY-NC-ND 4.0) und darf für nicht kommerzielle Zwecke unter Nennung des Autors und der Berliner Zeitung und unter Ausschluss jeglicher Bearbeitung von der Allgemeinheit frei weiterverwendet werden.