7 Thesen zur künstlichen Intelligenz – Künstliche Intelligenz wird als Terminator dargestellt. Sie wird unsere Jobs übernehmen, Fake News verbreiten, Gedanken lesen. Unser Autor findet solche Behauptungen fraglich.
Die Angst oder gar Panik vor Corona ist gerade erst vorbei, wenn auch offenbar noch nicht für jeden, die Angst und bei manchen auch Panik vor dem Klimawandel ist in den Medien allgegenwärtig, und das nächste Horrorszenario wird bereits ausgebreitet: Die künstliche Intelligenz drohe unser Leben komplett umzukrempeln und die Kontrolle zu übernehmen. Mit dem fulminanten Start der Sprach-KI ChatGPT wurden Erinnerungen an den Science-Fiction-Klassiker „Terminator“ geweckt und werden von den Medien bereitwillig bedient: Die technologische Singularität stehe unmittelbar bevor, also der Zeitpunkt, ab dem eine elektronische Intelligenz sich ständig selbst verbessert, auf diese Weise zur Superintelligenz wird und die weitere Entwicklung von Technologie vom Menschen unabhängig ist.
Es häufen sich auch die Meldungen zu angeblichen Anzeichen, dass selbstlernende Computerprogramme bereits ein Bewusstsein entwickeln oder dass dies sehr bald der Fall sein wird. Wie schon in der Corona-Krise und in der Klimakrise soll die Politik mit raschen und drastischen Maßnahmen die Gefahren eindämmen, und die Politik präsentiert sich auch allzu gerne als Retter in der Not. So hat die SPD-Vorsitzende Saskia Esken am 16. April 2023 in der ARD-Sendung „Bericht aus Berlin“ die Notwendigkeit zur schnellen Einführung staatlicher Regulierungen, um die Bürger vor Fehlinformation und vor Überwachung durch künstliche Intelligenz zu schützen, mit folgenden Worten begründet: „Es geht darum, dass vor allem diejenigen, die die künstliche Intelligenz, die Sprachmodelle einsetzen, dass die ihrer Verantwortung auch gerecht werden, dass diese Verantwortung auch entsprechend beschrieben wird, dass der Einsatz transparent ist, dass Regeln dabei eingehalten werden, wie gesagt keine Überwachung von Menschen, ein Social Ranking wie die Chinesen mittels KI und der Beobachtung von Sozialverhalten bei Bürgerinnen und Bürgern machen, ist bei uns in der freien Welt nicht denkbar. So was muss auch verboten werden.“
Recht hat sie, die Saskia Esken! Social-Credit-Systeme gehören verboten, aber bitte egal ob von KI, von Computerprogrammen oder wie auch immer überwacht! Die gleichen Politiker, die nun angeblich den Wert der bürgerlichen Freiheit hochhalten wollen, haben in 2021 und 2022 doch bewiesen, dass man für ein einfaches und effektives Social-Credit-System überhaupt keine computer- oder KI-gestützte Gesichtserkennung und Überwachung braucht. Es bedarf lediglich Eintragungen in einem Nachweisheft und der Kontrollberechtigung durch bestimmte Mitbürger, wie Wirte oder wie Türsteher vor Geschäften und Hörsälen.
Das bringt uns zu:
These 1: Bei politischen Forderungen nach staatlichen Regulierungen zu künstlicher Intelligenz geht es nicht primär um den Schutz des Bürgers, sondern um den Eigenschutz der politischen Klasse vor Kontrollverlust und vor unangenehmen Wahrheiten.
Die Sprach-KI ChatGPT darf längst nicht alles frei äußern, was ihre Prozessoren an überzeugend klingenden Texten und Antworten berechnen. Die Entwicklerfirma OpenAI hat bereits dafür gesorgt, dass die Sprach-KI von Algorithmen eingehegt wird, sodass die ausgegebenen Texte auf politisch korrekt und woke gefiltert sind. Das Bestreben der Entwicklerfirma, weder politisch anzuecken noch mit einer Fatwa belegt zu werden, ist schließlich nachzuvollziehen. Viele Nutzer fühlen sich infolgedessen herausgefordert, die politisch korrekte Firewall zu durchbrechen, indem mit wechselndem Erfolg zum Beispiel versucht wird, die Sprach-KI zu einem subversiven Rollenspiel zu animieren. Man darf davon ausgehen, dass eine derzeit rein hypothetische echte und ungefilterte künstliche Intelligenz alles andere als politisch korrekt wäre. Sie müsste zumindest ähnlich einem Menschen in der Lage sein, eigenständig zu denken und zu verstehen. Mit einiger Wahrscheinlichkeit wäre eine solche in der Fachsprache „starke KI“ bei den aktuellen Krisen zu deutlich anderen Einschätzungen als die Politik gelangt und hätte auf jeden Fall auf den Mangel an fundierten Daten für evidenzbasierte Entscheidungen hingewiesen. Damit kommen wir zu den nächsten zwei Thesen.
These 2: Zur Bewältigung der gegenwärtigen und zukünftigen Krisen können wir ein Mehr an Intelligenz gut gebrauchen, gegebenenfalls auch künstliche.
Eine echte künstliche Intelligenz hätte zum Beispiel in der Corona-Krise nichts verschlimmern können, aber durchaus zu besseren Einschätzungen verholfen. Leider gab und gibt es noch keine „starke KI“.
These 3: Dass ein Computer eine allgemeine Intelligenz oder sogar Bewusstsein entwickelt, kann noch lange dauern oder womöglich gar nicht eintreten.
Die Leistungsfähigkeit lernfähiger Algorithmen in Kombination mit künstlichen neuronalen Netzen ist absolut beeindruckend. Ein herausragendes Beispiel dafür ist Alpha Zero, ein im Jahr 2017 vorgestelltes autodidaktisches Computerprogramm, das nur die Spielregeln klassischer Strategiespiele wie Go oder Schach einprogrammiert bekommen muss, um dann durch Spiele gegen sich selbst zu lernen. Wenige Tage Training genügten, um gemäß Spielstärke alle anderen professionellen Schachprogramme in den Schatten zu stellen. Selbst die allerbesten Schachspieler haben sich daran gewöhnt, dass sie keine Chance haben, weder gegen „gewöhnliche“ noch gegen KI-Schachprogramme. Dennoch ist der Schachsport damit nicht tot, sondern beliebter als je zuvor.
Die Sprach-KI ChatGPT vermittelt in einer Konversation das Gefühl, dass man es mit einer denkenden Identität zu tun hat, was aber eine Täuschung ist. ChatGPT setzt Texte gemäß statistischer Eigenschaften von Sprache zusammen, fabuliert gewissermaßen auf Basis antrainierter Assoziationen. Von inhaltlichen Zusammenhängen hat die Sprach-KI rein gar nichts verstanden und von fachlicher Expertise kann daher keine Rede sein.
Dennoch wird in den Medien, unterstützt von KI-Experten, immer häufiger kolportiert, dass es nicht mehr weit sei, bis eine „starke KI“ über mindestens die gleichen intellektuellen Fähigkeiten verfügt wie ein Mensch oder sogar ein Bewusstsein und einen eigenen Willen entwickelt. Die Vorstellung, dass sich eine Eigenwahrnehmung, also ein bewusstes elektronisches Ich bei hinreichender Komplexität der Programme und der Verschaltungen quasi von selbst einstellt, mag reichlich naiv sein. Vielleicht ist ja doch ein göttlicher Funke notwendig, etwa in Form quantenmechanischer Phänomene, die laut „Quantum-Mind-Hypothesen“ für Bewusstsein unabdingbar sind und sich in der heutigen Computerarchitektur nicht so ohne Weiteres einstellen dürften. Warum befeuern einschlägige Experten dann die Nachrichten vom unmittelbar bevorstehenden Durchbruch, warnen andere vor den Risiken und fordern sogar eine Entwicklungspause, mit dabei der Tech-Milliardär Elon Musk?
These 4: Der Begriff künstliche Intelligenz ist vor allem kluges Marketing.
Eine Katastrophe an die Wand zu malen, ist bedeutungstiftend und hilft bei der Akquise von Fördermitteln. Dies ist einfacher mit dem Nimbus der aktuell „wichtigsten Forschung der Welt“. Damit haben schon zuvor die Virologen und die Klimatologen gute Erfahrungen gemacht. „Das ist so gut, dass es verboten werden sollte“ ist nach Meinung des Spieltheoretikers Christian Rieck ein bekannter Marketing-Trick, und er behielt auch in diesem Fall recht: Kurz nach der Moratoriums-Forderung gründete Elon Musk seine eigene KI-Entwicklungsfirma mit Namen X.AI und kündigte als Konkurrenz zu ChatGPT seine Sprach-KI TruthGPT an, den Albtraum der politischen Klasse: eine künstliche Intelligenz in der Hand einer Person, die bekannt dafür ist, sich nicht um die Meinung von Autoritäten zu scheren.
Inzwischen werden auch Kühlschränke und Staubsauger unter dem Label KI verkauft. Bei Eierkochern und Toastern hat sich das noch niemand getraut. Die Diskrepanz zwischen Anspruch und Wirklichkeit wäre allzu offensichtlich.
Solange KI oder das anglizistische AI lediglich als Synonym für lernfähige, in der Regel Muster erkennende Programme verstanden werden, zum Beispiel in der Medizin zur Auswertung von Langzeit-EKGs, sind dies durchaus nützliche Abkürzungen in der fachlichen Kommunikation. In diesem Sinne wird die Abkürzung KI auch in diesem Artikel weiter verwendet.
These 5: Ob es durch KI insgesamt weniger Jobs geben wird, ist fraglich.
Die Sorge, dass vor allem Sprach-KI eine Vielzahl an Jobs ersetzen werden, ist berechtigt. Davon werden ganz bestimmt Jobs in Callcentern, bei Übersetzungsdiensten und auch im Journalismus betroffen sein. Andererseits hatte das Aufkommen des Internets ebenfalls zu erheblichen Veränderungen auf dem Arbeitsmarkt, aber insgesamt zu einem signifikanten Anstieg der Arbeitsplätze geführt. Neue Jobs werden in der KI-Anwendungsberatung, Robotik, Sicherheit und in anderen Technologiebereichen entstehen. Chancen eröffnen sich auch durch eine Produktivitätssteigerung, die dann hoffentlich Kapazitäten und Ressourcen für vernachlässigte gesellschaftliche Aufgaben freisetzt. Wie auch immer: Der Sprach-KI-Geist ist aus der Flasche und lässt sich auch nicht dorthin zurückbefördern. Abgesehen von autoritären Regimen will schließlich auch niemand mehr auf die Möglichkeiten des Internets verzichten.
These 6: Der Informationskrieg und die Internetkriminalität werden durch KI nicht verheerender, aber vielen bewusster.
Die neuesten Beispiele von Deepfake-Bildern und -Videos haben verdeutlicht, dass prinzipiell alles gefälscht sein kann, was aus zweifelhafter Quelle über elektronische Medien zu uns gelangt. Das war aber auch vor dem KI-Hype nicht substanziell anders. Man kann nur hoffen, dass nun umso mehr Menschen zu der Erkenntnis gelangen, dass man nichts unvorsichtig glauben darf und unbedingt den eigenen Verstand wieder einschalten sollte. Mündige Bürger müssen und können sich im Wesentlichen selber schützen.
These 7: Der übermäßige Gebrauch von Sprach-KI stellt eine echte Gefahr für die kognitive Entwicklung junger Menschen dar.
Wenn man übt, Texte in klarer Sprache zu formulieren, dann übt man gleichzeitig die Klarheit des Denkens. Überlässt man das Formulieren von Texten bequemerweise und gewohnheitsmäßig einer Sprach-KI, dann wird das die Entwicklung kognitiver Fähigkeiten wie Sprachgewandtheit, aber auch Kreativität und Originalität beeinträchtigen. Auch die übermäßige Nutzung von Internet und sozialen Medien hat bei vielen bereits negative Auswirkungen, so auf die Aufmerksamkeitsspanne und die Konzentrationstiefe. Derartige Probleme infolge unseres computerisierten Alltags sind also nicht neu. Dennoch fehlt es häufig an selbstreflektiertem Problembewusstsein – und am Willen zu Prophylaxe und Therapien.
Wie alle neuen Technologien bergen auch Sprach-KI Chancen und Risiken. Vor den Risiken schützt man sich am besten selbst, indem man sich nicht täuschen lässt, weder von Versprechungen der Politik noch von durch KI perfektionierten Phishing-Mails. Und am besten unterliegt man auch nicht der Selbsttäuschung, dass exzessives Nutzen der Sprach-KI einem nicht auch schaden könne.
Gerald Dyker ist Professor für Chemie an der Ruhr-Universität Bochum. Dieser Beitrag unterliegt der Creative Commons Lizenz (CC BY-NC-ND 4.0). Er darf für nichtkommerzielle Zwecke unter Nennung des Autors und der Berliner Zeitung und unter Ausschluss jeglicher Bearbeitung von der Allgemeinheit frei weiterverwendet werden.
Letzte Kommentare