Seit Wochen wird kontrovers über das Computerprogramm ChatGPT diskutiert, das mit­hilfe von Künstlicher Intelligenz Fragen aller Art beantworten und Aufgaben lösen kann. ChatGPT wurde von OpenAI entwickelt, einer gemeinnützigen Organisation. Es ist ein Durchbruch in der Nutzung der Künstlichen Intelligenz (KI = AI = Artificial Intelligence). Erstmals kann ein Programm – in einer Viel­zahl von Sprachen – nicht nur glaubwürdige (Internet-)Gespräche führen, son­dern auch ganze Texte schreiben und sogar Gedich­te verfassen. Mehrere Milliarden Para­meter wurden erfasst und können nun verwertet wer­den.

Am 15. März wurde die Nachfolgeversion ChatGPT-4 vorgestellt, die angeblich noch viel leistungsfähiger ist und über einen fünfmal so großen Datensatz wie chatGBT-3 verfügt. Das Problem, dass die App zu viel Fantasie zeige und ausgedachte Dinge als Fakten de­klariere, soll minimiert worden sein. Auch soll GPT-4 künftig Bilder besser analysieren und mit Worten beschreiben können. Allerdings ist die Neufassung zu­nächst nur für zahlende Kunden verfügbar.

Welche Entwicklung wird damit in Gang gesetzt, wie wird unser Leben beeinflusst? So liest man, dass ChatGPT-4 hundertmal so viele Quellen auswerten soll wie ChatGPT-3. Ir­gendwann wird das Programm an Grenzen stoßen. Es muss zunehmend auf Randgebiete zurückgreifen, deren Aussagekraft und Bedeutung geringer ist. Das kann bewirken, dass die Qualität der Ausführungen von ChatGPT sinkt.

Mit zunehmender Verbreitung und Nutzung von ChatGPT wird der Umfang an eigenstän­dig erzeugten Ausarbeitungen zurückgehen, insbesondere bei kürzeren Texten. Die kultu­relle, technische und wissenschaftliche Entwicklung verlangsamt sich. Originäres wird selten. In Kunst und Kultur dürfte die Nutzung von ChatGPT allerdings nur begrenzt mög­lich sein und gewiss dem Selbstverständnis der Kulturschaffenden widersprechen.

ChatGPT zeigt keine Emotionen, kennt keine moralischen Maßstäbe und besitzt keine ei­gene Meinung. Es ist so programmiert, dass es seine Informationen sachlich und neutral weitergibt. Es ignoriert daher auch Aufforderungen, von dieser Vorgabe abzuweichen. Die­se Deckelung kann sowohl positiv (objektive und nüchterne Darstellung) als auch negativ (ausdruckslose und fantasielose Sprache) gesehen werden.

ChatGPT kann nicht eigenständig denken. Seine Leistung ist es, aus gefundenem und ge­speichertem Wissen ganze Sätze und Aussageketten zu bilden. Inwieweit ChatGPT stets in der Lage ist, sinnlose oder unverständliche Fragen zu erkennen, bleibt abzuwarten. Anzunehmen ist, dass ChatGPT in Einzelfällen immer dann ernst gemeinte Antworten gibt, wenn der Unsinn nicht offenkundig ist.

Das System lernt vermutlich, wenn zu seinen Ausarbeitungen Rückmeldungen erfolgen. Bei Kritik prüft es offenbar andere Quellen, fügt Berichtigungen und Ergänzungen in sei­nen Text ein und liefert eine überarbeitete Fassung. ChatGPT ist darauf angelegt, zu ler­nen und sich kontinuierlich zu verbessern und weiterzuentwickeln. Rückmeldungen tra­gen dazu bei. ChatGPT soll – so die Verantwortlichen – immer komplexere Antworten gene­rieren und menschlichen Texten und Schreibweisen möglichst nahe kommen.

Mit Ausnahme simpler Aufgaben wie 2 + 2 gibt ChatGPT auf identische Fragen, die ihm mehrfach gestellt werden, unterschiedliche Antworten. Das ist bemerkenswert und verhin­dert z.B. den Versuch, die Nutzung von ChatGPT bei Hausarbeiten zu identifizieren. Andererseits zeigt dies jedoch, dass das Programm bei jeder Antwort nur eine Auswahl an Fakten und Texten aus seinem riesigen Fundus heranzieht und andere vernachlässigt. Ein anonymer Algorithmus entscheidet also über die Relevanz der Informationen, und der Nut­zer muss damit zufrieden sein.

Die Befürchtung, dass Hausarbeiten an Schulen und Universitäten sowie andere Veröf­fentlichungen künftig von ChatGPT verfasst werden und dies unerkannt bleibt, ist durch­aus real. Wahrscheinlich wird es Verbote geben, vielleicht auch begrenzte Erlaubnisse, oder zumindest die Verpflichtung, übernommene Textpassagen zu kennzeichnen. Denkbar sind auch Vorgaben, solche zu kommentieren oder mit eigenen Gedanken zu erweitern. In Schulen können die Lehrer/innen im Gespräch mit den Schüler/innen ermitteln, ob diese die Thematik verstanden haben.

Die Nutzung von Plagiat-Checkern oder anderen Suchprogrammen dürfte nicht einfach sein, außer wenn ChatGPT selbst fremde Texte wörtlich übernommen hat. Allerdings sind fähige Leute schon dabei, spezielle ChatGBT-Erkennungsprogramme zu entwickeln. Mit dem AI-Text Classifier gibt es bereits ein solches Instrument. Dort müssen jedoch mindes­tens 1000 Zeichen eingegeben werden, bevor eine Suche startet. Ein Versuch ergab die Aussage „Der Klassifier betrachtet den Text als wahrscheinlich KI-generiert.“ Selbst der Einbau einiger Rechtschreib- und Grammatikfehler sowie ergänzender eigener Sätze än­derte nichts an dieser Einschätzung.

Vermutlich erkennt und vermeidet ChatGPT Fake News, sofern es auf Wissen zurückgrei­fen kann, das die Fake News widerlegt. Den Quellen des Programms ist offenbar eine be­stimmte Glaubwürdigkeit zugeordnet. Diese wird gemindert, wenn ChatGPT Fake News erkennt oder darauf hingewiesen wird. Wenn sich Fake News jedoch weltweit verbreiten und in vielen verschiedenen (unverdächtigen) Medien auftauchen, dürfte das nicht mehr sichergestellt sein. Eine Garantie, dass Fake News ausgesondert werden, wird es dann nicht geben.

Spannend ist die Frage, wer eigentlich haftet, wenn ChatGPT Fake News, Unsinn oder Bösartigkeiten verbreitet und damit Unheil anrichtet? Oder wenn es sexistische oder ras­sistische Aussagen publiziert? Dieses Problem ist offenbar noch ungeklärt. Es gilt jedoch für viele Aspekte der In­ternetnutzung. Derzeit ist es wohl gängige Praxis, dass der End­kunde der Dumme ist.

Zu erwarten ist, dass bei der Nutzung von ChatGPT große Probleme mit Urheberrechten entstehen. Das Programm nimmt keine Rücksicht darauf und verwendet alle ihm geeigne­t erscheinenden Materialien zur Bewältigung der ihm gestellten Aufgaben. Verwendet z.B. ein Nutzer gewerblich die ihm von ChatGPT gelieferten Daten, kann er Ärger bekom­men. Zweitens taucht die Frage auf, wem die Rechte an den Inhalten gehören, die ChatGPT produziert. Möglicherweise ist OpenAI Eigentümer dieser Rechte, da es die Künstliche Intelligenz entwickelt hat. Dagegen spricht, dass ChatGPT die Inhalte nicht selbst erstellt, sondern anhand der eingespeisten Daten reproduziert, die wiederum von Menschen stammen. Ähnliche Probleme gibt es übrigens bereits bei Bildbe­arbeitungsprogrammen.

Vermutlich muss man bei der Nutzung von ChatGPT Datenschutzbelange beachten. Selbstverständlich speichert das Programm die eingegebenen Daten, um Antworten zu generieren. Auch werden diese Daten genutzt, um die künstliche Intelligenz zu trainieren und zu verbessern. Personenbezogene Daten werden laut Angaben von OpenAI nicht ge­speichert. Weiteres stehe in seinen Datenschutzrichtlinien.

Um zu erkunden, wie sich ChatGPT selbst einschätzt, habe ich zwei Fragen gestellt. 1. Welche Mängel und Lücken hat GPT? und 2. Wie erkennt man am besten, dass eine Aus­arbeitung von GPT stammt? Das Ergebnis war verblüffend. GPT antwortete ganz of­fen.

Zur ersten Frage betont ChatGPT zwar seinen großen Fundus an Wissen, doch sei dieser letztlich begrenzt. Zudem sei es „noch nicht in der Lage, menschliche Erfahrungen und Empfindungen zu haben“. Dann werden sechs Mängel aufgelistet: 1. Schwierigkeiten, den Kontext einer Konversation zu verstehen; 2. Begrenztes Verständnis von Ironie und Sarkasmus; 3. Missverständnisse aufgrund von Sprachschwierigkeiten, Dialekten und Um­gangssprache. 4. Eingeschränkte Fähigkeit zur Kreativität und Originalität; 5. Unzurei­chende Fähigkeit zur Analyse von visuellen Informationen; 6. Begrenzte Erfahrung mit menschlichen Emotionen, Problemlagen oder Vorurteilen.

Zur zweiten Frage erklärt ChatGPT, dass „es schwierig sein kann, zu erkennen, ob eine Ausarbeitung von ChatGPT stammt oder nicht, da es darauf programmiert ist, “natürliche Spra­che zu verwenden und menschenähnliche Antworten zu geben.“ Es gibt jedoch einige Hinweise: 1. Wiederholung von Informationen; 2. Unnatürliche Wortwahl oder Grammatik; 3. Einschränkungen in der Themen- oder Wissensabdeckung; 4. Vorher­sagbarkeit der Ant­worten; 6. Fehlerhafte oder inkonsistente Antworten (ChatGPT räumt also ein, dass es nicht fehlerfrei ist).

Die zweite Aufgabe wurde erneut gestellt und erbrachte trotz identischer Fragestellung eine andere Antwort. 1. Stil und Sprache können gelegentlich ungewöhnlich, nicht ganz natürlich oder umständlich sein. 2. Ausarbeitungen können manchmal sehr abstrakt und komplex erscheinen und mehr Informationen enthalten als gefragt; 3. Es wird eine große Menge an detaillierten und präzisen Informationen genutzt, die schwer zu finden sind; 4. Begrenzte Fähigkeit zur Eingrenzung des Themas bei Auslassung wichtiger Details.

Verblüffend und beeindruckend war die Reaktion von ChatGPT auf eine sogenannte Non­sensfrage. Zunächst gestand das Programm ein, keine Antwort geben zu können, und vermutete eine „sinnlose Frage“. Beim zweiten Anlauf versuchte das Programm, Hilfestel­lung zu geben, indem es eine angepasste Fassung der Frage vorschlug. Diese ‘neue’ Fra­ge wurde sogleich beantwortet. Auf die Rückmeldung des Fragestellers, der auf der Wort­wahl seiner Frage bestand und diese erläuterte, bemühte sich ChatGTP um eine ernst ge­meinte, wissenschaftlich abgeleitete Antwort, wiederum verbunden mit der Emp­fehlung, eine andere Formulierung zu wählen.

Über Heiner Jüttner:

Der Autor war von 1972 bis 1982 FDP-Mitglied, 1980 Bundestagskandidat, 1981-1982 Vorsitzender in Aachen, 1982-1983 Landesvorsitzender der Liberalen Demokraten NRW, 1984 bis 1991 Ratsmitglied der Grünen in Aachen, 1991-98 Beigeordneter der Stadt Aachen. 1999–2007 kaufmännischer Geschäftsführer der Wassergewinnungs- und -aufbereitungsgesellschaft Nordeifel, die die Stadt Aachen und den Kreis Aachen mit Trinkwasser beliefert.