Seit Wochen wird kontrovers über das Computerprogramm ChatGPT diskutiert, das mithilfe von Künstlicher Intelligenz Fragen aller Art beantworten und Aufgaben lösen kann. ChatGPT wurde von OpenAI entwickelt, einer gemeinnützigen Organisation. Es ist ein Durchbruch in der Nutzung der Künstlichen Intelligenz (KI = AI = Artificial Intelligence). Erstmals kann ein Programm – in einer Vielzahl von Sprachen – nicht nur glaubwürdige (Internet-)Gespräche führen, sondern auch ganze Texte schreiben und sogar Gedichte verfassen. Mehrere Milliarden Parameter wurden erfasst und können nun verwertet werden.
Am 15. März wurde die Nachfolgeversion ChatGPT-4 vorgestellt, die angeblich noch viel leistungsfähiger ist und über einen fünfmal so großen Datensatz wie chatGBT-3 verfügt. Das Problem, dass die App zu viel Fantasie zeige und ausgedachte Dinge als Fakten deklariere, soll minimiert worden sein. Auch soll GPT-4 künftig Bilder besser analysieren und mit Worten beschreiben können. Allerdings ist die Neufassung zunächst nur für zahlende Kunden verfügbar.
Welche Entwicklung wird damit in Gang gesetzt, wie wird unser Leben beeinflusst? So liest man, dass ChatGPT-4 hundertmal so viele Quellen auswerten soll wie ChatGPT-3. Irgendwann wird das Programm an Grenzen stoßen. Es muss zunehmend auf Randgebiete zurückgreifen, deren Aussagekraft und Bedeutung geringer ist. Das kann bewirken, dass die Qualität der Ausführungen von ChatGPT sinkt.
Mit zunehmender Verbreitung und Nutzung von ChatGPT wird der Umfang an eigenständig erzeugten Ausarbeitungen zurückgehen, insbesondere bei kürzeren Texten. Die kulturelle, technische und wissenschaftliche Entwicklung verlangsamt sich. Originäres wird selten. In Kunst und Kultur dürfte die Nutzung von ChatGPT allerdings nur begrenzt möglich sein und gewiss dem Selbstverständnis der Kulturschaffenden widersprechen.
ChatGPT zeigt keine Emotionen, kennt keine moralischen Maßstäbe und besitzt keine eigene Meinung. Es ist so programmiert, dass es seine Informationen sachlich und neutral weitergibt. Es ignoriert daher auch Aufforderungen, von dieser Vorgabe abzuweichen. Diese Deckelung kann sowohl positiv (objektive und nüchterne Darstellung) als auch negativ (ausdruckslose und fantasielose Sprache) gesehen werden.
ChatGPT kann nicht eigenständig denken. Seine Leistung ist es, aus gefundenem und gespeichertem Wissen ganze Sätze und Aussageketten zu bilden. Inwieweit ChatGPT stets in der Lage ist, sinnlose oder unverständliche Fragen zu erkennen, bleibt abzuwarten. Anzunehmen ist, dass ChatGPT in Einzelfällen immer dann ernst gemeinte Antworten gibt, wenn der Unsinn nicht offenkundig ist.
Das System lernt vermutlich, wenn zu seinen Ausarbeitungen Rückmeldungen erfolgen. Bei Kritik prüft es offenbar andere Quellen, fügt Berichtigungen und Ergänzungen in seinen Text ein und liefert eine überarbeitete Fassung. ChatGPT ist darauf angelegt, zu lernen und sich kontinuierlich zu verbessern und weiterzuentwickeln. Rückmeldungen tragen dazu bei. ChatGPT soll – so die Verantwortlichen – immer komplexere Antworten generieren und menschlichen Texten und Schreibweisen möglichst nahe kommen.
Mit Ausnahme simpler Aufgaben wie 2 + 2 gibt ChatGPT auf identische Fragen, die ihm mehrfach gestellt werden, unterschiedliche Antworten. Das ist bemerkenswert und verhindert z.B. den Versuch, die Nutzung von ChatGPT bei Hausarbeiten zu identifizieren. Andererseits zeigt dies jedoch, dass das Programm bei jeder Antwort nur eine Auswahl an Fakten und Texten aus seinem riesigen Fundus heranzieht und andere vernachlässigt. Ein anonymer Algorithmus entscheidet also über die Relevanz der Informationen, und der Nutzer muss damit zufrieden sein.
Die Befürchtung, dass Hausarbeiten an Schulen und Universitäten sowie andere Veröffentlichungen künftig von ChatGPT verfasst werden und dies unerkannt bleibt, ist durchaus real. Wahrscheinlich wird es Verbote geben, vielleicht auch begrenzte Erlaubnisse, oder zumindest die Verpflichtung, übernommene Textpassagen zu kennzeichnen. Denkbar sind auch Vorgaben, solche zu kommentieren oder mit eigenen Gedanken zu erweitern. In Schulen können die Lehrer/innen im Gespräch mit den Schüler/innen ermitteln, ob diese die Thematik verstanden haben.
Die Nutzung von Plagiat-Checkern oder anderen Suchprogrammen dürfte nicht einfach sein, außer wenn ChatGPT selbst fremde Texte wörtlich übernommen hat. Allerdings sind fähige Leute schon dabei, spezielle ChatGBT-Erkennungsprogramme zu entwickeln. Mit dem AI-Text Classifier gibt es bereits ein solches Instrument. Dort müssen jedoch mindestens 1000 Zeichen eingegeben werden, bevor eine Suche startet. Ein Versuch ergab die Aussage „Der Klassifier betrachtet den Text als wahrscheinlich KI-generiert.“ Selbst der Einbau einiger Rechtschreib- und Grammatikfehler sowie ergänzender eigener Sätze änderte nichts an dieser Einschätzung.
Vermutlich erkennt und vermeidet ChatGPT Fake News, sofern es auf Wissen zurückgreifen kann, das die Fake News widerlegt. Den Quellen des Programms ist offenbar eine bestimmte Glaubwürdigkeit zugeordnet. Diese wird gemindert, wenn ChatGPT Fake News erkennt oder darauf hingewiesen wird. Wenn sich Fake News jedoch weltweit verbreiten und in vielen verschiedenen (unverdächtigen) Medien auftauchen, dürfte das nicht mehr sichergestellt sein. Eine Garantie, dass Fake News ausgesondert werden, wird es dann nicht geben.
Spannend ist die Frage, wer eigentlich haftet, wenn ChatGPT Fake News, Unsinn oder Bösartigkeiten verbreitet und damit Unheil anrichtet? Oder wenn es sexistische oder rassistische Aussagen publiziert? Dieses Problem ist offenbar noch ungeklärt. Es gilt jedoch für viele Aspekte der Internetnutzung. Derzeit ist es wohl gängige Praxis, dass der Endkunde der Dumme ist.
Zu erwarten ist, dass bei der Nutzung von ChatGPT große Probleme mit Urheberrechten entstehen. Das Programm nimmt keine Rücksicht darauf und verwendet alle ihm geeignet erscheinenden Materialien zur Bewältigung der ihm gestellten Aufgaben. Verwendet z.B. ein Nutzer gewerblich die ihm von ChatGPT gelieferten Daten, kann er Ärger bekommen. Zweitens taucht die Frage auf, wem die Rechte an den Inhalten gehören, die ChatGPT produziert. Möglicherweise ist OpenAI Eigentümer dieser Rechte, da es die Künstliche Intelligenz entwickelt hat. Dagegen spricht, dass ChatGPT die Inhalte nicht selbst erstellt, sondern anhand der eingespeisten Daten reproduziert, die wiederum von Menschen stammen. Ähnliche Probleme gibt es übrigens bereits bei Bildbearbeitungsprogrammen.
Vermutlich muss man bei der Nutzung von ChatGPT Datenschutzbelange beachten. Selbstverständlich speichert das Programm die eingegebenen Daten, um Antworten zu generieren. Auch werden diese Daten genutzt, um die künstliche Intelligenz zu trainieren und zu verbessern. Personenbezogene Daten werden laut Angaben von OpenAI nicht gespeichert. Weiteres stehe in seinen Datenschutzrichtlinien.
Um zu erkunden, wie sich ChatGPT selbst einschätzt, habe ich zwei Fragen gestellt. 1. Welche Mängel und Lücken hat GPT? und 2. Wie erkennt man am besten, dass eine Ausarbeitung von GPT stammt? Das Ergebnis war verblüffend. GPT antwortete ganz offen.
Zur ersten Frage betont ChatGPT zwar seinen großen Fundus an Wissen, doch sei dieser letztlich begrenzt. Zudem sei es „noch nicht in der Lage, menschliche Erfahrungen und Empfindungen zu haben“. Dann werden sechs Mängel aufgelistet: 1. Schwierigkeiten, den Kontext einer Konversation zu verstehen; 2. Begrenztes Verständnis von Ironie und Sarkasmus; 3. Missverständnisse aufgrund von Sprachschwierigkeiten, Dialekten und Umgangssprache. 4. Eingeschränkte Fähigkeit zur Kreativität und Originalität; 5. Unzureichende Fähigkeit zur Analyse von visuellen Informationen; 6. Begrenzte Erfahrung mit menschlichen Emotionen, Problemlagen oder Vorurteilen.
Zur zweiten Frage erklärt ChatGPT, dass „es schwierig sein kann, zu erkennen, ob eine Ausarbeitung von ChatGPT stammt oder nicht, da es darauf programmiert ist, “natürliche Sprache zu verwenden und menschenähnliche Antworten zu geben.“ Es gibt jedoch einige Hinweise: 1. Wiederholung von Informationen; 2. Unnatürliche Wortwahl oder Grammatik; 3. Einschränkungen in der Themen- oder Wissensabdeckung; 4. Vorhersagbarkeit der Antworten; 6. Fehlerhafte oder inkonsistente Antworten (ChatGPT räumt also ein, dass es nicht fehlerfrei ist).
Die zweite Aufgabe wurde erneut gestellt und erbrachte trotz identischer Fragestellung eine andere Antwort. 1. Stil und Sprache können gelegentlich ungewöhnlich, nicht ganz natürlich oder umständlich sein. 2. Ausarbeitungen können manchmal sehr abstrakt und komplex erscheinen und mehr Informationen enthalten als gefragt; 3. Es wird eine große Menge an detaillierten und präzisen Informationen genutzt, die schwer zu finden sind; 4. Begrenzte Fähigkeit zur Eingrenzung des Themas bei Auslassung wichtiger Details.
Verblüffend und beeindruckend war die Reaktion von ChatGPT auf eine sogenannte Nonsensfrage. Zunächst gestand das Programm ein, keine Antwort geben zu können, und vermutete eine „sinnlose Frage“. Beim zweiten Anlauf versuchte das Programm, Hilfestellung zu geben, indem es eine angepasste Fassung der Frage vorschlug. Diese ‘neue’ Frage wurde sogleich beantwortet. Auf die Rückmeldung des Fragestellers, der auf der Wortwahl seiner Frage bestand und diese erläuterte, bemühte sich ChatGTP um eine ernst gemeinte, wissenschaftlich abgeleitete Antwort, wiederum verbunden mit der Empfehlung, eine andere Formulierung zu wählen.
Letzte Kommentare