Beueler-Extradienst

Meldungen und Meinungen aus Beuel und der Welt

Das Feuerwehrauto und die Nazi-Schlampe!

Es ist spannend zu sehen, welche Faszination für Kinder im kleinsten Alter von Feuerwehrautos ausgeht. Wer keine Kinder hat, der erinnert sich vielleicht noch an sich selbst, als er das erste Ungetüm mit den blauen Lichter und den lauten Sirenen gehört und gesehen hat. Und egal wo und in welchem Land, dieses Ding war ab dem ersten Kontakt eindeutig erkennbar. Großartig für die Kleinen. Und für uns? Für uns selbstverständlich auch – und das bis zum heutigen Tag.

Ebenso geht es uns mit dem, was wir „KI“ nennen, eben: „Künstliche Intelligenz“. Doch was macht Intelligenz aus? Ich habe ein Bild, ein mich höchst beeindruckendes Erlebnis, und anhand dessen erkenne ich zuverlässig fast jedes Feuerwehrauto – die KI kann das auch.

Es gibt allerdings einen sehr rechenintensiven Unterschied, denn die „KI“ kennt keine Faszination, sie weiß nicht einmal, was Faszination ist! Sie kann es trefflich beschreiben, aber niemals fühlen. Zeige ich der KI ein einziges Mal ein Feuerwehrauto, begreift sie noch lange nicht das Prinzip „Feuerwehrauto“ und schon gar nicht die kindliche Faszination.

Die „KI“ lernt, ziemlich aufwändig an Tausenden, Millionen oder noch mehr Bildern und Tönen, dass es sich um ein Feuerwehrauto handeln könnte. Sobald das scheinbar oft genug zutrifft, kann die „KI“ sagen: „Das ist mit hoher Wahrscheinlichkeit ein Feuerwehrauto – und kein roter Laster mit blinkenden Lichtern!“

Hmm, wenn ich über Intelligenz nachdenke, bleibt ein ziemlich blöder Nachgeschmack. Sage ich einem Vollidioten oft genug, dass sechs mal sieben 42 ist (und damit die Antwort auf alle Fragen), dann hat das – für mich jedenfalls – nix mit Intelligenz zu tun. Der Vollidiot kann die Frage beantworten, was sechs mal sieben ist, aber nicht, weil er gelernt hat, was Multiplikation ist, sondern weil er 42 in Kombination mit der Frage oft genug gehört hat: Er kann es lediglich „nachplappern“.

Sehr viel „Intelligenz“ braucht es, um einen blöden Witz zu erzählen. Diese gefährliche „KI“, künstliche Intelligenz, kann keine Kausalketten bilden, sondern nur nachplappern, was in den Milliarden von Daten eingeatmet wurde, völlig ohne das Wissen darum, in welchen Zusammenhang es aufgetaucht ist. Könnte „KI“ eigenständig Kausalketten bilden, dann würde „KI“ schon nach einem Erlebnis mit einem Feuerwehrauto es fürderhin sicher erkennen.

So aber braucht es diese brachiale Rechenkraft, um genau das zuzuordnen. Das ist auch der Grund, warum ChatGPT nicht mehr als ein paar Dutzend blöde Witze zusammenfaseln kann. Probiert es aus, da kommt nicht viel.

Ich war kein guter Schüler, wenn etwas aus dem Ruder lief, dann habe ich das blind reingepaukt – so wie es Seneca schon sagte: „Nicht für das Leben lernen wir, sondern für die Schule“ (die Umkehrung haben unfähige Pauker draus gemacht …).
Das war von meiner Seite nicht sonderlich intelligent, sondern praktisch.

Praktisch denken auch die „Herrscher“ über die unendliche Rechenkraft (Microsoft, Amazon oder Google usw.), denn mit dem Gedankengut schlichter Geister lassen sich bestens monetäre Erfolge erzielen.

Technikferne Entscheidungsträger üben Kompetenzsimulation

Mit dem KI-gesteuerten „Co-Pilot“ versetzt Microsoft einen sagen wir mal minderbegabten, wenig intelligenten Büroboten in die Lage, eine Power-Point-Präsentation zum Beispiel über kritische Infrastruktur zu erstellen. Das wiederum beeindruckt technikferne Entscheidungsträger, die deshalb die Beförderung des Büroboten zum Referatsleiter in Erwägung ziehen – nur deshalb, weil sie selbst nicht verstehen, was unser unterbelichteter Bürobote als eigene, tiefgründige Erkenntnisse ausgeben konnte. Sie wissen nicht, dass er gar nicht nicht weiß, was er präsentiert hat und sie werden tun, was ihnen die KI über ihren Büroboten auftrug, weil sie es für intelligent halten, was er vortrug – seine Beförderung dürfte nicht lange auf sich warten lassen.

Unsere kritische Infrastruktur schützen selbstverliebte Verwaltungsbeamte (und -innen), die der Expertise eines Büroboten folgen und sinnfrei unsere Steuergelder für ihre Kompetenzsimulation verbrauchen.

Wenn es so klingt, als hätte „KI“ nur Nachteile, dann ist das falsch. „KI“ erleichtert unsere Arbeitswelt. Früher hieß das ziemlich plump „Neuronale Netze“. Die Post setzt das schon jahrzehntelang ein, um die Anschriften auf Umschlägen zu lesen: Ob Sütterlin, Schreibmaschine oder Blockschrift – einfach zu erkennen an der Post, die morgen den Briefkasten füllt.

Besser wir setzen die brachiale Rechenkraft in der Medizin ein. Eine „KI“ kann viel mehr Anomalien oder Kongruenzen zuordnen, als es z. B. ein Radiologe mit viel Erfahrung bei der Auswertung von Röntgenbildern kann. Sinnvollerweise sollte ein erfahrener Radiologe eine Rückmeldung an die „KI“ geben, wo er und nicht die „KI“ den entscheidenden Unterschied gesehen hat. Ein solches regulierendes System hat einen Benefit für uns alle. Das sollten wir fördern.

Und was machen wir? In unseren Behörden haben sie in den Grabkammern unterhalb des üblichen Behördenmuffs entdeckt, dass ChatGPT virulent sei. Also wird ChatGPT vielerorts gesperrt, so dass digital tendenziell minderbegabte Beamten es nicht mehr so schnell aufrufen können. An „Bard“, die KI von Google, kommen sie allerdings ganz einfach dran, sie melden sich mit dem Google-Account an und schon geht es los – gleiches gilt für Microsofts „Copilot“ u. a.

Ääh: Zum Verständnis, das Wort „Chat“ könnte auch mit „Gespräch“ übersetzt werden. Das heißt: mein „Gesprächspartner“ weiß alles, was ich mit ihm jemals besprochen habe. Kurzum, die Betreiber openai, Google-Bard u. a. wissen alles, was mich bewegt.

Selbstverständlich auch alles, was in besonders gesicherten Räumen ohne Internet als „VS-NFD“ (Verschlusssache, nur für den Dienstgebrauch) geschützt werden soll – um der eigenen Inkompetenz zu entkommen, holt man sich einfach auf dem privaten Smartphone oder Tablet Rat bei der KI – und schreibt es dann einfach ab. Nicht nur, dass kein Geheimnis mehr vor der KI verborgen bleibt, auch füttert man die KI so ständig mit neuen Inhalten.

Sonderlich gefährlich ist dieses Vorgehen nicht. Die digitale Inkompetenz war schon vorher bekannt, es werden nur Wissenslücken aufgefüllt, um die Geschäftsmodelle der KI-Branche zu trainieren.

Natürlich ist auch Elon Musk mit von der Partie, wenn es darum geht, Schranken einzureißen. Seine KI heißt kurz „x.ai“ und besticht durch besonders hohe Wahrheitsliebe.

„ChatGPT interessiert sich nicht für die Wahrheit und ist zu sehr auf ‚politische Korrektheit‘ getrimmt“ sagte Musk auf Fox-News. Damit befindet er sich in bester Gesellschaft zur AfD, Frau Dr. Alice Weidel polterte es auch schon raus, als sie auf dem Parteitag zur Co-Vorsitzenden gekürt wurde: „… wir werden uns als Demokraten und Patrioten trotz dessen nicht den Mund verbieten lassen. Denn die politische Korrektheit gehört auf den Müllhaufen der Geschichte“.

Dann weiter so, „extra 3“ vom NDR hat das aufgegriffen und ganz in diesem Sinne die Co-Vorsitzende völlig korrekt politisch unkorrekt als Nazi-Schlampe geehrt. Die AfD fand es dennoch nicht korrekt und hat geklagt. Das ging aber daneben.

openAI, Amazon oder auch x.ai rüsten nach, um diesen Rechenmaschinen eine generelle Intelligenz zu geben. Die heißt „AGI“, es steht für „Artificial General Intelligence“. Sam Altman, der Chef von openAI, warnt davor, weil diese Rechenmechanik dazu tauglich sei, nicht nur Wissen abzuspulen, sondern eigenständig logische Schlüsse zu ziehen.

Aus der IT-Szene hören wir, dass – trotz aller milliardenschweren Anstrengungen – noch locker zehn Jahre ins Land gehen können, bis „AGI“ Wirklichkeit werden könnte.

Bleibt die Überlegung, was wir davon brauchen. Die Rechenzentren verheizen Unmengen Energie, die Entwicklung verschlingt Unsummen … einzig mit dem Ergebnis, dass Menschen wie unser minderbegabter Bürobote über Konstrukte sprechen können, die weder sie noch ihre Vorgesetzten verstehen.

Sollte das Fortschritt bedeuten?

Fortschritt für eine Welt, die wir sinnlos plündern können, während uns das Klima nicht nur schlechtes Wetter beschert und in anderen Teilen der Welt eine Bombenstimmung jede Zukunft verhagelt?

„KI“ (oder auch „AGI“) wird keines dieser Probleme lösen! Aber als mächtiges Analysetool für Wissenschaft, Forschung oder in der Medizin wird sie helfen, das tut sie jetzt schon.

Darüber hinaus gibt es eine Reihe von Szenarien, die mit KI verbessert oder geschaffen werden können (Verwaltungsvereinfachung wird wohl nie dazu gehören).

Weil aber die Zukunft von wenigen Konzernen digital gestaltet wird, müssen wir uns den Schnick-Schnack leisten, um in blinder Abhängigkeit den Rest unserer Souveränität abzugeben.

Sonderlich intelligent ist das nicht. Muss es ja aber auch nicht, so lange wir genug Geld dafür auszugeben bereit sind.

Über Christian Wolf:

Christian Wolf (M.A.) ist Autor, Filmschaffender, Medienberater, ext. Datenschutzbeauftragter. Geisteswissenschaftliches Studium (Publizistik, Kulturanthropologie, Geographie), freie Tätigkeiten Fernsehen (RTL, WDR etc.) mit Abstechern in Krisengebiete, Bundestag Bonn und Berlin, Dozent DW Berlin (FS), Industriefilme (Würth, Aral u.v.m), wissenschaftliche und künstlerische Filmprojekte, Projekte zur Netzwerksicherheit, Cloudlösungen. Keine Internetpräsenz, ein Bug? Nein, Feature. (Digtalpurist)

2 Kommentare

  1. Hanns-Conon von der Gabelentz

    „KI“ ist doch geradezu prädestiniert, stumpfe bürokratische Vorgänge zu übernehmen und somit in Verwaltung und allen Behörden und öffentlichen Einrichtungen die größten, direkt greifbaren, zeitsparendsten Vorteile für uns, die Menschen mit ihrer popeligen „NI“ (der Natürlichen Intelligenz), zu generieren! Warum soll denn das nicht möglich sein?

    • Martin Böttger

      Haben Sie Ihr Pseudonym auch daher? 😉

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

© 2024 Beueler-Extradienst | Impressum | Datenschutz

Theme von Anders NorénHoch ↑