Die Bundesregierung hat ihre Hightech-Agenda beschlossen. Ein zentrales Ziel: Künstliche Intelligenz soll die deutsche Forschung und Wirtschaft wieder an die Weltspitze „katapultieren“. Damit erliegt die Regierung einmal mehr dem KI-Hype, obwohl er anderswo schon wieder abebbt.
Mehr Wettbewerbsfähigkeit, Wertschöpfung und Souveränität – das verspricht die „Hightech-Agenda Deutschland“, die das Bundeskabinett vorgestern verabschiedet hat.
Der Entwurf stammt aus dem Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) von Dorothee Bär (CSU). Die gute Nachricht: Flugtaxis will die Ministerin offenbar nicht länger in die Luft bringen. Stattdessen liegt ihr Augenmerk nun auf sechs „Schlüsseltechnologien“: Quantentechnologien, Mikroelektronik, Biotechnologie, Fusion und klimaneutrale Energieerzeugung, Technologien für die klimaneutrale Mobilität – und Künstliche Intelligenz.
Vor allem bei dem „Megathema“ KI strebt Bär für Deutschland eine Spitzenposition an. Ihre Hightech-Agenda ist durchzogen von der Vorstellung, dass sich mit KI ökonomische und wissenschaftliche Wunder vollbringen lassen. Diese Glaubensfestigkeit überrascht. Denn anderswo werden die Verheißungen des KI-Hypes längst hinterfragt und Kehrtwenden eingeleitet.
Mehr Wirtschaftsleistung durch KI?
In ihrer Hightech-Agenda spart die Regierung selbst nicht mit vollmundigen Versprechungen. Gleich zu Beginn formuliert sie das Ziel, „mit einer KI-Offensive bis 2030 zehn Prozent unserer Wirtschaftsleistung KI-basiert [zu] erwirtschaften“.
An keiner Stelle verrät das knapp 50-seitige Papier, wie das Ministerium zu dieser Zielmarke gelangt ist – oder wie es herausfinden will, dass dieses Ziel erreicht wurde.
„Die Formulierung ist äußerst vage“, sagt Florian Butollo gegenüber netzpolitik.org. Er ist Professor für Soziologie der digitalen Transformation und Arbeit an der Goethe-Universität in Frankfurt am Main und leitet das Forschungsprojekt „Generative KI in der Arbeitswelt“ am Weizenbaum-Institut. Sollen in fünf Jahren zehn Prozent aller Unternehmen KI einsetzen? Das wäre sehr wenig, sagt Butollo. Oder soll tatsächlich zehn Prozent der Bruttowertschöpfung auf KI zurückgehen? Dann aber müsste die Regierung berücksichtigen, dass die Arbeit mit KI meist in einer dynamischen Interaktion zwischen Mensch und Technologie erfolgt. Hier den Beitrag von KI seriös zu messen, sei kaum möglich, so der Soziologe.
„Nicht vom KI-Hype treiben lassen“
Auch andere trauen den wirtschaftlichen Verheißungen der Hightech-Agenda nicht. Sie befürchten vielmehr, dass der KI-Einsatz zulasten von Arbeitnehmer:innen geht. Die Sorge ist begründet: Gut ein Viertel der Unternehmen geht davon aus, dass der KI-Einsatz in den kommenden fünf Jahren zu einem Stellenabbau führen wird.
„Es darf nicht darum gehen, die Personalkosten zu senken“, warnt die Vorsitzende des Deutschen Gewerkschaftsbunds, Yasmin Fahimi. Vielmehr müsse eine höhere Qualität der Arbeit und mehr Mitbestimmung der Mitarbeitenden im Fokus stehen.
Und der europäische Betriebsratschef von SAP, Andreas Hahn, fordert, sich nicht vom KI-Hype treiben zu lassen. Wer glaube, „dasselbe mit weniger Ressourcen liefern zu können“, drohe von Konkurrenten überholt zu werden, die mit einer nicht geschrumpften Belegschaft mehr und bessere Produkte liefern.
Hahn widerspricht damit auch SAP-Vorstandschef Christian Klein. Der hatte behauptet, die Entwickler:innen seines Softwarekonzerns seien dank KI um dreißig Prozent produktiver geworden. Bereits Anfang vergangenen Jahres hatte Klein eine KI-Offensive und Streichung mehrerer tausend Stellen angekündigt.
Erst investieren, dann verstehen?
Solche Effizienzversprechen ziehen erste Studien in Zweifel. So kommt eine aktuelle Untersuchung der Cornell University sogar zu dem Schluss, dass erfahrene Programmierer nicht weniger, sondern mehr Zeit benötigen, wenn sie mit Hilfe von KI Code entwickeln. Darüber hinaus räumen erste Unternehmen ein, das die Angebotsqualität durch den KI-Einsatz leidet. So setzt etwa das schwedische Fintech-Unternehmen Klarna in seinem Kundendienst inzwischen wieder auf Menschen statt auf KI.
Florian Butollo überrascht das nicht. „Nicht die KI macht etwas, sondern Menschen machen etwas mit KI. Unternehmen schaden sich also selbst, wenn sie am menschlichen Arbeitsvermögen sparen, ohne das die KI nicht sinnvoll eingesetzt werden kann.“
Gründe für das erratische Verhalten von Unternehmen hat eine internationale IBM-Studie gefunden. Demnach neigen etwa zwei Drittel der CEOs dazu, in Technologien zu investieren, noch bevor sie deren ökonomischen Wert vollständig verstanden hätten. Ihre große Sorge: Dass sie hinter der Konkurrenz zurückfallen könnten.
KI als Forschungstreiber?
Die Sorge, abgehängt zu werden, treibt auch Forschungsministerin Bär an. Bei der Präsentation der Hightech-Agenda zeigte sie sich überzeugt, dass die deutsche Wirtschaft international nur dann „wieder an die Wettbewerbsspitze“ gelangen könne, wenn die Rahmenbedingungen für die Forschung stimmen. Etliche Wissenschaftsbereiche sollen deshalb von Künstlicher Intelligenz profitieren – von der Gesundheits- und Materialforschung über die Klima- und Biodiversitätsforschung bis zur Energie- und Nachhaltigkeitsforschung.
Doch auch für die Wissenschaft wird die KI keine Wunder vollbringen können. Denn die Fähigkeiten selbst aktueller Spitzenmodelle sind offenkundig ziemlich beschränkt und damit nicht vertrauenswürdig.
Der neueste Schrei auf dem KI-Hype-Markt sind sogenannte Large Reasoning Models (LRMs). Das sind fortgeschrittene KI-Modelle, die auf der Architektur großer Sprachmodelle (Large Language Models, LLMs) basieren, aber speziell darauf trainiert sind, mehrschrittige und vermeintlich strukturierte Schlussfolgerungen zu ziehen. Sie sollen somit nicht nur Texte „verstehen“ und erzeugen, sondern auch menschenähnliches Denken imitieren können, was insbesondere auch der Forschung zugutekommen soll.
Dass die Ergebnisse der LRMs jedoch nur mit Vorsicht zu genießen sind, hat jüngst eine Forschungsgruppe des Konzerns Apple herausgefunden. Laut der Studie „The Illusion of Thinking“ arbeiten etwa die Sprachmodelle von OpenAI mit zunehmender Komplexität der Aufgaben immer ungenauer – bis zum „complete accuracy collapse“, einem kompletten Genauigkeitskollaps. Warum es dazu kommt, können die Forschenden nach eigenen Angaben nicht erklären, sie gehen aber von einem grundlegenden Problem der KI-Technologie aus.
Und auch eine Studie, an denen unter anderem KI-Forschende aus dem Hause Google beteiligt waren, bewertet die Begründungen von LRMs als „irreführend“ und deren Resultate als wenig vertrauenswürdig.
Im besten Fall könne KI Software-Code oder Texte schreiben, so das Fazit des KI-Forschers Gary Marcus. Aber selbst dann seien die Ergebnisse alles andere als zuverlässig. Vielmehr könnte die KI „dir vorgaukeln, dass sie eine richtige, verallgemeinerbare Lösung entwickelt habe, obwohl das nicht der Fall ist.“
Bundesregierung will AI-Gigafactory bauen
Derlei Erkenntnisse halten die Bundesregierung nicht davon ab, KI auch baulich in übergroßen Dimensionen zu denken. „Wir holen mindestens eine der europäischen AI Gigafactories nach Deutschland“, heißt es in der Hightech-Agenda. Eine solche Ankündigung fand sich auch im Koalitionsvertrag.
Die gigantischen Rechenzentren dienen dem Training großer Sprachmodelle und verfügen über mindestens 100.000 spezielle Hochleistungsprozessoren, sogenannte GPU. Derzeit verfügen die größten Anlagen hierzulande über rund 25.000 GPU.
Insgesamt fünf dieser Rechenzentren will EU-Kommission europaweit bauen. Die Kommission schätzt, dass die Kosten pro Gigafabrik bei drei bis fünf Milliarden Euro liegen – die ökologischen Kosten mal außen vorgelassen. Ein europäischer Fonds soll deren Bau mit insgesamt 20 Milliarden Euro bezuschussen. Voraussichtlich 35 Prozent der Gesamtkosten werden die europäischen Steuerzahler:innen tragen, den Rest müssen die beteiligten Firmen und Investmentfonds aufbringen.
Das Interesse ist offenkundig groß: Bis Ende Juni haben Unternehmen und Forschungseinrichtungen bei der Kommission insgesamt 76 sogenannte Interessensbekundungen für den Bau einer Gigafactory eingereicht. Darunter sind einige deutsche Konzerne wie T-Systems und Ionos, während der KI-Bundesverband vom deutschen Staat noch mehr finanzielle Unterstützung wie Steuererleichterungen einfordert.
Der Hype ebbt ab
Die Bundesregierung zeigt sich optimistisch. Laut ihrer Hightech-Agenda soll die erste AI Gigafactory in Deutschland schon Mitte 2027 in Betrieb gehen.
Selbst wenn diese Frist gehalten wird, ist das mit Blick auf die KI-Forschung eine langer Zeitraum. Vor gut einem halben Jahr veröffentlichten chinesische Entwickler:innen das KI-Modell DeepSeek. Ihnen zufolge könne DeepSeek mit der Konkurrenz mithalten. Das Training der KI benötige im Vergleich aber nur ein Bruchteil der Rechenkraft und erheblich weniger Zeit.
Die Tech-Welt zeigte sich aufgeschreckt: „Wir sollten die Entwicklungen in China sehr, sehr ernst nehmen“, sagte Microsoft-CEO Satya Nadella damals auf dem Weltwirtschaftsforum in Davos. Trotzdem gab Microsoft im April bekannt, einige seiner Rechenzentrumsprojekte „zu verlangsamen oder zu pausieren“. Beobachter gehen davon aus, dass sich der Konzern „im Eifer des Gefechts um Künstliche Intelligenz höchstwahrscheinlich zu viel vorgenommen“ hatte. Auch Marktführer Amazon hat mehrere Bauprojekte für Rechenzentren auf Eis gelegt.
Selbst in China ebbt der KI-Hype offenkundig ab. In den Jahren 2023 und 2024 wurde landesweit der Bau von mehr als 500 Rechenzentren angekündigt. Bis Ende 2024 waren zwar 150 von ihnen gebaut. Doch 80 Prozent dieser Rechenzentren sind chinesischen Medien zufolge nicht in Gebrauch. „KI-Projekte scheitern, Energie wird verschwendet und Rechenzentren sind zu ’notleidenden Vermögenswerten‘ geworden, die Investoren gerne zu Preisen unter dem Marktwert loswerden möchten“, beschreibt die MIT Technology Review die Lage in China.
Dass die Frage der Wirtschaftlichkeit in der deutschen Debatte nur am Rande vorkommt, könnte auch mit dem schwarz-roten Koalitionsvertrag zusammenhängen. Darin steht, dass der Staat bei Vorhaben der Hightech-Agenda auch als „Ankerkunde“ tätig wird. Mit anderen Worten: Die Bundesregierung sichert zu, mit Steuergeldern für eine Mindestnachfrage bei den Gigafactories zu sorgen. Offenbar ist sie selbst also nicht allzu fest davon überzeugt, dass der KI-Hype aus sich heraus Früchte trägt.
Daniel Leisegang ist Politikwissenschaftler und Co-Chefredakteur bei netzpolitik.org. Zu seinen Schwerpunkten zählen die Gesundheitsdigitalisierung, Digital Public Infrastructure und die sogenannte Künstliche Intelligenz. Daniel war einst Redakteur bei den »Blättern für deutsche und internationale Politik«. 2014 erschien von ihm das Buch »Amazon – Das Buch als Beute«; 2016 erhielt er den Alternativen Medienpreis in der Rubrik »Medienkritik«. Er gehört dem Board of Trustees von Eurozine an. Kontakt: E-Mail (OpenPGP), Mastodon, Bluesky, Threema ENU3SC7K, Telefon: +49-30-5771482-28 (Montag bis Freitag, jeweils 8 bis 18 Uhr). Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.
Schreibe einen Kommentar