Für einige scheint Künstliche Intelligenz (KI) die Antwort auf nahezu alle Probleme zu sein, während andere sie als übertriebenen Hype ansehen, der sich aus gigantischen Datensammlungen speist. Egal, wo man sich in diesem Spektrum befindet, eines ist unbestreitbar: Das Thema KI ist derzeit allgegenwärtig. Der Boom, ausgelöst durch die Veröffentlichung von ChatGPT Ende 2022, hält auch zwei Jahre später unvermindert an. Investoren stecken enorme Summen in die Technologie, und die Versprechungen werden immer größer.
Gleichzeitig mehren sich die kritischen Stimmen, die darauf hinweisen, dass die finanzielle Tragfähigkeit dieses Trends fraglich ist. Es wird auf grundlegende Schwächen und den bisher begrenzten Nutzen hingewiesen, und vor einer möglichen Blasenbildung wird gewarnt. Es ist an der Zeit, einen genaueren Blick auf den Stand der Dinge zu werfen: auf Fortschritte, Trends, Probleme und überzogene Erwartungen.
Die erste Hürde
Zunächst eine schlechte Nachricht: Die Weiterentwicklung von Large Language Models (LLMs), die der generativen KI zugrunde liegen, verläuft nicht mehr so rasant wie erhofft. Zwar gibt es Fortschritte, doch fallen diese weitaus geringer aus, als viele prognostiziert hatten. Dieser Umstand wird inzwischen auch von führenden Unternehmen wie Google und OpenAI offen eingeräumt.
Ein wesentlicher Grund dafür ist, dass man an eine natürliche Grenze im Training dieser Modelle gestoßen ist: Das gesamte verfügbare menschliche Wissen scheint weitgehend ausgeschöpft zu sein. Obwohl dies nicht überraschend ist, wurden die Hoffnungen, mit computergenerierten Daten weiter voranzukommen, bislang nicht erfüllt.
Zwar gibt es weiterhin Optimierungen im Training und Finetuning, die die Leistungsfähigkeit der Modelle verbessern. Doch die einst verbreitete Annahme, dass man diese Modelle einfach endlos skalieren könnte, scheint sich als Trugschluss herauszustellen.
Reasoning
Die Branche hat jedoch bereits einen Lösungsansatz: sogenannte Reasoning-Modelle sollen die Entwicklung wieder vorantreiben. Die Idee dahinter ist, dass eine KI eine Fragestellung in mehreren Schritten selbst analysiert und abwägt, um schließlich zu besseren Ergebnissen zu gelangen.
Dass dies grundsätzlich funktioniert, hat OpenAI vor einigen Monaten mit dem Modell „o1“ gezeigt. Mittlerweile arbeiten auch andere Unternehmen an ähnlichen Ansätzen, etwa Google mit einer Reasoning-Variante seines Gemini-Modells. Vor Kurzem hat OpenAI mit „o3“ bereits einen Nachfolger präsentiert, der in einigen KI-Benchmarks für Aufsehen gesorgt hat – auch wenn die Aussagekraft dieser Tests und Ergebnisse teils kritisch betrachtet wird.
Ein teurer Ansatz
Dennoch: Reasoning-Modelle sind derzeit der größte Trend in der Branche, um die Leistungsfähigkeit generativer KI weiter zu steigern. Allerdings ist dieser Fortschritt mit erheblichen Kosten verbunden, da der Rechenaufwand für solche Modelle deutlich höher ist als bei klassischen, ohnehin schon rechenintensiven LLMs. Schließlich werden im Hintergrund zahlreiche Abfragen kombiniert, um ein Ergebnis zu erzielen.
Die Ergebnisse dieser Modelle müssen daher im Kontext ihrer hohen Kosten gesehen werden. So verursacht das leistungsstärkste „o3“-Modell von OpenAI pro einzelne Abfrage Kosten von etwa 1.000 Dollar – kein Scherz. Technisch mag dies beeindruckend sein, doch ist der praktische Einsatz derzeit nur für sehr spezifische Szenarien sinnvoll. Gleichzeitig steht die Technologie noch am Anfang, und es bleibt spannend, ob sich sparsamere Modelle mit Reasoning-Fähigkeiten kombinieren lassen.
OpenAI verliert seinen Vorsprung – und das ist gut so
Betrachtet man die klassischen LLMs, war 2023 von einem technologischen Vorsprung seitens OpenAI geprägt. Ende 2024 hat sich das Bild jedoch grundlegend geändert.
In Benchmarks wie dem Chatbot Arena LLM Leaderboard wechseln sich seit Monaten verschiedene Anbieter an der Spitze ab. Mal führt OpenAI, mal andere Unternehmen. Aktuell liegen beispielsweise zwei Gemini-Modelle von Google vorn. Auch spezialisierte Modelle wie Claude 3.5 Sonnet von Anthropic haben sich eine Fangemeinde, insbesondere unter Softwareentwicklern, aufgebaut. Zudem rücken frei verfügbare Modelle, oft irreführend als „Open-Source-Modelle“ bezeichnet, zunehmend an die Leistungsspitze heran.
Diese Entwicklung hat einen interessanten Effekt: Die Fixierung auf einzelne Modelle und Benchmark-Ergebnisse nimmt ab, da sie langfristig als technische Details in den Hintergrund treten. Beispiele wie Perplexity oder Coding-Assistenten wie Github Copilot zeigen, dass Dienste zunehmend mehrere Modelle unterschiedlicher Anbieter kombinieren.
Der Fokus liegt auf Anwendungen, nicht auf Modellen
Zukünftig dürften Anwendungen stärker im Fokus stehen als einzelne Modelle. Dies ist prinzipiell eine positive Entwicklung, bringt aber auch Unsicherheiten mit sich. Denn obwohl generative KI ein großes Thema ist, bleibt die Popularität der darauf basierenden Tools bislang begrenzt.
Auch im Jahr 2025 dominieren Chatbots wie ChatGPT, Gemini und Claude den Bereich, während KI-gestützte Tools in der Softwareentwicklung weit verbreitet sind. Andere Anwendungen stoßen hingegen bei der breiten Öffentlichkeit auf Desinteresse oder sogar Ablehnung. Dass Googles NotebookLM als das bemerkenswerteste neue KI-Tool des Jahres gilt, ist bezeichnend – weniger als Kritik an dem Tool, sondern als Hinweis darauf, dass viele andere Angebote aus dem KI-Bereich schlicht keinen Nerv der Nutzer treffen.
Oft wirkt es, als suche die Branche verzweifelt nach einem Problem, das ihre Lösung rechtfertigt – mit entsprechend mäßigem Erfolg. Große Initiativen wie Apple Intelligence, Microsoft Copilot oder Google Gemini in all ihren Ausprägungen bleiben hinter den Erwartungen zurück. Weder ist ein Run auf KI-gestützte Smartphones erkennbar, noch wechseln Nutzer massenhaft zu Microsofts Suchmaschine Bing, nur weil diese generative KI einsetzt.
Die wichtigsten Fortschritte werden oft übersehen
Auch wenn vieles daran richtig ist, bleibt ein abschließendes Urteil verfrüht. Denn eines sollte man nicht außer Acht lassen: Es sind vor allem die hohen Kosten, die bislang den Einsatz leistungsstarker LLMs (Large Language Models) und die Entwicklung darauf basierender Anwendungen in vielerlei Hinsicht begrenzt haben. Doch genau in diesem Bereich hat das Jahr 2024 beachtliche Fortschritte gebracht.
Inzwischen gibt es eine Vielzahl von LLMs, die zwar nicht ganz an die Leistungsfähigkeit der besten Modelle heranreichen, dafür aber wesentlich effizienter und schneller arbeiten. Besonders Google hat mit seinen Gemini-Flash-Modellen hier große Schritte gemacht. Diese Entwicklungen haben die Kosten für den Einsatz von LLMs deutlich gesenkt, was solche Modelle für viele Anwendungen attraktiver macht als die teuren Spitzenmodelle, die ohnehin nur wenige nutzen können.
Darüber hinaus eröffnen die schnelleren Modelle ganz neue Möglichkeiten, etwa durch ihre Fähigkeit, in Echtzeit auf Umgebungen zu reagieren – sei es auf Text, Sprache, Bilder oder Videos. Gerade im Hinblick auf die nächste Generation von KI-Assistenten, die möglicherweise sogar in smarten Brillen zum Einsatz kommen, sind das zweifellos wichtige technologische Fortschritte. Ob diese Entwicklung jedoch jedem gefallen wird, ist eine ganz andere Frage.
Die Ära der Agenten
Ein weiterer großer Trend, der für 2025 angekündigt wurde, lautet: „Agenten“. Ein Begriff, der durchaus schwammig ist und in der Branche unterschiedlich interpretiert wird. Aber vereinfacht gesagt, handelt es sich dabei um spezialisierte KI-Systeme, die bestimmte Aufgaben selbstständig und vollständig erledigen können.
Google als Vorreiter
Ein häufig genanntes Beispiel ist ein KI-Agent, der die Reiseplanung übernimmt – von der Informationssammlung auf Basis der Vorlieben des Nutzers bis zur vollständigen Organisation. Auch KI-Agenten, die bei alltäglichen Smartphone-Aufgaben helfen, fallen in diese Kategorie.
Obwohl die Idee nicht neu ist, liegt der Fokus der Branche derzeit stark darauf. Google hat kürzlich eine Reihe experimenteller Agenten vorgestellt, die von der automatischen Webrecherche direkt im Browser bis hin zur Unterstützung beim Gaming reichen. Natürlich arbeiten auch andere Unternehmen an ähnlichen Konzepten.
Ambitionierte Zeitpläne
Trotz der Begeisterung scheinen die Erwartungen – vor allem im Hinblick auf die Zeitpläne – etwas überzogen. Damit Agenten sinnvoll agieren können, brauchen sie umfassende Interaktionsmöglichkeiten mit den Daten und Systemen der Nutzer. Das birgt jedoch erhebliche Risiken in Bezug auf Manipulation und Sicherheit, wie selbst einige Entwicklerfirmen einräumen. Ganz zu schweigen von den damit verbundenen Datenschutzfragen.
Deshalb ist es notwendig, neue Schutzmechanismen zu entwickeln, bevor diese Technologien breiter eingesetzt werden können – ein Prozess, der Zeit erfordert. Schon jetzt investieren die Hersteller erhebliche Ressourcen, um LLMs gegen sogenannte Prompt-Injection-Angriffe abzusichern, also etwa vor Manipulationen durch versteckte Befehle in E-Mails. Ein Agent, der sich frei im Internet bewegt und Aktionen im Namen des Nutzers ausführt, stellt allerdings eine viel größere Herausforderung dar.
Daher ist davon auszugehen, dass Agenten in naher Zukunft nur in stark eingeschränkten Anwendungsbereichen über Prototypen hinausgehen werden. Ob sie dann tatsächlich so nützlich sind, wie die Branche es erhofft, bleibt abzuwarten. Denn selbst bei niedrigen Fehlerraten besteht immer die Gefahr, dass diese Helferchen die Nutzer eher frustrieren als unterstützen.
War da nicht etwas mit Fehlern?
Ein weiterer Punkt, über den die Branche nur ungern spricht, sind die Fehler der Systeme. Oft agieren LLMs wie ein nerviger Verwandter, der zu allem eine laute Meinung hat – die jedoch nicht immer korrekt ist. Auch wenn das überspitzt klingt, bleibt das Problem der sogenannten „Halluzinationen“ ungelöst. Zwar sind neuere Modelle weniger fehleranfällig, die Fortschritte sind jedoch begrenzt.
Dieses Problem wäre weniger gravierend, wenn die Nutzer die Aussagen solcher Tools kritisch hinterfragen würden. Doch leider zeigt sich häufig das Gegenteil: Viele Nutzer nehmen die Ausgaben von KI-Systemen wie ChatGPT oder Perplexity für bare Münze und verteidigen diese sogar vehement gegen Kritiker, die auf Fehler hinweisen.
Verstärkt wird dieser unkritische Glaube durch „Quellenverweise“, die mittlerweile häufig angefügt werden. Sie suggerieren Wissenschaftlichkeit und Glaubwürdigkeit, auch wenn die verlinkten Artikel oft etwas ganz anderes aussagen, als die KI behauptet. Genau dieser Punkt steht im Zentrum einer Klage gegen Perplexity: Das Wall Street Journal wirft der KI-Suchmaschine vor, Zitate aus der Zeitung zu verfälschen oder frei zu erfinden.
Solche sozialen Probleme könnten sich weiter verschärfen – insbesondere, wenn Google seine Suchmaschine noch stärker auf KI umstellt. Schon die aktuellen KI-basierten Suchergebnisse sind alles andere als fehlerfrei.
Rechtliche Fragen: Noch ungelöst
Nicht zu vergessen sind die zahlreichen rechtlichen Fragen rund um die Erstellung von LLMs, insbesondere hinsichtlich des verwendeten Datenmaterials. Freundlich ausgedrückt sind diese Fragen „ungeklärt“. Kritiker sehen jedoch eine bewusste Ignoranz der Branche gegenüber der Legalität.
Das mag seltsam erscheinen, ist aber aus wirtschaftlicher Sicht nachvollziehbar. In einer Hype-Phase zählt für Start-ups vor allem die Geschwindigkeit. Mit ausreichend Risikokapital geht es zunächst darum, Marktanteile zu sichern. Die rechtlichen Fragen können – so die Strategie – später geklärt werden.
AGI: Ein vages Ziel mit großem Versprechen
Schnelligkeit allein reicht nicht, wenn es kein klares Ziel gibt. In der KI-Branche hat sich der Begriff „Artificial General Intelligence“ (AGI) – auf Deutsch „Künstliche Allgemeine Intelligenz“ – etabliert. Doch wie so oft ist auch dieser Begriff alles andere als präzise. Fragt man in der Branche, was AGI genau ist, bekommt man von zwei Experten oft drei verschiedene Antworten. Eine häufige Definition lautet: AGI ist eine KI, die die intellektuellen Fähigkeiten von Menschen bei einer Vielzahl von Aufgaben übertrifft. Aber das ist – gelinde gesagt – ein ziemlich ungenaues Ziel.
Für die Unternehmen, die an AGI arbeiten, ist diese Unschärfe allerdings eher ein Vorteil. Der Begriff ist flexibel und lässt sich je nach Situation anpassen. So kann man mit dem Versprechen von AGI immer wieder neues Kapital gewinnen, ohne sich auf eine feste Definition festlegen zu müssen. Ein Paradebeispiel hierfür ist OpenAI: Noch 2023 hatte CEO Sam Altman AGI als „lächerlichen und bedeutungslosen Begriff“ bezeichnet. Doch mittlerweile hat sich das Unternehmen offenbar mit Microsoft auf eine Definition geeinigt, die auf den ersten Blick fast erfrischend ehrlich wirkt – denn sie ist direkt an den wirtschaftlichen Erfolg von OpenAI gekoppelt.
Fairerweise sollte man erwähnen, dass Sam Altman kürzlich in einem Blogbeitrag betonte, OpenAI habe jetzt einen klaren Plan in Richtung AGI. Details bleibt er schuldig, doch Begriffe wie „Reasoning-Modelle“ und „Agenten“ fallen dabei. Was auch immer man von solchen Aussagen hält, sie sind ohne Zweifel nützlich, um die nächste Finanzierungsrunde zu sichern.
Profitabilität: Eine ferne Realität
Eine Realität, über die die KI-Unternehmen allerdings nicht gerne sprechen, ist die finanzielle Lage. Zwar erzielt OpenAI mit den kostenpflichtigen Versionen von ChatGPT Milliardenumsätze, doch von echter Profitabilität ist man weit entfernt. Schätzungen zufolge wird OpenAI im Jahr 2024 Einnahmen von rund 3,7 Milliarden Dollar erzielen, dabei jedoch Verluste in Höhe von 5 Milliarden Dollar machen. Und das ist noch das optimistische Szenario – andere Unternehmen in der Branche sind wirtschaftlich noch schlechter aufgestellt.
Droht eine KI-Blase?
Diese Zahlen und die hochgesteckten Erwartungen führen dazu, dass selbst traditionell optimistische Investoren immer skeptischer werden. So bezeichnete die Investmentbank Goldman Sachs KI kürzlich als „überhypt, extrem teuer und unzuverlässig“. Der Venture-Capital-Gigant Sequoia rechnete vor, dass es nahezu unmöglich sei, die immensen Investitionen in KI jemals wirtschaftlich zu rechtfertigen.
Angesichts dessen überrascht es kaum, dass manche Beobachter davon ausgehen, dass die KI-Blase bereits 2025 platzen könnte. Die Diskrepanz zwischen den enormen Erwartungen und dem tatsächlichen Nutzen sowie der Monetarisierbarkeit der Technologie ist einfach zu groß. Ob es tatsächlich so kommt, bleibt abzuwarten – aber die Möglichkeit besteht.
Wichtig ist dabei, dass das Platzen einer solchen Blase nicht das Ende der Technologie bedeutet. Generative KI hat zweifellos ihre nützlichen Einsatzbereiche, und diese sind inzwischen weitgehend unbestritten. Die eigentliche Frage ist, ob die aktuellen Investitionen und Bewertungen nachhaltig sind.
Ein neuer Hype ist nur eine Frage der Zeit
Für alle, die sich Sorgen um die Tech- und Investmentbranche machen, gibt es jedoch keinen Grund zur Panik. Selbst wenn der KI-Hype abflachen sollte, wird es früher oder später ein neues Feld für spekulative Investitionen geben. Das hat die Vergangenheit mehrfach gezeigt. Die Branche zieht einfach weiter – zum nächsten glänzenden Objekt.
Ein heißer Kandidat dafür zeichnet sich bereits ab: Quantencomputing. Vor Kurzem verkündete Google einen Durchbruch bei der Fehlerkorrektur in Quantencomputern. Daraufhin explodierten die Aktienkurse von Start-ups wie Rigetti Computing – teilweise um fast 2000 Prozent. Dass es noch viele grundlegende Herausforderungen gibt, bevor Quantencomputer wirklich praktisch einsetzbar sind, scheint dabei kaum jemanden zu stören.
Blase oder nicht?
Am Anfang der Woche führten fallende Tech-Aktien zu einem deutlichen Rückgang an den Börsen. Hat der Markt die Begeisterung für KI-Unternehmen also überschätzt? Die technologische Entwicklung spricht eher dagegen.
Ist der Hype um künstliche Intelligenz der Auslöser für eine Blase? Diese Frage wird oft gestellt, und die kurze Antwort lautet: Nein. Zumindest nicht, wenn man den Begriff „Blase“ mit der »New Economy«-Ära um die Jahrtausendwende vergleicht. Damals wurden die meisten Start-ups massiv überbewertet, hatten keine tragfähigen Geschäftsmodelle und damit keine Zukunft.
Das bedeutet allerdings nicht, dass es keine Kurskorrekturen bei den großen KI-Profiteuren geben könnte. Ebenso wenig ist sicher, dass jedes derzeit hoch bewertete KI-Start-up überleben wird – das liegt in der Natur von Neugründungen. Um die Frage nach einer möglichen KI-Blase umfassend zu beantworten, muss man jedoch sowohl den Hype um KI als auch die Grundlagen für die Diskussion einer solchen Blase genauer analysieren.
Gigantische Fortschritte, unklare Märkte
Einer der größten Gewinner der KI-Entwicklung der letzten eineinhalb Jahre ist ohne Zweifel Jensen Huang, Gründer und CEO von Nvidia – der Chipfirma ohne eigene Fabriken, die zeitweise das wertvollste Unternehmen der Welt war. Vor einigen Wochen äußerte Huang interessante Gedanken, die Hinweise auf die Entwicklung des KI-Marktes geben könnten. Wichtig ist dabei die Unterscheidung zwischen KI als Technologie und dem Markt für KI-Produkte. Während KI-Forschung enorme Fortschritte erzielt, hinkt die Vermarktung von KI-Produkten noch hinterher. Das ist bei neuen Technologien üblich, aber im Fall von KI scheint dieser Abstand größer zu sein als bei früheren Tech-Innovationen.
Die schnelle Verbreitung von KI-Modellen wie ChatGPT hat das Thema zwar weltweit in den Fokus gerückt, doch die Märkte, die durch diese Technologien entstehen, entwickeln sich langsamer. Die Transformation durch KI hat begonnen, aber es bleibt schwierig, genau zu sagen, wo die erhofften gigantischen Wertschöpfungsvorteile für Investoren tatsächlich entstehen werden. Es ist vergleichbar mit der Erfindung des Verbrennungsmotors: Die Technologie war da, aber das Automobil als Massenprodukt noch nicht.
Visionen von humanoiden Robotern
Auf einer Konferenz in Taiwan im Juni 2024 erklärte Huang: „Die nächste Welle der KI wird materielle KI sein – KI, die physikalische Gesetze versteht und mit Menschen zusammenarbeitet.“ Später konkretisierte er, dass er humanoide Roboter als alltägliche Helfer in praktisch jedem Haushalt sieht. Elon Musk äußerte wenige Tage später eine ähnliche Vision und prognostizierte, dass Roboter in Zukunft zehnmal häufiger vorkommen könnten als Autos. Diese Aussagen sind nicht zufällig: Der Automobilmarkt war einer der größten und lukrativsten Märkte der Neuzeit. Ähnliche Potenziale sehen Huang und Musk nun bei humanoiden Robotern.
Musk ging sogar so weit, mit Teslas humanoidem Roboter „Optimus“ konkrete Zahlen zu nennen: Eine Milliarde Roboter könnten pro Jahr verkauft werden, wobei Tesla mit einem Marktanteil von 10 Prozent Umsätze im Billionenbereich erzielen könnte.
Herausforderungen der Massenmarkttauglichkeit
Obwohl die Entwicklung humanoider Roboter rasant voranschreitet, ist ihr breiter Einsatz im Alltag noch Zukunftsmusik. Ein Beispiel dafür ist das Robotik-Start-up „Figure“, das im August 2024 sein Modell „02“ präsentierte, das derzeit in einem BMW-Werk getestet wird. Solche Fortschritte sind beeindruckend, aber der Alltag stellt für humanoide Roboter ungleich größere Herausforderungen dar als die kontrollierten Umgebungen einer Fabrikhalle.
Es zeigt sich: Der KI-Markt ist momentan noch zu komplex und diffus, um eine verlässliche Grundlage für Investoren zu bieten. Es gibt zahlreiche Möglichkeiten, aber bisher nur wenige konkrete Produkte. Das ist typisch für neue Technologien, aber in unsicheren Zeiten wirkt das auf Investoren oft abschreckend.
Fazit: Mehr Transformation als Blase
Die Diskussion um eine mögliche KI-Blase sollte differenziert geführt werden. Die Technologie selbst hat bereits enorme Fortschritte gemacht und bietet erhebliche Vorteile in Bereichen wie Textzusammenfassung, Software-Entwicklung und Geschäftsprozessen. Die Frage ist nicht, ob KI die Wirtschaft verändert, sondern wann und wie.
Klar ist: Die Transformation der Wirtschaft und Arbeitswelt durch künstliche Intelligenz ist unumkehrbar. Bis sich jedoch die größten und nachhaltigsten Märkte herauskristallisieren, wird es Enttäuschungen, Korrekturen und vereinzelte Teilblasen geben. Doch die gesamte KI-Branche als Blase zu betrachten, wäre falsch – dafür findet schon heute zu viel Wertschöpfung statt.
Tschüss.

