KI-Trends 2025: Wohin die Reise geht in diesem Jahr

Wir befinden uns im dritten Jahr des Booms der generativen KI. Während einige eine Krise für die gesamte Branche vorhersagen, erwarte ich persönlich, dass 2025 ein Jahr interessanter, sinnvoller und nützlicher Fortschritte wird. Generative KI ist gekommen, um zu bleiben.

Zugleich gilt: Die Fortschritte werden sich vielleicht nicht immer so aufregend anfühlen wie die der letzten beiden Jahre. Der Hype wird sich wahrscheinlich etwas abkühlen.

Meine Perspektive ist bei alledem: Ich schreibe seit 30 Jahren für meinen Lebensunterhalt. Generative KI wirkt sich direkt auf meinen Beruf und damit auf meinen Lebensunterhalt aus. Ich sehe sie sowohl als Bedrohung als auch als Werkzeug.

Dieser Zwiespalt ist immer in meinem Hinterkopf, wenn ich darüber lese, nachdenke und schreibe.

Mehr spezialisierte Modelle

Bislang sind die wichtigsten Angebote auf dem Markt für KI-Texte Allzwecklösungen: ChatGPT, Claude und Gemini können alle bei vielen Aufgaben des Schreibens helfen, sind aber in keiner Weise spezialisiert.

Das könnte sich ändern.

Warum ich das glaube: Ich sehe, was in der Welt der „quelloffenen“ KI geschieht (siehe unten). Kurze Zeit nach der Veröffentlichung eines neuen leistungsstarken und vielversprechenden offenen KI-Modells kommen Fine-tunes aller Art heraus. Oft wird ein Modell für Coding optimiert, es befolgt Anweisungen besser oder es werden Beschränkungen und Sicherheitsvorkehrungen aufgehoben.

Kommerzielle Anbieter könnten sich dies zum Vorbild nehmen.

Claude 3.5 Sonnet zum Beispiel wird oft für seine Code-Fähigkeiten gelobt. Was wäre, wenn Anthropic dies bemerken und darin eine Gelegenheit erkennen würde: Entwickle eine Version von Claude speziell für diese Aufgabe, die deshalb noch besser ist. Dafür brauchen sie nicht einmal unbedingt ein KI-Modell der nächsten Generation.

Das Gleiche gilt für das Schreiben: Ich bevorzuge Claude 3.5 Sonnet gegenüber allen anderen Optionen. Meiner Erfahrung nach ist Claude einfach deutlich besser.

Was wäre, wenn Anthropic eine Version von Claude trainieren würde, die noch besser versteht, wie sich professionell verfasste Texte von Laien-Texten unterscheiden? Was wäre, wenn sie einen Claude schaffen würden, der die Nuancen von Stil und Tonfall noch besser versteht?

Selbst ohne weitere Verbesserungen wäre dies ein großer Qualitätssprung.

Ein weiteres Beispiel für Spezialisierung sind Reasoning-Modelle: Sie sind speziell darauf ausgelegt, eine Aufgabe zu durchdenken, bevor sie ein Ergebnis liefern. Dies ist keine allgemeine KI mehr und das ist teuer, aber es könnte sich für viele Anwendungsfelder als nützlich herausstellen.

Mehr spezialisierte Services

GPT-3.5 in eine Chat-Umgebung einzubauen, war ein Geniestreich. OpenAI hat das bekanntlich selbst nicht sofort erkannt. Sie sahen nur, wie die Zahl der Nutzer plötzlich und heftig explodierte. Innerhalb von zwei Monaten wurde aus dem stillen kleinen Forschungslabor ein großes Unternehmen.

Aber diese Chat-Oberfläche ist nicht in allen Fällen der beste Weg, um diese KI zu nutzen. Ich finde sie etwa beim Schreiben umständlich und hoffe, dass Leute, die klüger und einfallsreicher sind als ich, an neuen Ideen in diesem Bereich arbeiten.

Das Hauptproblem: Diese Oberfläche vermischt das Verfassen eines Textes mit der Diskussion über den Entwurf. Das ist aber nicht, wie wir im wirklichen Leben arbeiten: Diese beiden Teile der Arbeit sind voneinander getrennt.

Eine bessere Metapher wäre so etwas wie Google Docs. So könnte es einen Bereich geben, in dem man das Briefing für eine Textidee schreibt und veröffentlicht. Man könnte Anweisungen, Quellendokumente und Links hinzufügen.

Dann nimmt die KI diesen Text und schreibt ihren ersten Entwurf. Sie präsentiert ihn in einer separaten Umgebung.

Im nächsten Schritt könnte man mit einer Google Docs-ähnlichen Kommentarfunktion Passagen markieren und erklären, was geändert werden muss. Die KI schreibt den Entwurf live vor deinen Augen um.

Mit anderen Worten: Ich wünschte, es gäbe eine Plattform, die genau so funktioniert, als ob ich mit einem externen Autor kommunizieren würde. Aber der Autor ist eine KI.

Ein ähnliches Potenzial sehe ich bei KI-Bildgeneratoren. Mein Hauptproblem: Ich weiß nicht immer, was ich in einem Bild zur Illustration eines Artikels sehen möchte. Manchmal habe ich eine vage Vorstellung. Aber oft nicht.

Die ChatGPT-Oberfläche funktioniert in diesem Fall gut, weil ich erklären kann, wofür ich etwas brauche. Auch hier gilt, was ich gerade über die KI-Texterstellung gesagt habe: Ich möchte, dass KI-Plattformen, -Dienste und -Tools stärker nachahmen, wie wir mit Menschen interagieren. Wenn ich mich daran zurückerinnere, als ich in einem großen Verlagshaus gearbeitet habe und wir eine eigene Person für Bilder und Illustrationen hatten, habe ich der mitgeteilt, worum es in meinem Artikel geht. Sie wusste bereits, welchen Stil wir im Allgemeinen wollten, weil sie die Zielgruppe kannte und wusste, wie eine Ausgabe unseres Magazins aussah. Das ist es, was ich mir von Bildgeneratoren wünsche: Sie sollen mir helfen, vor und während der Bilderstellung gute Ideen zu entwickeln.

Während das Chat-Interface von ChatGPT also dafür gut geeignet ist, ist der eingebaute Bildgenerator Dall-E leider unterdurchschnittlich. Andere wie Ideogram oder Midjourney sind in Bezug auf die Qualität weit voraus. Aber beide verlangen von mir, dass ich eine Idee für ein Bild habe, mit einem Stil, einem Ton und mehr.

Ich gehe davon aus, dass es dort draußen Leute gibt, die die gleichen Möglichkeiten sehen: Diese fortschrittliche KI in Benutzeroberflächen einzubauen, die leicht zu verstehen sind und unerfahrene Menschen durch den Prozess führen.

Manchmal habe ich das Gefühl, dass wir uns noch in der „Kommandozeilen-Phase“ der KI befinden.

„Open Source“ gewinnt noch mehr an Fahrt

Ich weiß, dass viele Menschen Open-Source-KI nicht als wirklich quelloffen betrachten. Aber das ist eine Diskussion für einen anderen Tag.

Davon abgesehen: Es ist spannend, fortschrittliche KI-Modelle in so vielen Varianten, Größen und Fähigkeiten nutzen zu können.

Zum einen können diese KI-Modelle direkt auf einem Gerät laufen, das du bereits benutzt, sogar auf deinem Smartphone. Wenn du mehr Leistung benötigst, bieten die neuesten Desktop- und Laptop-PCs immer mehr KI-Performance. Und wenn dir das immer noch nicht reicht und du in einem größeren Unternehmen arbeitest, kannst du deinen persönlichen KI-Assistenten auf deinem eigenen Server laufen lassen.

Auf diese Weise bist du unabhängig von einem bestimmten Anbieter. Und was noch wichtiger ist: Der Datenschutz ist kein Thema mehr, denn die Daten und Interaktionen verlassen nie die Umgebung, die du selbst kontrollierst. Das ist ein starkes Argument, insbesondere für Unternehmen.

Hinzu kommt: Die Open-Source-Szene ist sehr aktiv. Wie bereits erwähnt: Wenn ein neues interessantes Modell herauskommt, dauert es nicht lange, bis verbesserte und spezialisierte Versionen erscheinen. Unternehmen, Forscher und hochmotivierte Einzelpersonen können eine KI auch selbst nach ihren Wünschen anpassen.

Ein Anbieter wie OpenAI bietet zwar eine Vielzahl schlüsselfertiger Lösungen, wird es aber schwer haben, mit der Vielfalt der Open-Source-KI Schritt zu halten.

Damit will ich nicht sagen, dass Open Source am Ende gewinnen wird. Bequemlichkeit hat einen Wert, und viele Unternehmen werden kein Interesse daran haben, ihre eigenen KI-Modelle zu hosten.

Aber die Fortschritte, die ich in den letzten 12 Monaten bei offenen KI-Modellen gesehen habe, waren atemberaubend und überraschend. Ich glaube nicht, dass es sich in absehbarer Zeit verlangsamt.

Warum ich skeptisch bei Agenten bin

KI-Agenten sind derzeit der heilige Gral. Der Begriff bezieht sich auf KI, die komplexe, mehrstufige Aufgaben ohne ständiges menschliches Eingreifen umsetzen kann.

Gegenwärtig brauchen KI-Modelle immer eine Person, die ihnen sagt, was sie tun sollen, idealerweise Schritt für Schritt. Andernfalls können sie leicht in die Irre laufen.

KI-Agenten sollen viel fortschrittlicher sein: Du gibst ihnen ein Ziel vor, vielleicht noch ein paar Tipps, Werkzeuge und Dokumente, und dann machen sie sich selbständig auf den Weg. Wenn sie fertig sind, melden sie sich mit den Ergebnissen zurück.

KI-Agenten sind potenziell ein riesiger Wirtschaftszweig, denn sie könnten noch mehr Menschen ersetzen.

Heute sehe ich KI-Tools hauptsächlich als hilfreiche Assistenten. Sie können mich produktiver machen. Aber es gibt immer noch eine Menge, was ich selbst tun muss. Ein Beispiel: Wenn ich eine KI benutze, um eine Gliederung für einen Artikel zu entwickeln, liefere ich die Idee und in den meisten Fällen auch das Quellenmaterial.

Ein KI-Agent könnte auch das alles übernehmen. Ich erzähle ihm von meinem Projekt, der Zielgruppe und meinen Zielen. Er würde Ideen entwickeln, sie recherchieren, Prioritäten setzen, nach Quellenmaterial suchen, eine Gliederung erstellen und den Artikel schreiben.

In der Theorie scheinen viele der Bausteine für diese Agenten vorhanden zu sein. Sie müssen „nur“ noch auf zuverlässige Weise miteinander verbunden werden.

Aber wie sich herausstellt: Das ist der schwierige Teil.

OpenAI schürt gerne den Hype um dieses Thema, vor allem sein Chef Sam Altman. In gewisser Weise ist das Teil seines Jobs. OpenAI hat gerade eine Menge Geld bekommen. Sie müssen ihre Investoren bei Laune halten und das Interesse der Leute wecken. Daher nehme ich ihre Vorhersagen mit einer gesunden Skepsis zur Kenntnis. Sie sind schließlich eigennützig.

Ich sage nicht, dass sie lügen.

Aber ich bin nicht davon überzeugt, dass sie den Code für KI-Agenten wirklich geknackt haben.

Ich glaube es, wenn ich es sehe.

Und was ist mit AGI, ASI …?

Noch deutlich weiter entfernt von der Realität als Agenten sind künstliche allgemeine Intelligenz (AGI) und künstliche Superintelligenz (ASI). Viele in der Branche sehen diese als das Endziel ihrer Forschung.

Es wäre buchstäblich das Endziel: Eine AGI wird oft als eine KI definiert, die jede Aufgabe, die ein Mensch ausführen kann, auf dem gleichen Niveau wie ein Mensch ausführt. In Kombination mit Robotik wäre eine AGI ein vollständiger Ersatz für so ziemlich jeden Menschen in jedem Job in jeder Position – zumindest theoretisch.

An diesem Punkt könnte eine AGI zudem zu einem KI-Forscher werden und beginnen, sich selbst zu verbessern. Dieser Prozess würde sich höchstwahrscheinlich exponentiell beschleunigen. Mit anderen Worten: Er würde langsam beginnen und dann plötzlich sehr schnell werden.

Das Ergebnis wäre: ASI – KI-Systeme, die jeden Menschen bei jeder Aufgabe übertreffen. Sie würden sich noch immer weiter verbessern, bis zu einem Punkt, der für uns Menschen unvorstellbar ist, weil er per Definition jenseits unseres Verständnisses liegt.

Das klingt wie Science-Fiction. Und ich erwarte nicht, dass es in den nächsten 12 Monaten geschieht. Aber es scheint nicht mehr so weit hergeholt zu sein wie noch vor ein paar Jahren.

Skeptiker sagen, dass wir es mit unseren heutigen Mitteln nicht schaffen können. Andere sind viel zuversichtlicher und sehen es in den nächsten fünf bis zehn Jahren.

Noch mehr Vorhersagen

Weil doch jeder Vorhersagen mag (vor allem ich!), habe ich einen Tag Vorhersagen auf dieser Seite. Viel Spaß beim Stöbern!

Mehr zum Thema:

Bleib up-to-date: