… dann probiere es doch einmal mit einer Alternative! Das jedenfalls habe ich gerade dieser Tage wieder festgestellt.
Am konkreten Beispiel: Ich hatte mir in den Kopf gesetzt, einen KI-Assistenten als Programmierhilfe zu nutzen. Vor Jahren hatte ich versucht, mich ins Thema iOS-Development einzuarbeiten. Antreiber war vor allem eine Idee für eine recht simple Apple-Watch-App. Ich lernte damals einige Wochen fleißig auf Treehouse und dachte, ich wäre auf einem guten Weg – bis ich eines der simpel scheinenden Codebeispiele nach meinen Wünschen anpassen wollte und es einfach nicht hinbekam.
Letztlich gab ich es auf, denn so wichtig war es mir am Ende auch wieder nicht.
Auslöser für den neuen Anlauf war die Veröffentlichung des KI-Assistenten Codestral des französischen Unternehmens Mistral. Den installierte ich kurzerhand via LM Studio auf meinem Mac und legte los.
Tatsächlich machte ich gute Fortschritte. Ich war begeistert. Aber dann fand ich mich in einer Sackgasse, denn Codestrals Wissensstand war entweder nicht aktuell oder die Anleitung zu unklar, um mir weiterzuhelfen.
In der Folge probierte ich andere Assistenten aus. Darunter GPT-4 Turbo, Google Gemini 1.5 Pro und letztlich Anthropics Claude 3 Opus.
Ein Logikproblem im Aufbau meiner Watch-App schien dabei alle Assistenten zum Stolpern zu bringen, bis Claude 3 es im Handstreich löste. Schon konnte ich weitermachen.
Ähnlich ergeht es mir mit Texten. Ich nutze, wie früher schon erwähnt, das browserbasierte TypingMind, um mehrere Assistenten unter einem Dach zu vereinen. Das macht das Experimentieren besonders einfach. Dabei habe ich beispielsweise festgestellt, dass Gemini 1.5 Flash bisweilen besser textet als Gemini 1.5 Pro. Und das, obwohl die „Flash“-Variante eigentlich vor allem auf Geschwindigkeit getrimmt ist, während die „Pro“-Variante besonders leistungsfähig sein soll.
Es kommt eben doch immer auf den Einzelfall an.
Übrigens lohnt es sich, innerhalb von ChatGPT mit den verschiedenen Varianten zu experimentieren. Zum heutigen Stand stehen dort zur Verfügung: GPT-3.5, GPT-4 Turbo und das noch brandneue GPT-4o.
Dabei gilt nicht, dass immer das neueste Tool das beste ist. GPT-4o wird etwa dafür kritisiert, dass es Vorgaben in Prompts nicht (mehr) so gut folgt wie noch GPT-4 und bisweilen unnötig lange Antworten gibt. Dafür hat GPT-4o seine Stärke darin, mit Eingaben in verschiedenen Medienformaten zurechtzukommen.
Kurzum: Experimentieren lohnt sich. Was an der einen Stelle nicht klappt, kann andernorts plötzlich wie von Zauberhand funktionieren.
P.S.: In einem weiteren Blogpost von mir findest du generelle Tipps für bessere Ergebnisse mit ChatGPT.