Das KI-Unternehmen Anthropic hat ein neues Feature namens „Skills“ für seine Claude-Modellreihe veröffentlicht. Laut Angaben des Unternehmens sollen Skills die KI mit spezialisiertem Fachwissen für bestimmte Aufgaben ausstatten und sie so für geschäftliche und professionelle Arbeitsabläufe nützlicher machen. Das Feature ist für Nutzer der Pro-, Max-, Team- und Enterprise-Versionen von Claude verfügbar.
Ein Skill ist im Wesentlichen ein organisierter Ordner, der Anleitungen, Dokumente und ausführbare Code-Skripte enthalten kann. Die KI greift auf diesen Ordner zu, wenn sie erkennt, dass die Anfrage eines Nutzers in den Bereich eines Skills fällt. Anthropic vergleicht diesen Prozess damit, der KI eine Einarbeitungsmappe für eine neue Arbeitsstelle zu geben. Dies ermöglicht es Anwendern, ihr prozedurales Wissen in wiederverwendbaren Ressourcen zu bündeln und über die Nutzung einzelner Prompts hinauszugehen.
Wie „Progressive Disclosure“ funktioniert
Das System basiert auf einem von Anthropic als „Progressive Disclosure“ bezeichneten Prinzip. Dieses steuert, wie viele Informationen die KI zu einem bestimmten Zeitpunkt verarbeitet, was die Methode effizient und skalierbar machen soll:
- Zunächst kennt Claude nur den Namen und eine kurze Beschreibung jedes verfügbaren Skills.
- Wenn die Aufgabe des Nutzers zu der Beschreibung eines Skills passt, liest Claude die Hauptanleitungsdatei in dessen Ordner, um detaillierte Anweisungen zu erhalten.
- Für komplexere Vorgänge kann Claude bei Bedarf auf zusätzliche Dokumente zugreifen oder im Ordner des Skills enthaltene Code-Skripte ausführen.
Dieser schrittweise Ansatz verhindert, dass das Context Window der KI (sozusagen ihr Kurzzeitgedächtnis) mit irrelevanten Informationen überladen wird. Skills können wie beschrieben auch Code enthalten. Dadurch kann Claude Aufgaben, die Präzision und Konsistenz erfordern, durch das Ausführen eines Skripts erledigen, anstatt zu versuchen, das Ergebnis selbst zu generieren. Ein Anwendungsbeispiel wäre die Datenextraktion aus einem Dokument.
Nach Aussagen von Anthropic unterscheidet diese Kombination aus strukturierten Anleitungen, gestaffeltem Informationszugriff und der Fähigkeit, Code auszuführen, die Skills von anderen KI-Anpassungsoptionen wie den Custom GPTs von OpenAI.
Da Skills Code ausführen können, rät Anthropic Nutzern, diese nur aus vertrauenswürdigen Quellen zu installieren, um Sicherheitsrisiken zu minimieren. Das Unternehmen stellt Administratoren in Unternehmen Steuerelemente zur Verfügung, um den Zugriff auf das Feature in ihrer Organisation zu verwalten.
Quellen: Sources: Anthropic, VentureBeat, The Verge
