Arch-Function beschleunigt KI-Agenten

Katanemo hat Arch-Function vorgestellt, eine Sammlung von Open-Source Large Language Models (LLMs), die ultraschnelle Funktionsaufrufe bieten, welche für agentenbasierte Anwendungen in Unternehmen unerlässlich sind. Laut VentureBeat sind diese Modelle fast 12-mal schneller als OpenAIs GPT-4 und übertreffen die Angebote der Konkurrenz bei weitem, während sie gleichzeitig erhebliche Kosteneinsparungen ermöglichen.

Arch-Function baut auf Katanemos Vorgängerversion Arch auf, die als intelligentes Prompt-Gateway dient und es Entwicklern ermöglicht, sichere und effiziente generative KI-Anwendungen zu erstellen. Die neuen LLMs, die auf Qwen 2.5 basieren, können komplexe Eingabeaufforderungen verstehen und digitale Aufgaben ausführen, indem sie mit externen Systemen interagieren. Sie sind besonders gut darin, Funktionen über API-Aufrufe auszuführen, was maßgeschneiderte Workflows in verschiedenen Bereichen ermöglicht, von Versicherungsansprüchen bis hin zu Marketingkampagnen.

Obwohl umfassende Benchmarks noch ausstehen, deuten erste Ergebnisse darauf hin, dass LLMs eine gute Wahl für Echtzeitanwendungen sind. Laut Prognosen soll der Markt für KI-Agenten 2030 bis zu 47 Milliarden US-Dollar erreichen.

Mehr zum Thema:

Bleib up-to-date: