Nvidia Inference Microservices vereinfachen KI-Entwicklung

Nvidia stellt mit NIM (Nvidia Inference Microservices) eine neue Technologie vor, die es Entwicklern ermöglichen soll, KI-Anwendungen innerhalb von Minuten statt Wochen bereitzustellen. Diese Microservices bieten optimierte Modelle als Container, die sich in Clouds, Rechenzentren oder auf Workstations einsetzen. Unternehmen sollen damit generative KI-Anwendungen für Copiloten, Chatbots und mehr einfach und schnell erstellen können. Über 40 Microservices unterstützen verschiedene KI-Modelle, darunter Meta Llama 3, Google Gemma und Microsoft Phi-3. 

Mehr zum Thema:

Bleib up-to-date: