ServiceNow hat Fast-LLM veröffentlicht, ein Open-Source-Framework zur Beschleunigung von KI-Modelltraining um 20%. Dies berichtet Sean Michael Kerner für VentureBeat. Das System wurde bereits erfolgreich beim Training von ServiceNows StarCoder 2 Sprachmodell eingesetzt. Fast-LLM führt zwei wichtige Neuerungen ein: „Breadth-First Pipeline Parallelism“ für optimierte Berechnungsabläufe und ein verbessertes Speichermanagement. Das Framework lässt sich als direkter Ersatz für PyTorch-Umgebungen einsetzen. Nicolas Chapados, Forschungsleiter bei ServiceNow, betont die erheblichen Kosten- und Umweltvorteile bei großen KI-Trainingsoperationen. ServiceNow plant, Fast-LLM durch Community-Beteiligung weiterzuentwickeln, ähnlich wie beim erfolgreichen StarCoder-Projekt.