Neue KI-Architektur STAR reduziert Modell-Cache um 90 Prozent

Das MIT-Startup Liquid AI hat ein neuartiges KI-Framework namens STAR entwickelt, das die Effizienz herkömmlicher Transformer-Modelle deutlich übertrifft. Wie Carl Franzen für VentureBeat berichtet, nutzt das System evolutionäre Algorithmen zur automatischen Generierung und Optimierung von KI-Architekturen. Die neue Technologie erreicht eine Reduzierung der Cache-Größe um 90 Prozent im Vergleich zu traditionellen Transformern, bei gleichbleibender oder …

Weiterlesen …

MIT-Spin-off Liquid AI veröffentlicht seine effizienten KI-Modelle

Ein MIT-Spin-off namens Liquid AI hat neue KI-Modelle vorgestellt, die nicht auf der üblichen Transformer-Architektur basieren. Die sogenannten „Liquid Foundation Models“ (LFMs) übertreffen laut Unternehmen vergleichbare transformer-basierte Modelle in Leistung und Effizienz. Das gab Liquid AI in einer Ankündigung bekannt. Die Entwickler nutzten stattdessen Ansätze aus der Theorie dynamischer Systeme, Signalverarbeitung und numerischer linearer Algebra. …

Weiterlesen …