Neue KI-Architektur STAR reduziert Modell-Cache um 90 Prozent

Das MIT-Startup Liquid AI hat ein neuartiges KI-Framework namens STAR entwickelt, das die Effizienz herkömmlicher Transformer-Modelle deutlich übertrifft. Wie Carl Franzen für VentureBeat berichtet, nutzt das System evolutionäre Algorithmen zur automatischen Generierung und Optimierung von KI-Architekturen. Die neue Technologie erreicht eine Reduzierung der Cache-Größe um 90 Prozent im Vergleich zu traditionellen Transformern, bei gleichbleibender oder verbesserter Leistung. STAR verwendet sogenannte „STAR-Genome“ für die iterative Optimierung und kann damit verschiedene Architekturdesigns erkunden. Tests zeigten zudem eine Reduzierung der Parameteranzahl um bis zu 13 Prozent bei gleichzeitiger Verbesserung der Benchmark-Leistung. Das Forschungsteam um Armin W. Thomas hat die Ergebnisse in einer von Experten geprüften Publikation veröffentlicht und macht die Technologie damit der KI-Forschungsgemeinschaft zugänglich.

Mehr zum Thema:

Bleib up-to-date: