Das japanische Startup Sakana AI hat eine innovative Technologie entwickelt, die den Speicherverbrauch von großen Sprachmodellen um bis zu 75% senkt. Ben Dickson berichtet über diese neue Methode namens „universal transformer memory“. Das System verwendet neural attention memory modules (NAMMs), die automatisch entscheiden, welche Informationen wichtig sind und welche verworfen werden können. Die Technologie wurde erfolgreich am Llama 3-8B Modell von Meta getestet. Die Module passen sich verschiedenen Aufgaben an und entfernen überflüssige Elemente wie Kommentare im Programmcode oder grammatikalische Wiederholungen in Texten. Das System funktioniert mit Open-Source-Modellen und kann ohne zusätzliches Training für verschiedene Anwendungen eingesetzt werden, einschließlich Bildverarbeitung und maschinelles Lernen.
Neue KI-Technik reduziert Speicherverbrauch von Sprachmodellen
Über den Autor
Bleib up-to-date:
Neu vom Autor dieser Website: ChatGPT-Kompass für Marketing Content Creation

Der aktuelle und umfassende Überblick für Marketing-Profis (2. Ausgabe, September 2025)
Der KI-Umbruch im Marketing ist in vollem Gange und ChatGPT steht als Plattform Nr. 1 im Zentrum. Aber wie behältst du den Überblick bei all den neuen Funktionen und Möglichkeiten? Wie setzt du ChatGPT wirklichgewinnbringend für deine Arbeit ein?
Der „ChatGPT-Kompass“ liefert dir einen fundierten, aktuellen und umfassenden Überblick über ChatGPT und seine Anwendungsmöglichkeiten im Marketing.