Meta hat heute die neue Version seiner KI-Modellreihe vorgestellt: Llama 3.2. Erstmals umfasst diese auch Vision-Modelle, die sowohl Bilder als auch Text verarbeiten können. Die größeren Varianten mit 11 und 90 Milliarden Parametern sollen bei der Bildverarbeitung mit geschlossenen Systemen wie Claude 3 Haiku konkurrieren können.
Neu sind auch kleinere Textmodelle mit 1 und 3 Milliarden Parametern, die auf mobilen Geräten und Edge-Systemen laufen. Laut Meta eignen sich diese für Anwendungen wie Zusammenfassungen oder Terminplanung direkt auf dem Gerät. Parallel dazu führt das Unternehmen den sogenannten Llama Stack ein – ein Paket von Tools und APIs zur vereinfachten Entwicklung und Bereitstellung von KI-Anwendungen.
Um die Verbreitung zu fördern, arbeitet Meta mit zahlreichen Cloud-Anbietern und Technologiefirmen zusammen. Das Unternehmen betont dabei seinen Open-Source-Ansatz und die Zugänglichkeit der Modelle. Gleichzeitig wurden die Sicherheitsmechanismen erweitert, unter anderem mit einem neuen Llama Guard-Modell zur Filterung problematischer Inhalte.
Quellen: Meta, VentureBeat, VentureBeat
