Mistral AI hat das neue Sprachmodell Mistral Small 4 veröffentlicht. Es vereint Reasoning, multimodale Verarbeitung und Programmierfähigkeiten in einem einzigen System. Das Unternehmen erklärt, dass Nutzer deshalb nicht mehr zwischen verschiedenen spezialisierten Modellen wechseln müssen.
Das Modell basiert auf einer sogenannten Mixture-of-Experts-Architektur mit 128 Spezialisten. Pro verarbeitetem Textabschnitt sind jeweils vier davon aktiv. Diese Methode ermöglicht effizientes Skalieren bei gleichzeitig geringem Ressourcenverbrauch. Das Modell verfügt über 119 Milliarden Parameter insgesamt, von denen 6 Milliarden gleichzeitig aktiv sind.
Ein zentrales Merkmal ist der konfigurierbare Reasoning-Aufwand. Nutzer können zwischen schnellen Antworten für alltägliche Aufgaben und einem tiefgehenden, schrittweisen Denkmodus für komplexe Probleme wählen. Mistral gibt eine 40-prozentige Reduktion der Antwortzeit sowie die dreifache Anzahl an Anfragen pro Sekunde im Vergleich zum Vorgängermodell an.
Das Modell verarbeitet sowohl Text als auch Bilder und unterstützt ein Kontextfenster von 256.000 Token. Damit eignet es sich für lange Dokumente und visuelle Analysen. Als Mindestanforderung nennt Mistral vier NVIDIA HGX H100.
Mistral Small 4 steht unter der Apache-2.0-Lizenz. Das bedeutet: Das Modell darf frei genutzt, angepasst und weitergegeben werden. Es ist über die Mistral API, Hugging Face sowie NVIDIAs Build-Plattform verfügbar.
