Cohere stellt Aya Vision vor, ein mehrsprachiges Bildverarbeitungsmodell

Die Forschungsabteilung von Cohere hat Aya Vision eingeführt, ein Bildverarbeitungsmodell mit offenen Gewichten, das 23 Sprachen unterstützt. Laut VentureBeat-Bericht von Carl Franzen gibt es das Modell in Versionen mit 8 und 32 Milliarden Parametern. Es kann Bilder analysieren, Text generieren und visuelle Inhalte übersetzen. Aya Vision übertrifft größere Modelle wie Llama 90B bei geringerem Ressourcenbedarf. Das Modell ist auf Coheres Website, Hugging Face und Kaggle unter einer Creative Commons Attribution-NonCommercial-Lizenz verfügbar, was kommerzielle Anwendungen einschränkt. Nutzer können auch über WhatsApp darauf zugreifen. Zu den Hauptfunktionen gehören Bildunterschriften, Beantwortung visueller Fragen und Übersetzung von Bildinhalten in Sprachen, die von etwa der Hälfte der Weltbevölkerung gesprochen werden. Das Modell ist Teil von Coheres umfassender Aya-Initiative für mehrsprachige KI-Entwicklung.

Mehr zum Thema:

Bleib up-to-date: