Ein neues Open-Source-Modell namens OLMoE wurde vom Allen Institute for AI (AI2) in Zusammenarbeit mit Contextual AI veröffentlicht. Wie Emilia David für VentureBeat berichtet, zielt das Modell darauf ab, leistungsstark und gleichzeitig kosteneffektiv zu sein. OLMoE nutzt eine Mixture-of-Experts-Architektur mit 7 Milliarden Parametern, von denen nur 1 Milliarde pro Eingabetoken aktiv sind. Im Gegensatz zu vielen anderen MoE-Modellen ist OLMoE vollständig Open Source, einschließlich Trainingsdaten und Code. In Benchmark-Tests übertraf OLMoE laut AI2 ähnliche Modelle und erreichte Leistungen nahe an größeren Modellen wie Mistral-7B oder Llama 3.1-8B. Das Projekt soll Forschern einen besseren Zugang zu leistungsfähigen KI-Modellen ermöglichen.
OLMoE ist ein vollständig quelloffenes MoE-Modell
Über den Autor
Bleib up-to-date:
Neu vom Autor dieser Website: ChatGPT-Kompass für Marketing Content Creation

Der aktuelle und umfassende Überblick für Marketing-Profis (2. Ausgabe, September 2025)
Der KI-Umbruch im Marketing ist in vollem Gange und ChatGPT steht als Plattform Nr. 1 im Zentrum. Aber wie behältst du den Überblick bei all den neuen Funktionen und Möglichkeiten? Wie setzt du ChatGPT wirklichgewinnbringend für deine Arbeit ein?
Der „ChatGPT-Kompass“ liefert dir einen fundierten, aktuellen und umfassenden Überblick über ChatGPT und seine Anwendungsmöglichkeiten im Marketing.