Ein neues Open-Source-Modell namens OLMoE wurde vom Allen Institute for AI (AI2) in Zusammenarbeit mit Contextual AI veröffentlicht. Wie Emilia David für VentureBeat berichtet, zielt das Modell darauf ab, leistungsstark und gleichzeitig kosteneffektiv zu sein. OLMoE nutzt eine Mixture-of-Experts-Architektur mit 7 Milliarden Parametern, von denen nur 1 Milliarde pro Eingabetoken aktiv sind. Im Gegensatz zu vielen anderen MoE-Modellen ist OLMoE vollständig Open Source, einschließlich Trainingsdaten und Code. In Benchmark-Tests übertraf OLMoE laut AI2 ähnliche Modelle und erreichte Leistungen nahe an größeren Modellen wie Mistral-7B oder Llama 3.1-8B. Das Projekt soll Forschern einen besseren Zugang zu leistungsfähigen KI-Modellen ermöglichen.
Bleib auf dem Laufenden
KI für Contentprofis: die neuesten Tools, Tipps und Trends. Alle 14 Tage in deine Inbox:
Artikel mit dem Autornamen SCR wurden mit KI-Hilfe erstellt. Jan Tissler wählt die Themen manuell aus. Jeder Beitrag wird von ihm vor der Veröffentlichung kontrolliert und bearbeitet. Er übernimmt die volle redaktionelle Verantwortung für die Inhalte. Lies mehr darüber, wie diese Website entsteht und welche Prompts zum Einsatz kommen.
Neu vom Autor dieser Website: ChatGPT-Kompass für Marketing Content Creation
Der aktuelle und umfassende Überblick für Marketing-Profis (3. Ausgabe, Januar 2026)
Der KI-Umbruch im Marketing ist in vollem Gange und ChatGPT steht als Plattform Nr. 1 im Zentrum. Aber wie behältst du den Überblick bei all den neuen Funktionen und Möglichkeiten? Wie setzt du ChatGPT wirklich gewinnbringend für deine Arbeit ein?
Der „ChatGPT-Kompass“ liefert dir einen fundierten, aktuellen und umfassenden Überblick über ChatGPT und seine Anwendungsmöglichkeiten im Marketing.