Verwässert Meta den Begriff Open Source?

Meta steht in der Kritik für die Bezeichnung seiner KI-Modelle als „Open Source“. Stefano Maffulli, Leiter der Open Source Initiative, wirft dem Unternehmen vor, den Begriff zu verwässern und Nutzer zu verwirren, berichtet Richard Waters für die Financial Times. Laut Maffulli erfüllen Metas Llama-Modelle nicht die Kriterien für echte Open-Source-Software. Meta verteidigt sich und argumentiert, …

Weiterlesen …

Endor Labs bewertet offene KI-Modelle

Endor Labs hat eine neue Plattform gestartet, um über 900.000 Open-Source-KI-Modelle nach Sicherheit, Aktivität, Qualität und Popularität zu bewerten. Die Initiative soll Bedenken hinsichtlich der Zuverlässigkeit und Sicherheit von KI-Modellen ausräumen, die oft komplexe Abhängigkeiten und Schwachstellen aufweisen, berichtet VentureBeat. Entwickler können die Plattform zu den Fähigkeiten der Modelle befragen und erhalten Einblicke in deren …

Weiterlesen …

Zamba2-7B ist besonders effizient

Zyphra veröffentlicht mit Zamba2-7B ein neues, kleines Sprachmodell, das in Sachen Qualität und Leistung die führenden Modelle von Mistral, Google und Meta übertreffen soll. Laut Aussagen des Zyphra-Teams ist Zamba2-7B ideal für den Einsatz auf Endgeräten, Consumer-GPUs und Unternehmensanwendungen. Zamba2-7B ist im Vergleich zu Modellen wie Llama3-8B deutlich effizienter. Es erreicht den ersten Token 25 …

Weiterlesen …

ARIA ist offen und multimodal

ARIA ist ein offenes, multimodales Mixture-of-Experts-Modell, das entwickelt wurde, um verschiedene Formen von Informationen für ein umfassendes Verständnis zu integrieren, und das bestehende proprietäre Modelle bei mehreren Aufgaben übertrifft. Mit insgesamt 24,9 Milliarden Parametern aktiviert es 3,9 Milliarden bzw. 3,5 Milliarden Parameter für visuelle bzw. Text-Token. Das Modell wird auf einem umfangreichen Datensatz trainiert, der …

Weiterlesen …

Meta zeigt Hardware für KI-Training

Meta präsentierte auf dem OCP Global Summit 2024 neue offene KI-Hardware. Dazu gehören eine KI-Plattform namens „Catalina“, innovative Rack-Designs und verbesserte Netzwerkstrukturen. Laut Dan Rabinovitsj und Omar Baldonado in Metas Blog „Engineering at Meta“ will das Unternehmen damit die Zusammenarbeit und Innovation in der Branche fördern. Meta skaliert seine KI-Cluster massiv, um große Sprachmodelle wie …

Weiterlesen …

INTELLECT-1 wird dezentral trainiert

Das dezentrale Training eines 10-Milliarden-Parameter-Modells namens INTELLECT-1 ist gestartet. Jeder kann Rechenleistung beisteuern und sich beteiligen. INTELLECT-1 basiert auf der Llama-3-Architektur und wird mit einem hochwertigen Open-Source-Datensatz namens Fineweb-Edu von Hugging Face trainiert. Der Datensatz umfasst über sechs Billionen Token und besteht aus Fineweb-edu (55%), DLCM (20%), Stack v2 (20%), OpenWebMath (5%). Für das Training …

Weiterlesen …

Pyramid Flow ist eine frei verfügbare Video-KI

Ein neues, quelloffenes KI-Modell namens Pyramid Flow generiert hochwertige Videoclips von bis zu zehn Sekunden Länge. Entwickelt wurde es von Forschern der Peking University, der Beijing University of Posts and Telecommunications und Kuaishou Technology, wie Carl Franzen berichtet. Pyramid Flow nutzt eine neue Technik, bei der ein KI-Modell Videos in mehreren Schritten erstellt, die meisten …

Weiterlesen …

Kontroverse um Reflection 70B in der nächsten Runde

Die Kontroverse um das KI-Sprachmodell Reflection 70B sorgt weiter für Diskussionen. Sahil Chaudhary, Mitentwickler des Modells, hat nun einen Untersuchungsbericht (post-mortem report) veröffentlicht, wie Carl Franzen für VentureBeat berichtet. Darin räumt er Fehler bei der überstürzten Veröffentlichung ein und erklärt Diskrepanzen zwischen den ursprünglich behaupteten und den tatsächlichen Leistungsdaten. Laut Chaudhary lag ein Programmfehler vor, …

Weiterlesen …

Nvidia überrascht mit leistungsstarken, offenen KI-Modellen

Nvidia hat ein leistungsstarkes Open-Source-KI-Modell veröffentlicht, das augenscheinlich mit proprietären Systemen führender Unternehmen wie OpenAI und Google konkurrieren kann. Das als NVLM 1.0 bezeichnete Modell zeigt herausragende Leistungen bei Bild- und Sprachaufgaben und verbessert zudem die reinen Textfähigkeiten. Michael Nuñez berichtet darüber für VentureBeat. Das Hauptmodell NVLM-D-72B mit 72 Milliarden Parametern kann komplexe visuelle und …

Weiterlesen …

Offener Konkurrent für Googles NotebookLM

Ein Datenwissenschaftler aus Singapur hat eine Open-Source-Alternative zu Googles NotebookLM entwickelt. Gabriel Chua von der GovTech-Agentur baute das Tool namens „Open NotebookLM“ offenbar in nur einem Nachmittag. Es wandelt PDF-Dokumente in personalisierte Podcasts um und nutzt dabei öffentlich verfügbare KI-Modelle. Das Projekt zeigt, wie schnell komplexe KI-Anwendungen heute nachgebaut werden können. Allerdings wirft die rasche …

Weiterlesen …