Meta zeigt Hardware für KI-Training

Meta präsentierte auf dem OCP Global Summit 2024 neue offene KI-Hardware. Dazu gehören eine KI-Plattform namens „Catalina“, innovative Rack-Designs und verbesserte Netzwerkstrukturen. Laut Dan Rabinovitsj und Omar Baldonado in Metas Blog „Engineering at Meta“ will das Unternehmen damit die Zusammenarbeit und Innovation in der Branche fördern. Meta skaliert seine KI-Cluster massiv, um große Sprachmodelle wie …

Weiterlesen …

INTELLECT-1 wird dezentral trainiert

Das dezentrale Training eines 10-Milliarden-Parameter-Modells namens INTELLECT-1 ist gestartet. Jeder kann Rechenleistung beisteuern und sich beteiligen. INTELLECT-1 basiert auf der Llama-3-Architektur und wird mit einem hochwertigen Open-Source-Datensatz namens Fineweb-Edu von Hugging Face trainiert. Der Datensatz umfasst über sechs Billionen Token und besteht aus Fineweb-edu (55%), DLCM (20%), Stack v2 (20%), OpenWebMath (5%). Für das Training …

Weiterlesen …

Pyramid Flow ist eine frei verfügbare Video-KI

Ein neues, quelloffenes KI-Modell namens Pyramid Flow generiert hochwertige Videoclips von bis zu zehn Sekunden Länge. Entwickelt wurde es von Forschern der Peking University, der Beijing University of Posts and Telecommunications und Kuaishou Technology, wie Carl Franzen berichtet. Pyramid Flow nutzt eine neue Technik, bei der ein KI-Modell Videos in mehreren Schritten erstellt, die meisten …

Weiterlesen …

Kontroverse um Reflection 70B in der nächsten Runde

Die Kontroverse um das KI-Sprachmodell Reflection 70B sorgt weiter für Diskussionen. Sahil Chaudhary, Mitentwickler des Modells, hat nun einen Untersuchungsbericht (post-mortem report) veröffentlicht, wie Carl Franzen für VentureBeat berichtet. Darin räumt er Fehler bei der überstürzten Veröffentlichung ein und erklärt Diskrepanzen zwischen den ursprünglich behaupteten und den tatsächlichen Leistungsdaten. Laut Chaudhary lag ein Programmfehler vor, …

Weiterlesen …

Nvidia überrascht mit leistungsstarken, offenen KI-Modellen

Nvidia hat ein leistungsstarkes Open-Source-KI-Modell veröffentlicht, das augenscheinlich mit proprietären Systemen führender Unternehmen wie OpenAI und Google konkurrieren kann. Das als NVLM 1.0 bezeichnete Modell zeigt herausragende Leistungen bei Bild- und Sprachaufgaben und verbessert zudem die reinen Textfähigkeiten. Michael Nuñez berichtet darüber für VentureBeat. Das Hauptmodell NVLM-D-72B mit 72 Milliarden Parametern kann komplexe visuelle und …

Weiterlesen …

Offener Konkurrent für Googles NotebookLM

Ein Datenwissenschaftler aus Singapur hat eine Open-Source-Alternative zu Googles NotebookLM entwickelt. Gabriel Chua von der GovTech-Agentur baute das Tool namens „Open NotebookLM“ offenbar in nur einem Nachmittag. Es wandelt PDF-Dokumente in personalisierte Podcasts um und nutzt dabei öffentlich verfügbare KI-Modelle. Das Projekt zeigt, wie schnell komplexe KI-Anwendungen heute nachgebaut werden können. Allerdings wirft die rasche …

Weiterlesen …

KI-Plattform Hugging Face listet eine Million Modelle

Die KI-Plattform Hugging Face hat einen Meilenstein von einer Million gelisteter KI-Modelle erreicht. Das berichtete Benj Edwards für Ars Technica. Die 2016 als Chatbot-App gestartete Plattform entwickelte sich zu einem Open-Source-Hub für KI-Modelle. CEO Clément Delangue erklärt den Boom mit der Anpassung von Modellen an spezifische Anwendungsfälle. Die Vielfalt reicht von großen Sprachmodellen bis zu …

Weiterlesen …

Meta Llama 3.2 ist da

Meta hat heute die neue Version seiner KI-Modellreihe vorgestellt: Llama 3.2. Erstmals umfasst diese auch Vision-Modelle, die sowohl Bilder als auch Text verarbeiten können. Die größeren Varianten mit 11 und 90 Milliarden Parametern sollen bei der Bildverarbeitung mit geschlossenen Systemen wie Claude 3 Haiku konkurrieren können. Neu sind auch kleinere Textmodelle mit 1 und 3 …

Weiterlesen …

Molmo soll KI-Agenten verbessern

Ein neues Open-Source-KI-Modell namens Molmo könnte die Entwicklung von KI-Agenten vorantreiben. Das vom Allen Institute for AI (Ai2) entwickelte Modell kann Bilder interpretieren und über eine Chat-Schnittstelle kommunizieren. Laut Will Knight von Wired ermöglicht dies KI-Agenten, Aufgaben wie Websurfen oder Dokumentenerstellung auszuführen. In einigen Benchmarks übertrifft es führende proprietäre Modelle wie GPT-4o von OpenAI, Claude …

Weiterlesen …

Warum Forscher auf lokale KI setzen

Forscher nutzen offenbar zunehmend kleine KI-Modelle auf ihren eigenen Computern statt die Angebote der großen KI-Services wie ChatGPT. Wie Nature berichtet, ermöglichen frei verfügbare Tools wie Llama oder Phi-3 es Wissenschaftlern, KI-Modelle lokal laufen zu lassen. Dies bietet Vorteile wie Kosteneinsparungen, Datenschutz und Reproduzierbarkeit. Die lokalen KI-Modelle werden dabei immer leistungsfähiger und können bereits mit …

Weiterlesen …