KI-Plattform Hugging Face listet eine Million Modelle

Die KI-Plattform Hugging Face hat einen Meilenstein von einer Million gelisteter KI-Modelle erreicht. Das berichtete Benj Edwards für Ars Technica. Die 2016 als Chatbot-App gestartete Plattform entwickelte sich zu einem Open-Source-Hub für KI-Modelle. CEO Clément Delangue erklärt den Boom mit der Anpassung von Modellen an spezifische Anwendungsfälle. Die Vielfalt reicht von großen Sprachmodellen bis zu …

Weiterlesen …

Meta Llama 3.2 ist da

Meta hat heute die neue Version seiner KI-Modellreihe vorgestellt: Llama 3.2. Erstmals umfasst diese auch Vision-Modelle, die sowohl Bilder als auch Text verarbeiten können. Die größeren Varianten mit 11 und 90 Milliarden Parametern sollen bei der Bildverarbeitung mit geschlossenen Systemen wie Claude 3 Haiku konkurrieren können. Neu sind auch kleinere Textmodelle mit 1 und 3 …

Weiterlesen …

Molmo soll KI-Agenten verbessern

Ein neues Open-Source-KI-Modell namens Molmo könnte die Entwicklung von KI-Agenten vorantreiben. Das vom Allen Institute for AI (Ai2) entwickelte Modell kann Bilder interpretieren und über eine Chat-Schnittstelle kommunizieren. Laut Will Knight von Wired ermöglicht dies KI-Agenten, Aufgaben wie Websurfen oder Dokumentenerstellung auszuführen. In einigen Benchmarks übertrifft es führende proprietäre Modelle wie GPT-4o von OpenAI, Claude …

Weiterlesen …

Warum Forscher auf lokale KI setzen

Forscher nutzen offenbar zunehmend kleine KI-Modelle auf ihren eigenen Computern statt die Angebote der großen KI-Services wie ChatGPT. Wie Nature berichtet, ermöglichen frei verfügbare Tools wie Llama oder Phi-3 es Wissenschaftlern, KI-Modelle lokal laufen zu lassen. Dies bietet Vorteile wie Kosteneinsparungen, Datenschutz und Reproduzierbarkeit. Die lokalen KI-Modelle werden dabei immer leistungsfähiger und können bereits mit …

Weiterlesen …

Scramble will eine Grammarly-Alternative werden

Das KI-Tool Scramble integriert sich als Extension im Chrome-Browser. Nach der Installation markiert man den fraglichen Text, wählt im Kontextmenü „Scramble“ aus und bekommt Vorschläge für Verbesserungen. Laut der offiziellen GitHub-Seite des Projekts will es eine flexiblere und die Privatsphäre schützende Alternative zu Grammarly sein. Vor allem das Argument der Privatsphäre greift zum jetzigen Stand …

Weiterlesen …

EzAudio erzeugt hochwertige Soundeffekte

Forscher der Johns Hopkins University und des Tencent AI Lab haben ein neues Text-zu-Audio-Modell namens EzAudio entwickelt. Wie Michael Nuñez in VentureBeat berichtet, kann EzAudio hochwertige Soundeffekte aus Textbeschreibungen erzeugen. Das Modell nutzt eine innovative Methode zur Verarbeitung von Audiodaten und eine neue Architektur namens EzAudio-DiT. In Tests übertraf EzAudio bestehende Open-Source-Modelle in Qualität und …

Weiterlesen …

Wie teuer ist eine eigene Conversational AI?

Unternehmen können erhebliche Kosteneinsparungen erzielen, wenn sie ihre eigene Conversational AI auf Basis des Open-Source-Modells Llama 3 aufbauen. Das geht aus einer Analyse von Sam Oliver, Gründer von OpenFi, hervor, die auf VentureBeat veröffentlicht wurde. Laut Oliver kostet eine durchschnittliche Konversation mit Llama 3 etwa 0,08 US-Dollar, während dieselbe Konversation mit GPT-4 von OpenAI rund …

Weiterlesen …

DeepSeek-V2.5 als neuer Open-Source-Champion gefeiert

DeepSeek-V2.5 gilt als neuer Spitzenreiter unter den Open-Source-KI-Modellen. DeepSeek selbst ist ein Ableger des chinesischen Hedgefonds High-Flyer Capital Management. Das neue Modell kombiniert allgemeine Sprachverarbeitung und Programmierfähigkeiten in einem offenbar leistungsstarken System. Laut Carl Franzen von VentureBeat übertrifft DeepSeek-V2.5 seine Vorgänger in fast allen Benchmarks. Das Modell bietet neue Funktionen wie Function Calling und zeigt …

Weiterlesen …

OLMoE ist ein vollständig quelloffenes MoE-Modell

Ein neues Open-Source-Modell namens OLMoE wurde vom Allen Institute for AI (AI2) in Zusammenarbeit mit Contextual AI veröffentlicht. Wie Emilia David für VentureBeat berichtet, zielt das Modell darauf ab, leistungsstark und gleichzeitig kosteneffektiv zu sein. OLMoE nutzt eine Mixture-of-Experts-Architektur mit 7 Milliarden Parametern, von denen nur 1 Milliarde pro Eingabetoken aktiv sind. Im Gegensatz zu …

Weiterlesen …

Zweifel an der Performance von Reflection 70B

Welchen Unterschied ein Wochenende macht: Noch vor einigen Tagen galt das neue Reflection 70B als potenzieller Champion unter den Open-Source-Modellen. Das Modell basiert nach offiziellen Angaben auf Metas Llama 3.1 70B, aber mit einer Besonderheit: Es ist speziell darauf trainiert, nicht sofort eine Antwort zu geben, sondern das Problem zunächst zu analysieren und die eigene …

Weiterlesen …