Hugging Face entwickelt KI-Forschungsassistenten als Open Source in 24 Stunden

Hugging Face hat eine quelloffene Alternative zu OpenAIs Deep Research entwickelt, die automatisch im Web recherchieren und Berichte erstellen kann. Wie Benj Edwards für Ars Technica berichtet, wurde das Projekt „Open Deep Research“ innerhalb eines Tages nach OpenAIs Ankündigung fertiggestellt. Das System erreichte 55,15 Prozent Genauigkeit im General AI Assistants Benchmark, während OpenAIs Lösung 67,36 … Weiterlesen …

Hugging Face arbeitet an Open-Source-Version von DeepSeeks R1

Hugging Face hat ein Projekt gestartet, um eine vollständig offene Version des KI-Reasoning-Modells R1 von DeepSeek zu entwickeln. Wie Kyle Wiggers für TechCrunch berichtet, zielt das Open-R1-Projekt darauf ab, sämtliche Komponenten des Originalmodells nachzubauen. Das Forschungsteam unter der Leitung von Leandro von Werra nutzt dafür den firmeneigenen Science Cluster mit 768 Nvidia H100 GPUs. Das … Weiterlesen …

Hugging Face stellt kompakte KI-Modelle für Bild- und Textanalyse vor

Hugging Face präsentiert zwei neue KI-Modelle für die Verarbeitung von Bildern, Videos und Texten auf ressourcenbeschränkten Geräten. Die als SmolVLM-256M und SmolVLM-500M bezeichneten Systeme benötigen weniger als 1GB Arbeitsspeicher. Wie der TechCrunch-Autor Kyle Wiggers berichtet, können die Modelle Bilder beschreiben, Videoclips analysieren und PDF-Dokumente auswerten. Die Entwicklung basiert auf den firmeneigenen Datensätzen „The Cauldron“ und … Weiterlesen …

Neue Rechentechnik verhilft kleinen Sprachmodellen zu Durchbruch

Forscher von Hugging Face haben eine neue Methode entwickelt, die kleinen Sprachmodellen ermöglicht, bessere Leistungen als größere Modelle zu erzielen. Wie Ben Dickson für VentureBeat berichtet, erreichte ein Llama-3-Modell mit nur 3 Milliarden Parametern die gleiche Leistung wie seine Version mit 70 Milliarden Parametern bei komplexen mathematischen Aufgaben. Die Methode basiert auf der Skalierung der … Weiterlesen …

Hugging Face stellt ressourcensparendes KI-Modell vor

Hugging Face hat ein neues KI-Modell namens SmolVLM entwickelt, das Bild- und Textverarbeitung kombiniert. Wie Michael Nuñez berichtet, benötigt das Modell nur 5,02 GB GPU-Arbeitsspeicher. Vergleichbare Systeme brauchen bis zu 13,70 GB. SmolVLM nutzt eine fortschrittliche Kompressionstechnologie für die Bildverarbeitung. Das System verarbeitet Bilder mit 384×384 Pixeln durch nur 81 visuelle Token. Es ist in … Weiterlesen …

Hugging Face veröffentlicht effiziente KI-Sprachmodelle für Mobilgeräte

Hugging Face hat mit SmolLM2 eine neue Familie kompakter Sprachmodelle vorgestellt, die speziell für den Einsatz auf Smartphones und Edge-Geräten mit begrenzter Rechenleistung und Speicherkapazität entwickelt wurden. Die unter der Apache 2.0-Lizenz veröffentlichten Modelle sind in drei Größen bis zu 1,7 Milliarden Parametern erhältlich. Trotz ihrer kompakten Größe erzielen sie beeindruckende Ergebnisse bei wichtigen Benchmarks … Weiterlesen …

Chinesische Modelle führen Topliste an

Die neue Rangliste der besten Sprachmodelle von Hugging Face zeigt: Chinesische Modelle sind unter den frei verfügbaren KIs aktuell führend. Alibabas Qwen-Modelle dominieren die Top-Plätze des Rankings, das auf anspruchsvolleren Tests basiert als sein Vorgänger. Bewertet werden Fähigkeiten wie Wissensabruf, Schlussfolgerungen aus langen Texten, komplexe Mathematik und das Befolgen von Anweisungen. 

Hugging Chat Assistants

Mit den Hugging Chat Assistants gibt es nun eine kostenlose Alternative zu OpenAI’s spezialisierten Chatbots („GPTs“). Ebenso wie die GPTs, finden sich die Assistants in einem Store. Vorteil gegenüber OpenAIs Angebot ist neben dem freien Zugang die Auswahl zwischen verschiedenen, quelloffenen Sprachmodellen. Allerdings stehen manche Funktionen der GPTs hier (noch?) nicht zur Verfügung. So können die Chat Assistants … Weiterlesen …