Hugging Face stellt kompakte KI-Modelle für Bild- und Textanalyse vor

Hugging Face präsentiert zwei neue KI-Modelle für die Verarbeitung von Bildern, Videos und Texten auf ressourcenbeschränkten Geräten. Die als SmolVLM-256M und SmolVLM-500M bezeichneten Systeme benötigen weniger als 1GB Arbeitsspeicher. Wie der TechCrunch-Autor Kyle Wiggers berichtet, können die Modelle Bilder beschreiben, Videoclips analysieren und PDF-Dokumente auswerten. Die Entwicklung basiert auf den firmeneigenen Datensätzen „The Cauldron“ und …

Weiterlesen …

DeepSeek veröffentlicht neue Reasoning-Modelle

Das chinesische KI-Unternehmen DeepSeek hat seine neuen Sprachmodelle DeepSeek-R1-Zero und DeepSeek-R1 sowie sechs kleinere destillierte Versionen vorgestellt. Die Hauptmodelle, die auf DeepSeeks V3-Architektur basieren, verfügen über insgesamt 671 Milliarden Parameter, von denen 37 Milliarden aktiv sind, und eine Kontextlänge von 128.000 Token. Laut Unternehmensangaben erreicht DeepSeek-R1 eine mit OpenAI-Modellen vergleichbare Leistung in den Bereichen Mathematik, …

Weiterlesen …

Diffbot stellt KI-Modell mit Echtzeit-Faktenprüfung vor

Das Silicon-Valley-Unternehmen Diffbot hat ein neues KI-Modell entwickelt, das KI mit Echtzeit-Faktenüberprüfung verbindet. Wie Michael Nuñez für VentureBeat berichtet, basiert das System auf der GraphRAG-Technologie und nutzt Meta’s Llama 3.3. Das Modell greift auf Diffbots Knowledge Graph zu, eine Datenbank mit über einer Billion Fakten, die alle vier bis fünf Tage aktualisiert wird. In Benchmark-Tests …

Weiterlesen …

Nvidia stellt neue KI-Modelle und Technologien auf der CES 2025 vor

Nvidia hat auf der CES 2025 mehrere neue KI-Initiativen vorgestellt, die sich um die Nemotron-Modellfamilien und Cosmos World Foundation Models drehen. CEO Jensen Huang präsentierte diese Entwicklungen während seiner Eröffnungskeynote und stellte KI-Modelle vor, die sowohl für Unternehmens- als auch für Verbraucheranwendungen konzipiert sind. Die Nemotron-Familie umfasst Sprach- und Visionsmodelle, die als NIM-Mikroservices verfügbar sind …

Weiterlesen …

Nvidia verblüfft mit „KI-Desktop-Supercomputer“ Project Digits für 3.000 Dollar

Auf der CES 2025 in Las Vegas kündigte Nvidia Project Digits an, einen kompakten KI-Desktop-Supercomputer für Forscher, Data Scientists und Studenten. Das Gerät, dessen Markteinführung für Mai 2025 zu einem Preis von 3.000 Dollar geplant ist, steht für Nvidias Bemühungen, leistungsstarke KI-Rechenkapazitäten auf einzelne Schreibtische zu bringen. Das Herzstück von Project Digits ist der GB10 …

Weiterlesen …

Im Test: DeepSeek-V3 konkurriert mit Marktführern bei niedrigeren Kosten

Das neue KI-Modell DeepSeek-V3 erreicht vergleichbare Leistungen wie führende proprietäre Systeme bei deutlich niedrigeren Kosten. Dies geht aus einer umfassenden Analyse von Sunil Kumar Dash hervor. Das Modell übertrifft demnach die Fähigkeiten von GPT-4 und Claude 3.5 Sonnet bei mathematischen Aufgaben und erreicht ähnliche Leistungen im Programmierbereich. Diese Erfolge basieren auf mehreren technischen Innovationen, darunter …

Weiterlesen …

Leitfaden: KI-Modelle auf dem eigenen PC

Einen umfassenden Ratgeber zur lokalen Nutzung von großen Sprachmodellen (LLMs) hat Softwareentwickler Abishek Muthian in seinem Blog veröffentlicht. Der Artikel beschreibt detailliert die notwendige Hardware, wichtige Werkzeuge und empfohlene Modelle für den Einsatz von LLMs auf PCs. Muthian nutzt zwar High-End-Hardware wie einen Core i9 Prozessor und eine RTX 4090 Grafikkarte, betont aber, dass auch …

Weiterlesen …

Anleitung: Eigenbau-System für KI-Training

Einen detaillierten Leitfaden zum Bau eines leistungsstarken KI-Trainingssystems hat Machine-Learning-Ingenieur Sabareesh Subramani auf seiner persönlichen Website veröffentlicht. Das System kostet etwa 12.000 US-Dollar und verwendet vier NVIDIA 4090 Grafikkarten zum Training von großen Sprachmodellen. Die Anlage kann KI-Modelle mit bis zu 500 Millionen Parametern effektiv trainieren. Subramani beschreibt die erforderlichen Komponenten, darunter einen AMD Threadripper …

Weiterlesen …

DeepSeek-V3 auf Augenhöhe mit GPT-4 und Claude 3.5 Sonnet

Das chinesische KI-Startup DeepSeek hat sein neues KI-Modell DeepSeek-V3 vorgestellt. Wie Shubham Sharma für VentureBeat berichtet, verfügt das Modell über 671 Milliarden Parameter, aktiviert jedoch durch seine Experten-Mischarchitektur nur 37 Milliarden für jede Aufgabe. Das Modell wurde mit 14,8 Billionen verschiedenen Tokens trainiert und zeigt überlegene Leistung in mehreren Bereichen, besonders in Mathematik und Programmierung. …

Weiterlesen …

Neues KI-Bewertungsmodell erreicht GPT-4-Niveau mit weniger Ressourcen

Das Startup Patronus AI hat ein bahnbrechendes KI-Bewertungsmodell entwickelt, das mit deutlich geringerem Ressourceneinsatz vergleichbare Ergebnisse wie größere Systeme erzielt. Wie Michael Nuñez für VentureBeat berichtet, verwendet das neue Open-Source-Modell namens Glider nur 3,8 Milliarden Parameter und erreicht dennoch die Leistung von GPT-4 in wichtigen Bewertungskriterien. Das von ehemaligen Meta-AI-Forschern gegründete Unternehmen hat Glider so …

Weiterlesen …