Nvidia verblüfft mit „KI-Desktop-Supercomputer“ Project Digits für 3.000 Dollar

Auf der CES 2025 in Las Vegas kündigte Nvidia Project Digits an, einen kompakten KI-Desktop-Supercomputer für Forscher, Data Scientists und Studenten. Das Gerät, dessen Markteinführung für Mai 2025 zu einem Preis von 3.000 Dollar geplant ist, steht für Nvidias Bemühungen, leistungsstarke KI-Rechenkapazitäten auf einzelne Schreibtische zu bringen. Das Herzstück von Project Digits ist der GB10 …

Weiterlesen …

Im Test: DeepSeek-V3 konkurriert mit Marktführern bei niedrigeren Kosten

Das neue KI-Modell DeepSeek-V3 erreicht vergleichbare Leistungen wie führende proprietäre Systeme bei deutlich niedrigeren Kosten. Dies geht aus einer umfassenden Analyse von Sunil Kumar Dash hervor. Das Modell übertrifft demnach die Fähigkeiten von GPT-4 und Claude 3.5 Sonnet bei mathematischen Aufgaben und erreicht ähnliche Leistungen im Programmierbereich. Diese Erfolge basieren auf mehreren technischen Innovationen, darunter …

Weiterlesen …

Leitfaden: KI-Modelle auf dem eigenen PC

Einen umfassenden Ratgeber zur lokalen Nutzung von großen Sprachmodellen (LLMs) hat Softwareentwickler Abishek Muthian in seinem Blog veröffentlicht. Der Artikel beschreibt detailliert die notwendige Hardware, wichtige Werkzeuge und empfohlene Modelle für den Einsatz von LLMs auf PCs. Muthian nutzt zwar High-End-Hardware wie einen Core i9 Prozessor und eine RTX 4090 Grafikkarte, betont aber, dass auch …

Weiterlesen …

Anleitung: Eigenbau-System für KI-Training

Einen detaillierten Leitfaden zum Bau eines leistungsstarken KI-Trainingssystems hat Machine-Learning-Ingenieur Sabareesh Subramani auf seiner persönlichen Website veröffentlicht. Das System kostet etwa 12.000 US-Dollar und verwendet vier NVIDIA 4090 Grafikkarten zum Training von großen Sprachmodellen. Die Anlage kann KI-Modelle mit bis zu 500 Millionen Parametern effektiv trainieren. Subramani beschreibt die erforderlichen Komponenten, darunter einen AMD Threadripper …

Weiterlesen …

DeepSeek-V3 auf Augenhöhe mit GPT-4 und Claude 3.5 Sonnet

Das chinesische KI-Startup DeepSeek hat sein neues KI-Modell DeepSeek-V3 vorgestellt. Wie Shubham Sharma für VentureBeat berichtet, verfügt das Modell über 671 Milliarden Parameter, aktiviert jedoch durch seine Experten-Mischarchitektur nur 37 Milliarden für jede Aufgabe. Das Modell wurde mit 14,8 Billionen verschiedenen Tokens trainiert und zeigt überlegene Leistung in mehreren Bereichen, besonders in Mathematik und Programmierung. …

Weiterlesen …

Neues KI-Bewertungsmodell erreicht GPT-4-Niveau mit weniger Ressourcen

Das Startup Patronus AI hat ein bahnbrechendes KI-Bewertungsmodell entwickelt, das mit deutlich geringerem Ressourceneinsatz vergleichbare Ergebnisse wie größere Systeme erzielt. Wie Michael Nuñez für VentureBeat berichtet, verwendet das neue Open-Source-Modell namens Glider nur 3,8 Milliarden Parameter und erreicht dennoch die Leistung von GPT-4 in wichtigen Bewertungskriterien. Das von ehemaligen Meta-AI-Forschern gegründete Unternehmen hat Glider so …

Weiterlesen …

Nvidia und DataStax stellen neues KI-Speichersystem vor

Nvidia und DataStax haben eine neue KI-Technologie eingeführt, die den Speicherbedarf für generative KI-Systeme um das 35-fache reduziert. Wie Michael Nuñez für VentureBeat berichtet, ermöglicht der Nvidia NeMo Retriever in Kombination mit DataStax’s KI-Plattform eine schnellere und präzisere Informationssuche in mehreren Sprachen. Bei der Wikimedia Foundation hat die Technologie bereits die Verarbeitungszeit von 10 Millionen …

Weiterlesen …

Cohere stellt kompaktes KI-Sprachmodell Command R7B vor

Das KI-Unternehmen Cohere hat ein neues kompaktes Sprachmodell namens Command R7B eingeführt. Wie Taryn Plumb von VentureBeat berichtet, unterstützt das Modell 23 Sprachen und ist auf RAG-Technologie (Retrieval-Augmented Generation) spezialisiert. Command R7B übertrifft vergleichbare Modelle von Google, Meta und Mistral bei Mathematik- und Programmieraufgaben. Das Modell verfügt über eine Kontextlänge von 128K und läuft auf …

Weiterlesen …

Neue KI-Technik reduziert Speicherverbrauch von Sprachmodellen

Das japanische Startup Sakana AI hat eine innovative Technologie entwickelt, die den Speicherverbrauch von großen Sprachmodellen um bis zu 75% senkt. Ben Dickson berichtet über diese neue Methode namens „universal transformer memory“. Das System verwendet neural attention memory modules (NAMMs), die automatisch entscheiden, welche Informationen wichtig sind und welche verworfen werden können. Die Technologie wurde …

Weiterlesen …

Microsoft entwickelt kompaktes KI-Modell mit hoher Leistung

Microsoft hat ein neues KI-Modell namens Phi-4 vorgestellt, das trotz geringerer Größe bessere Leistungen als konkurrierende Systeme erzielt. Wie Michael Nuñez für VentureBeat berichtet, übertrifft das Modell mit nur 14 Milliarden Parametern größere Systeme wie Google’s Gemini Pro 1.5. Phi-4 zeigt besondere Stärken im mathematischen Denken und erreichte Bestwerte bei standardisierten Mathematik-Wettbewerben. Microsoft stellt das …

Weiterlesen …