Nvidia und DataStax stellen neues KI-Speichersystem vor

Nvidia und DataStax haben eine neue KI-Technologie eingeführt, die den Speicherbedarf für generative KI-Systeme um das 35-fache reduziert. Wie Michael Nuñez für VentureBeat berichtet, ermöglicht der Nvidia NeMo Retriever in Kombination mit DataStax’s KI-Plattform eine schnellere und präzisere Informationssuche in mehreren Sprachen. Bei der Wikimedia Foundation hat die Technologie bereits die Verarbeitungszeit von 10 Millionen …

Weiterlesen …

Cohere stellt kompaktes KI-Sprachmodell Command R7B vor

Das KI-Unternehmen Cohere hat ein neues kompaktes Sprachmodell namens Command R7B eingeführt. Wie Taryn Plumb von VentureBeat berichtet, unterstützt das Modell 23 Sprachen und ist auf RAG-Technologie (Retrieval-Augmented Generation) spezialisiert. Command R7B übertrifft vergleichbare Modelle von Google, Meta und Mistral bei Mathematik- und Programmieraufgaben. Das Modell verfügt über eine Kontextlänge von 128K und läuft auf …

Weiterlesen …

Neue KI-Technik reduziert Speicherverbrauch von Sprachmodellen

Das japanische Startup Sakana AI hat eine innovative Technologie entwickelt, die den Speicherverbrauch von großen Sprachmodellen um bis zu 75% senkt. Ben Dickson berichtet über diese neue Methode namens „universal transformer memory“. Das System verwendet neural attention memory modules (NAMMs), die automatisch entscheiden, welche Informationen wichtig sind und welche verworfen werden können. Die Technologie wurde …

Weiterlesen …

Lambda startet kostengünstigen KI-Inferenz-Dienst

Lambda hat einen neuen KI-Inferenz-API-Dienst eingeführt, der die niedrigsten Kosten der Branche verspricht. Wie VentureBeat-Reporter Carl Franzen berichtet, ermöglicht der Service Unternehmen den Einsatz von KI-Modellen ohne eigene Rechnerinfrastruktur. Die API unterstützt aktuelle Modelle wie Meta’s Llama 3.3 und Alibaba’s Qwen 2.5. Die Preise beginnen bei 0,02 Dollar pro Million Token für kleinere Modelle. Durch …

Weiterlesen …

Microsoft entwickelt kompaktes KI-Modell mit hoher Leistung

Microsoft hat ein neues KI-Modell namens Phi-4 vorgestellt, das trotz geringerer Größe bessere Leistungen als konkurrierende Systeme erzielt. Wie Michael Nuñez für VentureBeat berichtet, übertrifft das Modell mit nur 14 Milliarden Parametern größere Systeme wie Google’s Gemini Pro 1.5. Phi-4 zeigt besondere Stärken im mathematischen Denken und erreichte Bestwerte bei standardisierten Mathematik-Wettbewerben. Microsoft stellt das …

Weiterlesen …

ServiceNow stellt KI-Trainings-Beschleuniger als Open Source vor

ServiceNow hat Fast-LLM veröffentlicht, ein Open-Source-Framework zur Beschleunigung von KI-Modelltraining um 20%. Dies berichtet Sean Michael Kerner für VentureBeat. Das System wurde bereits erfolgreich beim Training von ServiceNows StarCoder 2 Sprachmodell eingesetzt. Fast-LLM führt zwei wichtige Neuerungen ein: „Breadth-First Pipeline Parallelism“ für optimierte Berechnungsabläufe und ein verbessertes Speichermanagement. Das Framework lässt sich als direkter Ersatz …

Weiterlesen …

Metas KI-Modell mit GPT-4-Leistung läuft auf High-End Notebooks

Meta hat mit Llama 3.3 70B ein neues KI-Sprachmodell vorgestellt, das auf leistungsstarken Notebooks läuft und dabei eine Leistung auf GPT-4-Niveau erreicht. Das berichtet Simon Willison. Er testete das Modell erfolgreich auf einem MacBook Pro M2 mit 64 GB RAM und benötigt etwa 42 GB Speicherplatz für die Installation. In unabhängigen Tests durch LiveBench erreichte …

Weiterlesen …

KI-Entwicklungstools zeigen trotz Produktivitätsgewinn deutliche Grenzen

Neue Erkenntnisse zeigen die aktuellen Grenzen von KI-gestützten Entwicklungstools im Softwarebereich. Der Softwareingenieur Addy Osmani beschreibt in seiner Analyse, dass KI-Tools zwar die Entwicklungsgeschwindigkeit deutlich steigern. Die Tools ermöglichen es, etwa 70 Prozent eines Projekts schnell zu erstellen. Die verbleibenden 30 Prozent, die für produktionsreife Software entscheidend sind, bleiben jedoch problematisch. Erfahrene Entwickler profitieren deutlich …

Weiterlesen …

Neue KI-Architektur STAR reduziert Modell-Cache um 90 Prozent

Das MIT-Startup Liquid AI hat ein neuartiges KI-Framework namens STAR entwickelt, das die Effizienz herkömmlicher Transformer-Modelle deutlich übertrifft. Wie Carl Franzen für VentureBeat berichtet, nutzt das System evolutionäre Algorithmen zur automatischen Generierung und Optimierung von KI-Architekturen. Die neue Technologie erreicht eine Reduzierung der Cache-Größe um 90 Prozent im Vergleich zu traditionellen Transformern, bei gleichbleibender oder …

Weiterlesen …

Hume AI stellt neue Stimmanpassungssoftware vor

Das Technologieunternehmen Hume AI hat eine neue Software namens Voice Control vorgestellt, mit der Entwickler künstliche Stimmen individuell anpassen können. Wie Carl Franzen für VentureBeat berichtet, können Nutzer dabei zehn verschiedene Stimmmerkmale über Schieberegler einstellen. Die Software erfordert keine Programmierkenntnisse und verzichtet bewusst auf Stimmklonen, um ethische Bedenken zu berücksichtigen. Das System basiert auf der …

Weiterlesen …