Microsoft veröffentlicht KI-Modell Phi-4 als Open Source

Microsoft hat sein KI-Modell Phi-4 als Open-Source-Software auf der Plattform Hugging Face freigegeben, wie Carl Franzen berichtet. Das Modell war zuvor nur über Microsofts Azure AI Foundry-Plattform verfügbar. Phi-4 verfügt über 14 Milliarden Parameter und zeigt besondere Stärken im mathematischen Denken und Sprachverständnis. Microsoft hat die vollständigen Modellgewichte unter der MIT-Lizenz veröffentlicht. Diese Lizenz erlaubt …

Weiterlesen …

Im Test: DeepSeek-V3 konkurriert mit Marktführern bei niedrigeren Kosten

Das neue KI-Modell DeepSeek-V3 erreicht vergleichbare Leistungen wie führende proprietäre Systeme bei deutlich niedrigeren Kosten. Dies geht aus einer umfassenden Analyse von Sunil Kumar Dash hervor. Das Modell übertrifft demnach die Fähigkeiten von GPT-4 und Claude 3.5 Sonnet bei mathematischen Aufgaben und erreicht ähnliche Leistungen im Programmierbereich. Diese Erfolge basieren auf mehreren technischen Innovationen, darunter …

Weiterlesen …

DeepSeek-V3 auf Augenhöhe mit GPT-4 und Claude 3.5 Sonnet

Das chinesische KI-Startup DeepSeek hat sein neues KI-Modell DeepSeek-V3 vorgestellt. Wie Shubham Sharma für VentureBeat berichtet, verfügt das Modell über 671 Milliarden Parameter, aktiviert jedoch durch seine Experten-Mischarchitektur nur 37 Milliarden für jede Aufgabe. Das Modell wurde mit 14,8 Billionen verschiedenen Tokens trainiert und zeigt überlegene Leistung in mehreren Bereichen, besonders in Mathematik und Programmierung. …

Weiterlesen …

IBM stellt verbesserte Granite 3.1 Sprachmodelle vor

IBM hat eine neue Version seiner Open-Source-Sprachmodelle, Granite 3.1, veröffentlicht. Wie Sean Michael Kerner für VentureBeat berichtet, bieten die neuen Modelle deutliche Verbesserungen in Leistung und Funktionalität. Das Granite 8B Instruct Modell übertrifft laut IBM vergleichbare Konkurrenzprodukte wie Meta Llama 3.1 und Google Gemma 2 in akademischen Benchmarks. Die Kontextlänge wurde von 4.000 auf 128.000 …

Weiterlesen …

Microsoft entwickelt kompaktes KI-Modell mit hoher Leistung

Microsoft hat ein neues KI-Modell namens Phi-4 vorgestellt, das trotz geringerer Größe bessere Leistungen als konkurrierende Systeme erzielt. Wie Michael Nuñez für VentureBeat berichtet, übertrifft das Modell mit nur 14 Milliarden Parametern größere Systeme wie Google’s Gemini Pro 1.5. Phi-4 zeigt besondere Stärken im mathematischen Denken und erreichte Bestwerte bei standardisierten Mathematik-Wettbewerben. Microsoft stellt das …

Weiterlesen …

NitroFusion erstellt Bilder blitzschnell auf Standardhardware

Die Universität Surrey hat ein bahnbrechendes KI-Modell namens NitroFusion vorgestellt. Das System erzeugt Bilder in Echtzeit, während Benutzer tippen. Die Entwicklung stammt aus dem SketchX-Labor des universitären Instituts für Menschen-zentrierte Künstliche Intelligenz (PAI). Das Besondere: NitroFusion läuft auf handelsüblichen Grafikkarten. Im Gegensatz zu bestehenden Bildgenerierungssystemen benötigt das Modell keine aufwendige Computerinfrastruktur. Es nutzt ein dynamisches …

Weiterlesen …

ServiceNow stellt KI-Trainings-Beschleuniger als Open Source vor

ServiceNow hat Fast-LLM veröffentlicht, ein Open-Source-Framework zur Beschleunigung von KI-Modelltraining um 20%. Dies berichtet Sean Michael Kerner für VentureBeat. Das System wurde bereits erfolgreich beim Training von ServiceNows StarCoder 2 Sprachmodell eingesetzt. Fast-LLM führt zwei wichtige Neuerungen ein: „Breadth-First Pipeline Parallelism“ für optimierte Berechnungsabläufe und ein verbessertes Speichermanagement. Das Framework lässt sich als direkter Ersatz …

Weiterlesen …

Metas KI-Modell mit GPT-4-Leistung läuft auf High-End Notebooks

Meta hat mit Llama 3.3 70B ein neues KI-Sprachmodell vorgestellt, das auf leistungsstarken Notebooks läuft und dabei eine Leistung auf GPT-4-Niveau erreicht. Das berichtet Simon Willison. Er testete das Modell erfolgreich auf einem MacBook Pro M2 mit 64 GB RAM und benötigt etwa 42 GB Speicherplatz für die Installation. In unabhängigen Tests durch LiveBench erreichte …

Weiterlesen …

Hugging Face stellt ressourcensparendes KI-Modell vor

Hugging Face hat ein neues KI-Modell namens SmolVLM entwickelt, das Bild- und Textverarbeitung kombiniert. Wie Michael Nuñez berichtet, benötigt das Modell nur 5,02 GB GPU-Arbeitsspeicher. Vergleichbare Systeme brauchen bis zu 13,70 GB. SmolVLM nutzt eine fortschrittliche Kompressionstechnologie für die Bildverarbeitung. Das System verarbeitet Bilder mit 384×384 Pixeln durch nur 81 visuelle Token. Es ist in …

Weiterlesen …

LLaVA-o1 verbessert Bildverarbeitung durch strukturiertes Denken

Chinesische Forscher haben ein neuartiges KI-System namens LLaVA-o1 entwickelt. Ben Dickson berichtet für VentureBeat über dieses offene Sprachmodell für visuelle Verarbeitung. Das System nutzt einen vierstufigen Denkprozess: Zusammenfassung, Bildbeschreibung, Analyse und Schlussfolgerung. LLaVA-o1 basiert auf Llama-3.2-11B-Vision-Instruct und wurde mit 100.000 Bild-Text-Paaren trainiert. Eine besondere Innovation ist die „Stage-Level-Beam-Search“-Technik zur Verbesserung der Genauigkeit. In Tests übertraf …

Weiterlesen …