Hugging Face veröffentlicht kleines Sprachmodell mit vollständiger Bauanleitung

Hugging Face hat mit SmolLM3 ein neues kleines Sprachmodell veröffentlicht. Laut der offiziellen Ankündigung des Unternehmens ist das 3-Milliarden-Parameter-Modell besonders leistungsstark und effizient. Eine Besonderheit ist der duale Modus: Das Modell kann entweder direkt antworten oder seinen Denkprozess transparent aufzeigen. Es verarbeitet zudem lange Texte mit bis zu 128.000 Tokens und unterstützt sechs europäische Sprachen. …

Weiterlesen …

Apples KI in Shortcuts: beeindruckend, aber unzuverlässig

Apples neue KI-Funktionen in macOS Shortcuts bieten beeindruckende Möglichkeiten, offenbaren aber erhebliche Zuverlässigkeitsprobleme. Dan Moren und Jason Snell von Six Colors experimentierten mit der „Use Model“-Aktion. Diese verarbeitet Daten durch KI-Modelle auf Geräten, Apples Private Cloud Compute oder OpenAI-Servern. Snell versuchte, Bildbeschreibungen für Webinhalte zu automatisieren. Das System erzeugte zwar präzise Beschreibungen, ignorierte aber konsequent …

Weiterlesen …

Lemony: Plug-and-Play-KI-Gerät für sichere lokale Nutzung

Das Unternehmen Lemony hat ein lokales KI-Gerät vorgestellt, mit dem Organisationen generative KI-Workflows ohne Cloud-Abhängigkeit betreiben können. Lemony erhielt eine Startfinanzierung von zwei Millionen Dollar unter Führung von True Ventures, berichtet Dean Takahashi von GamesBeat. Das stapelbare Gerät unterstützt bis zu fünf Nutzer. Es ist mit 16 Open-Source-KI-Modellen vorinstalliert, darunter IBMs Granite-Familie und Metas Llama-Varianten. …

Weiterlesen …

Google veröffentlicht App für lokale AI-Modelle auf Android

Google hat eine experimentelle Android-App namens AI Edge Gallery veröffentlicht, mit der Nutzer KI-Modelle direkt auf ihren Smartphones ohne Internetverbindung ausführen können. Die App ist über GitHub verfügbar und kommt später auch für iOS-Geräte. Nutzer können AI-Modelle von der Hugging Face-Plattform herunterladen und ausführen, um Aufgaben wie Bildanalyse, Textgenerierung und Programmier-Unterstützung zu erledigen. Die gesamte …

Weiterlesen …

Microsoft erweitert Phi-Sprachmodellfamilie mit neuen Reasoning-Fähigkeiten

Microsoft hat drei neue kleine Sprachmodelle (SLMs) vorgestellt, die sich auf komplexe Reasoning-Aufgaben konzentrieren: Phi-4-reasoning, Phi-4-reasoning-plus und Phi-4-mini-reasoning. Diese Modelle sind für angesichts ihrer kompakten Größe erstaunlich leistungsfähig, besonders bei mathematischem Reasoning und mehrstufiger Problemlösung. Das Flaggschiff Phi-4-reasoning-plus, ein Modell mit 14 Milliarden Parametern, zeigt eine Leistung, die offenbar mit viel größeren KI-Systemen mithalten kann. …

Weiterlesen …

Alibaba veröffentlicht Qwen3-Modelle mit KI-Reasoning-Fähigkeiten

Alibaba hat mit Qwen3 eine neue Familie von großen Sprachmodellen vorgestellt, die mit führenden KI-Systemen von OpenAI und Google konkurrieren. Die Produktreihe umfasst zwei Mixture-of-Experts (MoE)-Modelle und sechs Dense-Modelle mit Parametern zwischen 0,6 und 235 Milliarden. Laut den von Alibaba veröffentlichten Benchmarks übertrifft das Flaggschiffmodell Qwen3-235B-A22B DeepSeek R1 und OpenAIs o1 in mehreren wichtigen Metriken …

Weiterlesen …

Pleias veröffentlicht kleine KI-Modelle für RAG mit integrierter Quellenangabe

Das französische KI-Startup Pleias hat zwei quelloffene Reasoning-Modelle für Retrieval-Augmented Generation (RAG) mit nativer Zitierunterstützung vorgestellt. Laut Carl Franzen von VentureBeat sind die neuen Modelle – Pleias-RAG-350M und Pleias-RAG-1B – unter der Apache 2.0-Lizenz verfügbar und erlauben kommerzielle Nutzung. Trotz ihrer geringen Größe übertreffen die Modelle viele größere Alternativen bei komplexen Reasoning-Aufgaben und bieten starke …

Weiterlesen …

Google macht KI-Modelle Gemma 3 auf üblichen Grafikkarten lauffähig

Google hat neue Versionen seiner Gemma 3 KI-Modelle veröffentlicht, die dank einer speziellen Technik namens Quantization-Aware Training (QAT) auf handelsüblichen Grafikkarten laufen können. Diese Entwicklung macht leistungsstarke KI-Modelle für Nutzer ohne High-End-Hardware zugänglich. Der Speicherbedarf wurde durch QAT erheblich reduziert, während die Qualität der Modelle erhalten bleibt. Das größte Gemma 3 Modell mit 27 Milliarden …

Weiterlesen …

Nous Research stellt KI-Modell mit zuschaltbarem Denkmodus vor

Nous Research hat ein neues KI-Sprachmodell namens DeepHermes-3 entwickelt, das zwischen ausführlichem Reasoning und schnellen Antworten wechseln kann. Das Modell basiert auf Metas Llama-Technologie und verfügt über 8 Milliarden Parameter, berichtet VentureBeat. Benutzer können einen speziellen Denkmodus aktivieren, der die Gedankenprozesse der KI vor der endgültigen Antwort offenlegt. Das System nutzt dabei „Chain of Thought“, …

Weiterlesen …

Mistral Small 3 kann mit größeren Konkurrenten mithalten

Das französische KI-Startup Mistral AI hat Mistral Small 3 veröffentlicht, ein Sprachmodell mit 24 Milliarden Parametern, das laut Unternehmensangaben die Leistung von dreimal größeren Modellen erreicht. Dem Unternehmen zufolge erzielt das neue Modell eine Genauigkeit von 81% bei Standardtests und verarbeitet 150 Token pro Sekunde, was es mit Metas Llama 3.3 70B Modell vergleichbar macht, …

Weiterlesen …