Metas KI-Modell mit GPT-4-Leistung läuft auf High-End Notebooks

Meta hat mit Llama 3.3 70B ein neues KI-Sprachmodell vorgestellt, das auf leistungsstarken Notebooks läuft und dabei eine Leistung auf GPT-4-Niveau erreicht. Das berichtet Simon Willison. Er testete das Modell erfolgreich auf einem MacBook Pro M2 mit 64 GB RAM und benötigt etwa 42 GB Speicherplatz für die Installation. In unabhängigen Tests durch LiveBench erreichte …

Weiterlesen …

Meta nutzt OpenAIs GPT-4 in firmeninternem Programmierwerkzeug

Meta verwendet in seinem internen Programmierwerkzeug Metamate sowohl das GPT-4-Modell von OpenAI als auch das hauseigene Llama-KI-Modell. Dies berichtet Kali Hays im Wirtschaftsmagazin Fortune. Trotz der öffentlichen Lobpreisung der Llama-KI durch Meta-CEO Mark Zuckerberg nutzt das Unternehmen seit Anfang 2024 auch die Technologie des Konkurrenten. Aktuelle und ehemalige Meta-Mitarbeiter berichten unter Anonymität, dass Metamate je …

Weiterlesen …

Meta setzt auf Open-Source-KI-Modell Llama als neue Unternehmensstrategie

Meta hat unter der Führung von Mark Zuckerberg eine grundlegende strategische Neuausrichtung vollzogen, die das Open-Source-KI-Modell Llama in den Mittelpunkt stellt. Wie Sharon Goldman in Fortune berichtet, erfolgte im Juli 2023 die Entscheidung, Llama 2 als Open-Source-Projekt zu veröffentlichen, trotz interner Bedenken bezüglich Monetarisierung und Sicherheit. Das KI-Modell wurde inzwischen über 600 Millionen Mal heruntergeladen …

Weiterlesen …

Neue Entwicklerplattform AnyChat vereint führende KI-Sprachmodelle

Eine innovative Plattform namens AnyChat ermöglicht Entwicklern erstmals den gleichzeitigen Zugriff auf verschiedene KI-Sprachmodelle über eine einzige Schnittstelle. Der Entwickler Ahsen Khaliq hat das System so konzipiert, dass Nutzer problemlos zwischen Modellen wie ChatGPT, Google Gemini und Meta’s LLaMA wechseln können. Das berichtet Michael Nuñez für VentureBeat. Die Plattform unterstützt sowohl proprietäre als auch Open-Source-Modelle …

Weiterlesen …

Cerebras Inference erzielt Durchbruch bei der Leistung von Llama 3.1-70B

Cerebras hat ein bedeutendes Update für seine Cerebras Inference-Plattform vorgestellt, die nun das Sprachmodell Llama 3.1-70B mit beeindruckenden 2.100 Token pro Sekunde ausführt – eine dreifache Leistungssteigerung im Vergleich zur vorherigen Version. Laut James Wang vom offiziellen Cerebras-Blog ist diese Leistung 16-mal schneller als die schnellste GPU-Lösung und 8-mal schneller als GPUs, die das wesentlich …

Weiterlesen …

Meta veröffentlicht KI-Modelle für Mobilgeräte

Meta Platforms hat quantisierte Versionen seiner Llama 3.2 1B und 3B Modelle veröffentlicht, die laut Unternehmensangaben einen reduzierten Speicherbedarf, schnellere On-Device-Inferenz, Genauigkeit und Portabilität bieten sollen. Die Modelle wurden in enger Zusammenarbeit mit Qualcomm und MediaTek entwickelt und sind auf SoCs mit Arm-CPUs verfügbar. Meta gibt an, dass die durchschnittliche Modellgröße um 56% und der …

Weiterlesen …

Nvidia veröffentlicht leistungsstarkes und offenes KI-Modell

Nvidia hat ein neues KI-Modell, Llama-3.1-Nemotron-70B-Instruct, vorgestellt, das bestehende Modelle von OpenAI und anderen Anbietern übertrifft und einen fortgesetzten Wandel in der KI-Strategie des Unternehmens zeigt. Das Modell, das auf Hugging Face verfügbar ist, erzielte beeindruckende Benchmark-Ergebnisse und positioniert Nvidia als wettbewerbsfähigen Akteur im Bereich Sprachverständnis und -generierung. Diese Entwicklung zeigt Nvidias Wandel von einem …

Weiterlesen …

INTELLECT-1 wird dezentral trainiert

Das dezentrale Training eines 10-Milliarden-Parameter-Modells namens INTELLECT-1 ist gestartet. Jeder kann Rechenleistung beisteuern und sich beteiligen. INTELLECT-1 basiert auf der Llama-3-Architektur und wird mit einem hochwertigen Open-Source-Datensatz namens Fineweb-Edu von Hugging Face trainiert. Der Datensatz umfasst über sechs Billionen Token und besteht aus Fineweb-edu (55%), DLCM (20%), Stack v2 (20%), OpenWebMath (5%). Für das Training …

Weiterlesen …

Wie teuer ist eine eigene Conversational AI?

Unternehmen können erhebliche Kosteneinsparungen erzielen, wenn sie ihre eigene Conversational AI auf Basis des Open-Source-Modells Llama 3 aufbauen. Das geht aus einer Analyse von Sam Oliver, Gründer von OpenFi, hervor, die auf VentureBeat veröffentlicht wurde. Laut Oliver kostet eine durchschnittliche Konversation mit Llama 3 etwa 0,08 US-Dollar, während dieselbe Konversation mit GPT-4 von OpenAI rund …

Weiterlesen …

Reflection 70B korrigiert eigene Fehler

Ein neues Open-Source-KI-Modell namens Reflection 70B wurde von Matt Shumer vorgestellt, Mitbegründer des KI-Startups HyperWrite. Wie Shumer auf der Plattform X bekannt gab, übertrifft das Modell in Benchmarks führende kommerzielle Systeme. Reflection 70B basiert auf Metas Llama 3.1-70B Instruct und nutzt eine neue Technik zur Selbstkorrektur von Fehlern: Das Modell kann seine eigenen Fehler erkennen …

Weiterlesen …