DeepSeek-V3 auf Augenhöhe mit GPT-4 und Claude 3.5 Sonnet

Das chinesische KI-Startup DeepSeek hat sein neues KI-Modell DeepSeek-V3 vorgestellt. Wie Shubham Sharma für VentureBeat berichtet, verfügt das Modell über 671 Milliarden Parameter, aktiviert jedoch durch seine Experten-Mischarchitektur nur 37 Milliarden für jede Aufgabe. Das Modell wurde mit 14,8 Billionen verschiedenen Tokens trainiert und zeigt überlegene Leistung in mehreren Bereichen, besonders in Mathematik und Programmierung. …

Weiterlesen …

Microsoft erweitert KI-Basis für 365 Copilot

Microsoft plant eine Erweiterung der KI-Modelle für seinen Microsoft 365 Copilot-Dienst, wie Reuters-Journalisten Anna Tong und Krystal Hu berichten. Das Unternehmen will neben OpenAI-Technologie auch eigene und externe KI-Modelle einsetzen. Ziel ist es, die Betriebskosten zu senken und die Leistung zu verbessern. Microsoft entwickelt kleinere eigene Modelle wie Phi-4 und integriert weitere Open-Weight-Modelle. Diese Initiative …

Weiterlesen …

Perplexity übernimmt Datenintegrations-Startup Carbon

Der KI-Suchmaschinenanbieter Perplexity hat das Startup Carbon übernommen. Wie Shubham Sharma für VentureBeat berichtet, ermöglicht diese Akquisition Unternehmen eine bessere Verbindung ihrer internen Datenquellen mit KI-Suchfunktionen. Carbons Technologie bietet Integrationen mit über 20 Datenconnectoren und unterstützt verschiedene Dateiformate, darunter Text, Audio und Video. Die Integration wird Perplexity-Nutzern den Zugriff auf Informationen aus unterschiedlichen Quellen wie …

Weiterlesen …

Stable Diffusion 3.5 startet auf Amazons Enterprise-KI-Plattform

Stability AI hat sein neuestes Text-zu-Bild-Modell, Stable Diffusion 3.5 Large, auf Amazons Bedrock-Dienst eingeführt. Wie Sean Michael Kerner für VentureBeat berichtet, ist AWS damit der einzige öffentliche Cloud-Anbieter für Stability AIs Hauptmodelle. Die Integration ermöglicht Unternehmen den Zugriff auf verschiedene KI-Modelle über eine einheitliche API. Die National Football League nutzt bereits diese Technologie für ihr …

Weiterlesen …

Neues KI-Bewertungsmodell erreicht GPT-4-Niveau mit weniger Ressourcen

Das Startup Patronus AI hat ein bahnbrechendes KI-Bewertungsmodell entwickelt, das mit deutlich geringerem Ressourceneinsatz vergleichbare Ergebnisse wie größere Systeme erzielt. Wie Michael Nuñez für VentureBeat berichtet, verwendet das neue Open-Source-Modell namens Glider nur 3,8 Milliarden Parameter und erreicht dennoch die Leistung von GPT-4 in wichtigen Bewertungskriterien. Das von ehemaligen Meta-AI-Forschern gegründete Unternehmen hat Glider so …

Weiterlesen …

IBM stellt verbesserte Granite 3.1 Sprachmodelle vor

IBM hat eine neue Version seiner Open-Source-Sprachmodelle, Granite 3.1, veröffentlicht. Wie Sean Michael Kerner für VentureBeat berichtet, bieten die neuen Modelle deutliche Verbesserungen in Leistung und Funktionalität. Das Granite 8B Instruct Modell übertrifft laut IBM vergleichbare Konkurrenzprodukte wie Meta Llama 3.1 und Google Gemma 2 in akademischen Benchmarks. Die Kontextlänge wurde von 4.000 auf 128.000 …

Weiterlesen …

Nvidia und DataStax stellen neues KI-Speichersystem vor

Nvidia und DataStax haben eine neue KI-Technologie eingeführt, die den Speicherbedarf für generative KI-Systeme um das 35-fache reduziert. Wie Michael Nuñez für VentureBeat berichtet, ermöglicht der Nvidia NeMo Retriever in Kombination mit DataStax’s KI-Plattform eine schnellere und präzisere Informationssuche in mehreren Sprachen. Bei der Wikimedia Foundation hat die Technologie bereits die Verarbeitungszeit von 10 Millionen …

Weiterlesen …

Slack führt KI-Assistenten von Salesforce ein

Slack integriert die KI-Assistenten von Salesforce’s Agentforce in seine Kollaborationsplattform. Wie Michael Nuñez für VentureBeat berichtet, werden die KI-Assistenten Zugriff auf Unternehmensgespräche und Daten in Slack-Kanälen erhalten. Der Produktchef von Slack, Rob Seaman, betont die kontextbezogenen Fähigkeiten der KI-Assistenten. Die Plattform bietet eine Bibliothek anpassbarer KI-Assistenten für verschiedene Aufgaben an. Diese können bei der Einarbeitung …

Weiterlesen …

Cohere stellt kompaktes KI-Sprachmodell Command R7B vor

Das KI-Unternehmen Cohere hat ein neues kompaktes Sprachmodell namens Command R7B eingeführt. Wie Taryn Plumb von VentureBeat berichtet, unterstützt das Modell 23 Sprachen und ist auf RAG-Technologie (Retrieval-Augmented Generation) spezialisiert. Command R7B übertrifft vergleichbare Modelle von Google, Meta und Mistral bei Mathematik- und Programmieraufgaben. Das Modell verfügt über eine Kontextlänge von 128K und läuft auf …

Weiterlesen …

Neue KI-Technik reduziert Speicherverbrauch von Sprachmodellen

Das japanische Startup Sakana AI hat eine innovative Technologie entwickelt, die den Speicherverbrauch von großen Sprachmodellen um bis zu 75% senkt. Ben Dickson berichtet über diese neue Methode namens „universal transformer memory“. Das System verwendet neural attention memory modules (NAMMs), die automatisch entscheiden, welche Informationen wichtig sind und welche verworfen werden können. Die Technologie wurde …

Weiterlesen …