Warum Forscher auf lokale KI setzen

Forscher nutzen offenbar zunehmend kleine KI-Modelle auf ihren eigenen Computern statt die Angebote der großen KI-Services wie ChatGPT. Wie Nature berichtet, ermöglichen frei verfügbare Tools wie Llama oder Phi-3 es Wissenschaftlern, KI-Modelle lokal laufen zu lassen. Dies bietet Vorteile wie Kosteneinsparungen, Datenschutz und Reproduzierbarkeit. Die lokalen KI-Modelle werden dabei immer leistungsfähiger und können bereits mit … Weiterlesen …

Updates von Google und Meta

Google will die Genauigkeit seiner KI-Modelle verbessern. Um „Halluzinationen“ zu vermeiden, arbeitet das Unternehmen mit Partnern wie Moody’s, Thomson Reuters und ZoomInfo zusammen. Sie sollen KI-Systeme mit aktuellen Informationen füttern. Ein neuer „Confidence Score“ soll außerdem anzeigen, wie sicher die KI ist, eine korrekte Antwort gegeben zu haben. Google veröffentlicht mit Gemma 2 darüber hinaus eine neue Reihe leichter KI-Modelle. … Weiterlesen …

Forscher arbeiten an besserer lokaler KI

Forscher erzielen große Fortschritte bei der Entwicklung von 1-Bit-LLMs, die trotz deutlich geringerem Speicherbedarf und Energieverbrauch eine ähnliche Leistung wie ihre größeren Pendants erreichen können. Diese Entwicklung könnte die Tür für komplexere KI-Anwendungen auf alltäglichen Geräten wie Smartphones öffnen, da sie weniger Rechenleistung und Energie benötigen.

Neues „AI Kit“ für den Raspberry Pi

Mit dem neuen Raspberry Pi AI Kit für 70 US-Dollar können Nutzer  KI-Anwendungen für visuelle Aufgaben mit dem Kleinstcomputer umsetzen. Das Kit ermöglicht etwa Objekterkennung, Segmentierung und Posenschätzung in Echtzeit und mit geringem Stromverbrauch, wodurch sich der Raspberry Pi 5 für lokale KI-Anwendungen eignen könnte.

Intels „Lunar Lake“ ist ein Laptop-Chip für KI

Intel hat mit dem „Lunar Lake“-Prozessor einen völlig überarbeiteten Laptop-Chip für KI-Anwendungen vorgestellt, der ohne separate Speichermodule auskommt und stattdessen bis zu 32 GB LPDDR5X-Speicher direkt im Chippaket integriert. Durch zahlreiche Optimierungen verspricht Intel im Vergleich zum Vorgänger Meteor Lake bis zu 14 Prozent mehr CPU-Leistung bei gleichem Takt, 50 Prozent mehr Grafikleistung und bis zu 60 … Weiterlesen …

Jolla Mind2 ist ein lokaler KI-Assistent

Jolla, bekannt für sein Sailfish-Betriebssystem, präsentiert mit dem Jolla Mind2 einen neuen Ansatz für KI-Assistenten. Dieser persönliche Server, der im Herbst für 699 Euro (plus monatliche Abogebühren) erhältlich sein wird, soll KI-gestützte Aufgaben erledigen, ohne Daten in die Cloud zu senden. 

Perplexica ist eine quelloffene KI-Suchmaschine

Perplexica ist eine Open-Source-Suchmaschine mit KI-Unterstützung ähnlich Perplexity. Sie liefert Antworten mit Quellenangaben. Einmal installiert, kann sie lokale Sprachmodelle wie etwa Llama 3 oder Mixtral nutzen.

Zyphra Zamba bringt KI auf mehr Geräte

Zyphra stellt mit Zamba ein quelloffenes 7-Milliarden-Parameter-Modell vor, das künstliche Intelligenz auf mehr Geräte bringen soll.Durch den dezentralen Ansatz und die geringere Modellgröße soll Zamba eine kostengünstigere und personalisierte Alternative zu den großen, zentralisierten KI-Modellen bieten.

Intels neue Chips liefern deutlich bessere KI-Performance

Intel bestätigt, dass Microsofts KI-Assistent Copilot bald lokal auf PCs mit passenden Chips laufen wird. Intels Lunar Lake-Prozessoren, die Ende des Jahres auf den Markt kommen, sollen eine dreimal höhere KI-Leistung bieten als die aktuellen Meteor Lake-Chips und damit die Anforderungen für die nächste Generation von KI-PCs erfüllen.

Databricks DBRX ist eine lokale ChatGPT-Alternative

Databricks präsentiert mit DBRX ein neues Open-Source-KI-Modell, das Unternehmen eine kostengünstige und effiziente Alternative zu GPT-3.5 bieten möchte. Da Unternehmen es selbst einrichten und verwalten, ist damit  gleichzeitig die Sicherheit und Vertraulichkeit der Daten besser gewahrt als bei einem externen Angebot wie ChatGPT. Quelle: VentureBeat