Meta zeigt Hardware für KI-Training

Meta präsentierte auf dem OCP Global Summit 2024 neue offene KI-Hardware. Dazu gehören eine KI-Plattform namens „Catalina“, innovative Rack-Designs und verbesserte Netzwerkstrukturen. Laut Dan Rabinovitsj und Omar Baldonado in Metas Blog „Engineering at Meta“ will das Unternehmen damit die Zusammenarbeit und Innovation in der Branche fördern. Meta skaliert seine KI-Cluster massiv, um große Sprachmodelle wie …

Weiterlesen …

Google unterstützt neue Atomkraftwerke in den USA

Google will den Bau von sieben kleinen Atomreaktoren in den USA unterstützen, berichtet Jennifer Hiller im Wall Street Journal. Damit will der Konzern seinen steigenden Energiebedarf für Künstliche Intelligenz decken und die US-Atomindustrie wiederbeleben. Google plant, den Strom der Reaktoren von der Firma Kairos Power abzunehmen. Die Vereinbarung sieht 500 Megawatt Atomstrom ab Ende 2030 …

Weiterlesen …

Large Language Model

Ein Large Language Model, oft als LLM abgekürzt, ist ein hochentwickeltes künstliches neuronales Netzwerk, das darauf spezialisiert ist, menschliche Sprache zu verstehen, zu generieren und zu verarbeiten. Diese Modelle werden als „large“ (groß) bezeichnet, weil sie auf enormen Mengen an Textdaten trainiert werden und Milliarden von Parametern enthalten können. LLMs sind in der Lage, eine …

Weiterlesen …

OpenAI Swarm als Framework für KI-Agenten

OpenAI hat „Swarm“ vorgestellt, ein experimentelles Framework für Netzwerke von KI-Agenten. Laut VentureBeat ermöglicht Swarm Entwicklern, miteinander kommunizierende KI-Netzwerke zu erstellen, die Aufgaben autonom lösen. Das Framework soll verschiedene Geschäftsbereiche automatisieren, von der Marktanalyse bis zum Kundensupport. Es wirft aber auch ethische Fragen auf, etwa zu Sicherheit, Voreingenommenheit und Arbeitsplatzverlust. OpenAI-Forscher Shyamal Anadkat betont, dass …

Weiterlesen …

Adobe zeigt zahlreiche neue KI-Funktionen

Adobe hat zahlreiche neue KI-Funktionen vorgestellt, unter anderem für Videoproduktion, Bildbearbeitung, Vektorgrafik und Marketingteams. Auf seiner alljährlichen MAX-Konferenz präsentierte das Unternehmen etwa das Firefly Video Model. Laut Adobe kann dieses KI-System Videos aus Textbeschreibungen oder Bildern erzeugen. Zudem lassen sich damit bestehende Videoclips verlängern. Adobe betont zugleich die kommerzielle Sicherheit des Firefly Video Models. Das …

Weiterlesen …

INTELLECT-1 wird dezentral trainiert

Das dezentrale Training eines 10-Milliarden-Parameter-Modells namens INTELLECT-1 ist gestartet. Jeder kann Rechenleistung beisteuern und sich beteiligen. INTELLECT-1 basiert auf der Llama-3-Architektur und wird mit einem hochwertigen Open-Source-Datensatz namens Fineweb-Edu von Hugging Face trainiert. Der Datensatz umfasst über sechs Billionen Token und besteht aus Fineweb-edu (55%), DLCM (20%), Stack v2 (20%), OpenWebMath (5%). Für das Training …

Weiterlesen …

KI-Pionier Yann LeCun kritisiert aktuellen Hype

Yann LeCun, eine Schlüsselfigur in der Entwicklung der modernen künstlichen Intelligenz, steht dem derzeitigen Hype um die Fähigkeiten der KI skeptisch gegenüber. Seiner Meinung nach überschätzen viele Experten das Potenzial und die Risiken der KI und sie ist nicht so weit, wie manche behaupten. LeCun positioniert sich als kritische Stimme inmitten des vorherrschenden Narrativs, das …

Weiterlesen …

Transformermodelle eignen sich nicht für KI-Agenten

Der CEO von AI21, Ori Goshen, kritisiert Transformer-Modelle als ungeeignet für KI-Agenten. Sie seien zu teuer und ineffizient, so Goshen im Interview mit VentureBeat. Alternativen wie Mamba und Jamba böten schnellere Inferenzzeiten und längeren Kontext. Das mache sie besser für Agenten geeignet, die auf mehrere Modelle zugreifen müssen. Goshen führt die mangelnde Zuverlässigkeit aktueller KI-Agenten …

Weiterlesen …

Essay über das positive Potenzial von KI

In seinem Essay untersucht Dario Amodei das transformative Potenzial leistungsfähiger KI und betont, dass die Risiken zwar beträchtlich sind, die Vorteile jedoch das menschliche Leben radikal verbessern könnten. Er argumentiert, dass die Diskussionen über KI oft ihre positiven Anwendungen übersehen, zu denen Fortschritte in der Biologie, den Neurowissenschaften, der wirtschaftlichen Entwicklung, der Regierungsführung und der …

Weiterlesen …

LLMs können nicht logisch denken

Eine neue Studie von Apple zeigt, dass große Sprachmodelle (LLMs) nicht logisch denken können, sondern auf Mustererkennung beruhen. Diese Erkenntnis, veröffentlicht von sechs KI-Forschern bei Apple, stellt das gängige Verständnis von LLMs in Frage. Die Forscher fanden heraus, dass schon kleine Änderungen, wie das Vertauschen von Namen, die Ergebnisse der Modelle um etwa 10 % …

Weiterlesen …