Das dezentrale Training eines 10-Milliarden-Parameter-Modells namens INTELLECT-1 ist gestartet. Jeder kann Rechenleistung beisteuern und sich beteiligen. INTELLECT-1 basiert auf der Llama-3-Architektur und wird mit einem hochwertigen Open-Source-Datensatz namens Fineweb-Edu von Hugging Face trainiert. Der Datensatz umfasst über sechs Billionen Token und besteht aus Fineweb-edu (55%), DLCM (20%), Stack v2 (20%), OpenWebMath (5%). Für das Training kommt der WSD-Lernratenplaner zum Einsatz. Dieser hält die Lernrate nach einer anfänglichen Aufwärmphase konstant. Ein eigens entwickelter Int8 All-Reduce Kernel, der die Pseudo-Gradienten in int8 statt fp32 kommuniziert, reduziert die Payload-Größe.
Bleib auf dem Laufenden
KI für Contentprofis: die neuesten Tools, Tipps und Trends. Alle 14 Tage in deine Inbox:
Artikel mit dem Autornamen SCR wurden mit KI-Hilfe erstellt. Jan Tissler wählt die Themen manuell aus. Jeder Beitrag wird von ihm vor der Veröffentlichung kontrolliert und bearbeitet. Er übernimmt die volle redaktionelle Verantwortung für die Inhalte. Lies mehr darüber, wie diese Website entsteht und welche Prompts zum Einsatz kommen.
Neu vom Autor dieser Website: ChatGPT-Kompass für Marketing Content Creation
Der aktuelle und umfassende Überblick für Marketing-Profis (3. Ausgabe, Januar 2026)
Der KI-Umbruch im Marketing ist in vollem Gange und ChatGPT steht als Plattform Nr. 1 im Zentrum. Aber wie behältst du den Überblick bei all den neuen Funktionen und Möglichkeiten? Wie setzt du ChatGPT wirklich gewinnbringend für deine Arbeit ein?
Der „ChatGPT-Kompass“ liefert dir einen fundierten, aktuellen und umfassenden Überblick über ChatGPT und seine Anwendungsmöglichkeiten im Marketing.