Neue Rechentechnik verhilft kleinen Sprachmodellen zu Durchbruch

Forscher von Hugging Face haben eine neue Methode entwickelt, die kleinen Sprachmodellen ermöglicht, bessere Leistungen als größere Modelle zu erzielen. Wie Ben Dickson für VentureBeat berichtet, erreichte ein Llama-3-Modell mit nur 3 Milliarden Parametern die gleiche Leistung wie seine Version mit 70 Milliarden Parametern bei komplexen mathematischen Aufgaben. Die Methode basiert auf der Skalierung der Rechenzeit während der Ausführung. Dabei kommen verschiedene Techniken zum Einsatz, darunter Mehrheitsentscheidungen, Bewertungsmodelle und spezielle Suchalgorithmen. Ein „compute-optimal scaling“ System wählt automatisch die beste Methode je nach Aufgabenschwierigkeit. Die Technik benötigt derzeit noch ein separates Überprüfungsmodell und eignet sich besonders für Aufgaben mit eindeutig bewertbaren Lösungen wie Mathematik und Programmierung.

Mehr zum Thema:

Bleib up-to-date:

Neu vom Autor dieser Website: ChatGPT-Kompass für Marketing Content Creation

Der aktuelle und umfassende Überblick für Marketing-Profis (2. Ausgabe, September 2025)

Der KI-Umbruch im Marketing ist in vollem Gange und ChatGPT steht als Plattform Nr. 1 im Zentrum. Aber wie behältst du den Überblick bei all den neuen Funktionen und Möglichkeiten? Wie setzt du ChatGPT wirklichgewinnbringend für deine Arbeit ein?

Der „ChatGPT-Kompass“ liefert dir einen fundierten, aktuellen und umfassenden Überblick über ChatGPT und seine Anwendungsmöglichkeiten im Marketing.

Mehr Informationen