Forscher entwickeln Sprachmodelle aus historischen Texten
Wissenschaftler der Universität Zürich und der Universität zu Köln erstellen große Sprachmodelle, die ausschließlich auf historischen Dokumenten bis zu bestimmten Daten trainiert wurden. Das Team um Daniel Göttlich, Dominik Loibner, Guohui Jiang und Hans-Joachim Voth beschreibt das Projekt auf GitHub. Die Modelle heißen Ranke-4B und verfügen über vier Milliarden Parameter. Sie wurden auf 80 Milliarden …