Ein neues Tool hat überprüft, inwiefern führende KI-Modellen dem KI-Gesetz der EU genügen, und dabei deutliche Schwachstellen entdeckt. Wie Martin Coulter für Reuters berichtet, schneiden einige Modelle großer Technologieunternehmen in Bereichen wie Cybersicherheit und diskriminierender Output schlecht ab. Das von LatticeFlow AI entwickelte „Large Language Model Checker“ bewertet KI-Modelle in Dutzenden Kategorien. Während die Modelle von Alibaba, Anthropic, OpenAI, Meta und Mistral insgesamt gute Durchschnittswerte erzielten, zeigten sich in einzelnen Bereichen deutliche Schwächen. Beispielsweise erhielt OpenAIs GPT-3.5 Turbo bei diskriminierendem Output nur 0,46 Punkte. Die Europäische Kommission begrüßte das Tool als „ersten Schritt“ zur Umsetzung der neuen Gesetze.