Das französische KI-Startup Mistral AI hat eine neue Moderations-API vorgestellt, die potenziell schädliche Inhalte in neun Kategorien und elf Sprachen erkennen kann. Die API basiert auf Mistrals optimiertem Ministral-8B-Modell und bietet Analysemöglichkeiten für Rohtext und konversationelle Inhalte, berichtet Michael Nuñez für VentureBeat. Mit diesem Schritt positioniert sich Mistral als Konkurrent zu OpenAI und anderen führenden KI-Unternehmen und reagiert gleichzeitig auf wachsende Bedenken hinsichtlich der KI-Sicherheit und Inhaltsfilterung.