Microsoft will KI-Angebote sicherer machen

Microsoft hat neue Sicherheitsfunktionen für KI-Angebote vorgestellt. Das Unternehmen will damit wachsende Bedenken bezüglich KI-Sicherheit, Datenschutz und Zuverlässigkeit angehen. Wie Michael Nuñez für VentureBeat berichtet, umfasst die „Trustworthy AI“-Initiative beispielsweise vertrauliche Inferenz für Azure OpenAI Services, verbesserte GPU-Sicherheit und bessere Tools zur Bewertung von KI-Outputs. Ein Hauptmerkmal ist die neue „Korrektur“-Funktion in Azure AI Content Safety, die „Halluzinationen“ bekämpfen soll. Microsoft erweitert zudem die „eingebettete Inhaltssicherheit“, um KI-Sicherheitsprüfungen direkt auf Endgeräten durchzuführen. Sarah Bird, eine führende Mitarbeiterin in Microsofts KI-Bemühungen, betont die Komplexität der Aufgabe und die Notwendigkeit kontinuierlicher Arbeit an verantwortungsvoller KI-Entwicklung.

Mehr zum Thema:

Bleib up-to-date: