Sarah Bird, Produktchefin für verantwortungsvolle KI bei Microsoft, hat in einem Interview mit der Financial Times die Strategie des Unternehmens für sichere KI-Entwicklung dargelegt. Bird betonte, dass generative KI zwar großes Potenzial habe, der künstlichen allgemeinen Intelligenz (AGI) aber noch grundlegende Fähigkeiten fehlen.
Microsoft konzentriert sich nach Birds Aussagen darauf, menschliche Fähigkeiten durch seine „Copilot“-Systeme zu erweitern, statt sie zu replizieren. Das Unternehmen hat kürzlich Verbesserungen bei der Erkennung von KI-Halluzinationen durch Echtzeit-Überwachungssysteme eingeführt.
Die Zusammenarbeit mit OpenAI ermöglicht es beiden Unternehmen, ihre jeweiligen Stärken zu nutzen – OpenAI in der Grundlagenentwicklung und Microsoft in der Implementierung von Sicherheitssystemen auf Anwendungsebene.
Bird erläuterte, dass sich generative KI durch ihre Fähigkeit zur natürlichen Kommunikation von früheren KI-Technologien unterscheidet. Dies ermögliche eine breitere Zugänglichkeit und praktische Anwendungen in verschiedenen Bereichen. Allerdings habe die Technologie noch Schwierigkeiten mit grundlegenden Konzepten wie Physik.
Die Managerin beschrieb den schrittweisen Ansatz von Microsoft bei Produkteinführungen, der gründliche Tests mit kontinuierlicher Entwicklung verbindet. Das Unternehmen implementiert mehrere Sicherheitsebenen, darunter Inhaltsüberwachung, Missbrauchserkennung und menschliche Aufsicht.
Zur Bekämpfung von Deepfakes setzt Microsoft auf verschiedene Maßnahmen, einschließlich digitaler Wasserzeichen und Authentifizierungssysteme für KI-generierte Inhalte.