Apple hat angekündigt, dass Entwickler nun Zugang zu seinem KI-System Apple Intelligence erhalten. Sie können damit AI-Features in ihre eigenen Apps einbauen. Das Unternehmen machte diese Ankündigung auf seiner Worldwide Developer Conference.
Das neue Foundation Models Framework ermöglicht es Entwicklern, Apples KI-Modell direkt in ihre Apps zu integrieren. Dafür brauchen sie nur drei Zeilen Code. Apps können nun intelligente Features anbieten, die offline funktionieren und die Privatsphäre der Nutzer schützen. Die KI-Verarbeitung findet komplett auf dem Gerät des Nutzers statt, nicht in der Cloud.
Apple stellte auch große Updates für seine Entwickler-Tools vor. Xcode 26, Apples Programmierumgebung, unterstützt nun ChatGPT und andere große Sprachmodelle. Entwickler können damit Code schreiben, Tests erstellen und Fehler mit KI-Hilfe direkt in ihrer Arbeitsumgebung beheben.
Apple Intelligence unterstützt nun neun Sprachen, darunter Englisch, Französisch, Deutsch, Italienisch, Portugiesisch, Spanisch, Japanisch, Koreanisch und Chinesisch. Das System bietet jetzt Live-Übersetzung und funktioniert auf iPhone, iPad, Mac und Apple Watch.
Die Features sind über Apples Entwicklerprogramm zum Testen verfügbar. Eine öffentliche Beta ist für nächsten Monat geplant. Die KI-Features benötigen neuere Apple-Geräte, einschließlich iPhone 15 Pro und neueren Modellen sowie iPads und Macs mit Apples M1-Chip oder neueren Prozessoren.