Die Aussage, dass Apples neue KI-Funktionen auch auf relativ neuen iPhones nicht laufen werden, löste Unmut aus. Das habe jedoch rein technische Gründe.
Apple hat die Entscheidung verteidigt, dass Besitzer vieler iPhones bei den neu angekündigten fortgeschrittenen KI-Funktionen außen vor bleiben werden. Dies habe ausschließlich technische Gründe, betonte KI-Chef John Giannandrea bei einem Live-Interview des Podcasts „The Talk Show“. Die Geräte müssten leistungsstark genug für die Software sein. Man könne die KI-Modelle theoretisch zwar auch auf alter Technik laufen lassen – aber sie wären dabei zu langsam, um nützlich zu sein.
Für die neuen KI-Modelle, die der Konzern unter der Bezeichnung „Apple Intelligence“ zusammenfasst, wird man eines der künftigen iPhones oder mindestens ein iPhone 15 Pro aus dem vergangenen Herbst brauchen. Bei den Mac-Computern gibt es mehr Spielraum: Da reicht jeder der hauseigenen Chips der M-Reihe, mit denen Apple seit 2020 Intel-Prozessoren ersetzt. Auf iPads mit M-Chipsystemen werden die Funktionen ebenfalls laufen. Neben den Chips spiele auch die RAM-Speicherkapazität eine Rolle, sagte Software-Chef Craig Federighi.
Apple setzt darauf, unter anderem aus Datenschutzgründen so viel Rechenarbeit wie möglich auf den Geräten zu erledigen. Das erhöht auch die Anforderungen an deren Leistung. Zugleich entwickelte der Konzern ein Verfahren, mit dem die Aufgaben verschlüsselt an die Server von Apple weitergereicht werden. Danach sollen die Daten wieder komplett aus der Cloud verschwinden. „Wir verwenden keine Daten von Nutzern, um unsere Modelle zu trainieren“, betonte Giannandrea.
Die neuen Funktionen sollen ab Herbst zum Beispiel verpasste E-Mails und Kurznachrichten zusammenfassen, individuelle Emoji-Symbole erstellen sowie Informationen auf Zuruf finden und bündeln. Die Software wird auch Bilder aus Text-Vorgaben erzeugen können.
Anders als bei vielen anderen Diensten generiert die Apple-KI aber keine künstlichen Fotos. „Weil wir es nicht leicht machen wollen, Deepfakes zu erzeugen“, sagte Giannandrea. Deepfakes sind ein Problem, weil es immer einfacher wird, täuschend echt aussehende Bilder – und auch Videos – von Personen zu erstellen.