IT之家 6 月 12 日消息,苹果在 WWDC 2024 上发布了备受瞩目的 iOS 18 和 macOS 15 系统,其中一项重要的新功能是“Apple Intelligence”—— 一套基于人工智能的工具集。该功能将于今年晚些时候正式上线,苹果软件工程主管 Craig Federighi 在接受 Fast Company 采访时透露了一些关于 Apple Intelligence 的未来发展计划。
“Apple Intelligence”将赋予用户一系列实用的人工智能辅助功能,例如帮助用户改写文本、总结信息、生成图像甚至表情符号。此外,得益于人工智能的更新,Siri 也将变得更加智能,能够理解屏幕内容的上下文,并允许用户控制设备的更多方面。
值得一提的是,苹果“Apple Intelligence”采用了设备端和云端相结合的处理方式。同时,苹果还宣布与 OpenAI 达成合作,将旗下知名语言模型 ChatGPT 整合至 Siri 中。尽管苹果一直在致力于打造自有语言模型,Federighi 也坦承市场上存在其他优秀的大型语言模型 (LLM)。
“这些前沿的超大规模语言模型拥有令人兴奋的能力,可以为用户带来更多便利的体验。我们相信将它们整合到苹果产品中,能够让用户更加方便地使用,”Federighi 表示,GPT-4o 是目前表现最为出色的 LLM 之一,这也是苹果选择将其整合至 Siri 的原因。
为了保障用户隐私,当“Apple Intelligence”无法回答用户的提问时,Siri 会征求用户同意,然后再将相关请求发送至 ChatGPT 进行处理。Federighi 透露,苹果未来还计划加入对更多第三方语言模型的支持,使用户能够根据自身需求选择最合适的模型。
中国市场是苹果最为重要的市场之一,Federighi 表示苹果正在努力寻找将“Apple Intelligence”引入中国市场的方法,“虽然目前没有具体的时间表,但这肯定是我们想要做的。”“Apple Intelligence”初期将仅支持美国英语,尚不清楚其他地区的用户是否能够使用该功能。
IT之家注意到,采访中,Federighi 还谈及了其他与“Apple Intelligence”相关的话题。例如,部分用户请求会由苹果自有的名为“Private Cloud Compute”的人工智能服务器进行处理。苹果开发了一种方法,可以在处理完数据请求之后对其进行加密销毁,从而确保用户隐私信息不被泄露。
虽然 Federighi 期望未来的芯片能够运行更加庞大的语言模型,但他同时也强调,拥有在线模型仍然非常重要,因为它能够为用户提供最新的信息。“我并不排除这种可能性,”他说道,“但即便是在那样一个未来,我也认为设备在处理用户请求时,仍然会需要访问外部的知识库。因此,即使在可以完全离线处理的将来,与外部服务进行交互也将扮演着不可或缺的角色。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。