设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

苹果牌“AI”官方详解:Apple Intelligence 本地 30 亿参数模型,云端基于苹果芯片服务器

2024/6/12 13:42:06 来源:IT之家 作者:汪淼 责编:汪淼
感谢IT之家网友 Apllo前Apple用户 的线索投递!

IT之家 6 月 12 日消息,苹果在昨日的 WWDC24 上重磅公布了 Apple Intelligence(苹果智能),将为 iPhone、Mac 等设备引入一系列 AI 功能。

随后,苹果机器学习官网公布了 Apple Intelligence 的详细信息。据苹果官方介绍,Apple Intelligence 拥有两个基础模型:

  • 本地模型:设备上约 30 亿参数的语言模型,测试得分高于诸多 70 亿参数的开源模型(Mistral-7B 或 Gemma-7B);

  • 云上模型:可通过私有云计算并在 Apple 芯片服务器上运行的更大云端语言模型。

苹果表示,Apple Intelligence 由多个高性能生成模型组成,这些模型专门针对用户的日常任务,并且可以动态适应他们当前的活动。Apple Intelligence 中内置的基础模型针对用户体验进行了微调,例如编写和精炼文本、对通知进行优先级排序和总结、为用户与家人和朋友的对话创建有趣图像,以及采取应用内操作来简化应用之间的交互。

在预训练方面,苹果的基础模型在 AXLearn 框架上进行训练,这是苹果于 2023 年发布的开源项目。它构建在 JAX 和 XLA 之上,使苹果能够在各种训练硬件和云平台上可扩展地训练模型,包括 TPU 以及云和本地 GPU。

IT之家注意到,苹果承诺在训练基础模型时,该公司从不使用用户的私人个人数据或用户交互,并且会使用过滤器来删除互联网上公开的个人身份信息,例如社会保障和信用卡号码。苹果还过滤了脏话和其他低质量内容,以防止其包含在训练语料库中。除了过滤之外,苹果还执行数据提取、重复数据删除以及应用基于模型的分类器来识别高质量文档。

在优化方面,苹果在设备端模型和服务器端模型都使用了 grouped-query-attention,设备上模型使用 49K 的词汇大小,而服务器模型使用 100K 的词汇大小,其中包括额外的语言和技术标记。

通过优化,苹果号称在 iPhone 15 Pro 上,能够实现每个 prompt token 约 0.6 毫秒的首次 token 延迟,以及每秒 30 个 token 的生成速率

在指令跟踪评估(IFEval)测试中,苹果本地模型性能优于包括 Phi-3-mini、Mistral-7B 和 Gemma-7B 等模型,且与 DBRX-Instruct、Mixtral-8x22B 和 GPT-3.5-Turbo 相比毫不逊色;而云上模型水平基本与 GPT-4-Turbo 持平。

苹果计划在今年夏天推出的 iOS 18、iPadOS 18 和 macOS Sequoia 测试版中,开放 Apple Intelligence,然后会以测试版的形式,于今年秋季向公众开放,但部分功能、更多语言和平台支持需要等到明年。

Apple Intelligence 可以免费使用,但仅限于配备 A17 Pro 芯片或任何 M 系列芯片的设备。这意味着要使用这些功能,你需要一部 iPhone 15 Pro 或 iPhone 15 Pro Max,即将推出的 iPhone 16 系列也将支持 Apple Intelligence。

在 Mac 方面,你需要一台配备 M1 或更高版本的 Mac,而对于 iPad,你需要一台配备 M1 芯片或更高版本的 iPad Pro 或 iPad Air

苹果 WWDC24 开发者大会主题演讲专题

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知