设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

在富岳超算上训练大模型,日本联合研究团队发布 Fugaku-LLM

2024/5/11 9:39:37 来源:IT之家 作者:溯波(实习) 责编:溯波

IT之家 5 月 11 日消息,由多方企业和机构组成的日本联合研究团队昨日发布了 Fugaku-LLM 大模型。该模型的最大特色就是其是在 Arm 架构超算“富岳”上训练的。

Fugaku-LLM 模型的开发于 2023 年 5 月启动,初期参与方包括富岳超算所有者富士通、东京工业大学、日本东北大学和日本理化学研究所(理研)。

而在 2023 年 8 月,另外三家合作方 —— 名古屋大学、CyberAgent(也是游戏企业 Cygames 的母公司)和 HPC-AI 领域创企 Kotoba Technologies 也加入了该模型研发计划。

富岳超算

▲ 富岳超算。图源富士通新闻稿

在昨日发布的新闻稿中,研究团队表示其充分挖掘了富岳超算的性能,将矩阵乘法的计算速度提高了 6 倍,通信速度也提升了 3 倍,证明大型纯 CPU 超算也可用于大模型训练

Fugaku-LLM 模型参数规模为 13B,是日本国内最大的大型语言模型。

其使用了 13824 个富岳超算节点在 3800 亿个 Token 上进行训练,其训练资料中 60% 为日语,其他 40% 包括英语、数学、代码等部分。

该模型的研究团队宣称 Fugaku-LLM 模型可在交流中自然使用日语敬语等特殊表达。

具体到测试成绩上,该模型在日语 MT-Bench 模型基准测试上的平均得分为 5.5,排在基于日本语料资源的开放模型首位,并在人文社科类别中得到了 9.18 的高分。

目前 Fugaku-LLM 模型已在 GitHub 和 Hugging Face 平台公开,外部研究人员和工程师可在遵守许可协议的前提下将该模型用于学术和商业目的。

IT之家在此附上 Fugaku-LLM 模型在 Hugging Face 平台的地址,有兴趣的小伙伴可点击进一步了解:相关链接

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

软媒旗下网站: IT之家 辣品 - 超值导购,优惠券 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 魔方 酷点桌面 Win7优化大师 Win10优化大师 软媒手机APP应用