感谢IT之家网友 Alejandro86 的线索投递!
IT之家 10 月 3 日消息,Stability AI 昨日发布公告,介绍了旗下一款名为 Stable LM 3B 的语言模型,号称适用于移动平台设备,“可为相关设备带来可持续、高性能的体验”。
IT之家从公告中得知,这款 Stable LM 3B 模型包含 30 亿个参数,主打文本生成,拥有基于 Transformer 解码器架构的自回归体系,并使用了多个开源大规模数据集进行训练。
官方表示,该模型使用了 30 亿个参数,使用了 256 个 NVIDIA A100 40GB GPU 训练而成,虽然参数相比同类大模型较少,但性能依然可圈可点,且由于该模型的体积较小、功耗更低,因此更适合移动平台使用。
此外,该模型拥有多平台兼容性,并允许根据特定需求进行微调,目前模型已经在 Hugging Face 平台上开源,方便开发者使用和改进,感兴趣的小伙伴们可以前往了解查看。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。