IT之家 12 月 4 日消息,Meta 日前公布了 AI 翻译套件 Seamless Communication,该套件由 4 款 AI 模型组成,Meta 声称,该 AI 套件能够“精准再现说话者情绪”,可实现延迟仅 2 秒的同声传译能力、并支持近百种语言输入。
据悉,Seamless Communication 是 Meta 庆祝自家 AI 研究机构“Fundamental AI Research”成立 10 周年所发表的研究成果。
Meta 介绍称,该套件包含用于加速翻译的“第二代 SeamlessM4T 模型”、口译模型“Seamless Expressive”、 同声翻译模型“Seamless Streaming”,与综合模型“Seamless”,IT之家整理相关信息如下:
SeamlessM4T 模型号称能在翻译时基于用户说话内容,自动联想可能的后文,以加速翻译。
Seamless Expressive 是一种口译模型,号称可以解决“传统 AI 翻译无法抓住用户语调、停顿、读词重轻度的问题”,能够在维持翻译品质的基础上,保存用户情绪、风格、说话速度、停顿和节奏,从而为翻译内容带来更多“情感信息”。
Seamless Streaming 是同声翻译模型,主打 2 秒延迟的语音和文字翻译,支持口译(speech-to-speech translation)、听写翻译(speech-to-text translation,S2TT)及自动语音识别功能(Automatic speech recognition ,ASR)。
而综合模型 Seamless,则是整合了上述三种语言模型,便于通用场景。
目前 Meta 已经将示例视频发布在 GitHub 以及 HuggingFace 网站上,感兴趣的小伙伴们可以点此进行查看。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。