只需 3 秒钟,一个根本没听过你说话的 AI,就能完美模仿出你的声音。
是不是细思极恐?
这是微软最新 AI 成果 —— 语音合成模型 VALL·E,只需 3 秒语音,就能随意复制任何人的声音。
它脱胎于 DALL・E,但专攻音频领域,语音合成效果在网上放出后火了:
有网友表示,要是将 VALL・E 和 ChatGPT 结合起来,效果简直爆炸:
看来与 GPT-4 在 Zoom 里聊天的日子不远了。
还有网友调侃,(继 AI 搞定作家、画家之后)下一个就是配音演员了。
所以 VALL・E 究竟怎么做到 3 秒钟模仿“没听过”的声音?
用语言模型来分析音频
基于 AI“没听过”的声音合成语音,即零样本学习。
语音合成趋于成熟,但之前零样本语音合成效果并不好。
主流语音合成方案基本是预训练 + 微调模式,如果用到零样本场景下,会导致生成语音相似度和自然度很差。
基于此,VALL・E 横空出世,相比主流语音模型提出了不太一样的思路。
相比传统模型采用梅尔频谱提取特征,VALL・E 直接将语音合成当成了语言模型的任务,前者是连续的,后者是离散化的。
具体来说,传统语音合成流程往往是“音素 → 梅尔频谱(mel-spectrogram)→ 波形”这样的路子。
但 VALL・E 将这一流程变成了“音素 → 离散音频编码 → 波形”:
具体到模型设计上,VALL・E 也和 VQVAE 类似,将音频量化成一系列离散 tokens,其中第一个量化器负责捕捉音频内容和说话者身份特征,后几个量化器则负责细化信号,使之听起来更自然:
随后以文本和 3 秒钟的声音提示作为条件,自回归地输出离散音频编码:
VALL・E 还是个全能选手,除了零样本语音合成,同时还支持语音编辑、与 GPT-3 结合的语音内容创建。
那么在实际测试中,VALL・E 的效果如何呢?
连环境背景音都能还原
根据已合成的语音效果来看,VALL・E 能还原的绝不仅仅是说话人的音色。
不仅语气模仿到位,而且还支持多种不同语速的选择,例如这是在两次说同一句话时,VALL・E 给出的两种不同语速,但音色相似度仍然较高:
同时,连说话者的环境背景音也能准确还原。
除此之外,VALL・E 还能模仿说话者的多种情绪,包括愤怒、困倦、中立、愉悦和恶心等好几种类型。
值得一提的是,VALL・E 训练用的数据集不算特别大。
相比 OpenAI 的 Whisper 用了 68 万小时的音频训练,在只用了 7000 多名演讲者、6 万小时训练的情况下,VALL・E 就在语音合成相似度上超过了经过预训练的语音合成模型 YourTTS。
而且,YourTTS 在训练时,事先已经听过 108 个演讲者中的 97 人声音,但在实际测试中还是比不过 VALL・E。
有网友已经在畅想它可以应用的地方了:
不仅可以用在模仿自己的声音上,例如帮助残障人士和别人完成对话,也可以在自己不想说话时用它代替自己发语音。
当然,还可以用在有声书的录制上。
不过,VALL・E 目前还没开源,要想试用可能还得再等等。
作者介绍
这篇论文所有作者均来自微软,其中有三位共同一作。
一作 Chengyi Wang,南开大学和微软亚研院联合培养博士生,研究兴趣是语音识别、语音翻译和语音预训练模型等。
共同一作 Sanyuan Chen,哈工大和微软亚研院联合培养博士生,研究方向包括自监督学习、NLP 和语音处理等。
共同一作 Yu Wu,微软亚研院 NLP 小组研究员,在北航获得博士学位,研究方向是语音处理、聊天机器人系统和机器翻译等。
论文地址:
https://arxiv.org/abs/2301.02111
音频试听地址:
https://valle-demo.github.io/
参考链接:
https://twitter.com/DrJimFan/status/1611397525541617665
本文来自微信公众号:量子位 (ID:QbitAI),作者:萧箫
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。