IT之家 3 月 21 日消息,OpenAI 昨日(3 月 20 日)发布博文,宣布推出语音转文本(speech-to-text)和文本转语音(text-to-speech)模型,提升语音处理能力,支持开发者构建更精准、可定制的语音交互系统,进一步推动人工智能语音技术的商业化应用。
在语音转文本模型上,OpenAI 主要推出了 gpt-4o-transcribe 和 gpt-4o-mini-transcribe 两个模型,官方表示在单词错误率(WER)、语言识别和准确性上超越现有 Whisper 系列。
这两个模型支持超 100 种语言,主要通过强化学习和多样化高质量音频数据集训练,能捕捉细微语音特征,减少误识别,尤其在嘈杂环境、口音及不同语速下表现更稳定。
在文本转语音上,OpenAI 最新推出了 gpt-4o-mini-tts 模型,开发者通过“模拟耐心客服”或“生动故事叙述”等指令,控制语音风格,可以应用于客服(合成更具同理心的语音,提升用户体验)和创意内容(为有声书或游戏角色设计个性化声音)方面。
IT之家援引博文介绍,附上三款模型费用如下:
gpt-4o-transcribe:音频输入每 100 万 tokens 费用 6 美元、文本输入每 100 万 tokens 费用 2.5 美元,输出每 100 万 tokens 费用 10 美元,每分钟成本 0.6 美分。
gpt-4o-mini-transcribe:音频输入每 100 万 tokens 费用 3 美元、文本输入每 100 万 tokens 费用 1.25 美元,输出每 100 万 tokens 费用 5 美元,每分钟成本 0.3 美分。
gpt-4o-mini-tts:每 100 万 tokens 输入费用为 0.60 美元,每 100 万 tokens 输出费用为 12 美元,每分钟成本 1.5 美分。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。