谷歌全新视频生成模型 VideoPoet 再次引领世界!十秒超长视频生成效果碾压 Gen-2,还可进行音频生成,风格转化。AI 视频生成,或许就是 2024 年下一个最前沿(juan)的领域。
回看过去几个月,RunWay 的 Gen-2、Pika Lab 的 Pika 1.0,国内大厂等大波视频生成模型纷纷涌现,不断迭代升级。
这不,RunWay 一大早就宣布 Gen-2 支持文本转语音的功能了,可以为视频创建画外音。
当然,谷歌在视频生成上也不甘落后,先是与斯坦福李飞飞团队共同发布了 W.A.L.T,用 Transformer 生成的逼真视频引来大波关注。
今天,谷歌团队又发布了一个全新的视频生成模型 VideoPoet,而且无需特定数据便可生成视频。
最令人惊叹的是,VideoPoet 一次能够生成 10 秒超长,且连贯大动作视频,完全碾压 Gen-2 仅有小幅动作的视频生成。
另外,与领先模型不同的是,VideoPoet 并非基于扩散模型,而是多模态大模型,便可拥有 T2V、V2A 等能力,或将成为未来视频生成的主流。
网友看后纷纷「震惊」刷屏。
不如,接下来可以先看一波体验。
文字转视频
在文本到视频的转换中,生成的视频长度是可变的,并且能够根据文本内容展现出多种动作和风格。
比如,熊猫打牌:
南瓜爆炸:
宇航员策马奔驰:
图像转视频
VideoPoet 还可以根据给定的提示,将输入的图像转换成动画。
视频风格化
对于视频风格化,VideoPoet 先预测光流和深度信息,然后再将额外的文本输入到模型。
视频转音频
VideoPoet 还能生成音频。
如下,首先从模型中生成 2 秒钟的动画片段,然后在没有任何文本引导的情况下尝试预测音频。这样就能从一个模型中生成视频和音频。
通常情况下,VideoPoet 以纵向的方式生成视频,以便与短片视频的输出相一致。
谷歌还专门做了一部由 VideoPoet 生成的许多短片组成的简短电影。
具体文本比编排上,研究人员要求 Bard 先写一个关于一只旅行浣熊的短篇故事,并附带场景分解和提示列表。然后,为每个提示生成视频片段,并将所有生成的片段拼接在一起,制作出下面的最终视频。
视频讲故事
通过随时间变化的提示,可以创造视觉上的故事叙述。
LLM 秒变视频生成器
当前,Gen-2、Pika 1.0 视屏生成的表现足以惊人,但是遗憾的是,无法在连贯大幅动作的视频生成上表现惊艳。
通常,它们在产生较大动作时,视频会出现明显的伪影。
对此,谷歌研究人员提出了 VideoPoet,能够执行包括文本到视频、图像到视频、视频风格化、视频修复 / 扩展和视频到音频等多样的视频生成任务。
相比起其他模型,谷歌的方法是将多种视频生成功能无缝集成到单一的大语言模型中,而不依赖针对各个任务分别训练的专用组件。
具体来说,VideoPoet 主要包含以下几个组件:
预训练的 MAGVIT V2 视频 tokenizer 和 SoundStream 音频 tokenizer,能将不同长度的图像、视频和音频剪辑转换成统一词汇表中的离散代码序列。这些代码与文本型语言模型兼容,便于与文本等其他模态进行结合。
自回归语言模型可在视频、图像、音频和文本之间进行跨模态学习,并以自回归方式预测序列中下一个视频或音频 token。
在大语言模型训练框架中引入了多种多模态生成学习目标,包括文本到视频、文本到图像、图像到视频、视频帧延续、视频修复 / 扩展、视频风格化和视频到音频等。此外,这些任务可以相互结合,实现额外的零样本功能(例如,文本到音频)。
使用 LLM 进行训练的一个关键优势是,可以重用现有 LLM 训练基础设施中引入的许多可扩展的效率改进。
不过,LLM 是在离散 token 上运行的,这可能会给视频生成带来挑战。
幸运的是,视频和音频 tokenizer,可以将视频和音频剪辑编码为离散 token 序列(即整数索引),并可以将其转换回原始表示。
VideoPoet 训练一个自回归语言模型,通过使用多个 tokenizer(用于视频和图像的 MAGVIT V2,用于音频的 SoundStream)来跨视频、图像、音频和文本模态进行学习。
一旦模型根据上下文生成了 token,就可以使用 tokenizer 解码器将这些 token 转换回可查看的表示形式。
三大优势
概括来说,VideoPoet 比起 Gen-2 等视频生成模型,具备以下三大优势。
更长的视频
VideoPoet 通过对视频的最后 1 秒进行调节,并预测接下来的 1 秒,就可以生成更长的视频。
通过反复循环,VideoPoet 通不仅可以很好地扩展视频,而且即使在多次迭代中,也能忠实地保留所有对象的外观。
如下是 VideoPoet 从文本输入生成长视频的两个示例:
精准的控制
视频生成应用一个非常重要的能力在于,对于生成的动态效果,用户有多大的控制能力。
这将很大程度上决定了模型能否被用来制作复杂连贯的长视频。
VideoPoet 不但可以为输入的图像通过文字描述来添加动态效果,并通过文本提示来调整内容,来达到预期的效果。
除了支持输入图像的视频编辑,视频输入也可以通过文字进行精确控制。
针对最左边的小浣熊跳舞视频,用户可以通过文字描述不同的舞姿来让它跳不同的舞蹈。
同样,还可以对 VideoPoet 生成的现有视频片段,进行交互式编辑。
如果我们提供一个输入视频,就可以改变对象的运动来执行不同的动作。对物体的操作可以以第一帧或中间帧为中心,从而实现高度的编辑控制。
比如,可以从输入视频中随机生成一些片段,然后选择所需的下一个片段。
如图中最左边的视频被用作条件反射,在初始提示下生成四个视频:
「一个可爱的锈迹斑斑的破旧蒸汽朋克机器人的特写,机器人身上长满了青苔和新芽,周围是高高的草丛」。
对于前 3 个输出,没有提示动作的自主预测生成。最后一个视频,是在提示中添加了「启动,背景为烟雾」以引导动作生成。
运镜的手法
VideoPoet 还可以通过在文本提示中,附加所需的运镜方式,来精确控制画面的变化。
例如,研究人员通过模型生成了一幅图像,提示为「冒险游戏概念图,雪山日出,清澈河流」。下面的示例将给定的文本后缀添加到所需的动作中。
评估结果
最后,VideoPoet 在具体的实验评测中的表现又如何呢?
为了确保评估的客观性,谷歌研究人员在在各种提示上运行所有模型,并让人们对其偏好进行评分。
下图显示了在以下问题中,VideoPoet 被选为绿色首选项的百分比。
文本保真度:
文本保真度的用户偏好评级,即在准确遵循提示方面首选视频的百分比。
动作趣味性:
用户对动作趣味性的偏好评级,即在产生有趣的动作方面,首选视频的百分比。
综上可见,平均有 24-35% 的人认为 VideoPoet 生成的示例比其他模型更加遵循提示,而其他模型的这一比例仅为 8-11%。
此外,41%-54% 的评估者认为 VideoPoet 中的示例动作更有趣,而其他模型只有 11%-21%。
对于未来的研究方向,谷歌研究人员表示,VideoPoet 框架将会实现「any-to-any」的生成,比如扩展文本到音频、音频到视频,以及视频字幕等等。
网友不禁发问,Runway 和 Pika 能否抵挡住谷歌和 OpenAI 即将推出的文本到视频创新技术?
参考资料:
https://sites.research.google/videopoet/
https://blog.research.google/2023/12/videopoet-large-language-model-for-zero.html
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。