就说 Sora 有多火吧。生成的视频上线一个、疯传一个。
作者小哥新上传的效果,很快引来围观。
失败案例都让人看得上瘾。
将近 1 万人点赞。
学术圈更炸开锅了,各路大佬纷纷开麦。
纽约大学助理教授谢赛宁(ResNeXt 的一作)直言,Sora 将改写整个视频生成领域。
英伟达高级研究科学家 Jim Fan 高呼,这就是视频生成的 GPT-3 时刻啊!尤其在技术报告发布后,讨论变得更加有趣。因为其中诸多细节不是十分明确,所以大佬们也只能猜测。
包括“Sora 是一个数据驱动的物理引擎”、“Sora 建立在 DiT 模型之上、参数可能仅 30 亿”等等。所以,Sora 为啥能如此惊艳?它对视频生成领域的意义是?这不,很快就有了一些可能的答案。
视频生成的 GPT-3 时刻
总的来说,Sora 是一个在不同时长、分辨率和宽高比的视频及图像上训练而成的扩散模型,同时采用了 Transformer 架构,也就是一种“扩散型 Transformer”。
关于技术细节,官方报告简单提了以下 6 点:
一是视觉数据的“创新转化”。
与大语言模型中的 token 不同,Sora 采用的是“Patches(补片)”来统一不同的视觉数据表现形式。
如下图所示,在具体操作中,模型先将视频压缩到低维潜空间中,然后将它们表示分解为时空补片,从而将视频转换为补片。(啊这,说了又仿佛什么都没说)
二是训练了一个视频压缩网络。
它可以降低视觉数据维度,输入视频,输出时空上压缩的潜表示。Sora 就在这上面完成训练。相应地,OpenAI 也训练了一个专门的解码器。
三是时空补片技术(Spacetime latent patches)。
给定一个压缩的输入视频,模型提取一系列时空补片,充当 Transformer 的 token。正是这个基于补片的表示让 Sora 能够对不同分辨率、持续时间和长宽比的视频和图像进行训练。
在推理时,模型则通过在适当大小的网格中排列随机初始化的补片来控制生成视频的大小。
四是扩展 Transformer 也适用于视频生成的发现。
OpenAI 在这项研究中发现,扩散型 Transformer 同样能在视频模型领域中完成高效扩展。下图展示出随着训练资源的增加,样本质量明显提升(固定种子和输入条件)。
五是视频多样化上的一些揭秘。
和其他模型相比,Sora 能够 hold 住各种尺寸的视频,包括不同分辨率、时长、宽高比等等。
也在构图和布局上优化了更多,如下图所示,很多业内同类型模型都会盲目裁剪输出视频为正方形,造成主题元素只能部分展示,但 Sora 可以捕捉完整的场景:
报告指出,这都要归功于 OpenAI 直接在视频数据的原始尺寸上进行了训练。
最后,是语言理解方面上的功夫。在此,OpenAI 采用了 DALL・E 3 中引入的一种重新标注技术,将其应用于视频。
除了使用描述性强的视频说明进行训练,OpenAI 也用 GPT 来将用户简短的提示转换为更长的详细说明,然后发送给 Sora。这一系列使得 Sora 的文字理解能力也相当给力。
关于技术的介绍报告只提了这么多,剩下的大篇幅都是围绕 Sora 的一系列效果展示,包括文转视频、视频转视频,以及图片生成。
可以看到,诸如其中的“patch”到底是怎么设计的等核心问题,文中并没有详细讲解。有网友吐槽,OpenAI 果然还是这么地“Close”(狗头)。正是如此,各路大佬和网友们的猜测也是五花八门。
谢赛宁分析:
1、Sora 应该是建立在 DiT 这个扩散 Transformer 之上的。
简而言之,DiT 是一个带有 Transformer 主干的扩散模型,它 = [VAE 编码器 + ViT + DDPM + VAE 解码器]。
谢赛宁猜测,在这上面,Sora 应该没有整太多花哨的额外东西。
2、关于视频压缩网络,Sora 可能采用的就是 VAE 架构,区别就是经过原始视频数据训练。
而由于 VAE 是一个 ConvNet,所以 DiT 从技术上来说是一个混合模型。
3、Sora 可能有大约 30 亿个参数。
谢赛宁认为这个推测不算不合理,因 Sora 可能还真并不需要人们想象中的那么多 GPU 来训练,如果真是如此,Sora 的后期迭代也将会非常快。
英伟达 AI 科学家 Jim Fan 则认为:
Sora 应该是一个数据驱动的物理引擎。
Sora 是对现实或幻想世界的模拟,它通过一些去噪、梯度下降去学习复杂渲染、“直觉”物理、长镜头推理和语义基础等。
比如这个效果中,提示词是两艘海盗船在一杯咖啡里航行厮杀的逼真特写视频。
Jim Fan 分析,Sora 首先要提供两个 3D 资产:不同装饰的海盗船;必须在潜在空间中解决 text-to-3D 的隐式问题;并且要两艘船避开彼此的路线,兼顾咖啡液体的流体力学、保持真实感、带来仿佛光追般的效果。
有一些观点认为,Sora 只是在 2D 层面上控制像素。Jim Fan 明确反对这种说法。他觉得这就像说 GPT-4 不懂编码,只是对字符串进行采样。
不过他也表示,Sora 还无法取代游戏引擎开发者,因为它对于物理的理解还远远不够,仍然存在非常严重的“幻觉”。
所以他提出 Sora 是视频生成的 GPT-3 时刻。
回到 2020 年,GPT-3 不是一个很完美的模型,但是它有力证明了上下文学习的重要性。所以不要纠结于 GPT-3 的缺陷,多想想后面的 GPT-4。
除此之外,还有胆大的网友甚至怀疑 Sora 用上了虚幻引擎 5 来创建部分训练数据。
他甚至挨个举例分析了好几个视频中的效果以此佐证猜想:
不过反驳他的人也不少,理由包括“人走路的镜头明显还是奇怪,不可能是引擎的效果”、“YouTube 上有数十亿小时的各种视频,ue5 的用处不大吧”……
如此种种,暂且不论。
最后,有网友表示,尽管不对 OpenAI 放出更多细节抱有期待,但还是很想知道 Sora 在视频编码、解码,时间插值的额外模块等方面是不是有创新。
OpenAI 估值达 800 亿美元
在 Sora 引发全球关注的同时,OpenAI 的估值也再次拉高,成为全球第三高估值的科技初创公司。
随着最新一要约收购完成,OpenAI 的估值正式达到 800 亿美元,仅次于字节跳动和 SpaceX。
这笔交易由风投公司 Thrive Capital 牵头,外部投资者可以从一些员工手中购买股份,去年年初时 OpenAI 就完成过类似交易,使其当时的估值达到 290 亿美元。
而在 Sora 发布后,GPT-4 Turbo 也大幅降低速率限制,提高 TPM(每分钟最大 token 数量),较上一次实现 2 倍提升。总裁 Brockman 还亲自带货宣传。
但与此同时,OpenAI 申请注册“GPT”商标失败了。理由是“GPT”太通用。
One More Thing
值得一提的是,有眼尖的网友发现,昨天 Stability AI 也发布了 SVD 1.1。
但似乎在 Sora 发布不久后火速删博。
有人锐评,这不是翻版汪峰么?不应该删,应该返蹭个热度。
这还玩个 p 啊。
还有人感慨,Sora 一来,立马就明白张楠为啥要聚焦剪映了。
以及卖课大军也闻风而动,把商机拿捏死死的。
参考链接:
[1]https://openai.com/research/video-generation-models-as-world-simulators
[2]https://twitter.com/DrJimFan/status/1758210245799920123
[3]https://x.com/sainingxie/status/1758433676105310543?s=20
[4]https://twitter.com/charliebholtz/status/1758200919181967679
[5]https://www.reuters.com/technology/openai-valued-80-billion-after-deal-nyt-reports-2024-02-16/
本文来自微信公众号:量子位 (ID:QbitAI),作者:明敏 丰色
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。