视频版 Midjourney 免费开放,一句话拍大片!网友:上一次这么激动还是上次了

Wallstreetcn
2023.06.12 05:18
portai
I'm PortAI, I can summarize articles.

Runway 推出 AI 视频编辑工具 Gen2,用户只需输入一句话,就能生成高清视频,目前已开放免费试用。

家人们,现在做个影视级视频,也就是一句话的事了!

例如只需简单输入 “丛林(Jungle)”,大片镜头便可立刻呈现:

而且围绕着 “丛林” 变换几个搭配的词语,比如 “河流”、“瀑布”、“黄昏”、“白天” 等,这个 AI 也能秒懂你的意思。

还有下面这些自然美景、宇宙奇观、微观细胞等高清视频,统统只需一句话。

这就是 Stable Diffusion 和《瞬息全宇宙》背后技术公司 Runway,出品的 AI 视频编辑工具 Gen2。

而且就在最近,一个好消息突然袭来——Gen2 可以免费试用了!

这可把网友们开心坏了,纷纷开始尝鲜了起来。

体验 Gen2 实录

例如我们给 Gen2 投喂了一句中文:

一个航拍视角的视频片段便立即被做了出来。

如果想让视频的风格变换一下,也可以上传一张图片,例如我们用的是一张赛博朋克风格的城市照片。

那么 Gen2 就会把你输出的提示词和照片风格做一个 “合体”:

目前 Runway 官网可免费体验 Gen2 的功能是文生视频(Text to Video),但 Gen1 也开放了视频生视频(Video to Video)的功能。

例如一个国外小哥可能受《瞬息全宇宙》的启发,凭借 Gen1 也玩了一把更刺激的穿越。

他先是在家录了一段打响指的视频,然后 “啪的一下”,瞬间让自己步入欧洲皇室贵族的 “片场”:

然后……就连物种、性别,都可以随随便便地切换:

最后,再经历几次不同时空、人种的穿越之后,小哥一个响指又回到了自己的家里:

在看完 Gen2 生成的这波 “大秀” 之后,网友们不淡定了,直呼:

娱乐圈要被生成式 AI 重新定义了。

网页端和移动端(仅限 iOS 系统)现在均可正式开始体验。

以网页端为例,进入 Runway 官方主页(文末链接 [1]),点击上方 “TRY NOW” 并注册账号,就可以进入下面的界面:

点击右方的 “Introducing Gen2”,我们就可以正式开玩了。

首先,输入提示词,最多 320 个字符,然后在左边的设置菜单里进行一些基础配置(包括种子参数、插值等),点击 “Generate”。

(当然,你也可以为视频提供一张参考图像,点击右边的图像图标即可。)

不到 1 分钟的功夫,视频就出来了。

点击下方播放按钮即可查看效果,视频可以直接保存到本地,也可以只保存在你的账户中。

当然,如果你不满意,还能在下方的提示词框中继续修改。

需要注意的是,免费试用的额度为 105 秒(右上角显示剩余额度),每个视频为 4 秒,也就是大约可免费生成 26 个 Gen2 视频。

额度用完或者你想体验去水印、提升分辨率等额外功能,就需要买会员,标准版为 15 美元一个月,Pro 版 35 美元,年付更便宜一些。

如果你想要生成效果更好,可以多使用“in the style of xxx”的形式,比如:

A palm tree on a tropical beachin the style of professional cinematography, shallow depth of field, feature film.(如下图)A palm tree on a tropical beachin the style of 2D animation, cartoon, hand drawn animation.

或者直接去它的灵感库,选择一个你喜欢的视频然后点击 “try it” 即可查看它的提示词是怎么写的,然后在上面进行编辑或模仿就好了:

还有网友表示,使用“cinematic shot of”开头,也能让你的视频更具动感(解决了很多人试出来的视频不怎么动的问题)。

什么来头?

Gen2 于今年 3 月 20 日正式发布,经历了两个多月的内测,现在终于正式上线。

它的前代 Gen1 只比它早了一个多月(2 月发布),所以说迭代速度相当快。

作为一个基于扩散的生成模型,Gen1 通过在预训练图像模型中引入时间层,并在图像和视频数据上进行联合训练,完成了潜扩散模型到视频生成领域的扩展。

其中也包括使用一种全新的引导方法完成了对生成结果时间一致性的精确控制。

在训练阶段,先用固定编码器将输入视频 x 编码为 z0,并扩散为 zt

然后对 MiDaS 获得的深度图进行编码,提取出结构表示 s;再用 CLIP 对其中一个帧进行编码来获取内容表示 c。

接着,在 s 的帮助下,模型学习反转潜空间中的扩散过程(其中 s 与 c 以及通过交叉注意块生成的 c 相连)。

在推理阶段,模型以相同的方式提供输入视频的结构 s。

为了通过文本生成内容,作者还通过一个 prior 将 CLIP 文本嵌入转换为图像嵌入。

最终,Gen1 可以生成细粒度可控的视频,也能对一些参考图像进行定制。

不过,一开始对公众发布的 Gen1 只能对已有视频进行编辑,Gen2 才直接完成了文生视频的 “蜕变”。

并且一口气带来了另外 7 大功能,包括文本 + 参考图像生视频、静态图片转视频、视频风格迁移等等。

这样的 Gen2,也在内测阶段就被网友称赞“视频界的 Midjourney”

而根据官方的调研数据,Gen2 确实更受用户欢迎:用户得分比 Stable Diffusion 1.5 要高 73.53%,比 Text2Live 则高上了 88.24%。

如今正式上线以后,果然迅速迎来一大波体验群众,有人表示:

上一次体会到这么激动的感觉,还是用 AI 生成图像的时候。

那么,不知道这波,参与开发了 SD 的 Runway,能否再带着 Gen2 创造生成式 AI 领域的下一大热趋势——

如果答案是肯定的,还需要多久、还要解决哪些问题?

就且拭目以待。

参考链接:[1] https://runwayml.com/[2]] https://research.runwayml.com/gen2[3] https://twitter.com/SteveMills/status/1666799229996785666[4] https://twitter.com/runwayml/status/1666429706932043776[5] https://www.youtube.com/watch?v=dq8GZeDEqH8

本文来源:量子位,原文标题:《视频版 Midjourney 免费开放,一句话拍大片!网友:上一次这么激动还是上次了》

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。