时隔多月,Runway终于出手了。新版Gen-3 Alpha,直接向Sora发起挑战。
跟前代Gen-2相比,Gen-3 Alpha在细节、一致性和运动表现方面,又有了史诗级改进!
现在,网友们激动地转发Gen-3 Alpha的各种演示,前几天的风头大盛的Luma,光芒都被盖过去了。
「Luma开始雪崩,Gen-3 Alpha将在未来几天内到来!Runway在保真度、一致性、动作和真实感人体方面取得了进步,模型擅长生成具有各种动作、手势和情感的富有表现力的人类角色」
如今的AI视频社区,似乎又要迎来新王了。
Runway认为,Gen-3 Alpha的诞生,意味着我们离通用世界模型和新一代AI视频又近了一步。
Gen-3 Alpha:新基础设施系列的首个模型
Gen-3 Alpha接受了视频和图像混合训练。
与2023年 11月推出的前身一样,也支持文本到视频、图像到视频和文本到图像功能控制模式,如运动画笔、高级相机控制和导演模式。
而在未来,Runway计划提供更多工具,让用户实现对结构、样式和运动更好的控制。
根据Runway的说法,Gen-3 Alpha是基于大型多模态模型全新训练基础设施训出的第一个模型。
不过,Runway并未透露研究者做了哪些具体改变。
这次上新也没有技术论文发布,博客文章中只显示了多个最长10秒的视频示例。
网友盛赞:令人印象深刻,光线、颜色、皮肤纹理、清晰度,一切都令人惊叹。
这就是即将撼动娱乐圈的AI!
Hugging Face创始人表示,泰裤辣,谁将会成为从开源视频模型收获百倍关注的幸运儿?
Pytorch之父高度赞扬道,这简直就是Sora级别的模型。
人物更加真实,表现力更加细腻
从下面这些示例看出,新模型不仅对于不同动作、手势、情感的人类角色把握得更为细腻,在场景中元素和过渡的时间控制上,也有了更大的进步。
人物生成上,肖像的面部细节更真实,而且在生成10秒长的时间里,完全能够风格保持一致性。
坐在车中的女子,在经过霓虹灯的街道上,脸上的光影变化毫无违和感。
仰头大笑的男子,戴上了假发和眼镜。根本无法辨认出,这是AI生成的。
穿着宇航服的男子穿梭在石头建筑之间,好像在讲述着这座古城的历史。
一位老人在仓库中的特写镜头。
再来看日漫人物生成,也是非常地完美。
更懂物理世界
此外,Gen-3 Alpha经过描述详尽、时间连续的训练数据,以此生成了富有想象力,以及画面过度的效果。
而且,它还能精准对场景中的元素进行关键帧动画制作。
Gen-3 Alpha对物理世界理解,也更近一步,洪水涌入山庄,水流状态与真实世界别无二致。
走廊中,闪光灯打在飞舞的银色布料上。
不过这次,蚂蚁的腿还是没有对上。
一会儿多几条,一会儿少几条,堪称薛定谔的蚂蚁腿
Gen-3 Alpha在由远拉近的镜头生成中,能够细致地呈现出想要的场景。
这个热气球同样如此,与拍视频中运镜的效果是一样的。
超梦幻的海底世界,一切仿佛置于梦境之中。
更值得一提的是,Gen-3 Alpha在视频中生成字体变得更真实了。一面白墙上用黑色涂鸦,写着Runway。
博物馆中一幅画的宽幅对称照片,镜头拉近到画作附近。
窗外看到一个巨大的奇怪生物在夜晚的破败城市中行走,一盏路灯照亮了这个昏暗的地方。
一缕缕活生生的火焰,在熙熙攘攘的幻想集市中飞驰的特写镜头。
此外,官方放出的炸裂演示还有:
还有一些网友,应该拿到了内测资格,开启一大波试用。
为何Gen-3 Alpha此次升级,在画质美学上再次有了史诗级升级?
原因在于,在这次模型的训练中,凝聚了研究者、工程师和艺术家的共同努力。正是这种跨学科的团队合作,让Gen-3 Alpha可以诠释各种风格和电影概念。
追赶Sora
而且,除了标准版本外,Runway也正在和娱乐、媒体公司展开合作,开发Gen-3的定制版本。
这些定制模型,会为用户提供更好的风格控制、更一致的人物,还能满足用户的特定要求。
另外,Runway还宣布了新的安全功能,例如改进的审核系统和对C2PA标准的支持(所有主要商业图像模型都使用该标准)。
说起来,OpenAI的Sora已经鸽了很久了。
24年2月,横空出世的Sora,在一致性和图像质量方面标志着全新的里程碑,直接刷新了全世界对AI视频的认识。
不过,到现在Sora仍然不是公开可用的,距离商业化的道路依旧很遥远。
而全世界的Sora平替,也如雨后春笋一般冒出。
多年以来,RunwayML一直是AI视频领域的先驱,凭借这次Gen-3 Alpha的发布,它似乎再次证明了自己的地位。
而且还有一个重磅消息:再过几天,Gen-3 Alpha就会向付费订阅者开放了。