{{!completeInfo?'请完善个人信息':''}}
OpenAI发布了备受期待的视频生成模型Sora Turbo,这是之前Sora预览版的高端加强版,具有显著提升的速度和“世界模拟”能力。
摘要
Sora Turbo不仅支持从文本和图片生成视频,还新增了风格重混、时间延展、故事版等多种高级功能,增强了视频创作的灵活性和创意空间。
Sora Turbo提供了完善的产品体验和制作流程,包括全新的用户界面设计,以及社区共享灵感空间和个人作品管理功能。
Sora Turbo具备五大新功能,包括Remix(重混)、Storyboard(故事板)、Re-cut(重新剪辑)、Loop(循环)和Blend(混合),这些功能解锁了视频创意的新玩法。
Sora Turbo在全球大部分地区上线,但暂不支持欧洲、英国及部分受限国家。Plus和Pro用户可以抢先体验,且Sora Turbo被定位为辅助创作者提供新型创意方式的工具,而非自动生成完整电影的解决方案。
OpenAI发布会直播第3天,继第1天完全版o1和200美元月费ChatGPT Pro会员,以及第2天的强化微调工具后,OpenAI终于填上9个月前的期货大坑,正式发布了观众敲碗已久的全新视频生成模型——Sora Turbo。
Sora Turbo被描述为今年2月Sora预览版的高端加强版,速度显著提升,继承了早期技术报告中提到的“世界模拟”能力。不仅支持从文本和图片生成视频,还新增了风格重混、时间延展、故事版等多种高级功能。
从放出的demo和不少用户体验的效果来看,它的模型能力并没有比其他同类产品有明显增强,但这一次OpenAI带来的惊艳在于它给Sora设计的一整个完善的产品体验,和它所提供的制作流程。
看来,模型遇到瓶颈的OpenAI,在发力自己的产品能力后,还是有效果了。
独立产品,全新界面
目前Sora Turbo作为独立产品在Sora.com上线,首批开放给 Plus 和 Pro 用户。
直播中,团队先是介绍了全新设计的用户界面,长这样:
左侧栏「Explore」是社区共享的灵感空间,用于展示其他用户生成的精彩视频。用户可以点击查看视频详情,每个视频底部会显示制作方法,支持基于他人创作进行再创作,学习分享技巧。
「Library」则相当于个人主页,供查看所有生成的作品。页面提供多种视图模式,支持创建文件夹、收藏内容,并可从动态页面标记书签,方便管理作品。
界面底部设有编辑器,你可以在此输入文字描述或上传图片素材来创建视频。
Sora支持生成 480p 至 1080p 分辨率的视频,时长范围 5 至 20 秒,提供横屏、竖屏和方形三种宽高比。系统还能够同时生成多个版本,方便比对不同的生成效果。
另外值得一提的是“Presets(预设风格)”选项。当找到一个特别中意的审美风格时,可以将其保存为预设,以便应用到未来作品中。除自定义预设外,系统还内置了一些有趣的默认风格,如"定格动画"、"气球世界"等,为创作增添更多可能性。
五大功能,解锁视频创意玩法
本次发布会直播的核心亮点就是Sora Turbo具备的一系列新功能,包括:
Remix(重混)
使用自然语言描述想要进行的改动,可对视频元素进行替换、移除或重构。
例如演示中,在“沙漠中行走的长毛猛犸象,广角镜头视角”场景下,选择 Remix 功能,输入“将长毛猛犸象替换为机器人”的指令。
Sora 会自动完成渲染过程。还可以调整生成强度,选择“强力 Remix”进行大幅改动(如替换角色),或选择“轻微 Remix”进行小调整(如添加风或沙尘)。
Storyboard(故事板)
一个全新工具,让创作者在个性化时间轴上组织和编辑独特的动作序列。
点击编辑器右侧“ Storyboard ”进入后,屏幕上方是用于描述场景、角色和具体动作的"故事板卡片",中间是展示视频剪辑轮廓的时间轴,底部则是各项创建设置。
以创作一段白鹤捕鱼的视频为例:
首先在故事板卡片中设置初始场景“一只美丽的白鹤站在小溪中,尾巴是黄色的", Sora 会根据描述自动补充细节。随后在时间轴中添加另一张卡片,描述新动作:“白鹤低下头进入水中并叼起一条鱼”。Sora会在两张卡片之间的空白区域,生成流畅的过渡画面。
Re-cut(重新剪辑)
可对视频片段进行精准裁剪并扩展。
这个比较好理解:有时你可能只喜欢生成视频中的某一个画面,这时选出自己需要的镜头,点击Re-cut后进行时间轴的摆放,Sora就可以延展镜头前后空白时间,补全场景。
Loop(循环)
在时间轴上截取镜头,制作2秒到6秒的无缝循环视频片段。
Blend(混合)
将两个视频无缝结合为一个短片。
不知是不是怕又翻车,直播里只说把机器人和猛犸象结合,却并没有演示。没关系,咱们亲自试试。
我选取了社区共享的一段熊猫跳舞视频,和自己上传的一段烟花视频进行blend。
在两段视频中间可以看到一条曲线,用于表示每段视频在不同时间点的影响强度。曲线越高,上方视频的影响越大;曲线越低,则下方视频的影响更强。通过调整左右滑块,可以裁剪或扩大每段视频在最终混合中的占比。
混合操作大约用了几十秒,最终生成的结果如下:
不过我更期待看到“熊猫在烟花下跳舞”的场景。
Sora 提供了四种混合方式:transition(过渡)、mix(融合)、sample(点缀) 和 custom(自定义)。正当我兴致勃勃想尝试 mix后的 效果时,系统却提示“capacity已达上限,请稍后再试”—— 有点可惜,大家自行想象吧!
视频编辑过程中,随时都可以对提示词、比例和分辨率等进行修改。完成后可以选择将作品发布到社区,或保存到本地。
如果只想自用,也不希望被OpenAI拿去训练模型,到设置里关闭“Publish to explore”和“improve the model for everyone”就可以了。
Plus 和 Pro 用户抢先体验,暂不支持欧洲
可用性方面,Sora Turbo 已在全球大部分地区上线,但暂不支持欧洲、英国及部分受限国家。
对于 Plus 和 Pro 用户,Sora 已包含在订阅中,无需额外费用。具体用量如下:
• Plus 用户:每月最多生成 50 个 480p 视频,或更少数量的 720p 视频。
• Pro 用户:每月支持 500 次高速生成,以及无限次慢速生成。
• 所有用户:可免费浏览动态页面。
结语
早在周日晚上,Sam Altman 就在 X 平台上发布了一条意味深长的"藏头诗",被网友解读为 Sora 即将登场的暗示。
在直播中,Sam Altman 强调了视频技术对 OpenAI 的三个重要意义:
首先是为创意人士提供 AI 工具,创造全新的人机协作方式。其次是突破局限,让 AI 从文本交互扩展到视频领域,重新定义人机交互。第三是推进 AGI 发展,视频将成为 AI 学习现实世界任务的重要训练环境,对实现通用人工智能至关重要。
关于产品定位,Sora团队明确表示,这并非一个自动生成完整电影的解决方案,而是一个为创作者提供新型创意方式的辅助工具。目前发布的 Sora版本仍存在许多限制。比如视频物理效果有时不够真实,且在长时间复杂动作场景中表现不佳。
Sam Altman 将其比作"视频领域的 GPT-1"——虽处于早期阶段,但已展现出强大潜力,未来还将在性能、速度和成本方面持续优化。
值得一提的是,Sora是由顶尖的研究团队与小型高效的产品工程团队密切合作,仅用数月时间就完成了从模型开发到产品的落地,奥特曼也数次骄傲点赞OpenAI快速推进的能力(认真的吗,好吧)。
不论如何,今天Sora的上线算是OpenAI久违带来的真东西。社区热情肉眼可见,很快就把服务器挤爆了。
不过,今天的主角不是只有OpenAI。Google 同样带来了一项重磅发布——全新一代量子计算芯片 Willow。这款芯片通过突破性的技术大幅减少误差,攻克了困扰行业 30 年的难题。
Google CEO Sundar Pichai 表示,在测试中,Willow 在不到 5 分钟内完成了一项传统超级计算机需要超过 317 亿年才能完成的计算任务,展现出颠覆性计算能力,堪称壮举。Elon Musk和Sam Altman都前排献上祝贺。
最后,我们再来欣赏几个用Sora Turbo生成和编辑的视频片段,感受一下细节刻画和镜头语言:
故事板:日本冬季街头
故事板:六名工人,身穿暗色破旧衣服,携带工具和背包,缓慢地行走在一个荒凉、雾气弥漫的海滩上。
Remix重混:给水母加上滑稽的眼睛。
原文链接:点击前往 >
文章作者:硅星人Pro
版权申明:文章来源于硅星人Pro。该文观点仅代表作者本人,扬帆出海平台仅提供信息存储空间服务,不代表扬帆出海官方立场。因本文所引起的纠纷和损失扬帆出海均不承担侵权行为的连带责任,如若转载请联系原文作者。 更多资讯关注扬帆出海官网:https://www.yfchuhai.com/
{{likeNum}}
好文章,需要你的鼓励