扬帆创投微信小程序
更聚焦的出海投融资平台
精准高效领先的融资对接服务
微信扫一扫进入小程序

OpenAI又一位关键大牛离职。Sora负责人刚刚官宣,离职OpenAI加盟谷歌DeepMind,恰好是在今天canvas发布之际。

摘要
由于CTO和负责人相继离职,Sora项目的未来变得不确定。尽管Sora已经发布,但目前仅对一小部分测试人员和艺术家开放,且没有明确的上线时间表。
Tim Brooks在伯克利AI研究中心获得博士学位,曾参与开发谷歌Pixel手机相机的AI技术,也是DALL·E 3的主要研究员。他的摄影作品获得了多个奖项,并且在艺术和科技领域有丰富的经验。
Sora模型旨在通过模拟现实世界的大型生成模型来推动通用人工智能(AGI)的发展,特别是在理解人类互动和身体接触方面。
Tim Brooks和Bill Peebles强调了模型的扩展性对于语言模型成功的重要性,并展示了通过增加计算量来提升模型性能的方法。他们致力于保持方法的简单性,并在此基础上进行大规模扩展。
OpenAI每次宣布大事之际,总有人要走。
这不,canvas刚发布,Sora项目却再传出坏消息——负责人Tim Brooks在推特官宣离职,加入谷歌DeepMind。
图片

我将加入谷歌DeepMind致力于视频生成和世界模拟器!迫不及待地想与这样一个才华横溢的团队合作。

我在OpenAI创建Sora的两年里度过了一段美妙的时光。感谢所有与我一起工作的充满热情和善良的人。对下一个阶段感到兴奋!

按下葫芦起来瓢,看来发布日官宣离职可以成为OpenAI的传统了。

谷歌大佬纷纷在评论区弹冠相庆,包括DeepMind和谷歌研究院首席科学家Jeff Dean,以及谷歌AI Studio的产品负责人Logan Kilpatrick。

图片

DeepMind推理团队的创始人和领导人Denny Zhou——

图片

GPT-4o全量发布前就已辞职的「Her」项目负责人Alexis Conneau虽然没有加入谷歌,但也开始在线玩梗——欢迎成为OpenAI前员工的一员。

图片

看来,谷歌自家的视频生成模型Veo有望超越Sora了。

图片

目前,Sora的另一位共同负责人Bill Peebles仍在OpenAI任职。

图片

虽然今年2月就已经发布,但Sora仍然是一个「期货模型」,只对一小部分红队测试人员和艺术家开放。

究竟什么时候上线,OpenAI也没给出过明确期限,不像「Her」项目好歹有个「今年秋天」的flag。

陷入研究泥潭,又遭遇CTO和负责人相继出走,Sora的未来再一次前途未卜。

个人经历

 

图片

Tim Brooks在OpenAI共同领导了Sora项目,他的研究重点是开发能模拟现实世界的大型生成模型。

这位小哥在伯克利AI研究中心获得博士学位,博士导师是Alyosha Efros。读博期间,他提出了名为InstructPix2Pix的技术。

图片

在加入OpenAI之前,他曾在谷歌参与开发Pixel手机相机的AI技术,还在英伟达研究过视频生成模型。

图片

同时,他还是DALL·E 3的主要研究员。

图片

而他的另一部分履历,就实在令人大呼精彩了——摄影作品获得了「国家地理」、「Nature's Best Photography」和「National Wildlife Federation」的大奖。

图片

他拍摄的动物照片:

图片

他还曾经在纽约百老汇的Beacon Theatre表演,还在国际无伴奏口技比赛中获奖。

网友们纷纷表示,羡慕他拥有这种自由。

图片

而且,Tim Brooks还在简历中颇为「凡尔赛」地表示:「我对AI充满热情,幸运的是,这种热情与我对摄影、电影和音乐的爱好完美融合。」

加入DeepMind后,小哥表示,依旧会从事视频生成和世界模拟器相关的工作,继续融合自己对AI的热情和对摄影、电影的爱好。

从视频生成,到模拟世界

 

今年4月,Sora模型刚刚发布两个月时,共同负责人Tim Brooks和Bill Peebles参与了由AGI House组织的一场主题演讲,表达了自己对视频生成技术的看法——「将通过模拟一切来实现AGI」。

图片

文生视频模型,如Sora所展示的复杂场景生成能力,逐渐显现出对人类互动和身体接触的详细理解,这是AGI的重要一步。

要生成内容真实、画面逼真的视频,就需要一个内部模型理解所有物体和人类在环境中如何运动、交互,因此,他们认为Sora将为通用人工智能的发展做出贡献。

在方法论方面,Tim Brooks和Bill Peebles都特别强调了模型的扩展性,他们认为语言模型之所以如此成功,是源于具有扩展能力,并引用了《The Bitter Lesson》中的观点:

长远来看,那些随着规模增长而性能提升的方法,随着计算能力的增加将最终胜出。

通过创建基于Transformer的框架,并对不同的Sora模型进行比较,他们展示了模型训练中计算量增加对性能提升的影响。

从基础模型到增加了32倍计算量的模型,可以看到对场景和物体的理解逐步提升。

我们一直致力于保持方法的简单性,尽管有时候实际情况比说起来更具挑战性。

我们的主要关注点是做出尽可能简单的事情,然后在此基础上进行大规模的扩展。

原文链接:点击前往 >

文章作者: 新智元

版权申明:文章来源于 新智元。该文观点仅代表作者本人,扬帆出海平台仅提供信息存储空间服务,不代表扬帆出海官方立场。因本文所引起的纠纷和损失扬帆出海均不承担侵权行为的连带责任,如若转载请联系原文作者。 更多资讯关注扬帆出海官网:https://www.yfchuhai.com/

{{likeNum}}

好文章,需要你的鼓励

请前往扬帆出海小程序完成个人认证
认证通过后即可申请入驻
扫码添加小助手
微信扫描二维码,添加小助手
微信号:yfch24
扫码添加小助手
微信扫描二维码,添加小助手
微信号:yfch24
APP
小程序
微信公众号
微信小程序
扬帆出海APP
扬帆出海APP
微信
公众号
微信公众号
关注扬帆出海
专注服务互联网出海!
出海人
社群
微信公众号
扫码进群
与10万+出海人同行!