扬帆出海APP
微信小程序
{{!completeInfo?'请完善个人信息':''}}
尽管有关于Scaling Law可能撞墙的讨论,但研究表明,在图像生成领域,随着模型大小的增加,训练损失降低,生成性能提高,模型捕捉全局信息的能力增强,表明Scaling Law依然有效。
摘要
云天励飞的研究团队通过实验发现,自回归模型在图像生成任务上表现出了强大的Scaling Law,并对自回归方法在视觉领域的应用持乐观态度。
BiGR模型是首个将生成和判别任务统一在同一框架内的条件生成模型,它不仅提高了图像生成的质量,同时也增强了模型的特征提取能力。
自回归模型在指令遵循能力上较强,而Diffusion模型在生成质量上可能更胜一筹。两者各有优势,未来可能并存。
云天励飞强调“边缘AI”战略,同时在软硬件两个方向上发展,拥有自有芯片和大模型技术沉淀,持续探索Scaling Law,并在AI行业寻求更大的发展。
「Scaling Law 撞墙了?」这恐怕是 AI 社区最近讨论热度最高的话题。
该话题始于 The Information 的一篇文章。这篇文章透露,OpenAI 下一代旗舰模型的质量提升幅度不及前两款旗舰模型之间的质量提升,因为高质量文本和其他数据的供应量正在减少,原本的 Scaling Law(用更多的数据训练更大的模型)可能无以为继。
文章发布后,很多人反驳了这一观点,认为 Scaling Law 还没到撞墙的地步,毕竟很多训练大模型的团队依然能够看到模型能力的持续提升。而且,我们现在所说的 Scaling Law 更多是指训练阶段,而推理阶段的 Scaling Law 还未被充分挖掘,借助测试时间计算等方法,大模型的能力还能更上一层楼。
原文链接:点击前往 >
文章作者: 机器之心
版权申明:文章来源于 机器之心。该文观点仅代表作者本人,扬帆出海平台仅提供信息存储空间服务,不代表扬帆出海官方立场。因本文所引起的纠纷和损失扬帆出海均不承担侵权行为的连带责任,如若转载请联系原文作者。 更多资讯关注扬帆出海官网:https://www.yfchuhai.com/
{{likeNum}}
好文章,需要你的鼓励