首次突破多主体互动难关 豆包视频生成大模型发布

2024-09-24 19:26:23 来源: 科技日报 点击数:

科技日报记者 杨雪

9月24日,字节跳动旗下火山引擎在深圳举办AI创新巡展,发布了豆包视频生成-PixelDance、豆包视频生成-Seaweed两款大模型。此前视频生成模型大多只能完成简单指令,豆包视频生成模型则能实现自然连贯的多拍动作与多主体复杂交互,例如让不同人物完成多个动作指令的互动,人物样貌、服装细节甚至头饰在不同运镜下也保持一致,接近实拍效果。

据火山引擎介绍,豆包视频生成模型基于DiT架构,通过高效的DiT融合计算单元,让视频在大动态与运镜中自由切换,拥有变焦、环绕、平摇、缩放、目标跟随等多镜头语言能力。全新设计的扩散模型训练方法攻克了多镜头切换的一致性难题,在镜头切换时可同时保持主体、风格、氛围的一致性,这也是豆包视频生成模型独树一帜的创新点。

经过剪映、即梦AI等业务场景打磨和持续迭代,豆包视频生成模型具备专业级光影布局和色彩调和,画面视觉极具美感和真实感。深度优化的Transformer结构,则大幅提升了豆包视频生成的泛化能力,支持3D动画、2D动画、国画、黑白、厚涂等多种风格。

此次活动中,豆包大模型还发布了豆包音乐模型和同声传译模型,全面覆盖语言、语音、图像、视频等全模态,全方位满足不同行业和领域的业务场景需求。产品能力提升的同时,豆包大模型的使用量也在极速增长。据火山引擎披露,截至9月,豆包语言模型的日均tokens(模型理解和处理的基本单位)使用量超过1.3万亿,相比5月首次发布时增长十倍,多模态数据处理量也分别达到每天5000万张图片和85万小时语音。

此前,豆包大模型公布低于行业99%的定价,开启国内大模型降价潮。火山引擎总裁谭待认为,大模型价格已不再是阻碍创新的门槛,随着企业大规模应用,大模型支持更大的并发流量正在成为行业发展的关键因素。业内多家大模型目前最高仅支持300K甚至100K的TPM(每分钟token数),难以承载企业生产环境流量。为此,豆包大模型默认支持800K的初始TPM,客户还可根据需求灵活扩容。

“视频生成有很多难关亟待突破。豆包两款模型会持续演进,在解决关键问题上探索更多可能性,加速拓展AI视频的创作空间和应用落地。”谭待说。

责任编辑:李梦一

抱歉,您使用的浏览器版本过低或开启了浏览器兼容模式,这会影响您正常浏览本网页

您可以进行以下操作:

1.将浏览器切换回极速模式

2.点击下面图标升级或更换您的浏览器

3.暂不升级,继续浏览

继续浏览