科技日报记者 杨雪
近日,火山引擎发布豆包大模型的系列更新,包括豆包大模型1.6原生支持多种思考长度,并推出豆包大模型1.6lite、豆包语音合成模型2.0、豆包声音复刻模型2.0等全新模型。
随着AI产业落地持续加速,截至今年9月底,豆包大模型日均tokens(词元)调用量已突破30万亿,相比5月底增长超80%。在企业市场,IDC报告显示,2025年上半年中国公有云大模型服务市场,火山引擎以49.2%的份额占比位居中国第一。
在火山引擎总裁谭待看来,全球AI大模型正在三个方向上快速发展:一是深度思考模型正与多模态理解能力融合;二是视频、图像、语音模型逐步实现生产级水平;三是企业级复杂Agent(智能体)正在走向成熟。
在服务大量企业用户的过程中,火山引擎发现,当开启深度思考模式,模型效果平均可提升31%,但会提高模型延迟和使用成本,这导致实际应用中深度思考模式的使用占比仅有18%。针对这一痛点,豆包大模型1.6全新升级,提供最低、低、中、高四种思考长度,平衡企业在不同场景下对模型效果、时延、成本的不同需求,并进一步提升思考效率。这也是国内首个原生支持“分档调节思考长度”的模型。以低思考长度为例,相比模型升级之前的单一思考模式,升级后的豆包1.6模型总输出tokens下降77.5%、思考时间下降84.6%,模型效果保持不变。
为进一步满足企业的多样化需求,火山引擎推出豆包大模型1.6lite,相比旗舰版本更轻量、推理速度更快。该模型超越豆包1.5pro,在企业级场景测评中较豆包1.5pro提升14%;在使用量最大的0—32k输入区间里,综合使用成本较豆包1.5pro降低53.3%。
此外,火山引擎还发布了智能模型路由(Smart Model Router),这是国内首个针对模型智能选择的解决方案,可针对任务请求自动选择最合适的模型,达到效果与成本的最优解,目前已支持豆包大模型、DeepSeek、Qwen、Kimi等多种主流模型。