科技日报记者 罗云鹏
近日,DeepSeek-V4预览版正式推出并开源,AI云服务商PPIO首批上线DeepSeek-V4预览版。
据悉,凭借全新的注意力机制,DeepSeek-V4在token维度进行压缩,结合DSA稀疏注意力,实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求,让1M上下文成为标配。
在1M token场景下,V4-Pro仅需前代DeepSeek-V3.2的27%的单token推理FLOPs和10%的KV缓存,V4-Flash更是低至10%的FLOPs和7%的KV缓存。
同时,DeepSeek-V4还专项优化了Agent能力。针对Claude Code、OpenClaw、CodeBuddy等主流的Agent产品,DeepSeek-V4在代码任务、文档生成任务等方面表现均有提升。
目前,DeepSeek-V4-Pro和DeepSeek-V4-Flash均已同步上线PPIO。
2025年初,PPIO在DeepSeek-V3/R1发布后一周内便完成全系列模型上线,是首批支持DeepSeek全模型商业化API的服务平台,同时在2月SuperCLUE的稳定性测评报告中成为唯一一个在准确率上达到100%的DeepSeek-R1第三方平台。
截至目前,PPIO模型服务平台已累计上线上百款国内主流开源模型,全面覆盖文本、图像、视频等多模态模型,开发者只需一两行代码即可直接调用搭建AI应用。
此外,PPIO还基于算法、系统和硬件的协同创新实践,以自研推理加速引擎带来模型推理10倍以上的降本,实现推理效率与资源使用的动态平衡。

网友评论