1.7秒修复高清大片,新型大模型让图像复原更高效

2025-08-08 18:07:26 来源: 科技日报 点击数:

科技日报记者 罗云鹏

图像复原领域长期存在一个两难困境:追求高质量往往耗时长,而追求高效率则难免损失细节精度。如何把一张老照片修复得又快又好?

近日,中国科学院深圳先进技术研究院发布HYPIR图像复原大模型。它由该院先进计算与数字工程研究所研究员董超团队研发,为图像复原技术的实际应用提供了更高效的解决方案,更为影视修复、文化传承与保护等领域带来新的可能。

传统方法中,基于预训练扩散模型的复原技术显著提升了图像复原效果,但存在计算复杂度高、推理速度慢、训练资源消耗大以及生成结果可控性不足等问题。这些成为限制图像复原技术发展的瓶颈。

2024年,董超团队研发出智能画质增强大模型SUPIR。它能将低质量的图像恢复到接近原始状态的高清图像,有效修复多种退化类型的图像。

HYPIR作为SUPIR的升级版,舍弃了迭代式扩散模型训练,改用单步的对抗生成模型训练方式,将原有的算法速度提升了数倍。同时,HYPIR采用更新的文生图基模型进一步提升算法效果,实现8K级别的细节生成,在生成图像的稳定性和可控性方面远超SUPIR大模型。

“以往的图像复原往往包括扩散模型蒸馏等过程。HYPIR则不需要依赖这些步骤,复原方法更加简单。它在训练和推理速度方面较传统方法提升了一个数量级以上,且性能更优。”董超介绍。

实验数据显示,在单张图像处理器上,HYPIR仅需1.7秒即可完成一张1024×1024分辨率图像的复原。

除了在高分辨率图像修复领域表现出色,HYPIR在文字保真、理解能力、用户控制灵活性等方面均展现出了优异性能。

在文字保真方面,传统基于扩散模型的方法常导致复原的文字模糊或扭曲,缺乏精确性,HYPIR则能使复原的文字保持高保真度和清晰度。无论是简单的标识还是复杂的文档,HYPIR都能精准还原其原始形态,让图像中的文字清晰可读。

值得一提的是,HYPIR还具备突出的自然语言理解能力,可精准捕捉和理解用户的输入指令,在图像复原过程中准确反映用户意图。

此外,用户可以根据需求灵活调节生成与复原的比例,或精细控制图像细节程度,获得符合自身偏好的结果。这种用户友好的设计使HYPIR不仅适用于专业领域,也能满足普通用户的需求。

董超介绍,目前HYPIR大模型已成功部署于AI视觉平台——明犀科技平台,其开源代码和模型已上传至GitHub。团队已与深圳市南山区档案馆合作对部分馆藏照片进行修复,未来将进一步推进模型产业化。

责任编辑:裴宸纬

抱歉,您使用的浏览器版本过低或开启了浏览器兼容模式,这会影响您正常浏览本网页

您可以进行以下操作:

1.将浏览器切换回极速模式

2.点击下面图标升级或更换您的浏览器

3.暂不升级,继续浏览

继续浏览