科技日报记者 罗云鹏
图像复原领域长期存在一个两难困境:追求高质量往往耗时长,而追求高效率则难免损失细节精度。如何把一张老照片修复得又快又好?
近日,中国科学院深圳先进技术研究院发布HYPIR图像复原大模型。它由该院先进计算与数字工程研究所研究员董超团队研发,为图像复原技术的实际应用提供了更高效的解决方案,更为影视修复、文化传承与保护等领域带来新的可能。
传统方法中,基于预训练扩散模型的复原技术显著提升了图像复原效果,但存在计算复杂度高、推理速度慢、训练资源消耗大以及生成结果可控性不足等问题。这些成为限制图像复原技术发展的瓶颈。
2024年,董超团队研发出智能画质增强大模型SUPIR。它能将低质量的图像恢复到接近原始状态的高清图像,有效修复多种退化类型的图像。
HYPIR作为SUPIR的升级版,舍弃了迭代式扩散模型训练,改用单步的对抗生成模型训练方式,将原有的算法速度提升了数倍。同时,HYPIR采用更新的文生图基模型进一步提升算法效果,实现8K级别的细节生成,在生成图像的稳定性和可控性方面远超SUPIR大模型。
“以往的图像复原往往包括扩散模型蒸馏等过程。HYPIR则不需要依赖这些步骤,复原方法更加简单。它在训练和推理速度方面较传统方法提升了一个数量级以上,且性能更优。”董超介绍。
实验数据显示,在单张图像处理器上,HYPIR仅需1.7秒即可完成一张1024×1024分辨率图像的复原。
除了在高分辨率图像修复领域表现出色,HYPIR在文字保真、理解能力、用户控制灵活性等方面均展现出了优异性能。
在文字保真方面,传统基于扩散模型的方法常导致复原的文字模糊或扭曲,缺乏精确性,HYPIR则能使复原的文字保持高保真度和清晰度。无论是简单的标识还是复杂的文档,HYPIR都能精准还原其原始形态,让图像中的文字清晰可读。
值得一提的是,HYPIR还具备突出的自然语言理解能力,可精准捕捉和理解用户的输入指令,在图像复原过程中准确反映用户意图。
此外,用户可以根据需求灵活调节生成与复原的比例,或精细控制图像细节程度,获得符合自身偏好的结果。这种用户友好的设计使HYPIR不仅适用于专业领域,也能满足普通用户的需求。
董超介绍,目前HYPIR大模型已成功部署于AI视觉平台——明犀科技平台,其开源代码和模型已上传至GitHub。团队已与深圳市南山区档案馆合作对部分馆藏照片进行修复,未来将进一步推进模型产业化。