科技日报记者 韩荣
6月26日,记者从山西大学获悉,日前该校大数据科学与产业研究院钱宇华教授演化数据智能团队在通用三维形貌重建领域取得重要科学发现,相关研究成果发表于国际人工智能顶级期刊《IEEE模式分析与机器智能汇刊》。
论文第一作者山西大学大数据科学与产业研究院闫涛副教授介绍,团队首次从理论上证明了三维形貌重建多视图融合类方法的一种泛化误差界,不同于多视图融合性能依赖于多视图互补性的一般认识,发现了跨尺度多视图融合类任务性能依赖于多视图一致性,多视图之间的一致性越大,重建泛化性能界越小。基于这个重要科学发现,团队从序列关联视角提出了具有跨尺度普适性的三维形貌重建框架SAS,在公开数据集和开放场景中证实了SAS框架显著提升了宏观/微观场景三维形貌重建精度。
随着智能制造、虚拟现实等技术的发展,宏微观跨尺度三维形貌重建面临三大挑战:一是成像特征差异大,宏观场景与微观场景难以统一建模;二是现有深度学习方法泛化能力不足,难以适应复杂实际场景;三是传统方法在序列图像关联特征提取方面存在缺陷,时空信息利用不充分制约了精度提升。
针对上述挑战,该研究创新性地提出了序列关联引导的通用三维形貌重建框架SAS,在理论上创新揭示了多视图一致性对提升重建精度的关键作用,建立了更紧的泛化误差界,为宏微观跨尺度重建提供了理论保障。在方法创新方面,该研究通过构建序列关联机制,实现了宏观场景语义信息与微观场景细节特征的有机融合,突破了传统方法在跨尺度重建中的局限性。同时,该研究还显著提升了宏观场景的重建质量,更将三维重建精度推进至亚微米级光学成像极限,为精密制造、生物医学等领域的微观测量提供了新的技术手段。
论文在多个宏观与微观数据场景中进行了实验验证,结果表明SAS框架不仅优于先进的模型设计类SFF方法,而且在泛化性方面优于主流的深度学习类SFF方法,特别是对于开放世界中的宏观/微观场景中表现出了卓越的适应性。
记者了解到,这是国内聚焦形貌恢复领域研究首次登上《IEEE模式分析与机器智能汇刊》期刊,也是国际上该领域在《IEEE模式分析与机器智能汇刊》发表的第三篇论文(前两篇分别发表于1994年和2012年)。相比于最先进的聚焦形貌恢复方法,SAS框架在七种公开数据集的均方根误差指标上平均下降29.46%。