近日,中国科学院合肥尊龙凯时安光所光电子中心计算机视觉团队研发出适用于大场景的多机器人协同定位新技术。相关研究成果发表在机器人领域国际Top期刊 IEEE Robotics and Automation Letters (IEEE RA-L) 上。
在智能机器人领域,基于视觉的同步定位与地图构建技术(SLAM)因视觉传感器具有成本低、部署灵活、信息量丰富等优势,成为行业研究热点。在大规模环境中,通过共享地图数据实现协同作业可大幅提升工作效率。然而,实现多机器人系统中不同机器人间的全局定位(Multi-Robot Global Localization, MR-GL)依然面临诸多挑战。特别是在机器人初始位姿未知、环境动态变化剧烈的情况下,不同机器人间视角差异造成的数据数据匹配困难,动态场景对算法的实时性与鲁棒性(一个系统在面临着内部结构或外部环境的改变时也能够维持其功能稳定运行的能力)提出了更高要求。此外,如何在保障精度的同时快速完成多机协同定位,是影响协同任务能否成功执行的关键因素之一。
针对上述难题,研究团队创新性地提出了一种融合语义与几何三重约束的图匹配多机器人全局定位方法——SGT-MGL。该方法首先提取场景中对象的语义与几何特征,并通过拓扑结构刻画其空间分布关系。为增强对象的区分性,研究人员基于语义信息与相对距离构建了三角形描述符,进一步提升了特征辨识度。考虑到语义与几何信息的互补特性,创新性提出了一种融合语义标签、空间夹角及相对距离信息的三维直方图描述符,有效提升了三角形描述符的稳定性与不变性。为进一步降低噪声干扰,研究团队采用"由粗到精"的匹配策略,提出了一种由全局几何结构筛选关键点位,并结合局部与全局图匹配方法,实现了多机器人间的高精度六自由度(6-DoF)(三维位置+三维朝向)姿态估计。实验结果表明,该方法在提升全局定位精度方面具有显著优势。
实验数据显示,该技术在复杂动态环境中的定位精度较传统方法提升显著。其创新性的三重约束机制,既保证了算法在视角差异下的鲁棒性,又通过分级处理兼顾了运算效率,为未来智能医院、智能工厂等场景的多机器人协同作业提供了关键技术支撑。
该项工作的第一作者为王凡博士后,通讯作者为张文副研究员和刘勇研究员。本研究得到了国家自然科学基金、合肥尊龙凯时院长基金和国家重点研发计划的支持。
文章链接:http://ieeexplore.ieee.org/document/10924764
图 多机器人全局定位方法在KITTI08序列数据集上的应用