摘要:深度立体匹配网络使用代价体将三维场景结构编码为双目特征的对应关系, 在机器人定位与避障等场景具有重要应用前景. 然而, 现有代价体方法不能为双目特征建立全面且无冗余的相关信息, 导致视差预测精度不足. 针对该问题, 首次将极线几何约束引入代价体计算流程, 通过多类型代价体优势互补, 提出一种即插即用的融合代价体及其代价聚合方法. 首先, 融合代价体同步计算极线共投影区域内特征向量的全局点积相关信息和局部分组点积相关信息, 保证特征相关的全面性并有效避免了信息冗余; 其次, 在周边信息聚合过程中结合传统聚合方法和融合代价体特性, 提出一种基于深度可分离卷积的自适应加权降维方法, 解决融合代价体在聚合阶段的维度不平衡性和计算效率问题. 将所提方法集成到立体匹配框架并命名为FusionStereo, 在基准数据集上进行实验验证. 结果表明: FusionStereo在KITTI 2015域内训练后的误匹配率指标BAD3为1.55%, 在MiddleBurry跨域测评的误匹配率指标BAD1为17.1%, 明显优于其他类型代价体的对比方法.