控制与决策  2020, Vol. 35 Issue (1): 1-15  
0

引用本文 [复制中英文]

罗俊海, 杨阳. 基于数据融合的目标检测方法综述[J]. 控制与决策, 2020, 35(1): 1-15.
[复制中文]
LUO Jun-hai, YANG Yang. An overview of target detection methods based on data fusion[J]. Control and Decision, 2020, 35(1): 1-15. DOI: 10.13195/j.kzyjc.2019.0649.
[复制英文]

基金项目

国家自然科学基金项目(U1733110);中央高校基本科研业务费专项基金项目(2672018ZYGX2018J018)

作者简介

罗俊海(1980—), 男, 副教授, 博士, 从事数据融合、智能计算等研究, E-mail: junhai_luo@uestc.edu.cn;
杨阳(1996—), 男, 硕士生, 从事数据融合、智能计算的研究, E-mail: ecokop@163.com

通讯作者

罗俊海, E-mail: junhai_luo@uestc.edu.cn

文章历史

收稿日期:2019-05-11
修回日期:2019-07-26
基于数据融合的目标检测方法综述
罗俊海 , 杨阳     
电子科技大学 信息与通信工程学院,成都 611731
摘要:随着基于数据融合的目标检测在军事以及自然防护等领域广泛应用, 越来越多的研究希望通过对检测融合系统进行优化或引入新的检测融合方法来更好地进行目标检测, 从而推动相关领域的发展.基于数据融合的目标检测具有重要的学术意义和应用价值, 为此, 从先进的检测技术到优化创新的前沿论文等方面详细介绍基于数据融合的目标检测方法的最新研究进展.首先对融合定义、模式及其优缺点展开讨论, 并总结目前该领域所面临的挑战; 然后从传感器辅助方法、融合层次方法两个方面对相关研究方法进行详细的分类阐述, 综述该领域的研究现状, 并对所介绍的文献从检测性能、复杂程度、成本大小、检测目标(数量、动态、维度)等方面展开归纳总结; 最后进行全文总结并对该领域的研究前景进行展望.
关键词数据融合    目标检测    传感器    融合层次    检测优化    综述    
An overview of target detection methods based on data fusion
LUO Jun-hai , YANG Yang     
School of Information and Communication Engineering, University of Electronic Science and Technology of China, Chengdu 611731, China
Abstract: With the wide application of data fusion based on target detection in military and natural protection and other fields, relevant research scholars can detect target well by optimizing the detection fusion system or introducing new detection fusion methods, thus promoting the development of related fields. Target detection based on data fusion has important academic significance and application value. The latest research progress of target detection methods is introduced based on data fusion from advanced detection technology to cutting-edge papers of optimization and innovation. Firstly, the definitions, patterns, advantages and fusion disadvantages are discussed, and the challenges in the field are summarized. Then, a detailed classification of relevant research methods is made from the two aspects of the sensor-assisted method and of fusion-level method, which reviews the research status of this field, and summarizes and sorts out the introduced literature from the aspects of detection performance, complexity, cost size, and target (quantity, dynamic and dimension), etc. Finally, research prospects in this field are summarized.
Keywords: data fusion    target detection    sensor    fusion level    detection optimization    review    
0 引言

目标检测作为数据融合的一项重要应用, 已引起各个领域的重视.无论是近代军事上对敌方目标的检测和战场评估[1-2], 还是对野生动物等目标的监测保护[3], 以及贴近百姓日常生活对城市交通、车辆驾驶环境的监测分析[4]等方面, 基于数据融合的目标检测的进步无不推动着相关领域的发展.

基于数据融合的目标检测可简单阐述为:利用大量的传感器节点或者相关检测基础设备采集所监测区域的数据信息并对采集到的数据信息进行相关设定的处理, 然后传递至融合中心并利用设定数据融合理论做出监测区域目标是否存在的判决过程.数据融合在初期主要应用在遥感[5]和军事等领域, 因各研究领域对数据融合的术语定义有所差异, 数据融合在最初没有较为明确的定义供各领域学者理解探究. 20世纪90年代初, 美国联合指导实验室(joint directors of laboratories, JDL)定义数据融合是一个从多层次、多方面处理来自多个信息源提供的数据和信息的自动检测、关联、相关、估计的整合过程[6]. Klein[7]概括融合了定义并指出数据信息来源可以是一个或者多个.基于各领域先驱对数据融合的相关总结, 文献[8]从信息融合原则性出发又给出其相关定义:“信息融合是一种将来自不同时间点和不同信息源的信息自动或半自动地进行整合并转换成一种形式, 然后做出自动决策或者为人类提供有效支持.”

数据融合之所以被各领域的学者不断地开发探索以及应用, 主要因其在如下方面具有一定的优势:

1) 信息全面.因为单一的传感器节点所检测到的数据信息过于片面, 对决策判断提供的支持很大程度上是无效的.而数据融合整合来自多个传感器节点、多个方面提供的信息, 数据信息更加全面和完善, 能够很好地解决信息片面的问题.

2) 容错性高[9].由于地理环境复杂等情况可能会导致部分传感器节点失灵或者受到干扰, 从而无法提供数据信息或者提供错误的信息.而数据融合系统可以对有效的传感器节点所提供的信息进行整合, 能够有效解决少数传感器失灵的问题, 不影响整体的融合效果.

3) 降低成本.由于数据融合能够对数据更好地利用, 通过对多个廉价传感器信息整合所得的结果比单个传感器所得的结果更加精确, 降低了系统成本.

4) 覆盖更广.相对于一个传感器节点的监测范围, 多个传感器节点的部署可以监测得更广, 而且将多个传感器节点的交叉覆盖所采集的检测数据进行融合, 可有效避免监测区域的盲点信息采集.

在发掘和利用数据融合优势的同时, 相关领域学者对数据融合的检测方式也产生了极大的兴趣.基于各领域学者和研究人员的探索和拓展, 检测融合方式主要分为集中式检测融合方式[10]、分布式检测融合方式[11]以及混合式检测融合方式[12]3种, 简单介绍如下.

集中式检测融合方式:各传感器节点仅对所检测的目标信息进行判决之外的预处理, 然后将数据传输给融合中心, 最后融合中心对所有传输过来的数据进行处理和整合.其优点是减少信息的损失, 融合的结果更精确; 缺点是该方式下的计算量过大, 通信成本较高.

分布式检测融合方式:各传感器节点可以判决检测目标是否存在, 并将判决信息(即目标检测结果)传输给融合中心, 融合中心再进行整体上的判决得出最终结果.该传感器节点须是分布式传感器, 能够独立处理局部信息.其优点是成本低, 、能源消耗少, 可靠性高; 缺点是数据利用率低, 部分信息损失.

混合式检测融合方式:该模式对集中式融合以及分布式融合进行整合, 不仅传输本地传感器节点的判决信息, 而且传输本地传感器节点检测到的目标信息, 融合中心对这些信息再进行整合处理.其优点是信息融合充分, 融合结果精确; 缺点是信息传输要求高, 通信成本较高.

在不同的检测融合系统下, 能够根据现实检测的需要配置合理的系统结构也是相关研究热点之一.融合系统的结构与该系统的检测性能紧密相关, 在分布式检测融合系统下, 常使用并行拓扑结构[13]、串行拓扑结构[14]、树形拓扑结构[15]与之配置.

无论是检测融合方式还是相关配置结构的选择, 都是为能够有效监测区域服务的.随着各领域的不断发展进步, 在追求能够有效检测出目标的基础上针对检测融合系统各方面提出了新的要求.本文将基于数据融合的目标检测所面临的挑战总结如下:

1) 目标检测融合系统的能源消耗.能源消耗表现在数据传输过程中的能量损耗和数据在融合节点进行信息融合时的消耗两个方面[16].数据在传输过程中其传输信息量的大小、传输距离的远近、传输方式(单跳/多跳)的选择等因素都会直接影响能源消耗的大小.数据融合规则以及融合模式(集中式融合/分布式融合/混合式融合)的选择也影响着能源消耗的大小.良好地控制目标检测融合系统的能源消耗, 一方面可以使该系统提供更长久的服务, 从而提高该系统的生命周期; 另一方面, 可以降低整个检测融合系统的造价成本.

2) 目标检测融合系统的检测性能.检测性能表现在系统针对监测区域内目标的检测响应速度和检测精确程度两个方面.能够有效地快速地检测到目标是目标检测融合系统存在的价值和意义.检测性能受检测目标距离检测设施的远近、气候环境的变化等方面的影响, 检测融合系统应针对所处环境进行合理的变化; 响应速度和精确检测有所冲突, 应尽量权衡彼此之间的关系; 检测性能的好坏与能源消耗之间往往难以实现共赢的局面, 因此如何权衡改善目标检测系统内各方面的关系以提高检测性能是面临的挑战之一.

3) 目标检测融合系统的生命周期.生命周期即为该系统能够有效服务的时间, 现实监测环境的复杂性以及系统能源消耗的快慢等方面都直接或间接地影响着监测系统的生命周期.延长系统生命周期可从侧面降低成本, 因此如何延长检测系统的生命周期也是该领域的一个热点问题.

4) 目标检测融合系统的稳定性[17].稳定性主要表现在检测融合系统能否稳定、有效地检测出监测区域的目标.检测系统会因外界复杂环境的微弱干扰或部分环节的失灵而导致整个检测系统运作的瘫痪, 增强检测系统的稳定性对更好地检测目标有着显著的帮助.

5) 目标检测融合系统的安全性[18].例如在军事领域上, 检测敌方真正目标的同时也要防备敌方的入侵检测技术, 因此提高检测融合系统的安全性受到了各领域的重视.

近年来, 国内外大量前沿文献从不同方向和角度对所面临的挑战进行了探究[19-20].张铁柱等[21]提出了一种基于机载雷达和红外传感器数据融合的智能目标识别算法, 提高了目标检测性能. Aziz[22]提出了一种新的决策融合规则用于分布式多传感器系统的目标检测, 提高了系统的检测性能和稳定性; Zou等[23]采用的自适应节能方法相比传统系统具有更好的检测性能, 并提出了合理控制检测系统能量消耗的方法.国内外相关综述论文调查如表 1所示.由表 1可见, 近年来缺少相应的综述文章对近期的相关优质文献进行归纳整理, 因此本文从创新论文到先进的检测技术等方面详细介绍基于数据融合的目标检测方法的最新研究进展.与传统的分类方法有所不同, 本文将所调研的文献从传感器辅助方法、融合层次方法两个方面进行分类进行阐述, 并着重对检测融合的检测性能、方法的复杂程度、造价成本的大小、检测目标(数量、动态、维度)、不同传感器以及不同融合层次的优缺点等方面展开详细比较, 最后进行总结并针对基于数据融合的目标检测的研究前景进行展望.

表 1 基于数据融合的目标检测方法综述比较
1 基于传感器辅助方法分类

能够有效对所监测的环境进行数据信息采集是目标检测的基础也是重中之重, 这一阶段需要依靠检测设施的辅助来完成.本节从图像传感器、异类传感器和无线传感器网络3种常用的辅助检测传感器出发进行分类总结, 对基于不同传感器辅助的目标检测方法进行介绍, 并列表比较不同传感器辅助下的数据融合目标检测方法在检测性能、复杂程度、造价成本等方面的优劣.

1.1 基于图像传感器数据融合的目标检测

随着视觉分析的飞速发展, 利用图像传感器(imaging sensor)获取监测区域的视频或图像序列实现目标监测已成为可能, 常用的图像传感器基于组成元件的不同可大致分为电荷耦合(charge coupled device, CCD)和金属氧化物半导体(complementary metal-oxide semiconductor CMOS)两类.对两类图像传感器从同尺寸图像分辨率、灵敏度、检测响应速度、能源消耗、造价成本等方面进行归纳和比较, 结果如表 2所示.

表 2 图像传感器的分类及相对比较

表 2可见, CCD具有灵敏度高、图片质感好、信噪比高等诸多优点, 当步入高清监控时代后, 因响应速度较低等缺点导致CCD不适用高清监控下所采用的高分辨率逐行扫描方式[24]. CMOS图像传感器具有较快的响应速度、较低的能源消耗和较小的造价成本, 受到相关领域的青睐.根据实际监测环境的需求进行综合考虑, 合理选择使用图像传感器才能更好地进行区域监测.

基于图像传感器数据融合的目标检测的检测流程可简单理解为:首先通过多个图像传感器采集获取监测区域的图像或视频序列; 然后对感兴趣的目标进行特征学习, 并对所采集的图像序列进行相应的特征提取和融合; 最后将目标特征与融合后的图像进行特征搜索匹配, 并给出检测目标存在与否的判决.由于现实环境的复杂性和差异性会使所建立的检测融合系统也有所差异, 导致不同的检测系统所采集或反馈的图像信息形式也会有所不同[25], 监测区域中感兴趣目标的动态、监测场景的动态也可能有所不同, 因此所采集的图像序列需要根据实际情况来配置合适的检测算法, 其检测性能、造价成本、算法复杂度也因此有所差异.

Teman等[26]提出了一种用于实时目标检测与跟踪的自主CMOS图像传感器.该传感器由集成模拟和数字元件等组装配置, 以最小的功耗实现采集相关图像序列等方面的自主操作.仿真是在2-D像素图像环境中找出突出目标, 其目标向仿真环境的任意方向随机移动, 速率最大为每帧移动1像素.结果表明, 该检测融合系统能够实时检测到监测区域中明亮的动态目标, 并且检测目标数量多达3个.但是, 该检测方法仅针对成像仪图像中明亮突出的目标进行检测追踪, 当检测目标与检测环境的颜色相近或偏暗时, 能否有效检测出目标还有待探究.此外, 该文献主要针对图像传感器进行改进, 检测性能侧重依赖该系统设备.

同属自主目标检测, Lan等[27]提出一种基于可见光图像传感器与数字信号处理器(DSP, digital signal processor)相结合的嵌入式目标检测系统.该系统在复杂环境下能够同时检测区域内的静态和动态目标, 针对不同光照强度下的目标检测以及解决目标与背景颜色相似问题具有一定的优越性.在该检测系统中, 目标图像先由可见图像传感器获取, 再由DSP根据提出的纹波算法(ripple algorithm)对采集的图像序列进行特征提取和目标识别.仿真是针对目标场景不同角度1 000帧的视频序列, 将每帧图的特征提取融合并与计算目标模板进行匹配, 检测出具有指定目标的图.每帧大小为576×720像素, 帧速为30帧/ s.仿真结果表明, 该检测融合系统能够实时精确地检测出静态和动态目标.在暗光条件下针对车辆等目标检测率达到91 %, 强光条件下达到93 %, 普通光照下达到96 %.针对机场飞机目标检测, 在无燥声条件下检测成功率达到94.2 %, 在噪声条件下检测成功率达到93.6 %, 从其检测性能看具有一定的优异性.但是其局限性也很明显, 因利用纹波算法时需先对图像数据库中的图像计算目标模板, 再通过对目标特征的提取与模板进行匹配检测.图像数据库的大小以及全面程度将直接影响其检测性能, 且该文根据所检测的目标类型搭建相应的图像数据库, 现实环境中目标复杂、多样, 提前搭建不现实, 针对指定目标检测可适用.王加等[28]提出一种基于可见光图像传感器与红外成像传感器相结合的图像融合检测算法, 融合后的图像相比单张原始图像对伪装目标的检测识别更具优势, 但所用算法相对传统创新度不高, 有待改进.

在利用图像传感器进行目标检测时, 由于传感器本身缺陷所导致的检测误差无法避免, 基于图像传感器数据融合的目标检测误差频率取决于图像的分辨率[29], 当目标距离检测设备过远时, 其在所采集图像上的分辨率远小于近处.目标距离检测设备的远近与检测误差的频率有直接联系, 因此检测误差随着目标状态的变化而发生改变, 该误差往往被人们所忽视. Zuwhan等[29]针对上述情况, 将变化的检测误差与传感器本身的缺陷误差相结合考虑, 以此提高检测融合系统的检测性能和目标定位精度.仿真结果显示, 检测准确性达到0.99, 每帧图像中目标的误检率低于0.001.虽然该文献优化了检测融合系统, 但由于所建立的检测融合系统造价成本较高、明确应用在无人机及航空遥感领域限制其普及, 且没有对所提出模型和校准方法进行全面评估, 实验仿真数据集等方面仍有待丰富.此外, 通过改造图像传感器硬件设备来提高检测融合系统的检测性能在国内也有相应的研究进展.如魏志杰等[30]通过安装像元尺寸为1.6 um和14 um的图像传感器采集目标信息, 以不同像元尺寸的图像传感器对目标进行实时监控, 并利用加权算法融合不同像元尺寸图像传感器探测结果以提高目标检测的精度, 但主要侧重于硬件设计, 融合方法较为传统, 可通过改进创新检测方法进一步提高实验质量.

综上所述, 基于图像传感器的目标检测应用领域相当广泛, 但因应用领域的不同导致改进的侧重点以及局限性也各有差异.一方面主要是针对图像传感器硬件设备的改进[26, 30], 另一方面主要是针对检测方法进行改进[27-29].虽然文献[28]的检测融合方法相对创新度不够, 但是对伪装目标检测仍有一定的参考价值.为了方便读者进一步深入了解, 上述部分文献也对其仿真过程进行了阐述, 对仿真过程中目标的运动状态、检测成功率、误检率等给出了详细数值.文献[27, 29]具有较高的目标检测率, 其中文献[27]针对现实车辆检测(不同光照条件下)以及飞机检测(有无噪声条件下)的成功率均达到90 %以上.文献[28-30]针对静态目标进行检测, 无目标状态分析.此外, 图像传感器本身虽然近距离检测性能优越, 可提取目标信息以及特征等优点, 但易受光照灵敏度、图像噪声等影响.基于图像传感器的目标检测在硬件设施改进、图像融合算法等方面仍有较大的研究空间, 需相关学者不断探索和研究.

1.2 基于异类传感器数据融合的目标检测

若两个及两个以上传感器具有同样的检测覆盖范围和检测精度以及相同的物理属性, 则可认为这些传感器属于同一类型, 简称同类传感器[31].相对于同类传感器而言, 异类传感器[32]指的是具有不同的物理属性或者物理属性相同但其检测覆盖范围和检测精度有所不同的两个及两个以上传感器.同类传感器与异类传感器相关性能的比较如表 3所示.

表 3 同类传感器与异类传感器相关性能的相对比较

随着各行业对检测融合系统检测性能的高要求以及现实环境的日益复杂, 常规的基于同类传感器数据融合的目标检测会因传感器本身的缺陷受到限制, 无法突破相关背景下检测精度的瓶颈[33].而异类传感器彼此之间相互独立、相互补充地进行工作[34], 其本质在于可以从不同角度、不同方面对相关数据进行互补采集, 突破了同类传感器的自身缺陷, 利用改变传感器辅助设施的搭配可以达到提高检测融合系统检测弹性的目的.

Sungho等[35]提出了一种基于合成孔径雷达(synthetic aperture radar, SAR)和红外成像传感器的自动目标检测融合系统, 利用滤波器对接收信号进行噪声处理实现优化, 并采用Adaboost机器学习方案使异类传感器进行决策等级的融合, 对于红外小目标等具有较高的检测率和较低的虚警概率.其成功检测率在仿真环境下高达100 %, 但算法较为复杂, 且造价成本也相对较高, 能否普及有待探究.因考虑安全问题没有开放的数据库可用, 利用工具生成的图像融合并不完美, 适用于初期研究.此外, 可通过全面考虑目标特征(尺寸比、旋转尺寸变化等)提高融合性能.张铁柱等[21]提出了一种基于机载雷达传感器与红外成像传感器数据相融合的智能目标识别算法, 利用D-S证据理论实现机载雷达与红外成像传感器的特征等级融合, 并依据最大隶属度法则进行决策判别.最大隶属度法则是指对检测范围的每个目标均有相应的隶属度, 而具有最大隶属度的目标则为识别检测到的目标.根据3组仿真结果, 在无噪声条件下(1组和3组), 融合后所检测目标的隶属度分别为0.918 707和0.987 201, 均达到0.9以上, 优于组合中单个传感器的检测效果; 在一定噪声条件下(2组), 融合后的检测决策结果也较为精确.虽然仿真结果显示异类传感器的融合检测效果优于单个传感器的识别效果, 但是其检测目标是2-D静态平面的, 对动态目标或3-D环境目标的检测效果是否良好还有待探究.此外, 该实验的仿真数据集过小还有待丰富, 可通过增加多组仿真来探究更多规律, 如不同噪声程度下的检测情况、对多个指定目标的检测情况等.

除雷达传感器与红外传感器这样的经典搭配外, 红外与可见光传感器以及ESM与红外传感器等搭配也陆续被各领域学者探究和利用. Liu等[36]提出了一种基于红外成像传感器和可见光图像传感器的检测融合系统, 将源图像分割成目标区域和背景区域, 采用不同的融合规则尽可能多地保留目标信息, 一定程度上提高了检测性能, 但其训练仿真数据集还有待丰富, 在目标背景变化以及运动目标受到保护的情况下检测情况仍需进一步探究. Wang[37]提出了一种基于ESM和红外传感器的检测融合系统, 针对辐射源目标进行检测识别, 利用一种基于模糊综合评价的算法和一种基于灰度相关分析的算法分别对ESM系统和红外图像进行特征处理, 并利用D-S证据理论实现异类传感器的数据融合.针对4个模拟发射目标进行目标检测, 仿真结果均显示其检测精度优于单一传感器的检测效果, 当信噪比为0、3、5、10时, 成功检测率分别为78.4 %、87.6 %、95.8 %、98.3 %.但检测目标的数量相对较少, 针对大量目标的检测效果是否为优可进一步探究.

基于异类传感器的组合丰富多样, 应用在军事领域针对战场目标的检测居多, 其研究侧重点有所不同.文献[36]针对人体目标进行检测仿真.文献[21, 35, 37]针对军事目标进行检测.文献[35]结合了机器学习等方法, 更加前沿, 其检测性能也较为优异.文献[21, 36, 37]检测方法相对传统, 但也根据现有缺陷做出部分改进, 仍具有学习价值.文献[35]提出的基于Adaboost的机器学习方案, 通过决策级SAR和红外融合实现目标检测, 检测到的目标成功率达到最大值100 %, 但算法较为复杂, 适用于图像融合初期的研究.文献[21]最终利用最大隶属度法则给出检测目标的判定, 虽有噪声条件下的检测, 但仿真组数过少.文献[37]考虑了不同信噪比下的目标检测成功率, 检测结果也相对优异, 达到98.3 %.文献[36]虽然无具体检测值, 但融合后图像的目标效果优于单张源图像.

综上所述, 基于异类传感器数据融合的目标检测一定程度上提高了检测融合系统的检测性能, 但是也可以看出这些异类传感器融合检测数学方法与工具并不是统一的, 只能针对具体情况讨论具体融合规则.基于异类传感器数据融合的目标检测还面临着重重困难, 仍需相关领域的学者以及研究人员探究和摸索.

1.3 基于无线传感器网络数据融合的目标检测

无线传感器网络(wireless sensor networks, WSNs)[38]是一种具有自组织性、多跳路由、容错性高等诸多优点的由大量传感器节点组成的无线网络, 可以对指定区域进行感知监控.在很多领域, 无线传感器网络都扮演着重要的角色.如在军事侦察方面、在自然灾害的检测与预防方面[39]、在医疗监护方面等.如今无线传感器网络不局限于陆地和空中等相关领域的监测应用, 近年来针对海洋监测以及水下目标检测的水下无线传感器网络(underwater wireless sensor networks, UWSNs)也受到各领域密切的关注和应用.

WSNs含有大量传感器节点, 通过这些节点对所监测区域进行数据感知和采集.局部传感器节点本身可对采集的数据进行简单的预处理或者进行局部决策判决, 将处理后的数据信息通过单跳或多跳的形式传递给汇聚节点, 并与其他传感器节点传递到sink节点的数据信息进行数据融合.数据融合结果通过互联网或卫星反馈给用户, 为用户进行整体决策判断提供一定的有效支持.

当WSNs监测运作时, 网络中部分传感器节点接收到的目标信号可能已被噪声所破坏[40].这种情况的发生屡见不鲜, 其影响可能会导致检测融合系统无法做出正确的决策判决.针对这一情况, Katenka等[41]提出了一种局部投票决策融合算法.该算法首先利用相邻传感器的决策对出现上述情况的传感器节点进行决策修正, 然后每个传感器节点将0-1决策判别结果传输到融合中心, 进行WSNs的整体决策融合并给出决策判决.虽然仿真结果表明该算法具有较高的检测率, 但是如何分析和权衡系统的检测性能与能源消耗之间关系还有待探究.

在WSNs中, 传感器节点携带的电池寿命有限, 当所有传感器节点都在检测模式下工作时, 可能因为某个传感器没能及时更换或能源补充导致整个无线传感器网络无法正常工作, 其使用寿命也会大大缩短.所以为了节约能源, 传感器节点会被周期性地唤醒以检测目标, 当接收或发送数据到sink节点或下一跳节点后将重新进入睡眠模式[42].由上可知, 传感器节点周期通常由感知状态和睡眠状态组成, 但是当传感器节点进入睡眠模式时会出现检测盲点, 该节点无法对附近区域活动的目标进行有效监测.针对上述情况, Hu等[43]提出了一种方案将传感器节点感知状态的时间和睡眠时间片段化, 均匀地分布在整个传感器周期以此来提高检测融合系统的检测性能.但因同周期中增加了唤醒感知状态和睡眠状态之间的切换次数, 会导致传感器能源消耗的增加, 如何平衡两者之间的关系还有待探究.此外, 在WSNs中的传感器节点通常将采集的数据通过相关设定处理后传输发送到sink节点, 靠近sink的传感器节点会因承载着更重的中继流量使其消耗的能量比远离sink节点要多[44].该情况会在WSNs中形成热点导致网络早死, 并且该网络热点区域外的节点仍有大量能源剩余.一般而言, 传感器节点离sink节点越远其剩余能量越大, 需要的感知频率越高, 反之亦然. Hu等[43]在上述方案的基础上, 通过增大热点区域外传感器节点的感知频率能量使得传感器节点的剩余能量得以充分利用, 仿真表明延长了网络生命周期并降低了加权目标检测的延迟, 网络生存期提高17.4 %以上, 加权检测时延降低101.6 %以上.但是, 该文所提出的算法仅适用于静态sink WSNs, 不适用移动sink WSNs, 所提出方案与移动传感器网络相结合是否有更佳效果可以进一步探究.

以2-D检测环境为例, 单一或两个传感器节点对其附近区域监测会出现监测覆盖不到的盲点区域.为了规避检测盲点, 保持网络的连通性和确保网络的覆盖范围, 采用3-coverage(即3个传感器节点交叉覆盖)形式部署过量传感器节点以提供冗余[44], 但会消耗更多的能量.针对这类情况, Cheng等[45]提出了一种无线传感器网络能量感知的调度方案, 通过合理的调度将不必要的传感器节点置于休眠模式缓解这一问题.该方案利用传感器节点的局部信息判决调度方案执行与否, 通过对目标命中率、检测延迟以及成功检测的能耗等性能评估仿真显示该方案具有一定的降低能耗的作用.虽然其高度适用于节能要求较高的低速目标检测应用, 但也会限制其普及.此外, WSNs中的传感器节点虽廉价但故障率极高且易被攻击, 部分传感器节点的失灵也会出现检测盲点从而影响检测系统的检测性能[46].针对这种情况, Tan等[47]通过调节部分可移动传感器节点使其与静态传感器节点相互协作检测的方式来提高网络的检测精度, 该算法可以在给定检测时延范围内通过最小化移动传感器的移动距离实现最优的系统检测性能, 有效解决了部分传感器节点的失灵问题, 但能耗的增加也是无法避免的, 可适用于对检测精度单方面需求的应用. Zou等[23]提出一种基于移动无线传感器网络的自适应节能目标检测方法.采用贝叶斯网络(Bayesian network, BN)自适应调整多传感器网络的布置, 根据实地场景情况使传感器节点向目标侵入风险较高的区域移动以增加对风险区域目标检测的敏感性和检测精度.因为移动传感器节点会比静态传感器节点需要消耗更多的额外能量, 引入聚类等具有代表性的算法以减少主动传感器节点的数量, 且传感器节点可以根据环境监测状况实现动静切换以此来权衡检测精度与能源消耗之间的平衡.但是该方法将传感器节点安装在小车载具上实现其移动并配置GPS对其进行定位, 一定程度上增加了整体检测融合系统的造价成本, 是否适应于其他场景仍需探讨.此外, 该文的实验仿真环境过于简单, 就现实环境而言仍较为复杂, 传感器节点能否有效移动也是值得探究和解决的问题之一.

在给定的监测区域范围中, 在确保高检测概率和误警率的情况下尽可能减少部署的传感器节点也是当今的研究热点之一[48].因为数据融合技术的存在, 传感器节点之间彼此协作成为可能. Wang等[49]提出一种协作检测方案, 该方案保持对目标误报概率和漏报概率约束的同时利用部分传感器节点之间的协作扩展整个感知区域进行监测.与此不同, 袁朝晖等[50]提出一种节点部署优化方法, 通过分析WSNs中传感器节点部署的密度与数据融合半径之间的关系, 设计一种聚类方法将检测目标点组织成布置单元, 然后从高密度单元到低密度单元布置传感器节点以实现目标区域的覆盖.通过仿真实验表明, 上述两种方法都对传感器协作成本以及降低能量损耗做出了一定的贡献, 且文献[50]所提出方法与贪心法相比, 基于聚类的节点布置算法可以减少22 %的节点个数.

上述基于无线传感器网络的目标检测应用在陆地上, 此外, 其在海洋上的目标搜索应用也是研究的热点之一. Wu等[51]提出一种基于海上搜救无线传感器网络(maritime search and rescue wireless sensor network, MSR-WSN)用于检测海面上的浮游移动目标, 首先定义一个目标检测的海洋区域, 构造一个MSR-WSN的集群拓扑结构, 然后利用MSR-WSN传感器节点跟踪移动目标发出的集体无线电信号.每个节点将预处理后的感知数据传输给该群的头节点, 头节点作出局部决策, 将决策值传输到数据融合中心(DFC)再给出准确的全局决策.该文考虑了海洋复杂多变的通讯环境, 提出一种基于信息论的移动目标检测算法来滤除海洋波影的副作用, 但海面无线传感器网络受到攻击会直接影响决策判断的精确, 且部分目标因密度等原因会沉入水下, 这类情况需作进一步研究.

由上可知, 无线传感器网络在军事、遥感、自然灾害防护等领域具有广泛应用, 基于无线传感器网络目标检测方法涉及的相关文献大部分通过传感器节点调度或节能方案的设计等方法来提高WSNs的检测性能、节省检测能源消耗、延长检测系统寿命周期.文献优缺点前文已有介绍, 其局限性体现在检测性能与能源消耗之间的权衡方面, 以及类似于文献[45]只适用于节能要求高的低速目标检测这类场景, 难以应用到其他环境等, 故不再对该部分应用场景进行总结.虽然同属于应用在无线传感器网络上, 但侧重点有所不同.如文献[43, 49]注重网络寿命的提升, 而寿命与能源消耗有直接的联系, 所以设计了合理的节能方案以提高检测系统的性能.文献[50]通过求解极限最优解, 利用尽可能少的传感器节点实现检测区域的目标检测.

综上所述可以看出, 基于WSNs的数据融合目标检测方法大多侧重于检测融合系统的检测性能、能量消耗、网络生命周期3方面.引言部分也提及检测融合系统的检测性能和能源消耗往往很难实现共赢, 网络生命周期的长短与能源消耗的方式也息息相关, 如何权衡它们之间的关系, 使检测融合系统的效益最大化仍需相关领域研究学者的不断探究.

1.4 基于传感器辅助方法分类总结

本节以基于传感器辅助的数据融合目标检测角度出发, 从图像传感器、异类传感器和无线传感器网络3个方面展开详细的分类阐述, 检测性能、算法的复杂程度、检测融合系统的造价成本等的总结见表 4.

表 4 基于传感器辅助数据融合的目标检测方法比较总结

不同传感器辅助有不同的优点和缺陷, 如图像传感器近距离检测优越, 远距离目标图像因分辨率的原因会导致差的检测结果, 虽然现有技术可以高清捕捉远距离目标图像, 但成本过高, 往往难以普及.对于异类传感器而言, 其优越性不言而喻, 检测信息上的互补提高了其检测精度, 同样也提高了检测系统的健壮性和稳定性, 但其相对于单一传感器而言成本要高, 融合算法也相对更复杂.无线传感器网络具有诸多优点, 因其节点造价成本低, 应用广泛, 但同样信息安全程度不高, 易受外来攻击导致节点毁坏, 检测系统的周期寿命、检测性能都会大打折扣.此外, 如何调节传感器诸多节点, 根据实际场景利用最少的节点达到良好的检测效果, 合理权衡检测性能与能源消耗的关系, 仍需相关研究人员和学者的不断探究.

2 基于融合层次方法分类

基于数据信息的抽象层次可将数据融合分为数据级融合、特征级融合和决策级融合.不同融合等级方法会因融合本身的局限性不同导致方法性能之间的差异性.根据现实需求场景, 需要合理构建或选择具体的融合等级方法.本节从这3个融合层次出发, 对基于不同融合层次的数据融合目标检测方法进行归纳总结, 最后从检测性能、检测融合方法等方面对所阐述的方法进行相关性能比较以便读者理解.

2.1 基于数据级融合方法的目标检测

数据级融合(data-level fusion)是指直接在所采集到的原始数据信息层上进行融合, 属于底层数据融合.在图像融合中, 数据级融合又称为像素级融合(pixel-level fusion)[52].数据级融合首先将各传感器采集到的数据信息进行融合, 从中提取相关信息进行检测上的判断识别.该层次融合的优点在于可以保留丰富的原始信息, 并提供其他融合层次无法提供的详细信息[1].由于该层次融合数据信息量相对较大, 数据在传输过程和融合处理方面相对其他融合层次更加复杂, 造成的成本代价较高, 实时性较差.常用的数据级融合方法有小波变换方法(wavelet transform, WT)[53]、PCA变换方法(principal component analysis, PCA)[54]、IHS变换方法(intensity-hue-saturation, IHS)[55]等.

Niu等[56]提出一种由数据驱动的联合稀疏数据级融合方法(joint-sparse data level fusion, JSDLF), 以实现异构传感器的数据融合.作者先对来自多个分布式无源射频传感器和视频传感器捕捉的目标信号状态空间离散化, 进行相关物理量的数据级融合, 再利用所提出的JSDLF方法进行恢复实现目标的检测和估计.该方法优点是计算效率高, 且对时变射频信号的振幅、射频信号的波形以及目标图像强度等信息不做要求, 所需要的先验信息较少, 仿真针对动态远距离目标的检测结果显示其检测性能良好.但是, 现实环境较为复杂, 且目标运动形态较为多变, 在针对移动-停止-移动目标存在以及摄像受到遮挡或处于曝光条件下等复杂环境中该方法是否适用有待进一步验证.

针对背景昏暗的小目标, Zhao等[57]提出了一种基于小波变换(wavelet transform, WT)和图像融合的检测算法.首先对原始图像进行小波分解和重构, 将原始图像分解为低频图像和高频图像.对去除低频图像后高频图像融合成的新图像进行阈值分割, 实现目标检测及标注.昏暗背景的静态单目标仿真结果显示, 该方法具有良好的检测精度和稳定性, 但其仿真环境较为简单, 现实采集到的目标图像背景往往是发生变化的, 可进一步仿真验证其有效性.同样针对小目标检测, Wang等[58]提出了一种基于目标背景分离鲁棒主成分分析的红外小目标自适应检测方法, 将红外小目标图像转换为被稀疏目标和噪声矩阵破坏的背景矩阵, 首先利用多尺度变换和patch变换生成红外小目标检测的图像patch集, 然后利用自适应加权参数恢复稀疏矩阵实现每个patch的目标背景分离, 进行图像重建和融合得到整个分离的背景和目标图像, 最后通过模板匹配相似性度量的阈值分割以实现红外小目标检测.仿真针对静态目标, 检测结果表明该方法能有效抑制背景杂波, 提高检测融合系统的检测性能以及稳定性.该文指出, 未来将研究基于多处理器的并行计算以实现基于图像块的目标-背景分离.针对杂波背景的运动状态单目标或静/动态多目标检测等相关探究也可后续开展.随着小波变换和PCA方法日益成熟, 基于小波变换与PCA主成分分析相结合的融合方法也被相关学者提出. Jin等[59]将该方法用于不同偏振和不同频率下SAR(synthetic aperture radar)图像的像素级融合, 很大程度上增强了图像细节方面的信息融合并对环境噪声起到良好的抑制作用, 且检测效果优于单一的变换方法, 对融合检测性能的提高做出了一定的贡献.除增强检测性能外, 降低数据的维数, 从背景杂波中提取检测目标信息也是其优点之一[60].

王加等[28]提出的基于可见光图像传感器与红外成像传感器像素级图像融合检测算法在IHS-RGB空间变换得以实现, 对伪装目标的检测有一定的帮助.此外, 文献[61]在此基础上将图像融合技术与伪彩色编码相结合, 针对相同场景不同传感器采集到的图像分别进行图像融合, 得到新的I值, 通过IHS-RGB转换得到融合后的检测图像.该方法针对伪装目标以及与环境背景相似的目标, 虽具有良好的检测性能, 但极易受环境亮度影响, 在光线不清晰等情况下极可能无法检测出隐藏目标, 后续探究还有待开展.

数据级融合方法的应用范围和场景相当广泛.在针对小目标检测方面, 文献[57-58]分别利用WT和PCA方法进行检测.文献[59]将WT与PCA结合利用, 很好地保留了原始图像的空间细节信息.文献[61]相比文献[28]结合了伪彩色编码, 针对丛林中的伪装目标具有良好的检测效果.文献[56]初始采集到的目标状态如下:目标1状态[430.42 m, 2 293.65 m, −0.099 m/s, −15.19 m / s], 目标2状态[310.94 m, 2 249.39 m, 8.82 m / s, −8.81 m / s], 数值分别为2-D平面中xy坐标以及其水平方向和垂直方向的目标运动速度.检测性能的体现也各不相同, 文献[56]的仿真结果通过检测目标的移动误差低于车辆尺寸(移动速率误差分别为1.6m / s, 1.1 m / s)来验证其具有一定的研究价值.文献[58]通过获得较低的虚警率表明检测性能优异.文献[57, 59, 61]通过图像融合或分解后的效果图直观地表示出方法的优势.

2.2 基于特征级融合方法的目标检测

特征级融合(feature-level fusion)属于中间层次的数据融合[62].首先对各个传感器节点采集到的原始数据信息进行相关特征信息提取, 然后对提取的特征信息进行综合性分析和融合处理, 最后对融合后的特征进行分类并给出决策判决.通常可以将所提取的特征信息理解为所采集的原始数据的充分表示或统计[63], 该层次融合的优点是对原始数据信息实现一定程度上的信息压缩, 更方便传感器之间的信息传输和实时处理.此外, 通过对现有特征的综合处理可能会得到复合特征, 有利于提高目标的检测精度.其他相关性能介于数据级融合与决策级融合相关性能中间, 常见的特征级层次的融合方法有:聚类方法(clustering method, CM)[64]、贝叶斯理论(Bayesian theory, BT)方法[65]、Dempster–Shafer证据推理法(D-S方法)[66]等.

Li等[67]针对动态环境下的目标检测问题, 在有限通信资源等条件约束下提出了一种用于动态环境下目标检测的多传感器时间序列特征级融合的分布式框架.在光强变化的环境中, 通过在一个移动机器人上安装多个同质(不同方向)红外传感器对目标进行检测.利用符号动态滤波(symbolic dynamic filtering, SDF)[68]对采集的数据信息进行低维特征提取, 然后构造二叉树将所提取特征中的压缩信息以无监督方式聚类, 再通过二元统计假设检验进行目标检测.该文针对动态单目标的检测结果表明, 在动态环境下无监督特征级目标检测方案能够实现较高的检测概率, 具有一定的优越性.但针对存在多个同质或异构目标等复杂的目标检测分类场景该如何解决, 以及该实验测试装置是否适应大规模传感器网络等问题需要继续深入探究.

Ferrari等[69]提出了一种用于传感器测量过程的贝叶斯网络(Bayesian networks, BNs)方法, 利用专家知识以及预先从测试或实验中收集的传感器数据建立测量过程的概率模型.所建立的检测系统包含探地雷达(GPR)、电磁干扰(EMI)和红外(IR)传感器, 这些传感器可以测量埋在土壤和环境条件不均匀地区的物体形状、大小、深度和金属含量.当单个传感器对目标测量时, 通过BN方法从测量值中估计目标特征; 当多个传感器针对同一目标采集数据时, 利用Dempster-Shafter(D-S)方法与BNs方法相结合进行特征级融合.检测结果显示, 相对于单传感器测量, 系统地结合异构传感器测量对目标特征估计的精度、排雷系统探测以及分类的目标数量都有所提高, 目标特征估计精度提高了64 %, 被检测和分类的目标数量增加了62 %.

除一些经典的特征级融合方法外, 相关学者在该层次也陆续提出一些新的方法和思想. Leviner等[70]提出了一种名为多光谱分割融合(multi-spectral segmentation fusion, MSSF)的多光谱图像融合方法, 应用于简单目标/伪装目标检测.该文利用了可见光和红外所提供的信息互补的不同波段, 与可见光波段相比, 红外波段对人体目标的检测效果最好; 与红外波段相比, 可见光波段在整体场景中提供了更好的细节和对比度.该融合算法的思想是, 从源图像中提取感知相关的信息并将其结合起来, 针对人体目标检测以及空间定位给出最优结果. MSSF算法仅利用红外波段的信息将人体目标整合到合成图像中, 不将红外波段信息与可见光波段目标区域无关的信息混合, 以实现更好的融合图像效果.所提出的特征级融合方法与平均法和PCA方法的融合检测效果相比具有一定的优越性, 针对伪装目标具有良好的检测效果. MSSF算法目前仅能实现可见光波段和红外波段的融合, 可否在此基础上针对3个或多个信息互补的不同光谱进行融合需要进一步探讨与实践.刘峰等[71]提出了一种基于区域协方差(region covariance, RC)的多波段特征级图像融合方法, 将可见光、红外(中波与长波)3个波段的信息进行融合, 再利用K阶最近邻算法对目标图像进行识别分类.通过对单目标舰船实验结果表明, 该方法的检测效果良好, 目标识别率达到95.1 %, 单帧图像计算耗时约为0.5 s.但当所捕图像中出现多个目标时, 其协方差矩阵的提取容易出错, 且目标会因角度不同等问题导致在图像上显示其被部分遮挡, 也可能导致该方法不能有效地进行目标检测, 所以针对复杂场景、多目标等问题还需进行相关优化.

Dong等[72]提出一种多尺度特征融合(multi-scale feature fusion, MSFF)的目标检测算法来提高小目标的检测精度.首先在特征提取过程中对基本特征提取网络提取的特征映射进行解卷积, 并与前一层特征映射合并, 生成具有丰富语义和高分辨率的多尺度特征映射; 然后使用提出的多尺度特征图生成提议, 并将其发送到更快的R-CNN网络(region-CNN)进行分类和检测.使用该算法进行目标检测可以提高目标检测的准确性, 尤其是对于小目标, 下一步可针对现实环境目标检测案例进行仿真验证.

综上所述, 特征级融合方法大多应用在图像融合中, 利用不同的图像传感器采集目标图像, 对图像目标进行边缘特征提取、图像分割分离等, 再进行融合, 并与目标特征进行匹配.特征级融合检测方法的应用领域虽有所不同, 但其算法思想值得相关领域学习, 如文献[70]对可见光波段和红外波段的特征图像进行融合, 文献[71]将红外细分为中波红外和长波红, 进行了3种波段特征图像的融合.虽然两篇文献的算法流程有所差异, 但文献[70]也考虑了3种波段情况, 是否可以提升检测精度需做进一步探究.该节文献其检测性能均相对较高, 如文献[70]对非伪装目标检测率达到1, 伪装目标检测也高达0.7;文献[71]针对海面的舰船检测效果高达95.1 %, 但针对多个目标时易受外界动态环境影响, 还有待进一步解决; 文献[67]将其中一个机器人作为被检目标, 匀速且在与检测设备垂直的单方向上移动, 特定情况下特征级目标检测的正确率为100 %, 虚警率仅为2 %.

2.3 基于决策级融合方法的目标检测

决策级融合属于最高层次的数据信息融合, 该层次融合充分利用各局部传感器的初步决策.局部传感器根据采集到的数据信息进行检测目标存在与否的判决, 将判决信息进行信息化后传递至融合中心, 融合中心根据设定的融合规则整合全局判决信息, 进行整体的综合分析与判决.决策级融合的优点在于能量消耗较小, 具有良好的抗干扰能力和容错能力, 但其缺点也是显然的, 因为当传感器节点进行局部决策时将会导致部分信息的损失, 以及无法获取不同传感器采集的信息进行融合产生复合潜在信息等.常用的决策级融合方法有模糊理论[73]、逻辑理论[74]、Dempster–Shafer证据推理法(D-S方法)[75]、专家论证方法[76]等.

多传感器分布式数据融合的检测系统虽在民用和军用领域都得到了广泛应用[41], 但这些系统中大部分检测融合规则的最优性依赖于所有分布式传感器的概率分布知识.由于传感器概率密度函数的不稳定性, 中央处理器(融合中心)的总体检测性能往往比预期的差.针对上述情况, Aziz[22]提出一种新的决策级融合, 在假设各传感器概率分布未知的情况下, 根据一个合适的线性最小二乘(linear least squares, LLS)公式将各传感器针对所有目标的决策进行整合以获得整体决策, 最后利用蒙特卡罗模拟方法对该规则的全局性能进行评估.所提出方法的核心是在不知道所有概率分布的情况下进行目标检测, 然后将其推广到已知概率分布的情况下进行目标检测.在此基础上, 可根据所提出的融合规则确定单个传感器的虚警和检测概率, 以保护中央处理器免受传感器故障、杂波等影响.

在背景复杂的环境进行目标检测时, 出现目标检测异常的情况屡见不鲜[77].高光谱图像处理中, 异常检测是一种很有价值的搜索光谱特征未知的目标方式, 而背景信号的估计更是其中关键步骤. Zhong等[78]提出了一种基于优化K均值聚类与决策级融合相结合的异常检测方法, 首先利用优化的K均值聚类方法对具有相似特征的像素进行聚类融合; 然后利用主成分分析(PCA)进行降低维度, 减少计算量; 再采用Reed-Xiaoli (RX)和Kernel RX算法分别对处理后的图像进行优化处理; 最后通过线性一致性理论(linear consensus theory, LCT)对上述检测器结果进行决策级融合并得到异常检测的结果.通过仿真验证, 该方法具有良好的异常监测能力.

Cho等[79]提出了一种合成孔径雷达(SAR)与红外(IR)传感器相结合的决策级融合结构, 用于自动目标检测.该算法以基于布尔图视觉理论(Boolean map visual theory, BMVT)的目标检测器作为基础目标检测器, 将单个传感器采集到的原始图像转换成一个特征图和决策值, 利用Dempster-Shafer证据理论法实现雷达图像与红外图像的融合得到目标增强图.此外, 该文又提出了一种新的基于尺寸的目标轮廓特征以减小虚警率, 根据各传感器的检测结果构建目标轮廓图.将目标增强图与目标轮廓图在决策层进行融合对目标的存在与否进行判决, 与单独的D-S融合结果相比, 所提出的方法在降低目标检测虚警误报的同时提高了其检测性能.该文提出的基于BMVT的检测器对红外图像中小目标检测效果良好, 因为高分辨率图像中的目标可能由几百个像素组成, 所以该目标检测器不适用于高分辨率场景.

Wang等[80]提出了一种基于D-S证据理论的红外图像与可见光图像融合方法.首先利用特征提取算子分别对红外图像和可见光图像进行特征提取, 然后在证据理论框架下融合两幅传感器图像同一场景的特征提取, 最后根据决策判决给出目标检测结果.该文的核心是利用证据理论基本概率分配函数描述了基于D-S证据理论的红外和可见光图像不确定性和融合检测算法, 将红外图像和可见光图像的局部方差偏移量、局部方差对比度和局部熵作为证据, 采用D-S组合规则进行合成, 最后给出基于决策的检测结果.该文针对其中某图像目标区域出现不清晰等状况, 采取了合理的措施, 针对静态单个人体目标仿真检测结果显示检测误差相对较小.但算法相对单一, 针对运动目标、多目标等复杂的检测效果还未可知, 具有更大的研究和进步空间.

基于决策级融合的目标检测应用领域同样广泛, 不仅可用于寻常的人体目标和车辆目标检测, 也可对高光谱图像中的异常目标进行检测, 适用于诸多领域.文献[22]适用于多传感器分布式检测系统的多决策融合, 可扩展到分布式的无线传感器网络验证其检测效果.文献[79]具有良好的检测效果, 针对部分高空拍摄的地面目标车辆图像, 能够完全检测出车辆目标信息, 具有较高的研究价值.文献[80]可应用于现实的监测环境中, 当采集的图像出现不清晰等模糊现象时, 采用该方法可使被检测目标相对更清晰, 实用性价值较高.

2.4 基于融合层次方法分类总结

该节从数据级融合、特征级融合、决策级融合3个层次出发, 在介绍相关融合层次概念的基础上, 针对各分层下目标检测的相关文献进行了详细介绍, 指出部分文献的应用以及优缺点.

相比于其他融合等级, 数据级融合检测方法虽可保留最多的目标数据信息, 但同样带来大量信息的传输问题和融合问题, 能量消耗也随之增加, 从而带来一系列成本问题.特征级数据融合检测方法虽介于数据级融合与决策级融合之间, 但其可对目标的特征信息进行提取, 而且特征融合产生的复合特征也会挖掘潜在的目标信息.特征融合算法的要求相对较高, 也更为复杂.对于决策级融合检测方法而言, 丢失的目标信息最大, 融合中心获取的目标信息量较少, 大部分为局部传感器传输过来的0-1决策, 导致检测精度相对于其他融合等级较低, 但也具有检测系统更灵活、融合算法相对简单、健壮性和容错性较好等诸多优势.不同等级的融合检测方法都有其优缺点, 没有十全十美的算法.根据相关研究领域场景以及侧重的检测需求选取合适的检测方法才是需要的.基于不同融合层次的目标检测方法相关性能总结如表 5所示.

表 5 基于不同融合层次的目标检测方法相关性能总结
3 结论与展望 3.1 结论

本文从传感器辅助和融合分层两个方面对基于数据融合的目标检测方法进行了分类阐述.在基于传感器辅助分类方法中, 图像传感器、异类传感器、WSNs作为常见的3种目标检测基础设施已广泛应用于各个目标监测领域.针对现实环境的检测需求选择相对合适的检测设施可以更好地检测区域目标或节约成本.本文在介绍相关优秀文献的同时, 也尽量指出文章的贡献、局限性、未来研究方向以及部分仿真过程和结果总结.

检测融合的相关方法可抽象为数据级融合、特征级融合、决策级融合3个融合层次.本文在介绍3个融合层次相关概念的基础上, 针对不同层次的前沿文献进行了详细阐述, 并指出部分文献的主要贡献、优缺点以及研究前景.在此基础上还对部分应用场景、仿真过程等进行了总结分析, 以便读者深入了解.

下面基于传感器辅助分类的方法以及融合层次分类的方法统一进行总结, 并从检测融合方法所应用仿真的检测目标数量、维度以及动态等方面进行归纳整理, 如表 6所示.

表 6 基于数据融合的目标检测相关文献总结
3.2 研究前景

目标检测作为诸多领域的研究热点之一, 受到相关学者的密切关注和研究.无论从基础硬件设施的改进还是检测融合算法的优化创新, 近代相关领域的研究学者对目标检测问题的研究以及拓展做出了不可磨灭的贡献.目标检测融合系统的本质是数据融合, 数据融合方法的优异好坏直接影响着系统检测各方面性能的强弱.针对数据融合的目标检测问题, 仍有许多待解决的问题值得继续探究和优化, 具体总结如下:

1) 针对多目标检测.

根据本文介绍可发现, 虽然近些年针对多目标检测的相关文献层出不穷, 但是方法大多仅偏向动态多目标或静态多目标进行检测.针对复杂环境中既有静态目标又有动态目标的多目标情况, 如何能够对兴趣区域进行实时有效的目标监测值得探究.

2) 针对融合数据.

传感器捕捉到的数据作为数据融合的基础, 其重要程度不言而喻.由于现实环境的复杂性以及传感器本身的缺陷性, 传感器往往会因为外界原因造成采集数据信息的不确定、不完全或无法采集到目标的相关信息, 造成最终决策判决的无效[81].传感器节点之间在非理想信道下传输数据信息可能造成部分数据丢失也会对检测精度产生一定程度的影响[82], 如何攻克或减小技术上的缺陷以便更好地检测是当今面临的挑战之一.此外, 如何针对采集的数据进行质量评估, 并采取相关措施减小技术带来的缺陷以获取更精准的目标数据信息可作为下一步的研究方向.

3) 针对检测系统各性能优化、权衡、评估.

在本文介绍的相关前沿文献中, 已有相关学者针对目标检测系统各方面性能的优化做出了贡献.根据本文研究发现, 大部分学者将原始数据信息转换成硬数据信息或软数据信息进行融合.然而, 软数据与硬数据的融合更具挑战性, 而且在某些应用中也是必要的[83], 软硬协同目标检测优化值得相关领域学者的深入探究.由于现实环境复杂多变, 如水下环境的复杂性会导致利用成像传感器进行目标检测存在对比度和可视性低的问题, 甚至难以探测到目标的存在[84], 根据真实环境的复杂性以及现实需求、成本限制等因素, 如何更好地优化和权衡目标检测性能、检测系统的生命周期以及能源消耗等问题仍需要不断探索.此外, 针对不同的融合检测方法, 有效的性能评估能够通过一组度量或指标来比较其优缺点[85], 可以针对不同场景所需的性能要求匹配相适应的检测融合算法, 所以如何针对检测融合系统的各方面性能进行有效的性能评估也是研究重点之一.

参考文献
[1]
罗俊海, 王章静. 多源数据融合和传感器管理[M]. 北京: 清华大学出版社, 2015: 3-43.
(Luo J H, Wang Z J. Multi-source data fusion and sensor management[M]. Beijing: Tsinghua University Press, 2015: 3-43.)
[2]
王耀南, 李树涛. 多传感器信息融合及其应用综述[J]. 控制与决策, 2001, 16(5): 518-522.
(Wang Y N, Li S T. Multisensor information fusion and its application: A survey[J]. Control and Decision, 2001, 16(5): 518-522. DOI:10.3321/j.issn:1001-0920.2001.05.002)
[3]
Garcia-Sanchez A J, Garcia-Sanchez F, Losilla F, et al. linebreak Wireless sensor network deployment for monitoring wildlife passages[J]. Sensors, 2010, 10(8): 7236-7262. DOI:10.3390/s100807236
[4]
Cho H, Seo Y, Kumar B V K, et al. A multi-sensor fusion system for moving object detection and tracking in urban driving environments[C]. International Conference on Robotics and Automation. Hong Kong: IEEE, 2014: 1836-1843.
[5]
郑春红, 焦李成, 郑贵文. 基于GA的遥感图像目标SVM自动识别[J]. 控制与决策, 2005, 20(11): 1212-1215.
(Zheng C H, Jiao L C, Zheng G W. Genetic algorithm-based SVM for automatic target classification of remote sensing images[J]. Control and Decision, 2005, 20(11): 1212-1215. DOI:10.3321/j.issn:1001-0920.2005.11.003)
[6]
Schreiber-Ehle S, Koch W. The JDL model of data fusion applied to cyber-defence[C]. Workshop on Sensor Data Fusion: Trends, Solutions, Applications, (SDF). Bonn: IEEE, 2012: 116-119.
[7]
Klein Lawrence A. Sensor and data fusion concepts and applications[J]. IEEE Computer Graphics Applications, 1999, 25(6): 22-23.
[8]
Khaleghi B, Khamis A, Karray F O, et al. Multisensor data fusion[J]. Information Fusion, 2013, 14(1): 28-44.
[9]
Bader K, Lussier B, Schön W. Fault tolerance from formal analysis of a data fusion mechanism[C]. The 1st IEEE International Conference on Robotic Computing, (IRC). Taichung: IEEE, 2017: 69-72.
[10]
Ababnah A, Natarajan B. Optimal control based sensor deployment incorporating centralized data fusion[J]. IEEE Transactions on Aerospace and Electronic Systems, 2011, 47(3): 2086-2097. DOI:10.1109/TAES.2011.5937284
[11]
Sun S, Lin H, Ma J, et al. Multi-sensor distributed fusion estimation with applications in networked systems[J]. Information Fusion, 2017, 38(11): 122-134.
[12]
Li X R, Zhu Yunmin, Han Chongzhao. Unified optimal linear estimation fusion: Unified models and fusion rules[C]. Proceedings of the 3rd International Conference on Information Fusion. Paris: IEEE, 2000: 10-17.
[13]
Aldosari S A, Moura J M F. Topology of sensor networks in distributed detection[C]. IEEE International Conference on Acoustics Speech and Signal Processing Proceedings. Toulouse: IEEE, 2006: 1061-1064.
[14]
Luo J, Liu Z. Serial distributed detection for wireless sensor networks with sensor failure[J]. Eurasip Journal on Wireless Communications Networking, 2017(1): 123.
[15]
Luo J, Ni J, Wu Q, et al. Data fusion utilization for distributed target detection with tree topology[C]. The 20th International Conference on Information Fusion. Xi'an: IEEE, 2017: 1-8.
[16]
Ishmanov F, Malik A S, Kim S W. Energy consumption balancing, (ECB) issues and mechanisms in wireless sensor networks (WSNs)[J]. European Transactions on Telecommunications, 2011, 22(4): 151-167. DOI:10.1002/ett.1466
[17]
Khan U A, Jadbabaie A. On the stability and optimality of distributed Kalman filters with finite-time data fusion[J]. Proceedings of the 2011 American Control Conference. San Francisco: IEEE, 2011, 3405-3410.
[18]
Ting Y Y, Wang H S. Develop a multi-detection security system using multi-sensor fusion algorithms[J]. Artificial Life Robotics, 2013, 18(1/2): 83-88.
[19]
Dong J, Zhuang D, Huang Y, et al. Advances in multi-sensor data fusion: Algorithms and applications[J]. Sensors, 2009, 9(10): 7771-7784. DOI:10.3390/s91007771
[20]
徐小琴. 多传感器数据融合目标识别算法综述[J]. 红外与激光工程, 2006, 35(4): 322-328.
(Xu X Q. Survey of multi-sensor data fusion target recognition algorithms[J]. Infrared and Laser Engineering, 2006, 35(4): 322-328.)
[21]
张铁柱, 蒋宏. 机载雷达和红外数据融合的智能目标识别[J]. 红外与激光工程, 2010, 39(4): 756-760.
(Zhang T Z, Jiang H. Intelligent target recognition based on the data fusion of radar and infrared imaging sensor[J]. Infrared and Laser Engineering, 2010, 39(4): 756-760. DOI:10.3969/j.issn.1007-2276.2010.04.037)
[22]
Aziz A M. A new multiple decisions fusion rule for targets detection in multiple sensors distributed detection systems with data fusion[J]. Information Fusion, 2014, 18(1): 175-186.
[23]
Zou T, Li Z, Li S, et al. Adaptive energy-efficient target detection based on mobile wireless sensor networks[J]. Sensors, 2017, 17(5): 1028-1032. DOI:10.3390/s17051028
[24]
Li Y, Lei Z, Gao J. Dim target detection based on visual saliency in linear CCD image[C]. The 8th International Symposium on Computational Intelligence and Design, (ISCID). Hangzhou: IEEE, 2015: 551-554.
[25]
Omar Z, Stathaki T. Image fusion[C]. The 5th International Conference on Intelligent Systems, Modelling and Simulation. Langkawi: IEEE, 2014: 306-310.
[26]
Teman A, Fisher S, Sudakov L, et al. Autonomous CMOS image sensor for real time target detection and tracking[C]. International Symposium on Circuits and Systems. Seattle: IEEE, 2008: 2138-2141.
[27]
Lan J, Li J, Xiang Y, et al. Fast automatic target detection system based on a visible image sensor and ripple algorithm[J]. IEEE Sensors Journal, 2013, 13(7): 2720-2728. DOI:10.1109/JSEN.2013.2250277
[28]
王加, 蒋晓瑜, 纪伯公. 一种用于目标识别的图像融合算法[J]. 激光与红外, 2008, 38(1): 92-95.
(Wang J, Jiang X Y, Ji B G. An image fusion algorithm for target recognition[J]. Laser Infrarei, 2008, 38(1): 92-95. DOI:10.3969/j.issn.1001-5078.2008.01.027)
[29]
Zuwhan Kim, Sengupta R. Target detection and position likelihood using an aerial image sensor[C]. IEEE International Conference on Robotics and Automation. Pasadena: IEEE, 2008: 59-64.
[30]
魏志杰, 阚英男, 李一芒. 融合不同像元尺寸图像传感器探测结果的目标检测方法[J]. 吉林建筑大学学报, 2017, 34(5): 37-40.
(Wei Z J, Kan Y N, Li Y M. Target detection method using the results of different pixel sizes image sensors[J]. Journal of Jilin Jianzhu University, 2017, 34(5): 37-40. DOI:10.3969/j.issn.1009-0185.2017.05.010)
[31]
Mhatre V, Rosenberg C. Homogeneous vs heterogeneous clustered sensor networks: A comparative study[C]. IEEE International Conference on Communications. Paris: IEEE, 2004: 3646-3651.
[32]
Zhou H, Taj M, Cavallaro A. Target detection and tracking with heterogeneous sensors[J]. IEEE Journal of Selected Topics in Signal Processing, 2008, 2(4): 503-513. DOI:10.1109/JSTSP.2008.2001429
[33]
Liang J, Wang Z. Adaptive sensor selection for multi-target detection in heterogeneous sensor networks[C]. The 7th International Conference on Fuzzy Systems and Knowledge Discovery. Yantai: IEEE, 2010: 972-976.
[34]
Yang C, Kaplan L, Blasch E, et al. Optimal placement of heterogeneous sensors for targets with gaussian priors[J]. IEEE Transactions on Aerospace Electronic Systems, 2013, 49(3): 1637-1653. DOI:10.1109/TAES.2013.6558009
[35]
Sungho K, Woo-Jin S, So-Hyun K. Robust ground target detection by SAR and IR sensor fusion using adaboost-based feature selection[J]. Sensors, 2016, 16(7): 1117-1120. DOI:10.3390/s16071117
[36]
Liu Congyi, Jing Zhongliang, Xiao Gang, et al. Feature-based fusion of infrared and visible dynamic images using target detection[J]. Chinese Optics Letters, 2007, 5(5): 274-277.
[37]
Wang J. Emitter target recognition based on multi-sensor data fusion of ESM and IR[C]. International Conference on Signal Processing. Beijing: IEEE, 2008: 1508-1511.
[38]
Yick J, Mukherjee B, Ghosal D. Wireless sensor network survey[J]. Computer Networks, 2008, 52(12): 2292-2330. DOI:10.1016/j.comnet.2008.04.002
[39]
Chen D, Liu Z, Wang L, et al. Natural disaster monitoring with wireless sensor networks: A case study of data-intensive applications upon low-cost scalable systems[J]. Mobile Networks and Applications, 2013, 18(5): 651-663. DOI:10.1007/s11036-013-0456-9
[40]
Nakamura E F, Loureiro A A F, Frery A C. Information fusion for wireless sensor networks: Methods, models, and classifications[J]. Acm Computing Surveys, 2007, 39(3): 415-416.
[41]
Katenka N, Levina E, Michailidis G. Local vote decision fusion for target detection in wireless sensor networks[J]. IEEE Transactions on Signal Processing, 2007, 56(1): 329-338.
[42]
Wang B, Lim H B, Ma D, et al. A coverage-aware clustering protocol for wireless sensor networks[C]. International Conference on Mobile Ad-hoc and Sensor Networks. Hangzhou: IEEE, 2010: 85-90.
[43]
Hu Y, Dong M, Ota K, et al. Mobile target detection in wireless sensor networks with adjustable sensing frequency[J]. IEEE Systems Journal, 2016, 10(3): 1160-1171. DOI:10.1109/JSYST.2014.2308391
[44]
Liu A, Zhang D, Zhang P H, et al. On mitigating hotspots to maximize network lifetime in multi-hop wireless sensor network with guaranteed transport delay and reliability[J]. Peer-to-Peer Networking and Applications, 2014, 7(3): 255-273. DOI:10.1007/s12083-012-0130-1
[45]
Cheng C T, Tse C K, Lau F C M. An energy-aware scheduling scheme for wireless sensor networks[J]. IEEE Transactions on Vehicular Technology, 2010, 59(7): 3427-3444. DOI:10.1109/TVT.2010.2054842
[46]
Frye L, Cheng Liang, Du Shenfu, et al. Topology maintenance of wireless sensor networks in node failure-prone environments[C]. IEEE International Conference on Networking, Sensing and Control. Lauderdale: IEEE, 2006: 886-891.
[47]
Tan R, Xing G, Wang J, et al. Exploiting reactive mobility for collaborative target detection in wireless sensor networks[J]. IEEE Transactions on Mobile Computing, 2010, 9(3): 317-332. DOI:10.1109/TMC.2009.125
[48]
Xu K, Hassanein H, Takahara G, et al. Relay node deployment strategies in heterogeneous wireless sensor networks[J]. IEEE Transactions on Mobile Computing, 2009, 9(2): 145-159. DOI:10.1109/TMC.2009.105
[49]
Wang W, Srinivasan V, Chua K, et al. Energy-efficient coverage for target detection in wireless sensor networks[C]. International Symposium on Information Processing in Sensor Networks. Cambridge: IEEE, 2007: 313-322.
[50]
袁朝晖, 王高峰. 基于数据融合确保目标检测精度的传感器节点布置[J]. 计算机科学, 2009, 36(9): 51-54.
(Yuan Z H, Wang G F. Fusion-based sensor placement for target detection with guaranteed accuracy[J]. Computer Science, 2009, 36(9): 51-54. DOI:10.3969/j.issn.1002-137X.2009.09.014)
[51]
Wu Huafeng, Xian Jiangfeng, Mei Xiaojun, et al. Efficient target detection in maritime search and rescue wireless sensor network using data fusion[J]. Computer Communications, 2019, 136: 53-62. DOI:10.1016/j.comcom.2019.01.002
[52]
Solanky V, Katiyar S K. Pixel-level image fusion techniques in remote sensing[J]. Spatial Information Research, 2016, 24(4): 475-483. DOI:10.1007/s41324-016-0046-6
[53]
Arivazhagan S, Ganesan L. Automatic target detection using wavelet transform[J]. Eurasip Journal on Advances in Signal Processing, 2004(17): 2663-2674.
[54]
Hongyan G. A simple multi-sensor data fusion algorithm based on principal component analysis[C]. ISECS International Colloquium on Computing, Communication, Control, and Management. Sanya: IEEE, 2009: 423-426.
[55]
Kanaev A V, Daniel B J, Neumann J G, et al. Object level HSI-LIDAR data fusion for automated detection of difficult targets[J]. Optics Express, 2011, 19(21): 20916. DOI:10.1364/OE.19.020916
[56]
Niu R, Zulch P, Distasio M, et al. Joint sparsity based heterogeneous data-level fusion for multi-target discovery[C]. IEEE Aerospace Conference. Big Sky: IEEE, 2018: 1-8.
[57]
Zhao J, Liu F, Mo B. An algorithm of dim and small target detection based on wavelet transform and image fusion[C]. The 5th International Symposium on Computational Intelligence and Design. Hangzhou: IEEE, 2012: 43-45.
[58]
Wang C, Qin S. Adaptive detection method of infrared small target based on target-background separation via robust principal component analysis[J]. Infrared Physics Technology, 2015, 69: 123-135. DOI:10.1016/j.infrared.2015.01.017
[59]
Jin Y, Ruliang Y, Ruohong H. Pixel level fusion for multiple SAR images using PCA and wavelet transform[C]. CIE International Conference on Radar. Shanghai: IEEE, 2006: 1-4. 60
[60]
Nizam U Chowdhury, Mohammad S Alam. Efficient mine detection using wavelet PCA and morphological top hat filtering[C]. SPIE Defense, Security, and Sensing. Baltimore, 2013, 87480: 1-10.
[61]
王加, 蒋晓瑜, 杜登崇, 等. 基于伪彩色编码和图像融合的伪装目标识别方法[J]. 探测与控制学报, 2008, 30(2): 43-46.
(Wang J, Jiang X Y, Du D C, et al. A disguised target recognition method based on pseudo-color coding and image fusion[J]. Journal of Detection Control, 2008, 30(2): 43-46. DOI:10.3969/j.issn.1008-1194.2008.02.011)
[62]
Federico C. A review of data fusion techniques[J]. The Scientific World Journal, 2013(6): 1-19.
[63]
Nixon M, Aguado A S. Feature extraction and image processing[M]. Salt Lake City: American Academic Press, 2002: 31-97.
[64]
Zhang Y. Research on feature extraction method based on clustering and PCA fusion[J]. Computer Engineering Applications, 2010, 46(11): 148-150.
[65]
Shi X, Manduchi R. On the Bayes fusion of visual features[J]. Image Vision Computing, 2007, 25(11): 1748-1758. DOI:10.1016/j.imavis.2007.01.003
[66]
Basir O, Yuan X. Engine fault diagnosis based on multi-sensor information fusion using Dempster-Shafer evidence theory[J]. Information Fusion, 2007, 8(4): 379-386. DOI:10.1016/j.inffus.2005.07.003
[67]
Li Yue, Jha D K, Ray A, et al. Feature level sensor fusion for target detection in dynamic environments[C]. American Control Conference, (ACC). Chicago: IEEE, 2015: 2433-2438.
[68]
Rao C, Ray A, Sarkar S, et al. Review and comparative evaluation of symbolic dynamic filtering for detection of anomaly patterns[J]. Signal Image Video Processing, 2009, 3(2): 101-114. DOI:10.1007/s11760-008-0061-8
[69]
Ferrari S, Vaghi A. Demining sensor modeling and feature-level fusion by Bayesian networks[J]. IEEE Sensors Journal, 2006, 6(2): 471-483.
[70]
Leviner M, Maltz M. A new multi-spectral feature-level image fusion method for human interpretation[J]. Infrared Physics and Technology, 2009, 52(2/3): 79-88.
[71]
刘峰, 沈同圣, 郭少军, 等. 基于特征级融合的多波段舰船目标识别方法[J]. 光谱学与光谱分析, 2017, 37(6): 1934-1940.
(Liu F, Shen T S, Guo S J, et al. A method of multi-band ship target recognition based on feature-level fusion[J]. Spectroscopy and Spectral Analysis, 2017, 37(6): 1934-1940.)
[72]
Dong Chong, Li Jingmei, Wang Jiaxiang. A multi-scale feature fusion target detection algorithm[C]. Proc SPIE International Conference on Image and Video Processing, and Artificial Intelligence. Shanghai: IEEE, 2018, 10836: 1-8.
[73]
Zhang Z, Hao Z, Zeadally S, et al. Multiple attributes decision fusion for wireless sensor networks based on intuitionistic fuzzy set[J]. IEEE Access, 2017, 5(99): 12798-12809.
[74]
Jian Z, Hongbing C, Jie S, et al. Data fusion for magnetic sensor based on fuzzy logic theory[C]. The 4th International Conference on Intelligent Computation Technology and Automation. Shenzhen: IEEE, 2011: 87-92.
[75]
王万请, 赵拥军, 黄洁, 等. 一种非对称的证据冲突度量方法[J]. 控制与决策, 2014, 29(3): 533-536.
(Wang W Q, Zhao Y J, Huang J, et al. An asymmetrical measure for evidence conflict[J]. Control and Decision, 2014, 29(3): 533-536.)
[76]
Rahman A F R, Fairhurst M C. Multiple expert classification: A new methodology for parallel decision fusion[J]. International Journal on Document Analysis Recognition, 2000, 3(1): 40-55. DOI:10.1007/PL00013554
[77]
Batı E, Erdinc A, Cesmeci D, et al. Anomaly based target detection in hyperspectral images via graph cuts[C]. The 23th Signal Processing and Communications Applications Conference, (SIU). Malatya: IEEE, 2015: 2631-2634.
[78]
Zhong S, Zhang Y. A novel anomaly detection approach based on clustering and decision-level fusion[C]. International Society for Optics and Photonics. San Diego: IEEE, 2015: 961115.
[79]
Cho Y R, Yim S H, Cho H W, et al. Decision-level fusion of SAR and IR sensor information for automatic target detection[C]. Spie Defense and Security. Anaheim: IEEE, 2017: 102001D.
[80]
Wang A, Jiang J, Zhang H. Multi-sensor image decision level fusion detection algorithm based on D-S evidence theory[C]. The 4th International Conference on Instrumentation and Measurement, Computer, Communication and Control. Harbin: IEEE, 2014: 620-623.
[81]
Dubois D, Liu W, Ma J, et al. The basic principles of uncertain information fusion[J]. Information Fusion, 2016, 32(PA): 12-39.
[82]
Liu Y, Feng X. The detection arithmetic of soft decision based on non-ideal channel in distributed detection[C]. International Conference on Computational Intelligence and Security Workshops. Heilongjiang: IEEE, 2007: 695-698.
[83]
Graham J L. Advances in data representation for hard / soft information fusion[J]. Proceedings of SPIE, 2012, 8407(4): 1-9.
[84]
Junhai L, Ying H, Liying F. Underwater acoustic target tracking[J]. Sensors, 2018, 18(2): 112-116.
[85]
Irvine J M, Mossing J. Evaluation of automated target detection using image fusion[J]. Proceedings of SPIE, 2003, 7(15/16): 81-90.