控制与决策  2019, Vol. 34 Issue (10): 2171-2177  
0

引用本文 [复制中英文]

刘洪彬, 常发亮, 刘春生, 梁付新. 基于时空渐进特征模型的抗遮挡多目标跟踪[J]. 控制与决策, 2019, 34(10): 2171-2177.
[复制中文]
LIU Hong-bin, CHANG Fa-liang, LIU Chun-sheng, LIANG Fu-xin. Anti-occlusion multi-target tracking with progressive spatio-temporal feature model[J]. Control and Decision, 2019, 34(10): 2171-2177. DOI: 10.13195/j.kzyjc.2018.0156.
[复制英文]

基金项目

国家自然科学基金项目(61673244, 61703240)

作者简介

刘洪彬(1988-), 男, 博士生, 从事计算机视觉、目标跟踪的研究, E-mail: chinashklhb@126.com;
常发亮(1965−), 男, 教授, 博士生导师, 从事模式识别、计算机视觉等研究, E-mail: flchang@sdu.edu.cn;
刘春生(1986-), 男, 助理研究员, 博士, 从事模式识别、计算机视觉等研究, E-mail: liuchunsheng@sdu.edu.cn;
梁付新(1992-), 男, 硕士生, 从事计算机视觉、目标跟踪的研究, E-mail: lfx1173473041@163.com

通讯作者

常发亮, E-mail: flchang@sdu.edu.cn

文章历史

收稿日期:2018-02-01
修回日期:2018-05-12
基于时空渐进特征模型的抗遮挡多目标跟踪
刘洪彬 , 常发亮 , 刘春生 , 梁付新     
山东大学 控制科学与工程学院,济南 250061
摘要:针对多目标跟踪过程中存在目标相互遮挡的问题, 提出一种基于时空渐进特征模型的抗遮挡多目标跟踪方法.该方法根据目标的关联状态、重叠情况、深度顺序构建遮挡推理模型, 在线识别被遮挡目标, 并对其进行基于时空渐进特征模型的目标再检测.首先, 利用目标特征模型中的空间位置参数确定搜索区域; 然后, 计算目标模型与检测响应之间的表观特征相似度, 引入一种自适应阈值, 并选择相近程度较高的检测响应为候选量测; 最后, 采用时间特征匹配的方式获得目标真实检测响应, 完成多目标跟踪的任务.通过MOT15和MOT17数据集中的实验结果表明, 所提出方法能够有效地识别被遮挡目标, 可在多种复杂场景下实现相互遮挡目标的鲁棒性跟踪, 相对于现有方法具有较高的准确性、精度和轨迹完整性.
关键词遮挡推理    时空渐进    目标模型    特征匹配    目标再检测    抗遮挡    多目标跟踪    
Anti-occlusion multi-target tracking with progressive spatio-temporal feature model
LIU Hong-bin , CHANG Fa-liang , LIU Chun-sheng , LIANG Fu-xin     
School of Control Science and Engineering, Shandong University, Ji'nan 250061, China
Abstract: Multi-target tracking in inter-occlusion scene is a challenging issue. The paper proposes an anti-occlusion multi-target tracking method based on the progressive spatio-temporal feature model. The method establishes an occlusion reasoning model according to the associated states, overlap and depth of the target. The occluded target is identified by the occlusion reasoning model and re-detected by the progressive spatio-temporal feature model. Firstly, search region is determined by the spatial position parameter in the target feature model. Then, the similarity between the target model and detection is calculated, an adaptive threshold is presented, and the detection with a similarity higher than the threshold is considered as candidate measurement. Finally, the real detection of the target is obtained by matching the temporal feature, and multi-target tracking is completed. Experimental results conducted on MOT15 and MOT17 benchmarks show that the proposed method can effectively identify the occluded target and be robust for tracking inter-occlusion targets in several complicated scenes. Compared with the state-of-the-art methods, the proposed method achieves outstanding performance in accuracy, precision and trajectory completeness.
Keywords: occlusion reasoning    progressive spatio-temporal    feature matching    target re-detection    anti-occlusion    multi-target tracking    
0 引言

视频监控中的多目标跟踪是计算机视觉领域中的一项重要研究内容, 在智能交通、多媒体等技术中具有广泛的应用前景[1-2].当目标处于相互遮挡场景时, 跟踪器无法获取准确的目标特征信息, 从而导致多目标跟踪算法产生目标丢失或漂移等现象[3].文献[4]将重新搜索丢失或漂移目标的过程称为目标再检测.

很多学者在基于检测的跟踪框架下解决目标遮挡的问题. Xing等[5]采用粒子滤波器生成可靠轨迹段, 通过关联这些轨迹段来解决完全遮挡问题. Milan等[3]提出一种全局遮挡推理模型, 结合目标矩形区域之间的重叠比例和深度顺序构建目标可见度函数, 可以准确地跟踪多个目标, 然而该方法以离线的方式进行全局优化, 较难应用到实时系统中.文献[6]建立了EOM(Explicit occlusion model)遮挡模型, 根据检测响应之间的距离和矩形区域尺寸比例设定重叠约束, 用于解决全局数据关联中的目标遮挡问题. Bae等[7]提出了一种基于轨迹置信系数和判别表观学习(Tracklet confidence and online discriminative appearance learning, TCODAL)的方法, 可在复杂环境下完成在线多目标跟踪.近几年, 有些研究者尝试使用神经网络学习特征模型, 以增强遮挡情况下多目标跟踪的鲁棒性[8-9].但是, 这些方法仅采用了目标表观等空间维度上的特征(简称空间特征).当目标处于相互遮挡的复杂环境时, 空间特征的可靠性较低, 容易导致多目标跟踪不准确.文献[10-12]认为时间维度上的特征(运动方向、速度、加速度等特征, 简称时间特征)也是一种重要的跟踪信息, 可以有效地提高多目标跟踪性能.

针对上述问题, 本文提出一种基于时空渐进特征(Progressive spatio-temporal feature, PSTF)模型的抗遮挡多目标跟踪方法.该方法根据目标的关联状态、重叠情况、深度顺序构建遮挡推理模型, 在线识别被遮挡目标, 并对其进行基于PSTF模型的目标再检测.实验结果表明, 本文方法可以有效地解决相互遮挡、目标相似等多种复杂情况,提高多目标跟踪的准确性和鲁棒性.

1 总体框架

本文提出一种基于PSTF模型的抗遮挡多目标跟踪方法, 总体框架如图 1所示.针对图像序列中的多个目标, 根据目标的关联状态、重叠情况、深度顺序构建遮挡推理模型, 在线判别当前时刻所跟踪的目标是否处于被遮挡状态.如果目标被遮挡, 则利用本文提出的基于PSTF模型的被遮挡目标再检测算法, 重新搜索与该目标特征模型相匹配的目标检测响应; 如果目标未被遮挡, 则通过TCODAL算法[7]进行多目标跟踪. TCODAL算法使用了空间特征进行鲁棒多目标跟踪, 然而发生目标相互遮挡时很难及时地跟踪目标, 因此本文融合PSTF模型更好地解决这一问题.最后, 采用匈牙利算法求解目标模型与检测响应之间的最优关联矩阵, 输出多目标跟踪的完整轨迹.

图 1 本文方法的总体框架
2 遮挡推理模型

本文构建了目标相互遮挡情况下的遮挡推理模型, 用于在线识别被遮挡目标.该模型包含3个准则:目标处于持续无关联状态, 具有重叠目标, 深度顺序较低.相对于文献[3]和文献[6]中的遮挡推理模型, 本文考虑了目标的在线关联状态, 可以在跟踪过程中及时地判断目标是否被遮挡.假设3个准则的触发标志位分别是FAFIFD, 遮挡推理模型可表示为

(1)

根据标志位的触发情况, 遮挡推理模型可以依次识别如下3种类型的目标.

1) 暂时消失目标: FA触发;

2) 相互遮挡目标: FAFI同时触发;

3) 被遮挡目标: FAFIFD全部触发.

2.1 暂时消失目标

当一定时间内目标持续处于无关联状态时, 可识别为暂时消失目标, 存在被遮挡的可能性, 此时定义标志位FA = 1.

在未发现被遮挡目标的情况下, 本文采用TCODAL算法进行多目标跟踪.该算法对目标模型与检测响应逐帧地进行在线数据关联, 根据位置、颜色、尺寸3种特征的相似度建立关联代价矩阵, 并求得最优匹配对, 从而最优匹配对所对应的目标模型与检测响应发生了关联.因此, 根据TCODAL算法的数据关联结果, 可以逐帧地获取目标模型与检测响应的关联情况.

目标Ti的关联状态向量表示为

其中f = {1, 2, ..., k}代表视频帧数.如果第f帧存在检测响应与Ti的目标模型关联, 则vi(f) = 1;相反, 如果没有任何检测响应与Ti的目标模型关联, 则vi(f) = 0.当目标的状态关联向量在一定时间内持续为vi(f) = 0时, 即判定该目标为暂时消失目标.假设目标Ti的实际无关联帧数为Nr, Ti在第k帧为暂时消失目标的判别函数定义如下:

(2)

其中: α是一个介于0到1之间的常数, Nm为最大无关联帧数.由式(2)可知, FA = 1需要两个条件:

1) 在连续Nr帧中, 所有的vi(f)必须均为0, 只要存在vi(f) = 1, FA即为0;

2) 2≤ NrNm意味着目标至少在2帧中处于无关联状态, 并且当Nr > Nm时判定该目标已离开该场景.

2.2 相互遮挡目标

当目标具有重叠目标时, 定义标志位FI = 1.如果标志位同时满足FA = 1和FI = 1, 则目标被识别为相互遮挡目标.

重叠目标, 即矩形区域相交的目标.针对两个目标矩形区域的中心坐标, 当它们的水平距离小于两个矩形宽度和的一半, 并且垂直距离小于两个矩形高度和的一半时, 即判定这两个目标为重叠目标.需要说明的是, 暂时消失目标在无关联状态下的矩形区域是不可靠的, 此时, 本文使用目标最后关联时刻的矩形区域.

2.3 被遮挡目标

相互遮挡目标存在两种身份:遮挡者和被遮挡者.因此, 本文利用深度顺序进一步推理该目标被遮挡的可能性.

文献[3]采用深度顺序计算目标的可见度, 构建了一个连续可微的权重函数

其中yiyj分别是两个目标位置的y坐标值.该函数基于以下假设:当整个场景的矩形图像左上角为坐标原点时, 目标的y坐标值(即深度顺序)越小, 位于其他目标后面的概率越大, 从而更容易被遮挡.本文利用该假设建立了FD的二进制判别函数

(3)

即当目标Ti相对于其重叠目标具有较小的y坐标值时, 定义标志位FD = 1.

根据式(1), 目标的标志位FAFIFD若同时触发, 则判定该目标为被遮挡目标; 相反, 若存在任何一个标志位未触发, 则判定该目标为未被遮挡目标.

3 基于PSTF模型的被遮挡目标再检测

针对被遮挡目标, 本文提出基于PSTF模型的目标再检测算法, 如图 2所示.当目标为被遮挡目标时, 利用其目标特征模型中的空间位置参数确定搜索区域, 计算矩形检测响应与目标特征模型之间的表观特征相似度, 并引入一种自适应阈值(SR表示相似度和阈值), 然后选择搜索区域内S高于R的检测响应为候选量测(比如检测响应#1、#2、#4).当不存在候选量测时, 判定为无匹配检测响应; 当存在候选量测时, 通过时间特征匹配, 获得与目标特征模型匹配度最高的真实检测响应(比如候选量测#4).

图 2 基于PSTF模型的目标再检测算法步骤
3.1 空间位置变换

TCODAL方法采用Kalman滤波预测每一帧的目标空间位置.由于目标被遮挡时, 不可靠的检测响应会带来较大的预测误差, 本文方法将目标特征模型中的空间位置变换为预测位置附近的搜索区域, 从而增加了获取真实检测响应的概率.设置搜索区域为一个圆形, 其中心为Kalman滤波的预测位置, 半径正比于目标处于无关联状态的帧数.

假设搜索区域的中心位置和半径为(xp, yp)和r, 当前帧任一检测响应Dj的矩形区域中心位置是(xj, yj)时, Dj位于搜索区域内的条件为

(4)

其中Nr为式(2)中目标处于无关联状态的帧数.

3.2 表观特征相似度阈值

当目标被遮挡时, 检测响应的表观特征具有较低的可靠性.因此, 本文引入一种基于轨迹置信系数的自适应阈值, 当搜索区域内的检测响应与目标特征模型之间的表观特征相似度高于阈值时, 将该检测响应作为候选量测, 保证了检测响应表观特征的可靠性.

本文所提出的自适应阈值与TCODAL方法中的轨迹置信系数成正比.当轨迹置信系数较小时, 检测响应发生表观变化的概率较大, 导致目标特征模型与真实检测响应之间的表观特征相似度较低, 因此设置一个较为保守的阈值.

针对目标矩形区域, 采用增量线性判别分析(Incremental linear discriminant analysis, ILDA)[13]学习得到判别投影向量, 然后将该向量对矩形区域的颜色直方图加权得到表观特征.目标模型与检测响应之间的表观特征相似度通过Bhattacharyya距离计算得到.假设目标Ti特征模型与检测响应Dj之间的表观特征相似度为S(Ti, Dj), 自适应阈值为R, 位于搜索区域内的Dj被选作候选量测的约束为

(5)

其中C为轨迹置信系数[7], 表示如下:

(6)

其中: L为轨迹长度, Sdf为第f帧的数据关联相似性, tste表示轨迹的起始和结束帧, Lm为目标由于遮挡或其他不可靠检测响应而导致的目标丢失帧数.

3.3 时间特征匹配

本文采用光流直方图(Histogram of optical flow, HOF)代表时间特征, 用于描述目标运动速度的大小和方向.首先采用Horn & Schunck算法计算目标矩形区域的光流特征, 从而获得该区域中每个像素点的光流大小和方向; 然后将0°~360°等分为No个方向区间, 统计矩形区域中光流特征在各个方向区间中的累积大小; 最后利用直方图表示目标的HOF特征, 它包含No个通道和通道值, 分别用于体现目标速度方向和大小的分布情况.

由于被遮挡目标的特征不可靠, 本文利用最后关联时刻前Nh帧的平均HOF特征作为目标的HOF特征模型.假设目标Ti的HOF特征模型为Hi, 候选量测ξj (其中j与检测响应Dj中的索引号相对应)的HOF特征为Hj, 目标Ti特征模型和候选量测ξj之间的时间特征匹配度计算如下:

(7)

其中: σ为高斯函数标准差, d(Hi, Hj)为HOF特征的Bhattacharyya距离.最后, 匹配度最高的候选量测被选定为真实检测响应.

此外, 针对被遮挡目标, 本文建立了目标特征模型的匹配向量.如果候选量测ξj为目标Ti特征模型的真实检测响应, 则该目标特征模型的匹配向量为

(8)
3.4 多目标跟踪算法实现

针对所有未被遮挡目标, 本文采用TCODAL算法得到目标模型与检测响应之间的数据关联代价矩阵.为了防止重复关联, 将被遮挡目标特征模型的匹配向量与该数据关联代价矩阵融合为新的代价矩阵, 并求出目标模型与检测响应之间的最优关联对.最后, 根据所关联的检测响应更新多目标的特征模型等参数, 获得当前帧的多目标跟踪轨迹, 并将其作为多目标跟踪结果输出系统.

4 实验分析

本节通过在MOT15(Multiple object tracking 2015)和MOT17(Multiple object tracking 2017)数据集[14]中的大量实验, 验证了遮挡推理模型的有效性, 定性和定量地分析了本文方法相对于现有方法的整体性能.实验在Windows7环境下采用Matlab 2014a编程实现, 所用PC处理器为Intel Core i5 CPU, 3.2 GHz, 内存4 GB.本文算法在MOT17数据集的实验中使用了GPU加速.

4.1 遮挡推理模型有效性验证

为了验证遮挡推理模型的有效性, 本文给出了MOT15数据集TUD-Stadtmitte序列中所识别和跟踪的目标轨迹, 如图 3所示.由图 3(a)图 3(b)图 3(c)可知, 遮挡推理模型可以根据FAFIFD的触发情况有效地获得3种不同的目标:多目标跟踪过程中存在FA = 1, 共有9个目标被判定为暂时消失目标; 其中5个目标同时满足FI = 1, 被推理为相互遮挡目标; 只有3个目标的FAFIFD全部触发, 即模型将3个目标识别为被遮挡目标. 图 3(d)中的多目标跟踪轨迹表明, 所识别出的被遮挡目标均可以通过本文方法实现目标再检测.

图 3 目标轨迹(颜色用于区分不同目标)
4.2 定性分析

本文方法与传统TCODAL方法的多目标跟踪结果进行了对比, 如图 4所示.

图 4 本文方法与TCODAL方法的跟踪结果对比

TUD-Stadtmitte序列中, 目标#6在第39帧被完全遮挡.当该目标在第113帧离开遮挡区域时, TCODAL方法仍然无法正确跟踪, 并且在第116帧错误地将其初始化为目标#10, 如图 4(a)所示.但是, 本文方法在第113帧成功地再检测到目标#6, 可以继续准确地跟踪.本文方法能够及时地实现目标再检测的原因是:利用目标特征模型中空间位置参数所确定的搜索区域, 增加了获取真实检测响应的概率.

TUD-Crossing序列中, 目标#9、#12、#13发生相互遮挡, 导致目标之间的表观信息产生交叉, 降低了表观特征的可靠性.因此, TCODAL方法中的被遮挡目标#12在第178帧出现漂移现象, 并错误地被初始化为目标#14, 如图 4(b)所示.此外, 目标#14的初始化特征模型中掺杂了目标#9的表观信息(第178帧中虚线框为目标#9), 使得目标#9在第183和第191帧被误报为目标#14并且产生漂移现象.然而, 本文方法能够准确地跟踪3个目标, 主要原因是表观特征相似度阈值避免了目标#12的特征模型与虚检响应发生关联, 保证了目标表观特征的可靠性.

PTES09-S2L1序列中, 第492帧~第505帧期间, 两个具有相似表观特征的目标发生相互遮挡, 导致目标检测响应的表观特征产生混淆, 使TCODAL方法中目标#1和#26错误地交换了ID.但是, 本文方法可以准确地跟踪这两个相似目标, 如图 4(c)所示.本文方法跟踪准确性的提高主要源于PSTF模型渐进地进行时间特征匹配, 能够区分具有不同运动方向的相似目标检测响应.

总之, 本文方法提高了相互遮挡情况下多目标跟踪的准确性, 相对于仅使用空间特征模型的TCODAL方法具有更强的鲁棒性.

4.3 定量分析

实验在MOT15和MOT17数据集中实现了多目标跟踪, 用于评估本文方法的整体性能.数据集中具有64个视频序列, 包含目标遮挡、拥挤、光照变化、目标相似等多种复杂情景.为了保证公平, 所有实验均使用数据集中公开提供的检测响应.

实验采用CLEAR-MOT标准评估量测[15], 包括MT(Mostly tracking)、多目标跟踪准确性(Multi-object tracking accuracy, MOTA)和多目标跟踪精度(Multi-object tracking precision, MOTP). MOTA和MOTP是多目标跟踪整体性能的评估参量; MT用于评价跟踪轨迹的完整性, 可以反映目标再检测的能力.

本文方法与部分公开方法的对比结果如表 1所示.针对MOT15中test集合的7个静态背景序列的实验结果表明, 相对于TCODAL方法[7], 本文方法分别将MOTA、MOTP和MT改进了2.3 %、0.2 %、6.5 %; CEM方法[3]具有较高的MOTA, 但该方法难以应用到实时系统中; RNN_LSMT方法[8]采用神经网络学习了表观模型, 然而本文方法的MT和MOTP性能仍然高于该方法.针对MOT17中test集合的9个静态背景序列的实验结果表明, 本文方法相对于GM_PHD方法[16]具有较高的MOTA和MT; GMPHD_KCF方法[17]融合了核相关滤波器, 可以提高MOTA和MT, 但本文方法的3个参数均优于该方法; EAMTT方法[18]根据检测响应的置信系数分情况处理多目标跟踪, 获得了较高的MOTA, 然而本文方法的MT高于该方法, 这是因为所提出的PSTF模型可以及时地再检测被遮挡目标, 保证了跟踪轨迹的完整性.

表 1 MOT15和MOT17数据集中多目标跟踪性能对比

另外, 表 1列出了MOT17数据集中跟踪方法的运行速度对比情况.结果表明, GM_PHD方法由于算法复杂度较低, 取得了很高的运行速度; 相对于EAMTT、GMPHD_KCF两种方法, 本文方法具有较快的运行速度, 更容易完成实时多目标跟踪.

综上所述, 本文方法无论在多目标跟踪准确性和精度方面, 还是在目标再检测能力和运行速度方面, 均表现出了较好的多目标跟踪性能.

5 结论

本文提出了一种基于PSTF模型的抗遮挡多目标跟踪方法.首先根据目标的关联状态、重叠情况、深度顺序在线识别被遮挡目标, 然后对该目标进行基于PSTF模型的目标再检测.该方法利用目标特征模型中的空间位置参数确定搜索区域, 增加了获取真实检测响应的概率; 根据表观特征相似度阈值选择候选量测, 保证了检测响应表观特征的可靠性; 采用时间特征匹配的方式获取目标真实检测响应, 解决了相似目标带来的干扰.通过公开数据集中的大量实验表明, 本文方法可以准确有效地识别并再检测被遮挡目标, 能够解决相互遮挡、目标相似等复杂情况下的多目标跟踪问题, 相对于现有方法具有较高的多目标跟踪准确性、精度和轨迹完整性.

参考文献
[1]
王相海, 方玲玲, 丛志环. 基于MSPF的实时监控多目标跟踪算法研究[J]. 自动化学报, 2012, 38(1): 139-144.
(Wang X H, Fang L L, Cong Z H. Research on real-time multi-target tracking algorithm based on MSPF[J]. Acta Automatica Sinica, 2012, 38(1): 139-144.)
[2]
吴静静, 胡士强. 基于概率假设密度的多目标视频跟踪算法[J]. 控制与决策, 2010, 25(12): 1861-1865.
(Wu J J, Hu S Q. Probability hypothesis density filter based multi-target visual tracking[J]. Control and Decision, 2010, 25(12): 1861-1865.)
[3]
Milan A, Roth S, Schindler K. Continuous energy minimization for multi-target tracking[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2014, 36(1): 58-72. DOI:10.1109/TPAMI.2013.103
[4]
Ma C, Yang X, Zhang C, et al. Long-term correlation tracking[C]. Proc of IEEE Conf on Computer Vision and Pattern Recognition. Boston: IEEE, 2015: 5388-5396.
[5]
Xing J, Ai H, Lao S. Multi-object tracking through occlusions by local tracklets filtering and global tracklets association with detection responses[C]. Proc of IEEE Conf on Computer Vision and Pattern Recognition. San Francisco: IEEE, 2009: 1200-1207.
[6]
Zhang L, Li Y, Nevatia R. Global data association for multi-object tracking using network flows[C]. Proc of IEEE Conf on Computer Vision and Pattern Recognition. Anchorage: IEEE, 2008: 1-8.
[7]
Bae S H, Yoon K J. Robust online multi-object tracking based on tracklet confidence and online discriminative appearance learning[C]. Proc of IEEE Conf on Computer Vision and Pattern Recognition. Columbus: IEEE, 2014: 1218-1225.
[8]
Milan A, Rezatofighi S H, Dick A, et al. Online multi-target tracking using recurrent neural networks[C]. Proc of the 31st AAAI Conf on Artificial Intelligence. San Francisco: AAAI, 2017: 4225-4232.
[9]
Bae S H, Yoon K J. Confidence-based data association and discriminative deep appearance learning for robust online multi-object tracking[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2018, 40(3): 595-610. DOI:10.1109/TPAMI.2017.2691769
[10]
Song Y M, Jeon M. Online multiple object tracking with the hierarchically adopted GM-PHD filter using motion and appearance[C]. Proc of IEEE Int Conf on Consumer Electronics-Asia. Seoul: IEEE, 2016: 1-4.
[11]
Wang B, Wang L, Shuai B, et al. Joint learning of convolutional neural networks and temporally constrained metrics for tracklet association[C]. Proc of IEEE Conf on Computer Vision and Pattern Recognition Workshops. Las Vegas: IEEE, 2016: 386-393.
[12]
梁付新, 刘洪彬, 常发亮. 多特征融合匹配的霍夫森林多目标跟踪[J]. 西安电子科技大学学报, 2018, 45(1): 144-150.
(Liang F X, Liu H B, Chang F L. Multi-target tracking algorithm based on multi-feature fusion matching and Hough forest[J]. J of Xidian University, 2018, 45(1): 144-150.)
[13]
Kim T K, Stenger B, Kittler J, et al. Incremental linear discriminant analysis using sufficient spanning sets and its applications[J]. Int J of Computer Vision, 2011, 91(2): 216-232. DOI:10.1007/s11263-010-0381-3
[14]
Leal-Taixé L, Milan A, Reid I, et al. MOTChallenge 2015: Towards a benchmark for multi-target tracking[J/OL]. (2018-01-16). https://arXivpreprintarXiv:1504.01942.
[15]
Bernardin K, Stiefelhagen R. Evaluating multiple object tracking performance: The CLEAR MOT metrics[J]. EURASIP J on Image and Video Processing, 2008, 48(1): 1-10.
[16]
Eiselein V, Arp D, Patzold M, et al. Real-time multi-human tracking using a probability hypothesis density filter and multiple detectors[C]. Proc of IEEE Int Conf on Advanced Video and Signal-Based Surveillance. Beijing: IEEE, 2012: 325-330.
[17]
Kutschbach T, Bochinski E, Eiselein V, et al. Sequential sensor fusion combining probability hypothesis density and kernelized correlation filters for multi-object tracking in video data[C]. Proc of IEEE Int Conf on Advanced Video and Signal-Based Surveillance. Lecce: IEEE, 2017: 1-5.
[18]
Sanchez-Matilla R, Poiesi F, Cavallaro A. Online multitarget tracking with strong and weak detections[C]. Proc of European Conf on Computer Vision. Amsterdam, 2016: 84-99.