国内外研究现状和研究意义

发布时间:2015-03-09 18:00:02   来源:文档文库   
字号:

吉林大学博士学位论文

背景意义

视觉是人类感知外界信息的重要手段,外界信息的 80%以上都是人类通过视觉获取的,当今社会,视频在人类的生产、生活中被广泛传播,成为了人们获取信息最重要的手段。伴随着电子计算机处理能力的飞速发展,人们利用视频内容为自己服务的要求越来越高,利用计算机的高速处理能力为人类提供更加直接有效的视频信息变得越来越重要,智能视频处理的研究越来越受到重视,视频监控系统的应用也日益广泛。

目标跟踪作为智能视频处理的一个重要分支,得到了各国学者的重视,这其中有很多原因使得目标跟踪被大家所关注,其一,计算机的快速发展使得视频处理的大量运算得以实现;其二,存储介质的价格不断降低,使得大量的视频信息得以保留,方便后期调用;第三,军事、民事的需求增强,人们都想借助计算机协助改善生活质量。

目标跟踪在如下领域已经在发挥无可替代的作用:

1)军事应用,军事上的巨大应用前景极大促进了运动目标识别技术的发展,远程导弹、空空导弹的精确打击,飞机航线的设定和规避障碍等都离不开目标跟踪技术,无人机的自动导航功能,通过将目标跟踪得到的位置信息和自身航行速度做分析,实现自主飞行。

2)机器人视觉,智能机器人能像人类一样运动的前提就是它能“看”到外面的世界,并用“大脑”对其分析判断,认知并跟踪不同的物体,机器手需要通过在手臂上安装的摄像头,锁定目标,并跟踪其运动轨迹,跟踪抓取物体。

3)医学影像诊断,目标跟踪技术在超声成像中目标自动跟踪分析有着广泛的应用前景,由于超声图像噪声非常大,有用信息很难清楚直接的通过肉眼定位识别,在整个视频中,对有用目标进行准确识别跟踪,将会极大提高诊断准确性,Ayache 等人已经将目标跟踪应用到了超声检查的心脏跳动中,为医生及时准确的诊断心脏问题提供了很大的帮助。

4)人机交互,传统的人机互动是通过鼠标、键盘、显示器完成的,一旦机器能够跟踪人类的肢体运动,就可以“理解”人类的手势、动作,甚至嘴型,彻底改变传统的人机交互方式,将人机交互变得和人与人之间的交流一样清晰。

5)车辆跟踪,目标跟踪的一个非常重要的贴近民生的应用就是车辆跟踪。随着汽车相关技术的不断成熟和居民生活质量的大幅提升,我国从自行车大国逐步过度到汽车大国,家庭对汽车的拥有量将发生井喷,越来越多的家庭拥有自己的汽车,使得道路交通负担越来越重。另一方面,城市建设已经定形,城市中的公路已经无处可修,有限的公路对应不断增加的汽车数量,使得交通事故频发,这些问题对道路交通管理提出了更加严格的要求,逐步形成了智能交通系统的概念。智能交通能够由计算机自动识别车辆信息,并跟踪车辆行驶,分析闯红灯,违章变线,车辆逆行等违章行驶事件,将会极大减轻交通警察的工作压力,提高行车安全,减少交通事故的发生。另一个重要的应用是,如果车辆的目标跟踪得到快速发展,那么自动驾驶将成为可能,现在车辆上应用的定速巡航功能,仅仅可以做到定速,也就是电脑控制车速保持,而无法自动识别路面上车辆行驶情况,自动控制车辆的转弯变速,一旦车辆的目标跟踪技术成熟,那么将会给道路交通带来非常深远的影响,极大提高人们的生活质量。

1.2 国内外研究现状

目标跟踪领域的研究是一个非常复杂的课题,随着信息技术的飞速发展,视频监控深入到了人们生产生活中的各个领域,自然引起了各国学者的重视,许多国家投入了大量的人力物力财力去深入研究,解决目标跟踪领域出现的问题,促使目标跟踪算法的飞速发展,视频目标跟踪领域的提出以及发展现状简要的叙述如下:

Wax 1955 年最早提出了目标跟踪理论的基本原理,Sittler 1964 年提出目标点轨迹的概念和目标运动路径最优数据关联的贝叶斯理论,由此改进了目标跟踪算法,为后来目标跟踪理论的成熟打下了基础。

70 年代,Yaakov Singer 于将卡尔曼滤波算法和相关的数学理论引入到目标跟踪算法中,促使目标跟踪技术在这个时期发生了非常大的发展,之后很多科学家在运动目标跟踪和数据相关等方面提出了自己的算法,比如当时比较有影响的算法:时间相关模型联合数据关联滤波器、多重假设目标跟踪、交互式多模型滤波、概率数据关联滤波、分层融合滤波等很多经典算法。

90 年代后,Cheng X R L Kirubarajan T Mori S 等一些目标跟踪领域的学者在均值偏移理论、概率多假设追踪、变结构多模型、分布的目标融合等几个方面做出了突出贡献,将目标跟踪领域向前推进了一大步,特别是1995年,Cheng Mean shift 理论进行的完善,定义了核函数,针对样本点的不同偏移位置,应用不同的统计特性,并且提出了权值系数,使得不同样本点的权值也不相同,极大的增强了运动目标跟踪的时效性和准确性。这之后一直到今天,在目标跟踪领域中,mean shift 算法及其改进算法一直是学者研究的重点。

进入 21 世纪, Doucet A, Gordon N Godsll S J Maskell S 等学者又将粒子滤波方面的研究成果加入到目标跟踪领域中,粒子滤波可以用来解决非线性、非高斯分布的情况,但粒子滤波依旧有很多方面需要改进,针对粒子滤波的目标跟踪算法受到了相关领域研究者的广泛关注。

当前众多的学术期刊,每年都有很多篇有关目标跟踪领域的学术论文发表,如 IEEE Transactions on Pattern Analysisi and Machine Intelligence(PAMI)IEEE Transactions on Image ProcessingIP),IEEE Transactions on Pattern Analysisi and Machine Intelligence,(TPAMIThe Institute of Electronics,Information and Communication EngineersIEICE)等都很重视目标跟踪领域学术成果。

很多世界上顶级的学术会议每年也都有专门的目标跟踪方面的分会,如 IEEE

Conference on Computer Vision and Pattern Recognition ICCVPR),IEEE Conference on Computer VisionICCV)等。

国外很多著名的学府也都成立的专门的计算机视觉实验室,对目标识别、检测、跟踪进行专门的研究,如 Carnegie Mellon UniversityStanford UniversityMassachusetts Institute of TechnologyRoyal Institute of TechnologyUniversity of Cambridge 等。

很多公司研究机构也成立了目标检测跟踪项目部,对目标跟踪领域的应用进行更加深入的挖掘,如 SRI InternationalBAEThe Beckman InstituteMitsubishi Electric 等。

国内目标跟踪领域起步较国外有些滞后,但是近年来越来越多的高校和研究所开始重视目标跟踪方面的研究,并且取得了非常不错的研究成果,这其中包括了清华大学,哈尔滨工程大学,华中科技大学,上海交通大学,国防科技大学,吉林大学,中国科学院计算机技术研究所等。

国内的学术期刊也重视视频跟踪方面学术成果的交流,每年都会有很多目标跟踪方面的学术论文发表,如计算机学报,软件学报,自动化学报等。在车辆跟踪领域,当今世界的发达国家都将智能交通作为重要的研究课题进行研究和规划。美国交通部早在 1999 年就将车辆检测系统加入其高速公路的检测系统(HPMSHighway Performance Monitoring System)的评测报告中。

智能交通领域的专家预测的未来智能交通系统会给人类带来很多有意的改善,包括交通拥堵量下降 20%,由于拥堵造成时间延误所带来的损失将减少 10%-25%,车辆油耗降低 30%,同时废弃排放减少 20%,最重要的是可以极大减少车祸的发生概率,预计可降低 50%-80%

1.3 车辆目标跟踪的关键问题

1.3.1 目标的特征提取

在目标跟踪之前,我们首先需要得到要识别的目标,也就是在跟踪初始化的第一帧图像上找到要跟踪的目标,并对这个目标用数学表达式进行描述,以便在之后的跟踪过程中,适时的识别目标特征。目标描述的方法直接决定了目标跟踪的准确性和实时性,一个好的目标描述方法可以剔除噪声干扰,当车辆发生运动速度变化或者自身形态变化时,依然能够根据车辆目标的特征,准确的识别目标。所以对目标的描述方法直接决定了目标跟踪的质量,一个更加科学有效的车辆目标描述方法是众多目标跟踪领域学者不懈追求的目标。目标特征有很多方面,下面对特征提取方法做简单分类如下:

目标颜色的特征提取:对目标的颜色进行汇总,形成的颜色直方图是一种广泛应用图像特征描述方法。这个方法统计同一种颜色在整幅图像中的数量,形成全体颜色的比例直方图。只关注颜色和其对应的数量,而对不同颜色像素点在整幅图中所处的位置不做记录,这种方法不去关心物体的变化,更不去关注物体的边缘,只关注颜色的比例,适合变化物体和边缘不清晰物体的分割方法。

图像的色彩空间有很多种分类,分别适用于各自的图像处理领域。RGB 颜色模式是由红、黄、蓝(RGB)三种颜色按照一定比例叠加在一起,形成各种颜色。它是一种人们生活中最常用的颜色表示方法,RGB 颜色模式几乎囊括了人眼可以识别的所有大自然的色彩,这种颜色标准也被大量应用在工业应用中。

HSV(Hue, Saturation, Value)是根据颜色的直观特性由 Smith A R,在 1978年创建的一种颜色空间, 也称六角锥体模型(Hexcone Model)HSV 颜色模型是由色调、饱和度、亮度(HSV)三种参数组合形成的。它的三维表示从 RGB 演变而来,在 RGB 立方体的对角线顶点向下观察,就可看出 RGB立方体的六边形的形状,其中的色彩是由六边形边界表示的,饱和度是由水平轴表示的,亮度是由垂直轴表示的。

LUV 色彩空间全称 CIE 1976(L,u,v)色彩空间,L 表示物体亮度,u v 是色度。于 1976 年由国际照明委员会(International Commission on Illumination)提出,由CIE XYZ空间经简单变换得到,具视觉统一性。类似的色彩空间有CIELAB。对于一般的图像,u v 的取值范围为-100 +100,亮度为 0 100

目标边缘的特征提取:目标边缘特征在图像中表现为灰度值的阶跃变化,通过对变化灰度值的检测,得到目标边缘信息,完成对目标的特征提取。相对上面提到的目标颜色特征提取,目标边缘的特征对光照等外部环境变化有较高的稳定性。经典的目标边缘检测方法有 Sobel 模板,Prewitt 模板,Roberts 模板等,它们都是通过梯度算子来实现的。在这些模板上提出的边缘检测算子可以通过信噪比求出最优边缘滤波器。之后发展起来的 Canny 边缘检测方法在得到更高精确度的前提下,降低了计算的复杂度,得到了广泛的应用。

目标纹理的特征提取:目标的纹理特征是表面细节信息的一种,可以描述目标表面的平滑性和规律性。想要获得目标的纹理特征,需要预先对图像进行处理,灰度共生矩阵,可控金字塔等都能较好的提取目标的纹理特征。

目标调频调幅特征提取:调频调幅的方法是对图像频率和幅度调制进而对图像分析的一种手段。利用这个特征对目标进行跟踪时,对目标的尺度变化和目标运动旋转不敏感,能较好的完成目标跟踪。

目标混合特征提取:目标不同特征都有其适应的环境,在一个变化的环境中找到一个目标特征能够准确的对目标进行描述非常重要。对于光照变化较大的环境,目标的纹理特征要优于目标的颜色特征;而在描述刚性目标时,边缘特征又较纹理特征有优势。将目标的多重特征综合在一起去对目标进行表达,可以起到优势互补的效果,得到鲁棒性更强的目标特征。Zhang B 等人将目标的颜色特征和目标的纹理特征融合在一起,提出目标的混合特征描述等

学者将目标的颜色特征和方向梯度特征融合在一起进行特征描述。Sun L 等人提出整体描述与局部描述的融合特征描述方法,都取得了很好的效果。

目标跟踪算法

对于视频中的运动物体,在确定了目标特征的描述后,得到目标的观测模型,根据观测模型,利用目标跟踪算法即可对运动目标进行跟踪,根据目标检测和跟踪的关系划分如下:

1)先检测,后跟踪:首先检测图像中的运动目标,然后与前一帧图像中相同目标进行对比,得到跟踪目标。

2)先跟踪,后检测:先对下一帧图像中目标可能出现的位置进行预测,然后通过检测结果进行修正,得到跟踪目标。

3)边跟踪,边检测:两个步骤同时进行,跟踪需要依靠检测到的目标状态,检测需要依靠跟踪来提供对象区域。

车辆跟踪算法

当前的车辆跟踪算法有很多种,针对不同的目标特征,有不同的跟踪算法相适应,下面将车辆跟踪算法简单分类如下:

1)区域匹配跟踪算法:区域匹配算法是一种最优理论的处理方法,在跟踪前,需要提供一个目标模板,在跟踪过程中,计算目标模板与候选目标的相似度确定目标跟踪的位置,运用区域跟踪算法与三维模型相结合的方法,对弹性连接体实施目标跟踪。Fatemeh K N 等人对目标区域进行提取,跟踪车辆的整体区域,它将车辆的所在范围内的所有像素点都看成是约束条件Choi J 等人通过车辆区域和匹配点之间的匹配对目标进行跟踪,提出了车辆防碰撞系统。这些方法都是利用车辆区域模型对目标进行跟踪。

2)特征匹配跟踪算法:目标的特征是物体多方向奇异点的集合,特征匹配算法也是基于最优理论的处理方法。这个方法包括特征提取,特征匹配。首先提取目标的特征量,这些特征量要有自身独有的特征,以便后续匹配过程的唯一性,接下来在下一帧中寻找与特征量相匹配的目标,这其中匹配的方法包括结构匹配、假设检验匹配、主动轮廓匹配等,最后根据算法给出的相似度量方程确定需要跟踪的目标位置。王进花等学者根据车辆 Harris 特征,对车辆进行跟踪,算法简单,运算速度快,取得了较好的跟踪效果。谢磊等学者在上文基础上通过光学投影方程恢复了拟匹配的特征点高度信息,改善了算法,提高了车辆跟踪的准确性。宋丹等学者将目标颜色特性与 Harris 特征相融合进行车辆跟踪,提高了跟踪的稳定性,在车辆有部分遮挡的时候仍能有效跟踪。

3)轮廓匹配跟踪算法:这种算法利用封闭的曲线表述目标轮廓,在图像特征场中得到以曲线函数为参数的能量,将其最小化动态迭代运算,使得目标轮廓能够自动更新。它的优势在于如果目标的轮廓初始化合理,那目标跟踪性能会非常有益,但轮廓初始化的难度较大。轮廓匹配跟踪算法又分为有参模型和几何图像模型。较常用的轮廓匹配算法是 Kass 提出的 Snake 模型。张辉等人在 Snake 模型基础上提出了 GVF-Snake 模型,通过相邻帧的图像差分获取梯度矢量流的轮廓特征,完成对车辆目标的跟踪。Roya R 等学者利用形态学提取车

辆的轮廓特征,有效完成了对高速公路上的多车辆的目标跟踪。高韬等人将均值偏移得到的跟踪窗做为目标轮廓的初始值,利用自适应水平集得到车辆的清晰轮廓,精确的跟踪了车辆的运动状态。

4)光流跟踪算法:该算法利用运动光流场对目标进行跟踪。这种算法可以通过比较目标和背景的运动差异对目标进行光流分割,还可以运用特征匹配求出特征点的流速。前面的方式计算量较大,但是提取运动目标的形状准确性高,后面的方法计算量小、运算速度快,适用于简单规则物体。光流跟踪算法整体计算较复杂,耗时较大,跟踪效果也不突出,比较难以实现实时跟踪的目的。Maurin等人提出将图像光流和背景区分的检测方案(OFBR 算法),针对天气变化对车辆目标的影响,在目标检测时提取了位置、速度、形状等特征,完成了车辆目标的跟踪。

53D 跟踪算法:3D 跟踪算法是复杂度最大的算法,首先需要构造目标的3D 模型,相比上面提到的 4 类平面跟踪算法,目标 3D 模型的信息量要大很多,对目标的特征提取和跟踪都会更加精准,跟踪的准确性和适用性都很高,但是最致命的缺点是运算量太大,仅仅停留在试验阶段,工程应用中很难在如此大量的运算下完成目标的适时跟踪。Gennery 利用 3D 跟踪算法完成了在复杂的背景环境下对运动目标的跟踪。

车辆跟踪的主要难点

利用行驶的车辆视频对车辆进行跟踪成为智能交通、辅助驾驶领域的关键技术,越来越受到人们的重视。车辆跟踪作为目标跟踪领域的一个重要应用,有很多自身的特性。特别是车辆行驶在复杂多变的环境中,对目标车辆跟踪造成很大干扰。环境因素不仅包括外部的天气环境,比如:雨雪天气、雾霾天气、沙尘天气等能见度较差的环境,对视频中车辆清晰度造成的影响;更重要的是由于车辆的无规则运动带来的自身特征的变化,导致的车辆跟踪难度加大。车辆自身复杂的环境有以下几个方面:

1)算法耗时长:车辆跟踪讲求的是时效性,在每秒 25 帧的视频序列中,留给算法处理的时间仅有不到 0.04 秒,如何在保证车辆准确跟踪的前提下,降低算法耗时是一个需要考虑的问题。

2)目标快速运动:车辆的最大特点就是能够快速的运动,也正是这个特点给车辆跟踪定位造成了很大的困难,当车辆高速运动过程中,会造成视频中相邻两帧图像车辆目标的距离变化较大,很多跟踪算法在这样的情况下都无法准确对目标跟踪。

3)摄像头抖动:大多数的跟踪过程中摄像机都不是固定在一个位置不变,这样就不可避免的会出现摄像头移动和抖动现象的发生,对视频图像造成一定干扰,抖动较大的时候,可能造成视频图像模糊不清,严重影响了目标车辆的成像,对跟踪效果产生不利影响。

4)目标遮挡:车辆在行驶过程中无法避免受到其他车辆的部分甚至全部遮挡,如何在车辆有遮挡的情况下依旧可以准确跟踪,这对跟踪算法的鲁棒性提出了较高的要求。

5)尺度变化:在与车辆平视采集过程中,无法避免的会出现透视畸变问题,导致车辆离摄像机较近时车辆的相对大小较大,当车辆逐渐远离摄像机时,车辆目标的相对大小逐渐变小。而且由于车辆的运动速度总是在变化,导致了车辆的位置不断发生变化,车辆的相对大小也总在改变,无规律可循,增加了车辆跟踪算法的难度。

6)车辆旋转变形:车辆在行驶过程中遇到弯路,或者目标车辆和摄像头相对位置变化较大时都会产生目标车辆的相对旋转和变形,这时的目标特征改变较大,如何能够自适应的调整车辆目标特征,对其持续跟踪是车辆跟踪领域的一个难点。

7)车辆自身特征改变:车辆在行驶过程中受到大面积阴影的遮盖,或者自身形态发生旋转等改变,就会带来目标特征的变化,适时的更新跟踪目标特征是车辆跟踪需要考虑的问题。

8)相似物体干扰:由于车辆间的特征相似度很高,在跟踪过程中难免受到相似车辆的干扰,如何避免相似车辆对跟踪造成的干扰也是一个难点问题。

9)噪声干扰:在进行轮廓匹配算法对车辆的边缘特征提取过程中,去除大量噪声的干扰准确检测到车辆的边缘信息,才可以在后续的跟踪算法中得到准确的车辆识别结果。

1.5 本文的结构安排

本文通过目标跟踪算法的研究,提出多种针对车辆目标的跟踪算法。本文的章节安排介绍如下:

第一章:绪论。介绍了本文的研究背景和研究意义,对本领域内的国内外研究现状进行说明。并且详细的阐述了车辆目标跟踪的关键问题,包括目标特征提取的方法、目标跟踪算法和车辆跟踪算法。并对车辆跟踪的主要难点进行阐述,最后对本论文的各章节内容安排进行了说明。

第二章:基于 EKM 的车辆目标跟踪算法。首先介绍了密度估计方法,由此引出目标跟踪领域里的经典算法 mean shift 跟踪算法,并对 mean shift 算法的数学建模方法、目标定位方法进行说明,之后证明了 mean shift 算法的收敛性并对 mean shift 算法的目标跟踪步骤进行阐述。2.3 节介绍了卡尔曼滤波的方法,和卡尔曼目标跟踪的算法。之后提出了针对卡尔曼滤波算法和 mean shift 的改进算法:EKM 车辆跟踪算法,并用试验验证了该算法在对车辆目标进行跟踪过程中的优势。2.6 节对本章内容进行了总结。

第三章:基于 SPF 的车辆目标跟踪算法。本章以粒子滤波算法开始,介绍了粒子滤波的基本原理和采样方法,并分析了粒子滤波对目标进行跟踪的过程中存在的一些问题。针对这些问题,在 3.2 节提出了改进的粒子滤波车辆跟踪算法:SPF 算法。该算法的理论基础和在目标跟踪过程中的方法都有详细的阐述,之后通过多组试验,从各个角度分析了 SPF 算法相对粒子滤波算法的优势,证明了该算的有效性。3.4 节对本章内容进行了总结。

第四章:一种新的目标边缘检测方法。首先介绍了现阶段边缘检测领域的研究现状,并由此提出了新的边缘检测算法:MSR 边缘检测算法。并详细阐述了该算法的构造过程,对其中关键的核函数带宽优化选择也有详细的阐述和试验说明。4.3 节介绍了该算法的边缘检测窗的建立和非极大值抑制方法,很好的提取了图像的单像素边缘信息。4.4 节通过大量的试验和检测手段验证了该算法针对含噪声图像的边缘检测性能要优于现阶段其他边缘检测方法。4.5 节对本章内容进行了总结。

第五章:基于 EMS 的车辆目标跟踪算法。首先介绍了新提出的 EMS 算法的理论基础,并详细说明了运用这个算法进行车辆目标跟踪的方法和步骤。5.3 节介绍了本论文搭建的车辆目标跟踪平台,该平台融合了本文提出的新算法和经典算法,方便试验比较各算法的优劣。5.4 节运用大量的试验数据说明 EMS 算法的目标跟踪结果,证明了该算法在复杂条件下对目标车辆跟踪的准确性和鲁棒性。5.4节对本章内容进行了总结。

第六章:总结与展望。总结了本人在博士研究中所做的工作和本论文的创新点,并提出了下一阶段的研究方向。

[1] D. Toth and T. Aach, “Detection and recognition of moving objects using statistical motion detection and Fourier descriptors,” in Proceedings of International Conference on Image Analysis

and Processing(ICIAP), pp. 430-435, 2003.

[2] D. M. Ha, J.-M. Lee, and Y.-D. Kim, “Neural-edge-based vehicle detection and traffic parameter extraction,” Image and Vision Computing, vol. 22, pp. 899-907, 2004.

[3] E. Salvador, A. Cavallaro, and T. Ebrahimi, “Cast shadow segmentation using invariant color features,” Computer Vision and Image Understanding, vol. 95, pp. 238-259, 2004.

[4] A. Prati, I. Mikic, M.M. Trivedi, and R. Cucchiara, “Detecting moving shadows: algorithms

and evaluation,” IEEE Transactions on Pattern Analysis and Machine Intelligence(PAMI), vol. 25,

pp. 918-923, 2003.

[5] R. Cucchiara, C. Grana, M. Piccardi, A. Prati, and S. Sirotti, “Improving Shadow

Suppression in Moving Object Detection with HSV Color Information,” in Proceedings of IEEE

Conference on Intelligent Transportation Systems, pp. 334-339, 2001.

[6] J-W. Hsieh, W-F. Hu, C-J. Chang, and Y-S. Chen, “Shadow elimination for effective

moving object detection by Gaussian shadow modeling,” Image and Vision Computing, vol. 21,

pp. 505-516, 2003.

[7] S-Y. Chien, S-Y. Ma, and L-G. Chen, “Efficient moving object segmentation algorithm

using background registration technique,” IEEE Transactions on Circuits and Systems for Video

Technology(CSVT), vol. 12, pp. 577-586, 2002.

[8] J. Stander, R. Mech, and J. Ostermann, “Detection of moving cast shadows for object

segmentation,” IEEE Transactions on Multimedia, vol. 1, pp. 65-76, 1999.

[9] Y. Sheikh and M. Shah, “Bayesian modeling of dynamic scenes for object detection,” IEEE

Transactions on Pattern Analysis and Machine Intelligence(PAMI), vol. 27, no. 11, pp. 1778-1792,

Nov. 2005.

[10] K. Rank, M. Lendl, and R. Unbehauen, “Estimation of image noise variance,” IEEE Proceedings: Vision, Image and Signal Processing, vol. 146, pp. 80-84, 1999.

[11] J-W. Hsieh, S-H. Yu, Y-S. Chen, and W-F. Hu, “A shadow elimination method for vehicle

analysis,” in Proceedings of IEEE International Conference on Pattern Recognition(ICPR), vol. 4,

pp. 372-375, 2004.上海交通大学博士学位论文 2007 1

[12] L. D. Stefano, S. Mattoccia, and M. Mola, “A Change-Detection Algorithm Based on

Structure and Color,” in Proceedings of IEEE International Conference on Advanced Video and

Signal Based Surveillance, pp. 252-259, 2003.

[13] M. Seki, T. Wada, H. Fujiwara, and K. Sumi, “Background Subtraction based on Cooccurrence of Image Variations,” in Proceedings of IEEE Conference on Computer Vision and Pattern Recognition(CVPR), vol. 2, pp. П/65-П/72, 2003.

[14] M. Seki, H. Fujiwara, and K. Sumi, “A robust background subtraction method for changing

background,” in Proceedings of IEEE Workshop on Applications of Computer Vision, pp. 207-213,

Dec. 2000.

[15] K. Toyama, J. Krumm, B. Brumitt, and B. eyers, “Wallflower: Principles and practice of background maintenance,” in Proceedings of IEEE International Conference on Computer Vision(ICCV), pp. 255-261, 1999.

[16] A. Elgammal, R. Duraiswami, and L. S. Davis, “Efficient kernel density estimation using the fast Gauss transform with applications to color modeling and tracking,” IEEE Transactions on

Pattern Analysis and Machine Intelligence(PAMI), vol. 25, no. 11, pp. 1499-1504, Nov. 2003.

[17] A. Elgammal, R. Duraiswami, D. Harwood, and L. S. Davis, “Background and Foreground

Modeling Using Nonparametric Kernel Density Estimation for Visual Surveillance,” Proceedings

of IEEE, vol. 90, pp. 1151-1163, 2002.

[18] N. Otsu, “A Threshold Selection Method from Gray-Level Histograms,” IEEE Transactions

on Systems, Man, and Cybernetics, vol. 9, no. 1, pp. 62-69, 1979.

[19] A. Dempster, N. Laird, and D. Rubin, “Maximum likelihood from incomplete data via the

EM algorithm,” Journal of the Royal Statistical Society, Series B, vol. 39, pp. 1-38, 1977.

[20] N. Friedman and S. Russell, “Image segmentation in video sequences: a probabilistic

approach,” in Proceedings of 13th conference on Uncertainty in Artificial Intelligence, pp.

175–181, 1997.

[21] G. S. K. Fung, N. H. C. Yung, and G. K. H. Pang, “Camera calibration from road lane markings,” Optical Engineering, vol. 42, pp. 2967-2977, 2003.

[22] R. Pless, J. Larson, S. Siebers, and B. Westover, “Evaluation of local models of dynamic

backgrounds,” in Proceedings of IEEE Conference on Computer Vision and Pattern

Recognition(CVPR), vol. 2, pp. П/73-П/78, 2003.上海交通大学博士学位论文 2007 1

[23] S. Barotti, L. Lombardi, and P. Lombardi, “Multi-module switching and fusion for robust

video surveillance,” in Proceedings of International Conference on Image Analysis and

Processing(ICIAP), pp. 260-265, Sept. 2003.

[24] S. S. Cheung and C. Kamath, “Robust techniques for background subtraction in urban

traffic video,” in Proceedings of SPIE, Visual Communications and Image Processing(VCIP), vol.

5308, no. 2, pp. 881-892, 2004.

[25] N. Ohta, “A statistical approach to background subtraction for surveillance systems,” in

Proceedings of IEEE International Conference on Computer Vision(ICCV), vol. 2, pp. 481-486,

Jul. 2001.

[26] C. Stauffer and W. E. L. Grimson, “Learning patterns of activity using real-time tracking,”

IEEE Transactions on Pattern Analysis and Machine Intelligence(PAMI), vol. 22, pp. 747-757,

Aug. 2000.

[27] C. Stauffer and W. E. L. Grimson, “Adaptive background mixture models for real-time

tracking,” in Proceedings of IEEE Conference on Computer Vision and Pattern Recognition(CVPR), vol. 2, pp. 246-252, 1999.

[28] Y. Sun and B. Yuan, “Hierarchical GMM to handle sharp changes in moving object detection,” Electronics Letters, vol. 40, pp. 801-802, 2004.

[29] K-W. Lee and J. Kim, “Moving object segmentation based on statistical motion model,”

Electronics Letters, vol. 35, pp. 1719-1720, 1999.

[30] Q. Zang and R. Klette, “Robust background subtraction and maintenance,” in Proceedings

of International Conference on Pattern Recognition(ICPR), vol. 2, pp. 90-93, 2004.

[31] K-T-P. Pakorn and B. Richard, “A real time adaptive visual surveillance system for tracking

low-resolution colour targets in dynamically changing scenes,” Image and Vision Computing, vol.

21, pp. 913-929, 2003.

[32] A. Monnet, A. Mittal, N. Paragios, and V. Ramesh, “Background modeling and subtraction

of dynamic scenes,” in Proceedings of IEEE International Conference on Computer Vision(ICCV), vol. 2, pp. 1305-1312, 2003.

[33] L. Y. Li, W. M. Huang, I. Y. H. Gu, and Q. Tian, “Statistical modeling of complex backgrounds for foreground object detection,” IEEE Transactions on Image Processing, vol.

13, pp. 1459-1472, 2004.88

[34] 蔡文沁, “我国智能交通系统发展的战略构想” , 交通运输系统工程与信息, vol.3,

pp. 16-22, 2003.

[35] 李瑞敏,陆化普,史其信, “综合交通信息平台发展状况与趋势研究”, 公路交通

科技, vol.22, no.4, pp. 90-95, 2005.

[36] 李庆瑞,张洋,袁飞,“智能交通系统在高速公路领域中的应用探讨”, 交通标准化,

vol.22, pp. 32-36, 2006.

[37] 赵洪波,李永祥,杨翠玲,“21 世纪公路交通的标志-ITS”,黑龙江交通科技,vol.22,

pp. 69-70, 2002.

[38] 王笑京, “智能交通系统的现状和 2003 年的展望”, 交通世界,vol.Z1pp. 54-57,

2003.

[39]

http://www.moc.gov.cn/05zhishi/zhinengys/t20050919_26882.htm.

[40] P. Shi, E. G. Jones, and Q. Zhu, “Median model for background subtraction in intelligent

transportation system,” in Proceedings of SPIE, Imaging Processing: Algorithms and Systems III,

vol. 5298, pp. 168-176, 2004.

[41] S. Gupte, O. Masoud, R. F. K. Martin, and N. P. Papanikolopoulos, “Detection and

Classification of Vehicles,” IEEE Transactions on Intelligent Transportation Systems, vol. 3,

pp.37-47, 2002.

[42] D. Farin, P. H. N. de With, and W. Effelsberg, “Robust background estimation for complex

video sequences,” in Proceedings of IEEE International Conference on Image Processing (ICIP),

vol. 1, pp. 145-148, 2003.

[43] F. E. Alsaqre and B. Z. Yuan, “Moving Object Segmentation for Video Surveillance and

Conferencing Applications,” in Proceedings of International Conference on Communication

Technology, vol. 2, pp. 1856-1859, 2003.上海交通大学博士学位论文 2007 1

92

[44] D. Xu, X. Li, Z. Liu, and Y. Yuan, “Cast shadow detection in video segmentation,” Pattern

Recognition Letters, vol. 26, pp. 91-99, 2005.

[45] K. Siala, M. Chakchouk, F. Chaieb, and O. Besbes, “Moving shadow detection with support

vector domain description in the color ratios space,” in Proceedings of International Conference

on Pattern Recognition(ICPR), vol. 4, pp. 384-387, 2004.

[46] I. Mikic, P. C. Cosman, G. T. Kogut, and M. M. Trivedi, “Moving shadow and object

detection in traffic scenes,” in Proceedings of International Conference on Pattern

Recognition(ICPR). vol. 1, pp. 321-324, 2000.

[47] T. Horprasert, D. Harwood, and L. S. Davis, “A Statistical Approach for Real-Time Robust

Background Subtraction and Shadow Detection,” in Proceedings of IEEE International

Conference on Computer vision FRAME-RATE Workshop, 1999.

[48] J. S. McKenna, S. Jabri, Z. Duric, A. Rosenfeld, and H. Wechsler, “Tracking Groups of People,” Computer Vision and Image Understanding, vol. 80, pp. 42-56, 2000.

[49] Y. Wang, T. Tan, and K-F. Loe, “A probabilistic method for foreground and shadow segmentation,” in Proceedings of International Conference on Image Processing(ICIP), vol. 3, pp.

937-940, 2003.

[50] D. Toth, I. Stuke, A. Wagner, and T. Aach, “Detection of moving shadows using mean shift

clustering and a significance test,” in Proceedings of International Conference on Pattern

Recognition(ICPR), vol. 4, pp. 260-263, 2004.

[51] S. Nadimi and B. Bhanu, “Physical models for moving shadow and object detection in video,” IEEE Transactions on Pattern Analysis and Machine Intelligence(PAMI), vol. 26, pp.

1079-1087, 2004.

[52] A. Yoneyama, C. H. Yeh, and C-C.J. Kuo, “Moving cast shadow elimination for robust vehicle extraction based on 2D joint vehicle/shadow models,” in Proceedings of IEEE International Conference on Advanced Video and Signal Based Surveillance, pp. 229-236, 2003.

[53] A. Leone, C. Distante, and F. Buccolieri, “A shadow elimination approach in video-surveillance context,” Pattern Recognition Letters, vol. 27, no. 5, Apr. 2006, pp. 345-355.

[54] N. Martel-Brisson and A. Zaccarin, “Moving cast shadow detection from a Gaussian mixture shadow model,” in Proceedings of IEEE Conference on Computer Vision and Pattern Recognition(CVPR), vol. 2, pp. 643-648, 2005.

[55] 吴刚, 唐振民, 程勇, et al. 灰度共生矩阵纹理特征的运动目标跟踪方法[J]. 南京理工大学学报(自然科学版), 2010(04):459-463.

[56] Laws K. Textured image segmentation [D]. University of Southern California, 1980.

[57] Lu H, Wang D, Zhang R, et al. Video object pursuit by tri-tracker with on-line learning from

positive and negative candidates[J]. IET Image Processing, 2011, 5(1): 101-111.

[58] Ahonen T, Hadid A, Pietikainen M. Face description with local binary patterns: Application

to face recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence.,2006, 28(12): 2037-2041.

[59] Lu H C, Fang G L, Wang C, et al. A novel method for gaze tracking by local pattern model and support vector regressor[J]. Signal Processing,2010, 90(4): 1290-1299.

[60] De Van Der Merwe R. D A F N. The unscented particle filter [R]. Techical report CUED/F-INFENG/TR 380 Cambridge University Engineering Department,2000.

[61] Sun L, Liu G Z. Visual object tracking based on combination of local description and global

representation[J]. Proceedings of IEEE Transactions on Circuits and Systems For Video Technology, 2011, 21(4): 408-420.

[62] 尹宏鹏, 柴毅, 匡金骏, et al. 一种基于多特征自适应融合的运动目标跟踪算法[J]. 光电子.激光, 2010,(06):917-923.

[63] Leichter I, Lindenbaum M, Rivlin E. Mean shift tracking with multiple reference color

histograms[J]. Computer Vision and Image Understanding, 2010, 114(3): 400-408.

[64] 韩松, 张晓林, 陈雷, et al. 基于改进高斯粒子滤波器的目标跟踪算法[J]. 系统工程与

电子技术, 2010,(06):1191-1194.

[65] 蒋蔚, 伊国兴, 曾庆双. 基于 SVM 数据融合的实时粒子滤波算法[J]. 系统工程与电子

技术, 2010(06):1334-1338.

[66] Yin H P, Chai Y, Yang S X, et al. Fast-moving target tracking based on mean shift and

frame-difference methods[J]. Journal of Systems Engineering and Electronics, 2011, 22(4):

587-592.

[67] Wang H Z, Suter D, Schindler K, et al. Adaptive object tracking based on an effective

appearance filter[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007,

29(9): 1661-1667.

[68] . 一种基于 SMOG 模型的红外目标跟踪新算法[J]. 红外与毫米波学报,2008, 27(4): 252-256.

[69] Ross D A, Lim J, Lin R S, et al. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision, 2008, 77(1-3): 125-141.

[70] 程建, 周越, 蔡念, et al. 基于粒子滤波的红外目标跟踪[J]. 红外与毫米波学报. 2006,25(2):113-116.

[71] Pers J, Sulic V, Kristan M, et al. Histograms of optical flow for efficient representation of body motion[J]. Pattern Recognition Letters, 2010, 31(11): 1369-1376.

[72] Kwon J, Kyoung, Lee M. Visual Tracking Decomposition[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition , 2010: 1269-1276.

[73] Li X H, Zhang T Y, Shen X D, et al. Object tracking using an adaptive Kalman filter combined with mean shift[J]. Optical Engineering,2010, 49(2),dx.doi.org/10.117/1.3327281.

[74] Wei Q, Xiong Z, Li C. Color spatial feature-based approach for multiple-vehicle tracking[J].

Applied Optics,2010, 49(31): 6043-6056.

[75] Yao A B, Wang G J, Lin X G, et al. An incremental bhattacharyya dissimilarity measure for

particle filtering[J]. Pattern Recognition,2010, 43(4): 1244-1256.

[76] Sun H Z, Yang H, Tan T N. Multi-level human tracking[J]. Proceedings of Advances in Multimodal Interfaces(Icmi 2000), 2000, 1948: 340-348.

[77] Xie N, Ling H, Hu W, et al. Use bin-ratio information for category and scene classification[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,2010: 2313-2319.

[78] Viola P, Wells W M. Alignment by maximization of mutual information[J]. International

Journal of Computer Vision, 1997, 24(2): 137-154.

[79] Liu B, Huang J, Yang L, et al. Robust tracking using local sparse appearance model and

K-selection [C]. Proceedings of IEEE Conference o Computer Vision and Pattern Recognition (CVPR),2011: 1313-1320.

[80] Shih T K, Tang N C, Tsai J C, et al. Video motion interpolation for special effect applications[J]. IEEE Transactions on Systems Man and Cybernetics Part C-Applications and Reviews. 2011, 41(5): 720-732.

[81] Leichter I. Mean shift trackers with cross-bin metrics[J]. IEEE Transactions on Pattern

Analysis and Machine Intelligence ,2012,43(4):695-706.

[82] Talu M F, Turkoglu I, Cebeci M. A hybrid tracking method for scaled and oriented objects in

crowded scenes[J]. Expert Systems with Applications, 2011, 38(11): 13682-13687.

[83] Liangfu L, Zuren F, Weidong C, et al. A coarse-to-fine kernel matching approach for mean-shift based visual tracking[J]. Opto-Electronics Review, 2009, 17(1): 65-71.

[84] 贾慧星, 章毓晋. 基于梯度方向直方图特征的多核跟踪[J]. 自动化学报, 2009,10: 1283-1289.

[85] Collins R T. Mean-shift blob tracking through scale space [C]. Proceddings of IEEE Conference on Computer Vision and Pattern Recognition,2003: 234-240.

[86] Yilmaz A. Object tracking by asymmetric kernel mean shift with automatic scale and orientation selection[C]. Proceddings of IEEE Conference on Computer Vision and Pattern

Recognition, 2007: 1-6.

[87] Fanglinwang S J. Robust and efficient fragments-based tracking using mean shift [J]. AEU -

International Journal of Electronics and Communications ,2010: 64, 614-623.

[88] Wang J Q, Yagi Y. Integrating color and shape-texture features for adaptive real-time object

tracking[J]. IEEE Transactions on Image Processing, 2008, 17(2): 235-240.

[89] Zhao Q, Yang Z, Tao H. Differential earth mover's distance with its applications to visual

tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2010, 32(2):274-287.

[1] A. Adam, E. Rivlin, and I. Shimshoni. Robust Fragments-based Tracking using the Integral Histogram. In CVPR, 2006.

[2] N. Alt, S. Hinterstoisser, and N. Navab. Rapid Selection of Reliable Templates for Visual Tracking. In CVPR, 2010.

[3] S. Avidan. Support Vector Tracking. PAMI, 26(8):1064–1072, 2004.

[4] S. Avidan. Ensemble Tracking. PAMI, 29(2):261–271, 2008.

[5] B. Babenko, M.-H. Yang, and S. Belongie. Visual Tracking with Online Multiple Instance Learning. In CVPR, 2009.

[6] B. Babenko, M.-H. Yang, and S. Belongie. Robust Object Tracking with Online Multiple Instance Learning. PAMI, 33(7):1619–1632,2011.

[7] Y. Bai and M. Tang. Robust Tracking via Weakly Supervised Ranking SVM. In CVPR, 2012.

[8] S. Baker and I. Matthews. Lucas-Kanade 20 Years On: A Unifying Framework. IJCV, 56(3):221–255, 2004.

[9] S. Baker, S. Roth, D. Scharstein, M. J. Black, J. Lewis, and R. Szeliski. A Database and Evaluation Methodology for Optical Flow. InICCV, 2007.

[10] C. Bao, Y. Wu, H. Ling, and H. Ji. Real Time Robust L1 Tracker Using Accelerated Proximal Gradient Approach. In CVPR, 2012.

[11] M. J. Black. EigenTracking: Robust Matching and Tracking of Articulated Objects Using a View-Based Representation. IJCV, 26(1):63–84, 1998.

[12] K. Cannons. A Review of Visual Tracking. Technical Report CSE-2008-07, York University, Canada, 2008.

[13] R. Collins, X. Zhou, and S. K. Teh. An Open Source Tracking Testbed and Evaluation Web Site. In PETS, 2005.

[14] R. T. Collins. Mean-shift Blob Tracking through Scale Space. In CVPR, 2003.

[15] R. T. Collins, Y. Liu, and M. Leordeanu. Online Selection of Discriminative Tracking Features. PAMI, 27(10):1631–1643, 2005.

[16] D. Comaniciu, V. Ramesh, and P. Meer. Kernel-Based Object Tracking. PAMI, 25(5):564–577, 2003.

[17] N. Dalal and B. Triggs. Histograms of Oriented Gradients for Human Detection. In CVPR, 2005.

[18] T. B. Dinh, N. Vo, and G. Medioni. Context Tracker: Exploring Supporters and Distracters in Unconstrained Environments. In CVPR,2011.

[19] J. Fan, X. Shen, and Y. Wu. Scribble Tracker: A Matting-based Approach for Robust Tracking. PAMI, 34(8):1633–1644, 2012.

[20] J. Fan, Y. Wu, and S. Dai. Discriminative Spatial Attention for Robust Tracking. In ECCV, 2010.

[21] R. B. Fisher. The PETS04 Surveillance Ground-Truth Data Sets. In PETS, 2004.

[22] H. Grabner, M. Grabner, and H. Bischof. Real-Time Tracking via On-line Boosting. In BMVC, 2006.

[23] H. Grabner, C. Leistner, and H. Bischof. Semi-supervised On-Line Boosting for Robust Tracking. In ECCV, 2008.

[24] H. Grabner, J. Matas, L. V. Gool, and P. Cattin. Tracking the Invisible: Learning Where the Object Might be. In CVPR, 2010.

[25] G. D. Hager and P. N. Belhumeur. Efficient Region Tracking With Parametric Models of Geometry and Illumination. PAMI, 20(10):1025–1039, 1998.

[26] S. Hare, A. Saffari, and P. H. S. Torr. Struck: Structured Output Tracking with Kernels. In ICCV, 2011.

[27] J. F. Henriques, R. Caseiro, P. Martins, and J. Batista. Exploiting the Circulant Structure of Tracking-by-Detection with Kernels. In ECCV, 2012.

[28] M. Isard and A. Blake. CONDENSATION–Conditional Density Propagation for Visual Tracking. IJCV, 29(1):5–28, 1998.

[29] A. D. Jepson, D. J. Fleet, and T. F. El-Maraghi. Robust Online Appearance Models for Visual Tracking. PAMI, 25(10):1296–1311,2003.

[30] X. Jia, H. Lu, and M.-H. Yang. Visual Tracking via Adaptive Structural Local Sparse Appearance Model. In CVPR, 2012.

[31] Z. Kalal, J. Matas, and K. Mikolajczyk. P-N Learning: Bootstrapping Binary Classifiers by Structural Constraints. In CVPR, 2010.

[32] J. Kwon and K. M. Lee. Tracking of a Non-Rigid Object via Patchbased Dynamic Appearance Modeling and Adaptive Basin Hopping Monte Carlo Sampling. In CVPR, 2009.

[33] J. Kwon and K. M. Lee. Visual Tracking Decomposition. In CVPR, 2010.

[34] J. Kwon and K. M. Lee. Tracking by Sampling Trackers. In ICCV, 2011.

[35] X. Li, W. Hu, C. Shen, Z. Zhang, A. Dick, and A. Hengel. A Survey of Appearance Models in Visual Object Tracking. TIST, 2013 inpress

[36] B. Liu, J. Huang, L. Yang, and C. Kulikowsk. Robust Tracking using Local Sparse Appearance Model and K-Selection. In CVPR, 2011.

[37] B. D. Lucas and T. Kanade. An Iterative Image Registration Technique with An Application to Stereo Vision. In IJCAI, 1981.

[38] D. R. Martin, C. C. Fowlkes, and J. Malik. Learning to Detect Natural Image Boundaries Using Local Brightness, Color, and Texture Cues. PAMI, 26(5):530–49, 2004.

[39] I. Matthews, T. Ishikawa, and S. Baker. The Template Update Problem. PAMI, 26(6):810–815, 2004.

[40] X. Mei and H. Ling. Robust Visual Tracking using L1 Minimization. In ICCV, 2009.

[41] X. Mei, H. Ling, Y. Wu, E. Blasch, and L. Bai. Minimum Error Bounded Efficient L1 Tracker with Occlusion Detection. In CVPR,2011.

[42] X. Mei, H. Ling, Y. Wu, E. Blasch, and L. Bai. Efficient Minimum Error Bounded Particle Resampling L1 Tracker with Occlusion Detection. TIP, 2013, in press.

[43] S. Oron, A. Bar-Hillel, D. Levi, and S. Avidan. Locally Orderless Tracking. In CVPR, 2012.

[44] P. P´ erez, C. Hue, J. Vermaak, and M. Gangnet. Color-Based Probabilistic Tracking. In ECCV, 2002.

[45] P. Phillips, H. Moon, S. Rizvi, and P. Rauss. The FERET Evaluation Methodology for Face-Recognition Algorithms. PAMI,22(10):1090–1104, 2000.

[46] F. Porikli, O. Tuzel, and P. Meer. Covariance Tracking using Model Update based on Lie Algebra. In CVPR, 2006.

[47] D. Ross, J. Lim, R.-S. Lin, and M.-H. Yang. Incremental Learning for Robust Visual Tracking. IJCV, 77(1):125–141, 2008.

[48] J. Santner, C. Leistner, A. Saffari, T. Pock, and H. Bischof. PROST:Parallel Robust Online Simple Tracking. In CVPR, 2010.

[49] L. Sevilla-Lara and E. Learned-Miller. Distribution Fields for Tracking. In CVPR, 2012.

[50] S. Stalder, H. Grabner, and L. van Gool. Beyond Semi-Supervised Tracking: Tracking Should Be as Simple as Detection, but not Simpler than Recognition. In ICCV Workshop, 2009.

[51] B. Stenger, T. Woodley, and R. Cipolla. Learning to Track with Multiple Observers. In CVPR, 2009.

[52] F. Tang, S. Brennan, Q. Zhao, and H. Tao. Co-Tracking Using SemiSupervised Support Vector Machines. In CVPR, 2007.

[53] O. Tuzel, F. Porikli, and P. Meer. Region Covariance: A Fast Descriptor for Detection and Classification. In ECCV, 2006.

[54] P. Viola and M. J. Jones. Robust Real-Time Face Detection. IJCV,57(2):137–154, 2004.

[55] D. Wang, H. Lu, and M.-H. Yang. Online Object Tracking with Sparse Prototypes. TIP, 22(1):314–325, 2013.

[56] Y. Wu, J. Cheng, J. Wang, H. Lu, J. Wang, H. Ling, E. Blasch, and L. Bai. Real-time Probabilistic Covariance Tracking with Efficient Model Update. TIP, 21(5):2824–2837, 2012.

[57] Y. Wu, H. Ling, J. Yu, F. Li, X. Mei, and E. Cheng. Blurred Target Tracking by Blur-driven Tracker. In ICCV, 2011.

[58] Y. Wu, B. Shen, and H. Ling. Online Robust Image Alignment via Iterative Convex Optimization. In CVPR, 2012.

[59] M. Yang, Y. Wu, and G. Hua. Context-Aware Visual Tracking. PAMI, 31(7):1195–1209, 2008.

[60] A. Yilmaz, O. Javed, and M. Shah. Object Tracking: A Survey. ACM Computing Surveys, 38(4):1–45, 2006.

[61] J. H. Yoon, D. Y. Kim, and K.-J. Yoon. Visual Tracking via Adaptive Tracker Selection with Multiple Features. In ECCV, 2012.

[62] L. Yuan, A. Haizhou, T. Yamashita, L. Shihong, and M. Kawade. Tracking in Low Frame Rate Video: A Cascade Particle Filter with Discriminative Observers of Different Life Spans. PAMI, 30(10):1728–1740, 2008.

[63] K. Zhang, L. Zhang, and M.-H. Yang. Real-time Compressive Tracking. In ECCV, 2012.

[64] T. Zhang, B. Ghanem, S. Liu, and N. Ahuja. Robust Visual Tracking via Multi-task Sparse Learning. In CVPR, 2012.

[65] W. Zhong, H. Lu, and M.-H. Yang. Robust Object Tracking via Sparsity-based Collaborative Model. In CVPR, 2012.

这种算法的优点在于当目标未被遮挡时,跟踪精度非常高,跟踪非常稳定,但其缺点首先是 费时,当搜索区域较大时情况尤其严重。其次,算法要求目标变形不大,且不能有太大遮挡,否则相关精度下降会造成目标的丢失。

可以精确地分析目标的三维运动轨迹,即使在运动目标姿态变化的情况下,也能够可靠地跟 踪。但是其缺点在于,运动分析的精度取决于几何模型的精度,在现实生活中要获得所有运 动目标的精确几何模型是非常困难的,这就限制了基于模型的跟踪算法的使用。同时,

基于模型的跟踪算法往往需要大量的运算时间,很难实现实时的运动目标跟踪

这种算法的优点在于即使目标的某一部分被遮挡,只要还有一部分特征可以被看到,就可以完成跟踪任务,另外,这种方法与卡尔曼滤波器联合使用,也具有很好的跟踪效果这种算法的难点是对某个运动目标,如何确定它的唯一特征集这也是一个模式识别问题,若采用特征过多,

系统效率将降低且容易产生错误。

, [51] S. Nadimi and B. Bhanu, “Physical models for moving shadow and object detection in video,” IEEE Transactions on Pattern Analysis and Machine Intelligence(PAMI), vol. 26, pp.

1079-1087, 2004.

[52] A. Yoneyama, C. H. Yeh, and C-C.J. Kuo, “Moving cast shadow elimination for robust vehicle extraction based on 2D joint vehicle/shadow models,” in Proceedings of IEEE International Conference on Advanced Video and Signal Based Surveillance, pp. 229-236, 2003.

[53] A. Leone, C. Distante, and F. Buccolieri, “A shadow elimination approach in video-surveillance context,” Pattern Recognition Letters, vol. 27, no. 5, Apr. 2006, pp. 345-355.

[54] N. Martel-Brisson and A. Zaccarin, “Moving cast shadow detection from a Gaussian mixture shadow model,” in Proceedings of IEEE Conference on Computer Vision and Pattern Recognition(CVPR), vol. 2, pp. 643-648, 2005.

[55] 吴刚, 唐振民, 程勇, et al. 灰度共生矩阵纹理特征的运动目标跟踪方法[J]. 南京理工大学学报(自然科学版), 2010(04):459-463.

[56] Laws K. Textured image segmentation [D]. University of Southern California, 1980.

[57] Lu H, Wang D, Zhang R, et al. Video object pursuit by tri-tracker with on-line learning from

positive and negative candidates[J]. IET Image Processing, 2011, 5(1): 101-111.

[58] Ahonen T, Hadid A, Pietikainen M. Face description with local binary patterns: Application

to face recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence.,2006, 28(12): 2037-2041.

[59] Lu H C, Fang G L, Wang C, et al. A novel method for gaze tracking by local pattern model and support vector regressor[J]. Signal Processing,2010, 90(4): 1290-1299.

[60] De Van Der Merwe R. D A F N. The unscented particle filter [R]. Techical report CUED/F-INFENG/TR 380 Cambridge University Engineering Department,2000.

[61] Sun L, Liu G Z. Visual object tracking based on combination of local description and global

representation[J]. Proceedings of IEEE Transactions on Circuits and Systems For Video Technology, 2011, 21(4): 408-420.

[62] 尹宏鹏, 柴毅, 匡金骏, et al. 一种基于多特征自适应融合的运动目标跟踪算法[J]. 光电子.激光, 2010,(06):917-923.

[63] Leichter I, Lindenbaum M, Rivlin E. Mean shift tracking with multiple reference color

histograms[J]. Computer Vision and Image Understanding, 2010, 114(3): 400-408.

[64] 韩松, 张晓林, 陈雷, et al. 基于改进高斯粒子滤波器的目标跟踪算法[J]. 系统工程与

电子技术, 2010,(06):1191-1194.

[65] 蒋蔚, 伊国兴, 曾庆双. 基于 SVM 数据融合的实时粒子滤波算法[J]. 系统工程与电子

技术, 2010(06):1334-1338.

[66] Yin H P, Chai Y, Yang S X, et al. Fast-moving target tracking based on mean shift and

frame-difference methods[J]. Journal of Systems Engineering and Electronics, 2011, 22(4):

587-592.

[67] Wang H Z, Suter D, Schindler K, et al. Adaptive object tracking based on an effective

appearance filter[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007,

29(9): 1661-1667.

[68] . 一种基于 SMOG 模型的红外目标跟踪新算法[J]. 红外与毫米波学报,2008, 27(4): 252-256.

[69] Ross D A, Lim J, Lin R S, et al. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision, 2008, 77(1-3): 125-141.

[70] 程建, 周越, 蔡念, et al. 基于粒子滤波的红外目标跟踪[J]. 红外与毫米波学报. 2006,25(2):113-116.

本文来源:https://www.2haoxitong.net/k/doc/28aca29c6294dd88d0d26bf3.html

《国内外研究现状和研究意义.doc》
将本文的Word文档下载到电脑,方便收藏和打印
推荐度:
点击下载文档

文档为doc格式