姓名:张艳敏申请学位级别:硕士专业:计算机应用技术指导教师:张朝晖
20120305
摘要行人检测是基于图像/视频数据进行目标检测的一个重要分支,它在视频监控、智能交通、高级人机接口等多个领域具有广泛的应用前景。行人检测技术实现的一个主流思路就是从机器学习的角度着手,将行人检测问题转化为一个分类问题,确定合适的特征描述,借助大量的训练样本,学习得到一个用于行人检测的分类器模型。由于行人所处环境的复杂性,使得高可靠性的行人检测仍然面临诸多挑战,这也使得行人检测成为计算机视觉、人工智能和模式识别等领域的一个重要研究内容。因此进行行人检测相关问题的研究具有重要的理论意义。本文对行人检测技术的研究现状进行总结与分析,在此基础上,在特征描述、分类器模型训练性能的改善等方面对行人检测关键技术进行研究。论文主要贡献如下:1.基于分层HOG特征的行人检测针对HoG特征对目标形状描述的不足,本文提出了分层HoG特征,对目标进行多级空问划分的基础上,实现从全局到局部、由粗到细的多尺度目标特征提取,从而更加全面描述目标信息;在此基础上,借助GentleAdaBoost的级联分类器实现了基于分层HOG特征的行人检测。基于GentleAdaBoost级联分类器的行人检测实验表明:分层HOG特征的目标描述在行人检测性能上优于HOG特征的目标描述。2.基于SⅧ特征预过滤的GentleAdaBoost分类器训练针对基于高维特征的AdaBoost级联分类器的训练时间过于冗长的问题,提出了一种基于SVM特征预过滤的GentleAdaBoost分类器的训练方式。对于每一级AdaBoost强分类器的训练,借助线性SVM分类器的预训练,从高维特征集合中滤掉对分类贡献程度小的特征,保留85%~90%能量的特征,构成AdaBoost强分类器训练所用的特征子集;在不损失分类器总体检测性能基础上,从收缩特征集的角度改善分类器训练的时间性能。3.基于固定摄像头的视频行人检测在上述工作的基础上,本文结合背景减除,提出了一个基于固定摄像头的视频行人检测框架。关键词:行人检测;分层HoG特征;特征过滤;SVM分类器;GentleAdaBoost分类器IIIAbstractPedestriandetectionwhichisandimportantbranchofimage/video—basedareasasobjectdetectionhasfoundwidelypromisingapplicationsinsuchadvancedman.machineinterface,andbasedonSOvideosurveillance,intelligenttraffic,on.Themainideaforpedestriandetectioniscanmachinelearning,inwhichobjectdetectionappropriateberegardedasakindofclassificationproblem.Byintroducingfeaturedescriptors,thepedestriandetectionmodelCanbelearnedwithlargenumberoftrainingsamples.Duetothecomplexworkingenvironmentandtheneedofhighdetectionperformance,pedestriandetectionfacesmanychallengesandhasbecomeanimportantresearchpartinthefieldsofcomputervision,artificialintelligenceandBaseddetectiononpattemonrecognition,eta1.thestateoftheart,thisthesisfocusedthebeaspectstheresearchworkforpedestrianclassifierfromofasfeaturedescriptionandtraining.ThemaincontributionsCansummarizedthefollowing.on1.PedestriandetectionbasedhierarchicalHOGInthisthesis,hierarchicalHOGisintroducedforglobal.to.10calmannerdetectionbasedonobejctdescriptioninacoarse-to-finebasedonmulti—layerspatialstrategy.ExperimentsofpedestrianthecascadedgentleAdaBoostshowthattheperformanceofhierarchicalHOGdescriptionoutperformsthatofHOGdescription.on2.GentleAdaBoostclassifiertrainingbasedInordertoSVMfeaturepre—filtering.efficientlyimprovethetimeclassifier,thisthesisonperformanceaduringthetrainingphaseofcascadedAdaBoostsetcondensationproposestrainingstrategywhichcombinesfeaturebasedlinearSVMpre-filteringandgentleAdaBoosttrainingbasedoncondensedfeatureset.Withoutperformanceweakeningthegeneraldetectioncanperformance,thecascadedclassifiertrainingfeatureenergyasbeefficientlyimprovedwhenkeepingthepercentageof85%——90%.on3.Videopedestriandetectionbasedstaticcameras·Bycombiningbackgroundsubstractionpedestraindetectionandtheaboveresearchwork,avideo。basedframeworkisfinallyproposedinthisthesis.IVKeyWords:PedestrianDetection;FeatureFilter;HierarchicalHoGfeature;SVMclassifier;GentleAdaBoostclassifierV1绪论1。1研究背景与意义借助摄像头获取的视觉信息对监控环境进行有效认识和理解的一个关键问题就是视觉感知和识别问题,通常这种问题也可视为一种基于图像/视频数据的目标分类问题。而对于以人为主体的监控环境来说,如何识别人、将人与其它对象类进行有效的区分,是基于视觉信息监控系统的一个重要组成部分,这正是基于图像觎频数据的行人检测的主要任务。行人检测因其在视频监控、智能交通、公共安全等领域所表现出的重要应用价值而成为基于视频/图像数据目标检测的一项重要内容。(1)社会意义行人检测技术的研究具有重要的社会应用价值。例如:①在智能交通领域,可以在十字路口、高速路段等地方进行自动行人检测,以实现对行人、车辆等的安全预警:对于车辆辅助驾驶系统,借助自动行人检测为驾驶人员提供有效路况及预警信心;②公共安全是智能视频监控的重要应用之一,随着城市规模的不断扩大,住宅小区逐渐成为人们安全防范的重点,而基于行人检测的视频监控,有助于对小区进行安全监控、减少犯罪,从而增强居民的安全感;基于行人检测的视频监控有助于对重点建筑(如:银行、核电站、水库等)及重要地点(国家重点保护建筑、博物馆、体育场、监狱等)的安全保卫工作;③在国防安全领域,行人检测有助于探测部队周边环境的可疑目标,从而防止枪械库、弹药库等重点设施的偷袭与破坏。(2)学术意义行人检测是一种目标检测,但复杂背景下的高可靠性移动人体目标检测仍面临着很大困难,除了服饰、姿态多样性导致的类内差异外,由于行人生活在一个开放式的环境,天气的好坏,光照的强弱,以及行人之间的相互遮挡现象等都会影响行人检测系统最终的检测结果。因此,从学术的角度如何针对复杂的背景环境以及多变的类内差异,抓住问题的本质,对检测系统的鲁棒性提出了很高的要求。行人检测系统一般要包括两个主要模块:感兴趣区域的分割、目标识别与定位,其中后者是行人检测系统的核心部分,更是难点所在。此外,对于用于行人检测的分类器来说,分类器模型训练的时间性能也是影响其使用的一个因素。1.2论文组织本文一共包括六章内容:第一章绪论,阐明行人检测的研究背景与意义,并给出本文的组织结构。第二章对行人检测的研究现状进行综述,着重从研究方法、特征描述的角度对相关技术进行分析,明确了行人检测难点所在,为确定本文进一步的工作奠定了基础。第三章、第四章是本文工作的主要部分。第三章从特征描述的角度,给出了一种基于分层HoG特征的行人检测方法。文中引入了一种基于分层HoG特征的样本描述子,在此基础上,借助GentleAdaBoost级联分类器实现了行人检测。第四章提出了一种基于线性SVM特征预过滤的GentleAdaBoost行人检测算法。对于高维特征描述的目标检测来说,针对AdaBoost分类器训练时间过于冗长的不足,从改善分类器训练性能的角度,将基于SVM的特征选择过程与各级GentleAdaBoost分类器的训练有效结合:借助线性SVM的特征预过滤进行原始高维特征的筛选,以达到特征集约简的目的,再将预过滤的特征送入GentleAdaBoost分类器中进行训练,在不影响分类器检测性能的基础上有效节约分类器的训练时间。第五章借助三、四两章的工作成果,提出了一个基于固定摄像头的实时行人检测与定位框架。第六章对本文主要工作及贡献进行总结,并对未来进一步的工作进行展望。2行人检测技术综述本章对行人检测技术的研究现状进行总结:着重从研究方法、特征描述的角度对相关技术进行分析,明确了行人检测难点所在,为确定本文进一步的工作奠定基础。2.1研究方法国外关于目标检测的理论研究及应用起步相对较早,到目前为止,国际上行人检测技术已经在诸多领域取得了诸多优秀成果,陆续提出了很多不同的人体检测方法,包括不同的特征提取方法,不同分类方法,不同特征和不同分类法结合的方法等。行人检测涉及范围很广,需要用到多种技术,因此已经成为许多交叉学科的研究热点。对于基于图像/视频数据的行人检测来说,当前常用的检测方法主要有:轮廓模板匹配法、机器学习方法等类型【1】【2】。2.1.1基于模板轮廓匹配的方法这类方法中,首先收集一个由大量不同行人轮廓信息构成的模板集;检测时,只需将检测图像与模板集中的模板进行相似性度量。如果检测图像与模板距离小于预先规定的阈值T,则说明该检测图像是行人,反之则认为不是行人。最简单的一种模板匹配方法就是二值模板匹配,Broggi【3]构建了头肩图像的二值模板集,检测时只需要计算图像的边缘和模板之间的关联度。Gavrila[4][5胴则提出一种分层的模板匹配法,度量过程借助距离变换,将各种形状模板转换为距离图像,计算待检测目标与模板距离图像之间的Chamfer距离,进行由粗到细的匹配。虽然基于模板匹配的方法计算简单,但是由于行人姿态的多样性和复杂性,通常很难构造出足够的模板以涵盖所有不同的姿态。2.1.2基于机器学习的方法这类方法将行人检测问题转化为分类问题。其主要工作涉及:(1)用于分类器训练及评价的大规模正、负样本集收集,其中正类样本是指包含行人的样本图片,负类样本是指不含行人的样本图片;(2)样本的特征描述;(3)分类器模型的选择;以及(4)分类器模型的训练等部分。借助合适的特征描述子对样本图片进行特征提取,在此基础上,训练分类器;在检测时对目标图像进行特征提取后,利用已经训练好的分类器对目标图像进行检测。有关人体/行人检测的特征描述可以详见D.M.Gavrila的综述性文章‘71。这里列举近年部分经典的方法。Papageorgiou等人给出了一种改进的哈尔小波特征‘8](RectifiedHaarWavelets);Depoortere等‘91对上述方法进行优化;Viola等人‘101构建了一种高效的,基于Haar.1ike小波和时空微分的特征;Ronfard等人‘11】构建了一种基于动态规划过程中高斯滤波的肢体分类方法。关于机器学习模型,目前常用的主要有:神经网络模型【12】,SVM[131(支持向量机)和AdaBoost级联分类器【141级联分类器等。人工神经网络是一种基于连接学说的智能仿生模型,借助可物理实现的系统来模仿人脑神经细胞结构和功能。它是由大量神经元相互连接构成一个多层的、由输入层向输出层的非线性映射系统。对于基于神经网络的目标检测模型来说,分类器的训练正是借助调整各层神经元节点的数目、激活函数形式、相邻层神经元节点之间的连接权重的不同,来进行的,从而可以达到行人检测的目的。对于基于神经网络模型的行人检测系统中,Zhao等人[151以梯度幅值描述样本图像,而Szarvas[161是直接将图像中像素的灰度值作为特征来描述样本。SVM和AdaBoost[H1的分类器是基于分类的行人检测系统中两种主要的机器学习模型,更多内容将结合本论文具体工作在第三章和第四章分别予以详细介绍。表2.1将从样本特征描述、分类器模型的使用、以及检测性能等方面对近年一些典型行人检测技术进行直观比较。尽管行人检测技术近些年来不断发展,尤其是基于机器学习的行人检测模型在分类技术和特征提取方法上取得了明显的进步,但是从鲁棒性和实时性来看,还有很大的改进空间。此外,在分类策略上,基于单个分类器的目标检测机制,尽管准确率较高,但误报率也较高,不能满足使用者的需求,性能相对比较差。而将多个不同的分类器模型有机结合,根据不同分类器的检测结果进行综合判断,在一定程度上可以改善目标检测性能。2.2行人检测中的特征提取关于行人检测技术,从样本描述的角度也可分为基于样本整体特征的方法和基于样本多部位的方法,本节将对一些经典的算法做一个简单的总结。4表2.1行人检测的一些经典算法作者和发表时间主要方法提取Haar.1ike特征,借助积分图方检测率和误判率分别为80%和P.Vi01a2001[14】性能效果法计算特征;使用级联AdaBoost分类器将人体分成13个部件,提取纹理特检测率和误判率为分别为93.5%和8%,检测范围为3~25m0.00025%;检测速度为4fpsAShashua2004[18】征和SIFT特征;采用AdaBoost分类器分别提取Haar特征和EOH特征;检测率和误判率分别为90%禾N1%;检测范围为5~50m检测率和误判率分别为92%和GeronimoD20071191采用RealAdaBoost分类器将样本图像分块,每块用二维的MohallA2001[201SVM分类器训练;检测时用一个线0.001%性SVM分类器进行检测将行人作为一个整体,提取HoG特N.Dalai2005[21】检测率为82%,误判率为0.001%征;利用线性SVM分类器进行训练将人体分为头肩、躯干和腿部,分检测率为92%,误判率为BoWu2007[22]别加以训练,再用贝叶斯推断来分0.001%析行人采用LBP特征,结合SVM分类器Y.Mu2008[231检测率为85%,误判率为O.001%训练HoG特征和LBP特征相结合;用X检测率为94.7%,误判率为0.001%Wang2009[241SVM分类器训练将纹理,边缘和颜色特征相结合;陟冗Schwartz检测率为94.2%,误判率为用最小二乘法进行降维之后,送入0.001%2009t251SVM分类器进行训练XYu锄2011【26】用级联AdaBoost分类器训练把HoG特征和Haar特征结合起来;检测率为95.8%,误判率为3.2%2.2.1基于整体特征的方法这种类型的类特征提取策略是将人作为一个整体,对于一幅输入图像,‘需要对图像中的检测窗口进行整体特征提取,直接送入训练好的分类器,对检测窗口进行决策(人/非人),通常用外接矩形来定位行人。2.2.1.1Haar-like特征Orenl27】率先使用该特征进行行人检测。图2.1是五种基本的Haar.1ike外形特征,Haar.1ike特征的提取过程是先分别计算黑色和白色两个区域内部的所有像素的灰度值之和,然后再将其作差,最后送入AdaBoost分类器进行训练。后来Viola提出利用积分图的方法【12】来提取Haar.1ike特征,明显改善了特征提取的时间性能。图2.1五种基本的Haar-like特征关于目标检测,Viola[121的贡献主要体现为:第一,将积分图像用于Haar-like特征,计算速度大大提高了;第二,巧妙使用AdaBoost分类器模型,借助分类器训练,从高维特征集中筛选出部分简单的特征进行分类,其检测效果非常好;第三,它使用CascadeAdaBoost策略,在检测阶段的早期有效地过滤掉大量负样本,确保检测速度快;同时,由于借助bootstrap重采样技术获取易被误判的负样本,构建下一级AdaBoost强分类器所需负样本集,因此,级联策略大大降低了分类器的误判率。2.2.1.2HoG特征HoG特征由2005年Dalal[211在SIFT[281特征的基础上提出的,它能够很好的刻画图像的边缘特征,并且对光照和小的位置偏移不敏感,在1NRIA行人库上取得了很好的效果,HOG方法是特别适用于做图像中行人检测的,因此得到了广泛的应用。Dalal将一幅样本图像用一个16×16的Block、以8像素为步长进行遍历,然后将每个Block分为4个8×8的Cell,在0。~180。内以20。为一个步长统计每个Cell中各个像素的梯度值,形成一个9维的梯度方向直方图;4个Cell串联成一个36维的梯度方向直方图特征;然后以L2范数进行归一化;最后将整幅图片的所有Block的梯度方向直方图特征串联,形成样本图像的HoG特征描述,具体流程如图2.2所示,这是一幅128×64的行人样本图像,对其空间划分,可得到105个Block。6黧Cel勾像素点梯}_—叫域像素点梯度幅}'—叫度幅值及其方向I值相叠加上进行归L+l二:淼麓翟}_—.叫HoG串联形成样H美辘静HB狲lock孽‰H毫黼H鼍器馨一化l…”。“…~”。l本的HoG图2.2样本HoG特征求取流程图一幅样本图像的HoG特征提取步骤为:①首先以卜1,0,1】与[-l,0,1-17为卷积核,对原图进行卷积运算,求取原图梯度的水平方向分量图与垂直方向分量图,即:%Gx(,y)=:H(x二∑)-一H(xYG。(x,)=H(x,+1)一YH(x嵩;....………………(2.1),y一1)其中H(x,Y)是(x,Y)位置处的像素灰度值,对于24位彩色图像,分别计算R,G,B三个通道的梯度,并选取其中幅值最大的分量值作为该像素处的梯度。②计算出原图像的梯度幅值图。G(x,y)=[G,(x,y)2+G,(x,y)2】¨2…………………………一(2.2)③确定梯度方向。由式(2.3)得出每个像素处的梯度方向角,规定角度范围为0~180。。0(x,Y)=tan。1(搿卜觏㈦小…小川<。tan一(嬲卜凯∽小…小川刈…√2司tan。1(搿],其它④根据式(2.3)得出的各个像素点角度范围,为图像的每个Q刀构建梯度方向直方图。&Z,中的每一个像素都为基于某个方向的直方图通道(共9个)进行加权投票,即每一票都是带权值的。通常情况下,采用高斯窗口的权重调整和梯度方向上的双线性插值操作进行投票。⑤将4个Cell的方向直方图特征串联起来,并进行三2范式归一化,形成一个36维的HoG特征。7综上所述,基于整体特征的优点是整个框架计算比较简单,易于理解与实现。如果我们所提取的特征能很好的描述行人,那么在检测时就会取得很好的检测效果。但是如果出现遮挡现象,或者多姿态以及多视角的情况下,这种方法就遇到了很大的挑战。虽然基于HOG的方法只采用一个检测窗口,算法框架比较简单,但效果非常明显。该方法出现后迅速引起人们的关注,并产生了许多改进版本,比如基于级联的HOG法【291,最新的采用最小二乘法对HOG特征向量进行降维的方法【251取得了非常好的效果。2.2.2基于多部位的方法在有些情况下,当一个或者多个人在街道上行走时,某些部位会被其他目标或人遮挡,这时基于整体特征的方法就不太适用,它会因为检测不出来有些部位而发生漏检现象,而基于多部位的方法会有更好的表现。在多部位策略中,首先,一个部位的遮挡并不会影响最后的检测结果,能够提高检测率;第二,有些部位所在的位置是固定的,例如头部通常在上边,而腿部通常在下边,且各个部位之间是相互制约的,可以进一步降低误判率。但对于多部位检测,还存在一些关键问题,需要慎重处理。比如,应如何进行多部位划分?如可以根据人的几何结构来划分‘30】【31】[321,例如将人体划分成头部、左臂和右臂,下身等;也可根据图像自身结构将图像划分成若干个小块嘲【34】【35】【36】。此外,进行多部位检测后,如何把多个分类器的检测结果进行集成?常用的做法是建立一个概率模型,对这个模型求解极值,得出最优解。2.2.2.1自适应组合分类器自适应组合分类器算法是Mohall[20】于2001年首先提出的,他将人体划分成头部,左臂和右臂,下半身四个部位,该算法在训练阶段主要分两步:首先是训练各个部位的分类器,即每个部位训练出一个分类器;第二步是训练一个组合分类器,将各个部位分类器的检测结果整合起来,以四个部位检测器的输出作为该组合分类器的输入,继续训练,以得到各个模块最大的检测值。该算法流程图如图2.3所示。实验表明,这个多部位组合算法的检测效果非常显著。当误判率为0.001%时,检测率达到92%。2.2.2.2基于贝叶斯推断的组合算法BoWu[30】于2005年提出基于贝叶斯推断的组合方法,他将人体分解为头肩、躯干和腿部共三个部位,从概率的角度出发,根据公式Rp(zS)=p(ZFB{S肋)P(ZmS船)尸(ZrSr)尸(ZLlSL)………..(2.4)找到最优解S使得P(ZS)最大化。Z表示实际检测结果,S表示我们假设存在的人,每个行人用Si={s尸,s尸,s厂,ski表示,其中FB,HS,T,L分别表示全身、头肩、躯干和腿部,s严,s严,卵,s/,分别包含了相应部位的大小和位置。在BoWu的算法中,x,/-每个部位训练一个分类器,在检测时,用三个分类器分别加以螋!!得出各个部位的检测结果,然后根据这些结果用贝叶斯巷断来分折窍嘉在哪里出现亍獬。B。黪。肇实验写蓖明,在出现萼警现象眵tj基于毒部位的枣鹫冀煮警垂钞暌薯篝擎琴征的方法奠遒如桌没有遮挡现象时≥。攀方法算不比攀等整体婕延盎隳娑好爹攀?益奄溆计算复杂嫠报大。图2.3自适应组合分类器的算法流程2.3研究难点以上对行人检测的主要技术做了简单综述。其中,特征描述旨在寻找一些能有效描述行人外观、并能有效区分行人与环境中其它部分的有效方法。然而,由于行人所在环9境是开放的,行人间也存在不同程度的差异,这些因素给特征描述及特征提取带来了一定的挑战,以下给出一些主要影响因素。(1)不同行人外观各有差异。在身材上,有的人高大,有的人矮小,这影响了对行人的整体外观描述;在穿着上,差异性更大,冬天穿的厚而夏天穿的少,且风格也不一样,头部,手部和腿部等稍有些不一样就会影响其对行人相应部位的特征描述。即使人体姿态完全一致,上述因素也将导致行人之间的类内差异,给行人检测工作带来巨大的困难,如图2.4所示。图2.4身材和穿着的不同(2)人体姿态的多变。行人属于非刚性物体,因此动作姿态就会有很多变化,如图2.5所示,这些都会严重影响对行人的整体外观描述,如何构建一个行人检测系统能够适应行人这种姿态多变的情况,也是一个很具有挑战性的工作。图2.5姿态的差异性(3)遮挡现象。行人在路上行走或者当多个人在一起时,很容易被其他目标或其他行人所遮挡,尤其当人体的很多部位被遮挡时,通常所用的基于整体特征的方法在检测时会造成很多漏检现象,这时应该采用基于多部位的方法,一个或几个部位被遮挡时不会影响整体的检测结果。如图2.6所示。10图2.6行人的遮挡现象(4)背景的杂乱。由于行人处在一个开放的环境,因此行人所处的背景多种多样,有的背景可能在形状或轮廓上与行人很相似,很容易造成误判;也有的背景与行人的衣服颜色很接近,容易造成漏检等等,这些复杂的背景同样给行人检测技术带来很大挑战。如图2.7所示。图2.7背景的差异以上,只是从特征描述的角度,对行人检测所面临的挑战进行了简单分析。对于基于分类策略的目标检测系统来说,因分类器模型的形式不同、样本描述所用的特征维数的不同,不同类型的分类器模型在训练过程和检测过程之间存在着不同程度的不平衡问题。例如,对于AdaBoost级联分类器来说,尽管检测效率比较高,但当训练样本规模比较大、样本特征描述维数比较高时,分类器的训练时间明显过于冗长;而对于SVM分类器来说,当训练样本规模比较大时,尽管基于分类器训练得到的支持向量相对于训练样本总数来说可以占比较小的比例,但因判别函数主要涉及的是支持向量的运算,使得目标检测时长成为一个影响目标实时检测的主要影响因素。另外,从检测性能上看,如何有效平衡目标检测误判率和检测率,也是对行人检测系统性能进行有效取舍的一个因素。对于基于视频的行人检测来说,如何将行人的运动信息与行人检测进行有机结合也是实瑚鬻频罐黼行人检测的二帮鲎娶诉戎。。簿建;盼!本蠢小瓣。方法着囊从整缈{瓣誉蝴整表钮晦夹的特往桊耩鬻鞲蘧鬟攀手多部位酌方法主孽警孽辫对手霉荔辨测搀术亭熟究挈簟絮辫燕鼬稽鞲绩≤.懑催l纂察,≤蒸于整馕》等钲韵要解决遮挡现象期多姿态的问题。在本文的研究工作中将行人检测问题转化为一个两类问题的分类问题,针对特征描述及分类器训练性能的改善,进行相关的研究。123基于分层HoG特征的行人检测从分类的角度看,一个完整的行人检测过程,包括样本选取、特征描述、分类器模型确定及训练、以及目标的检测与识别等主要环节。本章从特征描述的角度,提出了一种基于分层HoG特征的行人检测算法。相关工作组织如下:第一节,用于行人检测的正负训练样本的选取;第二节给出了一种分层HoG特征提取的过程;第三节、第四节分别描述了基于GentleAdaBoost的分类器模型及其训练过程;最后,借助基于分层HOG特征的样本描述及GentleAdaBoost级联分类器模型的行人检测实验,验证了分层HOG特征的有效性。3.1样本选取样本选取,构建分类器模型训练所需样本集,是行人检测分类器模型训练过程的第一步,包括正样本和负样本,即行人和非行人样本的选取,本节将介绍行人样本集和非行人样本集是如何获取的。3.1.1行人样本选取作为正样本的行人样本选取对于最终分类器的检测性能是至关重要的,行人样本集应尽可能涵盖多种内容,如:应尽量涵盖不同光照条件、多种复杂背景下的行人;考虑到类内差异,应能涵盖不同表观、不同运动姿态的行人,以尽量降低甚至避免漏检的可能性。本文所用行人数据库是IN对A行人库,它的训练集有2416张行人图片,包括各种姿态和光照的图片。3.1.2非行人样本选取第二章的分析表明,由于行人生活在一个相对开放的环境下,因此对于那些不含行人的负样本(非行人样本)图片应尽量涵盖行人可能出现的多种背景因素,理想情况下应包含除了行人之外的所有内容,这样才能把误判率降低为O。实际上,这种穷举所有的图片是不可能的,但是我们要准备尽可能多的非行人图片,特别是那些不是行人、但又疑似行人的图片。在本文的目标检测系统中主要借鉴了基于AdaBoost的级联分类器模型。因此,对于每一级强分类器来说,借助bootstrapping策略选取候补非行人样本,即对于每一级补充进来的负样本,都是那些因疑似行人而被误判的非行人样本。l3为避免分类器训练过程因非行人样本准备不充分而导致提前终止,应事先提供规模充足的候选样本。3.2分层HoG特征描述HoG[211特征是描述图像形状信息的一种很有效方法,它通过提取图像局部区域的梯度特征,可以很好地表征图像局部区域的边缘或梯度结构,借助block的划分,以及局部梯度方向直方图的顺序组合,进而表征目标形状。尽管HoG已经考虑到图像空间的分布,但没有考虑到图像在不同空间尺度划分下对分类性能的影响。本文将基于HoG特征的目标形状描述与图像的多尺度划分相结合,采用塔式梯度方向直方图,采用空间四叉树形式,将图像分解为从低分辨率到高分辨率的表示形式;进而,将不同尺度划分下的HoG特征,从低到高分辨率有效级联,形成分层HoG特征,来描述样本图像。本文设定级数为L=3,当前级数为l(1=O,1,2),梯度方向划分为9个区间,分层HoG特征描述就是由3层梯度方向直方图的特征向量顺序串联而成。如图3.1所示,图(a)是一幅原始样本图像,图(b)是求取的梯度结构图。分层HoG特征提取步骤如下:①,=0时将整个图像分成上下两个块(Block),如图3.1(c)所示,两个块之间的重叠步长为32,然后分别对每个Block计算HoG特征,其维数为36×3=108;②Z=1时在上一层的基础上将图像中每一个块分解成4个块,如图(d)所示,其维数为3×7x36=756;③,=2时同理再将每一个块分解成4个块,如图(e)所示,其维数为7×15×36=3780。最终形成的直方图是Z=0,1,2各HoG直方图的顺序组合,其维数为108+756+3780=4644。最后对整幅图像的直方图特征向量进行归一化处理(如L2范式),以去除光照变化的影响,图3.1描述了分层HoG的生成示意图。从图3.1中可以看出,随着分割层数的增加,梯度方向直方图对目标结构的刻画也逐渐趋于局部化和精细化。14(a)样本原图(b)梯度幅值图J『=0J『=1Z=2(c),=0时梯度方向直方图(d),=1时梯度方向直方图(e),=2时梯度方向直方图图3.1分层HoG示意图3.3GentleAdaBoost分类器模型对样本进行特征提取的基础上,借助GentleAdaBoost分类器从中选择一些区分能力比较好的特征(弱分类器)构成一个强分类器,最终将所得的多个强分类器构成级联分类器。具体训练过程如图3.2所示:图3.2训练部分流程图3.3.1弱分类器的表示形式弱分类器的定义如下所示:16纵加仨翌一.………………郫m其中:x为待检测的样本,乃(x)为计算样本特征值的函数,q为通过训练得到的弱分类器的阈值;口。,a:为两个小数,值域为[一1,+1],表示分类结果,在理想情况下I口,f_l口:i=1表示分类完全正确,-t-1表示行人,一1表示非行人。3.3.2强分类器的表示形式每一个强分类器都是由若干个弱分类器按照一定的方式组合起来的,它的定义如下:州:丁一融十够………………@2,l-1反之其中:x为目标图像,hj(x)为该强分类器的第/个弱分类器的检测结果,伊,为该强分类器的阈值。对于测试样本x,若判别函数日。(z)的检测结果为+1,则其被该强分类器判决为疑似行人;若H,(x)判断结果为一1,则将该样本决策为非行人。3.3.3级联分类器的结构级联分类器的结构图如图3.3所示。图3.3级联分类器结构检测图对于这样一个多层结构的分类器,其检测过程类似于一个倒决策树。组成级联分类器的每一级强分类器都是由GentleAdaBoost算法训练得到的。17对于第K级强分类器来说,训练所需负样本来自前K一1级强分类器检测后被误判的负样本构成的:那些被前面任何一级分类器正确判为“非行人”的负样本被直接排除不再作为下一级分类器的训练样本。因此,从分类器对正负样本的区分能力上,处于后一级的强分类器要强于前几级,因为只有前几级误判的负样本才会被送入当前层分类器,即都是比较难区分的负样本。训练过程中,根据需要预先设定各个强分类器的最小检测率‰和最大误判率L,以及最终级联分类器的最小检测率D和最大误判率F,那么级联分类器的最终级数n应满足条件:误判率不应超过F=兀厶。=盛,检测率不低于D=n‰=瑶。i=1』=1通常情况下,‰设在[0.95,1],厶。设在[0,0.5]之间.3.4GentleAdaBoost分类器的训练过程3.4.1弱分类器的训练过程与分析由式(3.1)看出,每个弱分类器都有三个特性:特征类型、阈值g、分类结果口,和口:。如图3.2所示,每个弱分类器都是根据最小错误率准则训练出来的;图3.4给出了弱分类器的具体的训练过程。·选取训练样本M个,大小为64×128,其中:正样本为m个,负样本为玎个。对每个样本提取特征,计算特征值。设两个一维数组Value[j],label[j],J=0,1,...,M,分别存放的是一个特征在所有样本上的特征值,所有样本的排列次序。·FAULT=(curlerror+currerror)表示当前分类器的错误率的最小值,初始时:curlerror=兄丁一MAX(称为左错误),currerror=凡丁一MAX(称为右错误),其中凡丁刎X=3.402823466E+38F,为浮点数的最大值。若每个样本的特征维数为Ⅳ。·fo,.i=1,...,N(对于每个特征)》对所有样本的特征值玩ZMeU】,歹=0,1,...,M进行由小到大排序。label[j】代表了排序后的原样本号>fo,J=1,...,M;(对于每个排序后的样本)jM—wl=∑Ⅵ,w,.=∑Ⅵ,魄是第七个样本的权值。k=lk=J+lJM_叫=∑比·此,wyr=∑wk·Yk,当第七个样本为正样本时以=+1,否则k=lk=j+lYk=——1-curleft=wyl/wl,curright=wyr/wr,M_curlerror=∑Wk·[Yk-curleft]2currerror=∑wk.[Yk—curright]2k=lk=j+l—if(curlerror+currerror)<FAULTthen/FAULT=(curlerror牟currerror)/弱分类器阈值0=Value[1abel[j]]/%=curleft,口2=curright/记录特征类型>清空数组Value[j],label[j],J=0,l,...M·保存最终得到的特征类型、阈值目、%和口2。图3.4弱分类器的训练过程(1)分类结果%和口:的具体含义对样本进行分层HoG特征提取后,首先对每一维的特征进行由小到大排序,然后中程度过程为:删等等一嘞詈蛰………√3∽19对这些特征开始从小到大进行搜索,直到找到一个特征值使其左右两边的样本相对比较集中,即找到一个分类错误率最小的特征值,从图3.4可以看出,寻找这左右两边的集其中:虮为训练样本标记,正样本为+1,负样本为一1,curleftTF[1curright分别代表了排序后第,个特征值左右两边行人和非行人样本的相对集中程度,它们的绝对值都小于1,最终保存的结果伊就是经过穷举搜索所有特征值后挑选出来的最优的阈值,%和口:表示所选的阈值0左右两边两类样本的集中程度。3.4.2强分类器的训练过程与分析在介绍了弱分类器的训练过程之后,本节将介绍一下强分类器,一个强分类器是由一些弱分类器按一定方式组合起来的,图3.5给出了强分类器的训练过程。·确定强分类器的最小检测率‰和最大误检率厶。。确定正样本集为P集,个数为1TI,标记为Y,=+l,i=O,...,m-1;负样本集为N,个数为n,标记为儿=-1,i=O,...,n一1;总样本数记为M.··确定所有样本初始权重,记为哆,f-O,...,M一1,q=1/(2母m)(正样本权重),q=1/(2木n)(负样本权重)。·设厂为当前强分类器的误检率,初值为1.0。当前弱分类器个数为t=-l;while(f>fm。)·>归一化权重,使得yw:1。J‘J‘弱分类器训练过程:挑选一个特征构成一个弱分类器忍(x),使得该分类器的分类错误>率相对其它弱分类器来说是最小的。分类错误表示为:s,=Zwi·[%(_)一Yf。>对于每个正样本t,计算PV[i]=∑‰(薯);对于每个负样本o,计算Ⅳy[刀=∑吃(o)。T表示当前已得到的弱分类器的个数。>对尸y数组按从小到大排序;正样本(即行人样本)个数为m,最低检测率为d二,那么当前强分类器的阈值仍=PV[m.(1一‰)】,即第l聊.(1一‰)j个元素作为阂值,20图3.5用GentleAdaBoost算法训练单个强分类器由式(3.2)可知,在用一个强分类器进行检测时,等于是用它的n个弱分类器检测,最终将n个检测结果相加后的数值与强分类器的阈值进行比较,大于或者等于该阈值的就判为行人,小于的则判为非行人。(1)样本权重的作用为样本设置权重主要是区分每个样本在分类上的相对贡献,权重大的贡献大,权重小的贡献就小,权重更新的表达式为:wf=w·e川I∥i,其中Yi∈{-1,+l>,忽(一)=%,x,为任一样本。由权重更新的表达式我们可以看出,如果%和只的正负相同,那么更新后的权重则比原来的权重小,即它被正确分类了;如果%和M符号不相同,说明该样本被错误分类了,则更新后的权值就会比原来的权值大,即下一个弱分类器的训练就会更加重视这个样本。(2)强分类器的检测率和误检率作用通过设定强分类器的检测率可最终得到该强分类器的阈值。确定阈值的方法是:将训练得到的前f个弱分类器进行组合,利用它们对训练时用到的所有正样本进行判断,每个正样本会得到一个检测结果,对这些值进行由小到大排序,为了保证检测率能达到预先设定的最小检测率‰,我们规定数组中第m·(1一‰)21个值作为该强分类器的阂值,即仍=PV[m·(1一‰)】,大于或者等于这个阈值的才会被判为行人,否则被NYMPH亍人,即至少有m·am访个行人样本被正确分类。误判率随着弱分类器的增多会逐渐减小,直到达到丘时会自动停止,而无需预先设定弱分类器的个数,如图3.6所示,本文所设定的最小检测率‰为0.998,最大误检率厶。为0.5。图3.6一层强分类器的检测率和误检率3.4.3级联分类器的训练过程与分析如图3.3表示,一个级联分类器是由多个强分类器串联而成,在进行检测时,待检测图片必须被每一级的强分类器判为行人后,其最终结果才是行人,否则被其中任意一级判为非行人,则检测停止,最终的检测结果为非行人。为了提高检测性能,只有被前几级的强分类器误判为行人的负样本才作为训练下一个强分类器的负样本集,这就需要大量的非行人图片作为训练样本。图3.7给出了级联分类器的训练过程。3.5实验结果与分析本节首先给出几个有关分类器评价的性能指标,然后就这些指标对训练出来的分类器进行性能评价。3.5.1分类器的性能指标设测试样本集内正样本总数为M,负样本总数为N,检测率与误判率定义如下。·确定系统目标误检率吒。,各强分类器的最大误检率厶。,最小检测率丸iIl,并推断系统至少需要(丁=log/一瓦。)个强分类器组成。·确定训练系统需要多少正样本,多少负样本;假设正样本需要m个,负样本需要聆个。获取初始正样本集与负样本集··for>f=l,…,T训练一个强分类器Z(x)>组合前r个强分类器且,日2,...,E,对当前负样本集进行验证,淘汰被正确判断的负样本,并重新获取负样本,使其负样本数量重新达到n个。在重新获取负样本过程中,也是组合前f个强分类器对候选负样本进行验证,只有被误判的候选负样本才能被加入到负样本集中。·保存训练结果。图3.7级联分类器的训练过程(1)检测率若被正确检测出的正样本数目为m,则检测率=雩裂嚣筹×瑚%…………c3.5,Jc3.6,(2)误判率对于负样本,若被错误判断为正样本的数目为n,则误判率=型焉嚣铲×·00%.………9I3.5.2实验结果.如表3.1所示,本文所用的训练样本集是IN砒A数据库中的训练样本,它包括2416张64×128的正样本图片和2500张大小不一的负样本图片。在训练时,对负样本图片进行扫描,提取64×128大小的子窗口。为了进一步降低误判率,我们对图像按照1.25:1进行逐级缩小,直到样本图片尺寸不大于64×128,然后接着对缩放后每一级图像进行扫描提取子窗口的特征。测试集同样来自INRIA数据库,正样本集由1126张64×128的样本图像组成,负样本集有13590张图片。表3.1测试集和训练集特征类型特征维数训练正样本数目测试正样本数目检测率误判率HoG37802416112696.5%1%分层HoG46442416112698.5%1%本文对同一训练样本集分别提取了HoG特征和分层HoG特征,并分别用GentleAdaBoost分类器进行训练,得到两个级联分类器;分别对这两个级联分类器在测试集上进行测试,得到分类器的ROC曲线图,如图3.8所示。。.,…i.—;—_,}L———rf—f,守f啦∞嘲|耋嘣啦——分层HoG——Howl*征l¨002013400600B图3.8基于分层HoG特征描述的行人检测ROC曲线图由图3.8可以看出:从目标描述的角度来看,基于分层HoG特征的行人检测性能要好于基于HoG特征的行人检测;在限定最大误判率为l%的前提下,HoG特征的检测率为96.5%,而基于分层HoG特征的行人检测率则可提高至98.5%。究其原因在于:分层HoG特征综合考虑了不同尺度空间下图像的梯度分布,更加精确的描述了目标的轮廓和形状信息。3.6本章小结本章将分层HOG特征用于行人检测过程的目标描述,并借助基于GentleAdaBoost级联分类器模型进行行人检测。实验表明:基于分层HOG特征描述的行人检测性能优于基于HOG特征的检测性能。244基于SVM特征预过滤的GentleAdaBoost行人检测由前面AdaBoost分类器的训练可以知道:组成强分类器的每一个弱分类器的训练都是一次特征选择的过程;而每一次特征选择,都需要针对大量特征,对训练样本进行多次排序。显然,AdaBoost分类器训练的时间消耗主要在于特征选择过程的多次排序,对于大规模的训练样本集来说,样本特征维数过高时,必将造成AdaBoost分类器的训练时间过于冗长。一种可能的解决途径就是将特征搜索限定在一个对分类有贡献的较小特征子集中。受R-SVM的特征选择策略的启发,本章提出一种基于线性SVM特征预过滤的GentleAdaBoost级联分类器训练模型。本章首先引入线性SVM的分类器模型;进一步,引入R.SVM的特征选择思想;在此基础上,给出本章基于线性SVM特征预过滤的GentleAdaBoost级联分类器训练模型;最后结合实验对本章算法的检测性能和训练时间性能进行分析。4.1线性SVMSVM的算法求解是将原始目标函数转化为对偶目标函数的二次规划问题,在理论上保证了解的唯一性和全局最优性,可有效地解决传统方法中的过学习和局部最小等问题;SVM在解决小样本、非线性、高维模式识别网问题中也有许多特有的优势,并可应用到其它机器学习问题中。4.1.1线性可分情况'l,rx+b=1x+b=0图4.1SVM二维、两类、线性可分如图4.1给出了二维特征空间、两类问题、线性可分情况下,基于SVM的决策边界与分类间隔。其中:日是最优的分类线,且,皿分别是平行于日且经过两类中离日最近的训练样本,q,H:之间的区域构成分类间隔(垅arg砌)。对于两类且线性可分情况,最优分类界面是能将两类样本无错误分开;分类间隔(margin)最大。二维空间推广到高维空间,则最优分类边界的求取就变为最优分类面的求取。设线性可分训练样本集{x,,只),江1,...胛,其中Xi∈Rd,类别标号Y。∈{一1,1),则d维空间的线性判别函数:g(x)=w·x+b…………………………………(4.1)灯判另IJ凼致归一化,便得分荚器对所有训练样本止确分荚:{g(xi)≤>一1若觏Yi-:--19(xi)1l≤一—1………………(4.2)觏=一即:Y,.g(xf)≥1或y,[w.xf+hi一1≥0………………………I|4.3)显然如图4.1所示的分类间隔为而2而。SVM训练的目标就是基于(4.3)式所示的约束条件,寻求最优分类超平面w。x+6=。,使分类间隔矸2而最大。即:求解如式(4.4)描述的约束优化问题。』%≯缈(w)=互1采用Lagrange条件极值法求取:w‘,b+11w酽……………(4.4)【s‘fYi·[w·xf+6]一1≥0(f=1,…,n)kmin。三w,b,ct)=j1(…)一喜%{川w‘鼍+6]一1)【呸≥0,i=1,2,...,n三(蚍6,叻=丢(w,w)一喜qh,[w‘薯+6卜1)=去(w·w)一∑呸Mwr置一6∑呸M+∑嘭‘i=1p1i=1t(w,b,口)极小值满足:26熙翠:该条件下,L(w,b,口)为:斗W=∑口jY,xi悖1……………(4.7)专∑%M=oQ(口)=∑q+i1(w71w)一w71∑qy,x,=∑%一扣r∑q咒x,1,\1fl=∑q一吉I∑呸y。x,I∑%M葺=∑q一爿∑∑a,ceyy。少』《x,I…….(4.8)i=1二\,=1/i=1i=1‘\j=li=1/=∑q一去∑∑%q咒乃b,·x,)得到对偶问题:Q(口):窆口,一去艺窆呸口彤yj(xj.x,)i=l厶j=li=l%y却对于=@缈。∑问q≥0L聆求得唯一解:口‘=(西,...,《)r,从而由式(4.7)得到原始问题中最优分类超平面的法向量:W+=∑a,+y,x,……………………(4.10)设位于%,H2超平面上的所有训练样本(即:支持向量)组成集合U,则有:6.-嘉磊(乃w‘一)……………….(4.11)4.1.2线性不司分这种情况下,一些训练样本不能满足式(4.2)所示的约束条件。此时,可以引入松弛变量参≥0,汪l,...,刀,使约束条件成为:只.[w·Xf+6】≥1一缶,f=1,…,n………………………(4.12)使得最优分类面在满足最大化分类间隙的同时,使训练样本错分程度尽可能低,即:最优超平面参数(’.,+,b+)是式(4.13)所示的原始最优化问题的解。27挖f姒yt·[(w‘xt)+6]一1+毒≥o矽?孝,6)2釜w’w)+cfk.窆i=1茧)………………………。4.。3,f:l,2,…,咒……““其中,C>O为惩罚参数,用于控制对样本错分的惩罚程度,孝=(点,彘,...,色)。。类似地,构造Lagrange目标函数:上(w^善,%内=扣w旷+c(喜茧)一窆i=1口f{"[w一+6】一1+每)一艺i=1肛茧…(4.14)其中,口=(q,口2,...,%)r及∥=(鸬,心,...,心)丁为Lagrange乘子向量,口,≥0,∥f≥0,i=1,...,聆。将(4.13)所示的原始优化问题转化为对偶问题,即凸二次规划问题的求解:警.Q(口)=窆i=l%一圭芸喜呸哆咒乃(_‘xr)“.』(1,抽i=1=。…………<4‘15’I(2)0≤%≤C对于所有f若口‘:(%+,a:+,...,a。+)r为上述优化问题的解向量,则原始目标函数的解(w+,b+)为:W+:y西2乙q………………………………一同理可得b‘.由上述两种情况,均可得线性判别函数:m)_Sgn[(w‘.x)州一ssn倭幽(即小6.)..……(4.17)显然,w+的各个分量的绝对值反映了原始特征空间每种特征对分类器的贡献程度。4.2基于线性SVM特征预过滤的分类器模型4.2.1R-SVM的核心思想R—SVMl391算法的提出旨在解决特征选择的问题。其基本思路就是:首先,基于训练样本集训练,得到一个如式(4.17)所示的一个线性SVM分类器,借助训练样本各个特征对分类器模型的贡献程度,递归选择特征。在算法开始前首先需要确定特征选择的递归策略。通常情况下是规定一个逐级缩减的特征数目序列,或者是每次训练时选择特征总能量的一个比例,算法的基本步骤是:(1)用当前所有候选特征进行线性SVM的训练;(2)按照所有候选特征在SVM中相对贡献的大小进行排序;(3)根据事先确定的递归策略中规定的特征比例,,选出排序在前面、并占总特征数目比例为,.的特征组成下一轮训练过程(1),直到最后所选的特征数目达到所规定的数目为止。由式(4.1),线性SVM的输出函数是g(x)=w·x+b=∑哆咒(x;·x)+6f=1在算法第(1)步训练好一个SVM模型后,R-SVM方法旨在寻找那些使正负两类样本在SVM输出上分离程度最开的特征,R-SVM定义两类样本在当前所有候选特征上的分离程度为s2丢,警(∽一i1,警旷)..…………………9)目,,z:是训练集中吐类样本的数目,根据式(4.18)可把这个分离程度(4.19)写成各个特征之和的形式S=d∑卢W,m+,一d∑芦W一O,m=一,d∑芦W』/Lm+,m一,、,/L42、,其中:d是当前候选特征总数,w,是权向量w的第/个分量,聊;、聊j分别是两类样本Sj=Iq(m歹一mj),j=l,...,d……………………..(4.21)R—SVM就是用式(4.21)来衡量各个特征在当前已训练好的线性SVM模型中的相对贡献,它不仅取决于每个特征在线性分类器SVM中对应的权重,而且还考虑到两类样本在各个特征均值上的差别。29用两类样本分别在SVM上的平均输出值作为代表,其中,门。是训练集中皑类样本的数在第,维特征上的均值。这样,每维特…‘、、4.19)中的贡献就是4.2.2基于线性SVIVI的特征预过滤的分类器模型算法描述基于R-SVM特征选择的思想启发我们:在每一级AdaBoost强分类器的训练之前,可以利用训练样本集,借助线性SVM的预训练方式,构建特征优选策略,对高维原始特征集合过滤,保留部分对分类有贡献的特征构成约简后的特征子集;在此基础上,用AdaBoost算法进行训练。这对于基于高维特征的目标检测系统来说,这种做法与原来单纯只用AdaBoost算法进行训练的方法相比,避免了每次训练都要穷举所有的候选特征,缩短了训练的时间。适当调整特征约简的程度,可使分类器在不影响检测性能的前提下,有效改善减少训练时间。基于线性SVM的特征预过滤的分类器模型的设计目标就是在不损失目标检测性能的前提下,有效改善AdaBoost训练的时间性能。每个强分类器的训练可以分解成两个主要阶段:(1)基于线性SVM特征预过滤的特征集约简;(2)基于约简特征集的AdaBoost训练。这里我们首先给出基于线性SVM特征预过滤的特征集约简方法。算法描述如下:①根据式(4.21),按各个特征对线性SVM分类贡献,由大至小进行排序;②确定所有特征的权重之和,即m—w|1m一m、,,一,422、,S掰d∑同~/L③设定约简特征集对分类器贡献值,.(o<,≤1),保留排在前面最小特征集合,其中lqum为约简得到的特征集最少特征数目,即:knum=argmin—型~≥,|…………………………….(4.23)k∑s,SZlm——W其中Si≥Si+1,i≤d-1,根据上式求出num。进一步基于上述约简得到的特征子集,按照图3.5所示的AdaBoost强分类器训练方式训练得到一个强分类器模型。在上述工作基础上,可以实现一个级联分类器的目标检测系统。级联分类器的训练步骤如下:STEPl:明确每个强分类器的最高误判率fm。、最低检测率am。;明确整个级联分30类器的最大可允许目标物检率吒。;确定参与级联的强分类器数目三:intf—logF—一,+0.5Llog‘。/J1STEP2:明确系统训练所需的原始样本集:正样本m个;负样本刀个。STEP3:Fori=1,…,三训练一个基于线性SVM特z~一'?rJ-滤"的AdaBoost强分类器E(X);若f<L,构造第f+1级强分类器训练所需负样本集:基于目前已经训练完成的前f于bootstrap法重新获取新的负样本,直到负样本总数为聆。STEP4:保留训练结果。图4.2为一个基于上述训练步骤,由上级强分类器级联得到的目标检测系统。图4.2上级级联分类器模型4.2.3实验结果与分析本节将借助行人检测实验,从训练时间上验证该方法对级联分类器训练性能的改善表4.1中给出了分层HoG特征经过线性SVM预过滤后,不同的,.值所得出的约简表4.1特征预过滤情况下不同的r值所对应的?lure值,.值1.00.90.8num值46442200~24001800~2000个强分类器q,…,县的级联,对当前负样本集进行测试,只保留误判的负样本;并基效果。实验中主要考察基于分层HoG原始特征描述情况下,不同比例的特征过滤情况对分类器检测性能和训练时间的影响情况。特征子集的特征维数n1.1m,其中,基于分层HoG特征描述的原始特征维数为4644维。表42无SVM预过滤每级强分类器的弱分类器的个数和训练时间强分类器级数弱分类器个数Adaboost训练对闯(s)时间总和(s)i18108108217l娩2lO3231383484321925405412467866503001086763378146488649619609864962456101438583314l董14788241961218811285324132061536686014234140482641522313389602表霉.3帮表4。4表示了在进行SVM预过滤蜃每缀强分类器的弱分类器酶个数翻训练时阆,豢r值为0。9时,特征预过滤后每级弱分类器的平均训练时间为2。7秒,尹僮为O。8时,特征预过滤焉每级弱分类器的平均训练时润为2。2秒。表4。3SVM预过滤后每级强分类器的弱分类器的个数和训练时闯(r=0.9)l强分类器级数弱分类器个数Svm+Adaboost训练时间(s)时间总和∞l189999219101200325ii831843414246032545172632652190822762217103987826l1300910433116311010433l196211,1103472309121504552764131654963260。i14,19(15633823。1520l5934416强分类器级数弱分类器个数svm+Aaab06sf调练莳间6)‘莳向总和(s)1189090219921823251052874321204075431455526541597117631899008742131113997263137610113299167511130336201l12142455—246613170362282814201492332015205501382l33图4.3中分别给出了无SVM预过滤每级强分类器的训练时间,以及,=0.9、,.;0.8时SVM预过滤后每级强分类器的训练时间。禽趔:畦迪’蟹匮凄图4.3SVM特征预过滤前后各级强分类器的训练时间图4.4是不同,.取值情况下分类器模型的ROC曲线,可以看出在,等于0.9和0.8的情况下,检测性能并未下降。…簪,l,j万7一j7-_———r——分层Hoo悔征扳重占1分屡He0棒征戡t占09l分层H00.孥程扳重占0——一H。0特征图4.4分层HoG不同权重分布的性能344.3本章小结本章给出了一种基于线性SVM特征预过滤的GentleAdaBoost目标检测模型。在分类器模型训练阶段,将构成级联分类器的每个GentleAdaBoost强分类器的训练转化为一个两阶段的训练过程:首先借助线性SVM的特征预过滤,滤除对分类贡献程度较小的特征,得到一个相对原始特征空间维数较低的特征子集;基于前一阶段得到的约简特征子集,训练得到一个GentleAdaBoost强分类器模型。对于大规模的训练样本集,适当设定特征选择的权重比例r,在保证检测性能的前提下,基于本章算法,可有效改善分类器训练的时间性能。5基于固定摄像头的视频行人检测在前述工作的基础上,本章分别针对目标检测需求,在第一节给出了一个静态图片的人体检测过程,在检测的后处理阶段,有效结合了基于非最大值抑制思想的处理策略;在第二节,结合背景减除,提出一个基于固定摄像头的视频行人检测框架,其主要工作涉及背景建模、前景提取和目标识别与定位等。5.1基于静态图片的人体检测借助第四章基于线性SVM特征预过滤的GentleAdaBoost的训练过程,最终得到了一个用于行人检测的多级分类器结构,基于该分类器模型即可实现静态图片中的人体检测。检测过程的流程图如图5.1所示。//待检测子图像集//◆I对各个子图像进行特征提取◆图像后处理J(图像中行人晶坐标和范围(图5.1行人检测流程图365.1.1检测的具体过程设定检测窗口大小为64×128,和训练样本大小一样。图像缩小比例为1.25,即每次图像缩小比例为1.25倍,对于图像缩放,本文采用的双线性插值法。图像检测流程是:读取待检测图像,将待检测图像按比例逐层缩小,形成“图像金输入进行检测,得到检测客攀1霾滴韵攀铩黼≤攀辫。·字塔”;在每层图像上扫描子窜口i把扫描的各个子窗口进行特征提取后作为分类器的输入多层分类器存储绩l自鼢各食参攀,·输入待检测图像,设大小为IT"×毒岛:t瀚入掷8窟印!≯凑畿为WXh。通过检测窗口遍历待’譬j”‘≯侉囊…!毒检测图像,步长为8。缩赦比例为f:穷。’·馘}。.计算各待测子图像的特征。·利用多层分类器进行检测,只有被所有强分类器都判为行人的子图像才最终被标记为行人。E表示第i个强分类器,忽(x)表示第E中的第f个弱分类器。>声,.i=1:stage(强分类器个数;kjstage)●result=1;-fo,.f=1:count(Hi有count个弱分类器组成)/将忍(工)与弱分类器阈值thresh比较,小于或者等于该阈值则取分类器结果%,反之,则取分类结果口2。_将count个分类结果之和与强分类器阈值thresh比较,小于阂值则result=0并被判为非行人,否则继续下一个强分类器判断。》如果result=1则保存检测子图像位置和大小。·缩小原检测图像,大小为(W×日)Xrati02。继续进行检测,直至检测图像缩小到检测窗口大小64X128。保存所有的被判为行人的检测子图像位置和大小。后处理阶段:消除重叠窗口,合并邻近窗口。保存最终检测结果,获取图像中的行人位置和大小。●···图5.2检测的具体过程375.1.2多重尺度目标定位通过以上几步得到的检测结果有可能存在多个窗口重叠情况,因为检测窗口在待检测图像上的移动仅为8个像素,缓慢的移动速度必然产生很多相似的待检测子图像,得到如图5.3所示的很多相似检测结果。因此,有必要进行适当的检测后处理。图5.3后处理前的检测结果5.1.2.1用于目标定位的二元分类器为了消除这些重叠窗口,本文用一种聚类的方法进行多重尺度窗口的合并,一个理想的聚合结果应该具备如下三个特征:(1)检测分数越高代表图像区域内是正样本的可能性越大。(2)一个区域邻域判别为正样本的数量越多,这个区域本身是正样本的可能性越大。(3)多重检测过程中重叠的窗口应该聚合在一起,但是尺度或位置跨越很大的窗口则不应该聚合。Dalai和Triggs[401在3.D位置和尺度空间采用核密度估计法,核密度估计法是一种数据驱动方法,它采用一种平滑核函数来估计密度。最终检测分数是由每个3.D点的分数加权得出。因此核密度估计能满足理想聚合结果的前两个特征。位置和尺度跨越越大的检测具有差别较大的3.D位置和尺度,因此不会被平滑到一起。具有最大密度的点对应最终的检测结果。设戈,=k,Y,】和S,。为第i次检测的位置和尺度,@为窗口的权重。在3.D空间中的每一次多重检测结果采用歹=【x,Y,S】来表示,其中S=log(s’),这么做是为了保证检测在3-D空问中的齐次性。5.1.2.2非最大值抑制原理进行特征提取后送入GentleAdaBoost分类器进行判别,把负样本滤掉,保留正样本(z,Y,S),如果有行人的地方(x,Y,s)将相对集中,就是空问内“聚为一团”。实际上就是~种聚类算法,所以Dalai用了高斯核密度f(x,Y,s)来估计空间内任意位置的函数。这个函数构造,是根据已知的(z,r,S),求厂(x,y,s)的极值问题。设Yi,江1,...,n为3一D位置和尺度空间的检测集,假设每个点具有一个与之相关的对称正定带宽或协方差矩阵豆,以此定义检测位置和尺度估计的平滑宽度。然后将这船个点进行核密度估计,寻找核函数的极值点来实现多重检测聚合。如果采用高斯平滑核,则点歹按权重的核密度估计为夕(歹)=赤喜㈣刈2愀Xp(一堕挚)..…………(5.1)其中diag[ffIi]一[(exp(薯)吒)2,(exp(si)rrr)2,(吼)2】D2[歹,只,豆]=(歹一觅)E。1(歹一觅)为歹和只的马氏距离,t(co,)用于计算每次检测的权重。式(5.1)函数的梯度为咖=赤喜㈣圳2∥(柚M咖Xp(-堕归)=赤舭r吲讯咖xp(-堕产)…..(5.3)一赤郭f-l吲胞)eXp(_堕学)定义研:觋(歹):粤芷垫坦烂堑逝……….(5.4)∑旧rt(co,)exp(-D2[歹,或,雹]/2)满足∑q(歹)=1。用式(5.3)除以(5.1)得到鬻=喜嘶成1或一瞽∽∥卜…………@5,39用或-1(歹)=∑觋(歹)扈‘1对歹的协方差矩阵进行加权调和平均,由式(5.5)可定义f-1可变带宽偏移均值向量为一和,鬻锄歹,瞽∥只卜………@6)在极值点处,梯度哆(歹)=0,意味着历(歹)=0。公式极值点可以由式(5.7)来估计:歹埘=或(死)『L喜刃(死)豆-1只]………………………(5.7)f=lJ通过迭代当歹。不再变化时,该点即为所求。5.1.2.3非最大值抑制的实现非最大值抑制的实现流程图如图5.4所示。图5.4非最大值抑制算法的流程图40对于每个检测点,不确定性矩阵百;是算法中的一大关键,设疗;为对角矩阵,设西昭瞳】为膏的三个对角元素,采用尺度相关协方差矩阵:幽踞陋,】:【(exp(毛)q)2,(exp(薯)q)2,(exp(岛)吒)2】...…………….(5.8)其中仃,,仃,,盯,是平滑系数,仃,,盯,与平滑系数exp(s,)做乘将增加检测点的空域不确定性,这是符合实际的:在定位时尺度越大,不确定性则越大。多重扫描和非最大抑制法定义了许多参数:缩放母用于计算每一层尺度;每一个尺度层次的窗121跨越度M(先后两个检测窗口之间的像素距离)用于扫描图像中的所有位置;平滑系数吒,dr,,O"s;这些参数对于最终检测性能是非常重要的,本文根据文献设这参数如下:母=1.05,札=8,仃。=8,O'y=16,or,=l091.3。在经过E述描述的算法女卜理后,得到的最终定位结果如图5.5所示:图5.5后处理后的效果图最后经过后处理,即根据左下角坐标和右上角坐标位置,若两个坐标位置都是在一定的阈值之内(本文设置的是20像素),则保留权值较大的正样本坐标,合并后的效果如图5.5所示。5.2基于固定摄像头的视频行人检测5.2.1背景建模对视频中特定类型的目标检测问题,如果每帧图像的处理方式与静态图片处理一样,即:对每一帧图像进行缩放并穷举扫描图像窗口,那样处理速度势必会非常的慢,整个目标检测过程就会非常不流畅,因此,需要构建一个模型来去除那些与运动目标不d1相干的物体,即淘汰掉一些静态的东西,背景建模就应运而生,它的基本思想就是先获取一个参考背景图像,然后将当前帧与背景图像进行相减,其结果就是运动前景目标,在进行目标检测时只在这个前景图像上进行检测即可,大大缩短了检测时问。对于摄像头固定情况下的行人检测问题,可借助背景减除机制提取运动前景;在此基础上,从运动前景中确定行人。本文采用混合高斯模型进行背景建模,假定组成视频帧的各个像素值关于时间的变化是相互独立的,每个像素的背景建模过程都是统一的。在视频中的某个像素,它在当前帧中观察到某亮度值的概率以K个高斯分布的函数混合来描述,其算法步骤为:(1)将每个像素的观测表示为K个单高斯分布组成的混合模型;(2)a.对该像素新的观察x,进行匹配检验;b.结合匹配检验情况,进行更新;c.若新的观察x,与所有K个单高斯成分均不匹配,则转向(4);(3)设定混合高斯模型中背景成分的比例T,对K个单高簸模型排序,取前B个单高斯成蕊背景,而且具看很好的黼图像则设为0。自适应性。似前景的二值图像。由学运动检测道零案菱豢麦庵簇鬻雾辩间相关性,因此,经过借助混合高斯成分麟魄冀景稻§鹈羹:测簧籀熬视频馥糯动检测,得到包含前景和疑前景提取后得到的运动旨标前景≯‘往往尝带有羔些喋1声或者空洞,这会直接影响后续的目标提取和检测,可进一步结合数学形态学,进行运动检测后处理。5.2.2二值图像处理采用形态学方式进行二值图像后处理,主要涉及二值图像的噪声或空洞的去除、基于连通区域标记的图像中不规则小区域的抑制等等。5.2.2.1形态学处理形态学运算是针对二值图像依据形态学集合论方法发展起来的图像处理方法。它以图像的形态特征为研究对象,描述图像的基本特征和基本结构M11。常用的基本运算是一~腐蚀和膨胀运算。腐蚀和膨胀的定义如下:腐蚀S=XoB{x,YI毋.。sX)膨胀S=XoB={x,YI段,,nX≠≯)腐蚀运算的基本作用是可以消除物体边界点,使二值图像边界向内部收缩。这样,当两个物体问有小的连通时,就可以将它们分开。膨胀运算的基本作用正好和腐蚀相反,它是对二值图像的边界进行扩充,这样那些与物体连接的所有背景点都会合并到物体中。例如,一个目标在二值图像中被一条裂缝分成两个小的区域,那么通过膨胀运算就可以将这两个小的区域合并到一个物体中。在数学形态学处理中,腐蚀和膨胀两种运算看似一对互逆的操作其实没有任何关系。通过介绍下面的开运算和闭运算操作就能体现腐蚀和膨胀运算的不可逆性,其表达式如下:开运算S=X。B=(S圆B)oB闭运算S=X·B=(XoB)pB二值图像在经过开运算处理后,能够去除一些孤立的噪声和连通两个小块区域的小点,并能平滑图像的边界;经过闭运算处理的图像,可以填充物体内部的一些小的空洞,连接两个近邻的物体,也能平滑物体的边界,同时不明显改变图像的面积。5.2.2.2连通区域标记经过形态学处理后的二值图像,接下来就应该对其进行连通区域标记,其目的就是找出图像中目标的个数,并把其精确位置标记出来,为后续的目标特征提取和检测与定位提供重要的依据。连通区域标记分为四连通和八连通标记两种方法m】,标记过程是对整幅图像进行扫描,把属于同一个连通区域的像素标记成相同的值。本文采用的是八连通标记算法。如图5.6所示。图中有彳、B、C三个非连通的物体,对这三个物体的标识过程如下:43图5.6物体标识①从上到下、从左到右逐个像素扫描。②若该点的左上、右上、正上及左前点共4个点的像素都不是物体,则把该数标进行加l操作,且此数组值为1。③采用(行坐标,列坐标)方式标记物体。若遇到坐标为(1,1)的像素则为物体么,接着判断该像素点的左上(0,0)、右上点(0,2)、正上(O,1)及左前(1,0)点是否是该物体。④若右上点为物体,则当前点标记跟右上点相同的值。如:当前点为(2,2),其右上点(1,3)为物体,则当前点为(2,2)标记与右上点(1,3)卡IN的值。⑤若右上点不为物体,则判断正上点,如果正上点是物体,则标记跟正上点相同的值。⑥同理,若以上两点都不为物体,则接着判断左上点,若其左上点还不是物体,则再判断左前点。⑦若当前点的右上点,正上点,左上点及左前点都不为物体,则当前点的标记值在原来的基础上加l,以此来作为另一物体的区别。5.2.3运动区域检测结果进行连通标记完后,可以得到每个连通区域的中心坐标值(勉,yz)以及其长度咖和宽度妣,如果连通区域的长度咖大于宽度始的2倍,则将宽度从中心坐标(勉,yz)向左右两边拓宽到长度的0.5倍,同理如果连通区域的长度咖小于宽度妣的2倍,则将长度从中心向上下两边拓展到宽度的2倍,然后对图像区域进行双线性插值将图像区域缩放到64×128的大小,进行分层HoG特征提取,并送入训练好的GentleAdaBoost分类器中进行检测,如果检测结果为行人,则进行标记,整个过程如图5.7所示。图像5.7(a)是经过混合高斯模型建模的背景图像,图像5.7(b)是前景提取后,经过腐蚀膨胀和去噪等处理后得到的二值图像,接着对其进行连通区域标记,在原图上对其进行特征提取和目标检测。图5.7(c)为最终检测结果。(a)背景图(b)前景图(c)目标检测图图5.7基于视频的行人检测示例5.3本章小结本章分别针对静态图片的人体检测和视频序列的行人检测,给出了一个完整的检测过程。基于静态图片的人体检测,其关键在于如何在检测后处理阶段,将图像中不同尺度检测窗口的检测结果进行有效的合并。对于基于视频的行人检测来说,当摄像头固定情况时,检测窗口来自运动区域。其中,视频序列中单个行人检测相对简单,检测率基本上能达到100%,误判率接近0;45但是对于多目标之间的遮挡情况,仅仅借助形态学后处理不能保证将多人有效分开,此时用于单个人体检测的分类器模型将会造成误判。因此,对于多个行人彼此遮挡情况下的目标检测,本系统将不再适用。6总结与展望S。{本文的工作及贡献本文对行入检测的研究现状进行了总结与分析,在此基础上,从特征提取及分类器训练的角度圈绕行人检测进行相关研究。本文主要工彳乍及贡献如下:《董)基于分层HoG特征的行人检测将图像的多级空间划分与基于HoG特征的目标描述相结合,本文提出了基于分层AdaBoost的级联分类器实现了基于分Q_》基予SVM特征预过滤的GentleAdaBoost分类器模型针对基于高维特征的AdaBoost缀联分类器的羁标检测系统训练时闻过于冗长的润题,受R-SVM的特征选择思想的癔发,本文提出了~种基于线性SVM特征预过滤的AdaBoost级联分类器模型。其中,每一级强分类器的训练均可视药~个两阶段的调练过程:在第一阶段,借助线性SVM对训练样本集进行预分类,从中滤撵对分类贡段,基于翦一阶段特征预过滤得到的特征子集,对GentleAdaBoost强分类器进行训练。行人检测的实验表骥,在不损失分类器总体检测性麓基础上,本算法可有效改善级联分进一步在上述工作的基础上,本文还提出了一个基于固定摄像头的视频行人检测框架。6,2工作展望本文将行人检测视为一个分类阆题,并完成了一定的工作,未来述可在如下几个方露徽遴一步的工作扩展和延伸。(董)基于AdaBoost级联分类器训练性麓的进一步改善行人检测只是目标检测的一个分支。尽管基于AdaBoost级联分类器的透标检测系统具有检测速度快的特点,但崮于通常用于分类器调练的样本集具有样本数舀庞大、特征维数过离的特点,搜褥分类器的训练时间却过于冗长。麓有效改善分类器的誉ll练性麓,47HoG特征的目标描述,以实现从全扇到局部、由糨到细的多尺度目标特征提取,从而更加全面摇述目标信息。在此基础上,借助Gentle层HOG特征的行人检测。实验表踞基于分层HOG特征的目标描述在行人检测性麓上优于HOG特征的舀标描述。Gentle献程度小的特征,得到约简后的特征子集,从蔼达到牧缩高维特征集的目的;在第二阶类器训练购对润姓能。可在不影响分类器的检测性能的前提下,未来可将训练样本集的收缩及高维特征的预过滤有机结合,以达到改善分类器训练时间性能的目的。但)目标跟踪与行人检测相结合尽管本文针对固定摄像机的行人检测,将背景减除与人体检测有机结合,实现了一个完整的行人检测系统。但对于摄像机移动的情况,背景减除并不适用于运动检测,未来可将多目标跟踪与人体检测有机结合,以期实现视频序列中多个行人的实时检测。(3_)基于多种类型特征的目标描述与特征选择HOG特征是一种可有效描述人体形状的特征,本文并没有针对人体不同部位,考察检测结果关于不同形状和不同大小的子块构成的HOG特征的敏感程度,而只是从样本内容空间布局的角度进行了多层HOG特征的描述。未来关于特征描述的工作,可针对目标不同部位,结合块的形状和大小做特征描述策略的进一步筛选。(4)遮挡情况下的行人检测在实际监控场景中,行人之间、行人与其它目标之间的遮挡情况是不可避免的,仅仅依靠只含完整人体的正样本来训练分类器,必定导致检测失败。因此,遮挡情况下行人特征的描述将尤为重要。未来可结合人体多部位的特征描述、或者将用于人体不同部位检测的分类器结合,实现遮挡情况的有效处理。对于多个行人间的彼此遮挡,未来可根据需求,将多人情况纳入行人检测分类器的训练样本集,以实现有效的多人检测。(5)多姿态的行人检测本文工作中将行人检测问题转化成了一个两类问题的分类问题,而人体姿态差异仅仅视为正类目标的类内差异,由于人体存在多种可能的姿态,未来可进一步将行人检测与姿态估计和行为理解,进行有机结合,从而实现更为智能化的交互。48参考文献【1】EnzweilerMandGavrilaDM.MonocularPedestrianDetection:SurveyandExperiments。IEEETransactionsonPattern,AnalysisandMachineIntelligence,2009。【2】GeronimoD,LopezAM,SappaADandGrafT+SurveyofPedestrianDetectionforAdvancedDriverAssistanceSystems。IEEETransactionsonPa_ttemAnalysisandMachineIntelligence,2010.【3】BroggiA,BertozziM,FascioliAandSechiM。Shape—BasedPedestrianDetection。Proc。IEEEIntelligentVehiclesSymposium,PP,2000。【4】GavrilaD,GiebelJ,andMunderS。Vision—BasedPedestrianDetection:ThePROTECTORSystem.proc。IEEEIntelligentVehiclesSymp,pp。13—18,2004。【5】GavrilaD.PedestrianDetectionfromaMovingVehicle,Proc.EuropeanConf.ComputerVision,v01.2,PP.37—49,2000.嘲GavrilaDandMunderS.Multi—CuePedestrianDetectionandTrackingfromaMovingVehicle.ComputerVision,vol。73,no.1,PP,41-59,2007.【7】GavrilaDM。Thevisualanalysisofhumanmovement:Asurvey。CVIU,73(1):82-98,1999。【8】PapageorgiouCandPoggioT.Atrainablesystemforobjectdetection.IJCV,38(1):15-33,2000。【9】dePoortereV,CantJ,VandenBoschB,dePrinsJ,FransensF,andVanGoolL。Efficientpedestriandetection:atestcaseforsvmbasedcategorization。WorkshoponCognitiveVision,2002。Availableonline:垫羔圭趁;ZZjI登!鲨:!i釜i垒銎:竺主塾兰:釜塾Z竺垒gXi苎垒篓Z。【10】ViolaP,JonesMJ,andSnowD。Detectingpedestriansusingpa:犍emsofmotionandappearance.The9thICCV,Nice,France,volume1,pages73和74l,2003。【I1】RonfardR,SchrnidC,andTriggsB。Leamingtoparsepicturesofpeople。The7thECCV,Copenhagen,Denmark,volumeIV,pages700--714,2002。【12】FukushimaK,MiyakeSandItoT.Neoco鲥tron:ANeuralNetworkModelforaMechanismofVisualPatternRecognition。IEEETrans.Systems,Man,andCybemetics,vol+13,PP。826—834,1983.49[13]ZapienK,FehrJ,andBurkhardtH.FastSupportVectorMachineClassificationUsingLinearSVMs.Proc.Int’lConf.PattemRecognition,PP.366-369,2006.[14]ViolaPandJonesM.RapidObjectDetectionUsingaBoostedcascadeofSimpleFeatures.Proc.IEEEConf.ComputerVisionandPatternRecognition,2001.[15]ZhaoLandThorpeC.StereoandNeuralNetwork-BasedPedestrianDetection.IEEETrans.IntelligentTransportationSystems,PP.148—154,Sept,2000.Detection[16]SzarvasM,YosllizawaA,M.Yamamoto,andJ.Ogata.PedestrianConvolutional2005.wimNeuralNetworks.Proc.IEEEIntelligentVehiclesSymp,PP.223-228,[17]黄金凤.人脸检测系统的设计与实现.华侨大学硕士学位论文,2006.10.[18]ShashuaA,GdalyahuY,andHayunG.PedestrianDetectionforDrivingAssistanceSystems:Single—FrameClassificationandSystemLevelPerformance.Proc.IEEEintelligentVehiclesSymp,2004.[19]DavidGeronimo,AntonioLopez,DanielEdgeOrientationPonsaandAngelD.Sappa.HaarWaveletsandHistogramsforOn—BoardPedestrianDetection.Springer,2007.Poggio【20]MohanA,PapageorgiouC,andT.Example-basedobjectdetectioninimagesbycomponents.PAMI,23(4):349_361,April2001.[21]DalaiNandTriggsB.HistogramsofOrientedGradientsforHumanDetection.Proc.IEEEConeCompmerVisionandPatternRecognition,2005.Classifierfor【22]BoWu,RamNevatia.ClusterBoostedTreeInternationalConferenceonMulti—View,Multi-PoseObjeatDetection.IEEEComputerVision,2007.【23】MuY,YanS,Y.Liu,T.Huang,andB.Zhou.Discriminativelocalbinarypatternsforhumandetectioninpersonalalbum.InCVPR,2008.Yan.AnHOG-LBPConference[24】XiaoyuWang,TonyPartialOcclusion2009.X.HanandShuicheng12thHumanonDetectorwithHandling.IEEEInternationalCompmerVision,[25]WilliamRobsonSchwartz,AnirnddhaKembhavi,DavidHarwood,LarryS.Davis.HumanDetectionUsingPartialLeastSquaresAnalysis.ICCV2009.[26]YuanonXin,ShanXiaosenandSuLi.ACombinedPedestrianDetectiononMethodBasedHaar—LikeFeaturesandHoGFeatures.3rdIntemationalWorkshopISA,2011.50[27]MichaelOren,ConstantinePapageoriou,PawanSinha,EdgarOsunaandTomasoPoggio.PedestrianDetectionUsingWaveletTemplates。ComputerSocietyConferenceOnComputerVisionandPattemRecognition,PP。193—199,1997.[28】LoweD。DistinctiveImageFeaturesfromScale—InvariantKey-points。Int’1J。ComputerVision,vol。60,no.2,PP。9I—il筑2004。f29]QiangUsingZhu,ShaiAvidan,Mei—ChenYeh,Kwang-TingCheng。FastHumanDetectionaCascadeofHistogramsofOrientedGradients。TR2006.608,June2006。R.Detectionofmultiple,partiallyoccluded【30]BoWu,NevatiaBayesianhumansinasingleimagebycombinationofedgeletpartdetectors.IEEEInternationalConferenceonComputerVision,V01.1,pp.90一97,2005.pllMikolajczyk毯SchmidC,andZissermanA.Humandetectionbasedononaprobabilisficassemblyofrobustpartdetectors。InProc。EuropeanConfCzechRepublic,Vol+l,pp.69—81,2001.ComputerVision,Prague,【32】FelzenswaldPofComputerFandHuttenlocherDP。Pictorialstructuresforobjectrecognition。Intl.J.Vision,61(1):55—79,2005。[331LeihieB,SeemannE.SchieleB。Pedestriandetectionincrowdedscenes.IEEEComputeronSocietyConferenceComputerVisionandPaRemRecognition,V01.1,PP。878.885,2005。【34】IoffeSand,ForsythDA.Probabilsticmethodsforfindingpeople.IntI.j.ofComputerVision,43(1):45—68,2001.[35jMikolajczykKLeibeBandSchieleB.Multipleobjectclassdetectionwithagenerativemodel。InProc。IEEEConf.onComputervolume1,pages26--36,2006。VMonandPatternRecognition,NewYork,NY,【36]MikolajczykK,Leibe,B。SchieleB。Localfeaturesforonobjectclassrecognition。IEEEComputerSocietyConferenceComputerVisionandPatternRecognition,Vol。2,弹.1792一l799,2005。【37]Guyonl,Westonsupportvectorj,BarnhillS,VapnikV.GeneselectionLearning,2002.forcancerclassificationusingmachines。Machine【381邓乃扬,溺英杰等。支持向量枕嗍.北京:科学出版社,2009。p耀张学工,模式识别C第三版)0咽。北京:清华大学出版社,2010。5i[40】DalaiN.FindingPeopleinImagesandVideos.PhDthesis,InstituteNationalPolytechniquedeGrenoble,2006.[4l】杨淑莹.VC++图像处理程序设计[M].北京:清华大学出版社,北京交通大学出版社,2005.52致谢本论文是在我的导师张朝晖老师的精心指导下完成的,首先要深深的感谢张老师,张老师严谨的教学态度和刻苦勤奋的学习精神是我学习的榜样,她知识渊博,但是对知识依然渴求,她对我学习上的帮助和工作上的指点使我受益匪浅,再次向张老师表示谢意和敬意。感谢我的父母和家人,正是有了她们给我的生活保障和精神支持我才能够专心在学校学习,顺利完成我的毕业论文。同时还要感谢同一个实验室的刘永霞,师弟邢金星,赵振刚和师妹马忻然,她们对我的学习和生活也给予了很大的帮助。感谢我的同学王会芹还有我的舍友们,我们在一起度过三年,她们在生活上对我的帮助很大,无论欢乐还是悲伤都有她们陪在我的身边,陪我度过低迷的时期。感谢评阅本论文的专家和老师们,你们辛苦了,在此对你们表示深深的谢意。感谢所有关心和帮助我的同学和老师,谢谢你们!基于机器学习的行人检测
作者:
学位授予单位:被引用次数:
张艳敏
河北师范大学1次
引用本文格式:张艳敏 基于机器学习的行人检测[学位论文]硕士 2012
因篇幅问题不能全部显示,请点此查看更多更全内容