【《目標(biāo)檢測(cè)算法發(fā)展文獻(xiàn)綜述》2700字】_第1頁
【《目標(biāo)檢測(cè)算法發(fā)展文獻(xiàn)綜述》2700字】_第2頁
【《目標(biāo)檢測(cè)算法發(fā)展文獻(xiàn)綜述》2700字】_第3頁
【《目標(biāo)檢測(cè)算法發(fā)展文獻(xiàn)綜述》2700字】_第4頁
【《目標(biāo)檢測(cè)算法發(fā)展文獻(xiàn)綜述》2700字】_第5頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

11目標(biāo)檢測(cè)算法發(fā)展文獻(xiàn)綜述目標(biāo)檢測(cè)方法一般分為兩類:一類是基于傳統(tǒng)的機(jī)器學(xué)習(xí)檢測(cè)方法,一類是基于深度學(xué)習(xí)的檢測(cè)方法[4]。傳統(tǒng)的機(jī)器學(xué)習(xí)檢測(cè)算法主要是采用滑動(dòng)窗口的方式進(jìn)行目標(biāo)檢測(cè)。深度學(xué)習(xí)出現(xiàn)后,基于深度學(xué)習(xí)的檢測(cè)方法逐漸涌現(xiàn),其中可以分為基于候選區(qū)的檢測(cè)算法和不基于候選區(qū)的檢測(cè)算法兩大類。以下分別簡(jiǎn)要闡述了目標(biāo)檢測(cè)算法在國(guó)內(nèi)外的研究現(xiàn)狀。1傳統(tǒng)檢測(cè)方法傳統(tǒng)的檢測(cè)方法依靠人體自身的外觀屬性進(jìn)行特征提取和分類。例如,通過顏色、邊緣、紋理、運(yùn)動(dòng)等屬性描述行人態(tài)勢(shì),并使用支持向量機(jī)SVM、自適應(yīng)提升[5](AdaptiveBoosting,AdaBoost)等分類器判斷特定區(qū)域是否存在行人目標(biāo)。傳統(tǒng)的行人檢測(cè)方法主要采用統(tǒng)計(jì)分類的方法,首先對(duì)圖像進(jìn)行感興趣區(qū)域(ROIs)分割,然后對(duì)ROIs進(jìn)行特征提取,最后送入分類器進(jìn)行二分類[6]。大體可分為兩類方法:基于模板匹配的方法和基于統(tǒng)計(jì)學(xué)習(xí)的方法。Cavrila[7]等提出了全局模板法,構(gòu)建了將近2500個(gè)輪廓模板進(jìn)行輪廓識(shí)別。Broggi[8]等提出了局部模板法,通過提取人的頭部、肩部等二值圖像特征模板匹配行人。傳統(tǒng)檢測(cè)方法的基本流程如圖1.2所示。該類方法往往受限于特定環(huán)境條件,導(dǎo)致特征表達(dá)能力不足,無法滿足實(shí)際場(chǎng)景應(yīng)用要求。圖1.2傳統(tǒng)檢測(cè)方法基本流程2基于深度學(xué)習(xí)的檢測(cè)算法在簡(jiǎn)單場(chǎng)景中的傳統(tǒng)的檢測(cè)方法可以勝任,但針對(duì)復(fù)雜場(chǎng)景下,傳統(tǒng)的檢測(cè)方法弊端十分明顯,即傳統(tǒng)的檢測(cè)方法無法承擔(dān)逐漸龐大的數(shù)據(jù)量。2013年,Sermanet[9]等人提出OverFeat算法,這是當(dāng)時(shí)最早采用單一網(wǎng)絡(luò)檢測(cè)器進(jìn)行目標(biāo)檢測(cè)的算法,該算法的成功之處在于采用了傳統(tǒng)的滑動(dòng)窗口檢測(cè)方法,有效利用了卷積神經(jīng)網(wǎng)絡(luò)對(duì)預(yù)期目標(biāo)的特征進(jìn)行分類。Hinton[10]于2016年提出了深度學(xué)習(xí)(DeepLearning)的概念。隨后,Lecun等人提出了卷積神經(jīng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)通過空間關(guān)系減少參數(shù)數(shù)目來提高現(xiàn)有的目標(biāo)檢測(cè)模型性能,行人檢測(cè)的研究再次迎來新的生機(jī)。隨后,基于區(qū)域的檢測(cè)算法飛速發(fā)展。2014年的國(guó)際計(jì)算機(jī)視覺會(huì)議上提出了R-CNN(RegionswithCNNfeature)架構(gòu),檢測(cè)的準(zhǔn)確率大大提升,此后,目標(biāo)檢測(cè)開始廣泛使用深度學(xué)習(xí)的方法進(jìn)行目標(biāo)檢測(cè)。隨后衍生出了SPPNet、FastR-CNN以及FasterR-CNN等多種檢測(cè)模型。RossB.Girshick[11]在2016年提出的新的檢測(cè)算法FasterR-CNN使得檢測(cè)模型的綜合性能極大提升,在此基礎(chǔ)上又提出了例如HyperNet、R-FCN以及MS-CNN等多種算法。其中,HyperNet改進(jìn)了FasterR-CNN的特征提取部分,提高了小目標(biāo)檢測(cè)能力;R-FCN模型使用全卷積網(wǎng)絡(luò),實(shí)現(xiàn)了共享特征計(jì)算;MS-CNN[12]對(duì)原始的RPN(RegionProposalNetwork)網(wǎng)絡(luò)進(jìn)行修改,進(jìn)一步優(yōu)化了檢測(cè)器的性能。卷積網(wǎng)絡(luò)把候選區(qū)的選定作為預(yù)處理,在檢測(cè)精度和計(jì)算速度方面都優(yōu)于傳統(tǒng)的算法。第一類基于候選區(qū)的算法雖然在實(shí)時(shí)檢測(cè)中的真陽率很高,但算法復(fù)雜度更高,而另一類不基于候選區(qū)的算法如YOLO(YouOnlyLookOnce)、SSD(SingleShotmultiboxDetector)等,則是在圖片或者視頻序列的不同位置進(jìn)行密集抽樣,使用不同大小的抽樣尺寸再借助卷積神經(jīng)網(wǎng)絡(luò)直接進(jìn)行分類,在實(shí)際的工程中得到更廣泛的應(yīng)用[13]。2015年,Joseph和Grishick等提出了第一個(gè)one-stage卷積網(wǎng)絡(luò)檢測(cè)算法YOLO[14],使用無錨框檢測(cè)在深入研究后徹底解決了深度學(xué)習(xí)算法無實(shí)時(shí)性的問題;Liu[15]等人提出的SSD模型在YOLO模型實(shí)時(shí)與快速檢測(cè)的基礎(chǔ)上,改善了算法對(duì)于不同尺寸大小目標(biāo)的處理方法,大大提升了算法對(duì)小目標(biāo)的檢測(cè)能力;Lin[16]等人提出的特征金字塔FPN(FeaturePyramidNetworks)模型則是引入了特征金字塔進(jìn)行特征提取。2017年Joseph等提出了YOLOv2,在原有的YOLO版本上進(jìn)行了改進(jìn)優(yōu)化,使用Darknet-19的特征提取網(wǎng)絡(luò)使得模型更具優(yōu)勢(shì),之后在YOLOv2算法基礎(chǔ)上提出的YOLO9000算法使用了聯(lián)合分類檢測(cè)的訓(xùn)練模型,極大地提升了模型的檢測(cè)種類范圍。YOLO具備精確度和實(shí)時(shí)性的雙重優(yōu)勢(shì)也使得它被廣泛應(yīng)用于除目標(biāo)檢測(cè)之外的其他領(lǐng)域之中。近年來,基于深度學(xué)習(xí)的技術(shù)在行人檢測(cè)中更為流行。相比于傳統(tǒng)的檢測(cè)方法,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法雖然在構(gòu)建特征時(shí)需要采集更多的樣本,特征訓(xùn)練的時(shí)間更久,對(duì)需求設(shè)備提出了更高的要求,但是獲得的特征更為優(yōu)良,進(jìn)行檢測(cè)時(shí)的速度和精度更有優(yōu)勢(shì),即使在照明不足,衣服顏色融合環(huán)境背景,目標(biāo)遮擋等各種復(fù)雜環(huán)境下也具有良好的結(jié)果。行人作為目標(biāo)檢測(cè)中變動(dòng)性最大漏檢率最高的特殊目標(biāo),仍是目標(biāo)檢測(cè)中最具挑戰(zhàn)的項(xiàng)目。參考文獻(xiàn)[1]單玉澤.基于特征融合與在線學(xué)習(xí)的行人檢測(cè)算法研究與實(shí)現(xiàn)[D].南京:南京郵電大學(xué),2016.[2]吳振剛.基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)研究進(jìn)展[J].新型工業(yè)化,2019,(10):1-4.[3]NobleWS.“Whatisasupportvectormachine?”[J].Naturebiotechnology,2006,24(12):1565-1567.[4]王璟璟.基于多特征學(xué)習(xí)的行人檢測(cè)方法研究[D].成都:電子科技大學(xué),2018.[5]JONESM,VIOLAP.“Fastmulti-viewfacedetection.mitsubishielectricresearchlaboratories”[R].TechnicalReport:MERL-2003096,2003[6]單巍,王江濤,方振國(guó),崔少華.基于深度學(xué)習(xí)的可見光圖像中行人檢測(cè)方法[J].武漢大學(xué)學(xué)報(bào)(理學(xué)版),2021,67(02):127-135.[7]GavrilaDM.ABayesian,“Exemplar-BasedApproachtoHierarchicalShapeMatching”[J].IEEETransactionsonPatternAnalysis&MachineIntelligence,2007,29(8):1408.[8]BroggiA,BertozziM,FascioliA,etal.“Shape-basedpedestriandetection”[C]//ProceedingsoftheIEEEIntelligentVehiclesSymposium2000(Cat.No.00TH8511).IEEE,2000:215-220.[9]SermanetP,EigenD,ZhangX,etal.“Overfeat:Integratedrecognition,localizationanddetectionusingconvolutionalnetworks”[J].arXivpreprintarXiv:1312.6229,2013.[10]LeCunY,BengioY,HintonG.“Deeplearning”[J].nature,2015,521(7553):436-444.[11]RenS,HeK,GirshickR,etal.“Fasterr-cnn:Towardsreal-timeobjectdetectionwithregionproposalnetworks”[J].arXivpreprintarXiv:1506.01497,2015.[12]何洪亮.基于卷積神經(jīng)網(wǎng)絡(luò)的交通標(biāo)志檢測(cè)研究[D].南京:南京理工大學(xué),2018.[13]余卓雨.基于視頻的行人檢測(cè)綜述[J].電子世界,2020(24):49-50.[14]RedmonJ,DivvalaS,GirshickR,etal.“Youonlylookonce:Unified,real-timeobjectdetection”[C]//ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2016:779-788.[15]LiuW,AnguelovD,ErhanD,etal.“Ssd:Singleshotmultiboxdetector”[C]//Europeanconferenceoncomputervision.2016:21-37.[16]GhiasiG,LinTY,LeQV.“Nas-fpn:Learningscalablefeaturepyramidarchitectureforobjectdetection”[C]//ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.2019:7036-7045.[17]任虹珊.基于深度壓縮的卷積神經(jīng)網(wǎng)絡(luò)壓縮算法研究[D].上海:東南大學(xué),2019.[18]蔣蕓.基于條件生成對(duì)抗網(wǎng)絡(luò)的咬翼片圖像分割[J].計(jì)算機(jī)工程,2019,(4):223-227.[19]曹川.基于深度學(xué)習(xí)的人臉識(shí)別算法研究[D].綿陽:西南科技大學(xué),2019.[20]陳濤,路紅.基于深度學(xué)習(xí)的行人檢測(cè)技術(shù)研究[J].軟件導(dǎo)刊,2021,20(01):76-80.[21]RumelhartDE,HintonGE,WilliamsRJ.“Learningrepresentationsbyback-propagatingerrors”[J].nature,1986,323(6088):533-536.[22]李涓楠.基于深度哈希的肺結(jié)節(jié)CT圖像檢索方法研究[D].太原:太原理工大學(xué),2019.[23]馮川.基于深度學(xué)習(xí)的行人重識(shí)別技術(shù)研究[D].武漢:湖北工業(yè)大學(xué),2019.[24]KrizhevskyA,SutskeverI,HintonGE.“ImageNetclassificationwithdeepconvolutionalneuralnetworks”[C]//InternationalConferenceonNeuralInformationProcessingSystems.CurranAssociatesInc.2012:1097-1105[25]SimonyanK,ZissermanA.“VeryDeepConvolutionalNetworksforLarge-ScaleImageRecognition”[J].ComputerScience,2014.[26]葉繼華,祝錦泰,江愛文,李漢曦,左家莉.人臉表情識(shí)別綜述[J].數(shù)據(jù)采集與處理,2020,35(01):21-34.[27]HeK,ZhangX,RenS,etal.“Deepresiduallearningforimagerecognition”[C]//ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2016:770-778.[28]張婷婷,章堅(jiān)武,郭春生,陳華華,周迪,王延松,徐愛華.基于深度學(xué)習(xí)的圖像目標(biāo)檢測(cè)算法綜述[J].電信科學(xué).2020(07):92-106[29]DengJ,DongW,SocherR,etal.“Imagenet:Alarge-scalehierarchicalimagedatabase”[C]//2009IEEEconferenceoncomputervisionandpatternrecognition.Ieee,2009:248-255.[30]LinTY,MaireM,BelongieS,etal.“Microsoftcoco:Commonobjectsincontext”[C]//Europeanconferenceoncomputervision.Springer,Cham,2014:740-755.[31]ShettyS.“ApplicationofconvolutionalneuralnetworkforimageclassificationonPascalVOCchallenge2012dataset

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論