人工智能YOLOV2圖像識(shí)別實(shí)驗(yàn)報(bào)告_第1頁(yè)
人工智能YOLOV2圖像識(shí)別實(shí)驗(yàn)報(bào)告_第2頁(yè)
人工智能YOLOV2圖像識(shí)別實(shí)驗(yàn)報(bào)告_第3頁(yè)
人工智能YOLOV2圖像識(shí)別實(shí)驗(yàn)報(bào)告_第4頁(yè)
人工智能YOLOV2圖像識(shí)別實(shí)驗(yàn)報(bào)告_第5頁(yè)
免費(fèi)預(yù)覽已結(jié)束,剩余24頁(yè)可下載查看

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第一章前言局部課程工程背景與意義課程工程背景視覺(jué)是各個(gè)應(yīng)用領(lǐng)域,如制造業(yè)、檢驗(yàn)、文檔分析、醫(yī)療診斷,和軍事等領(lǐng)域中各種智能/例如美國(guó)把對(duì)計(jì)算機(jī)視覺(jué)的爭(zhēng)論列為對(duì)經(jīng)濟(jì)和科學(xué)有廣泛影響的科學(xué)和工程中嚴(yán)密地集成在一起。作為一門學(xué)科,計(jì)算機(jī)視覺(jué)開(kāi)頭于60年月初,但在計(jì)算機(jī)親熱相關(guān),對(duì)人類視覺(jué)有一個(gè)正確的生疏將對(duì)計(jì)算機(jī)視覺(jué)的爭(zhēng)論格外有益。Shannon的科學(xué)。科學(xué)技術(shù)的進(jìn)展是推動(dòng)人類社會(huì)進(jìn)步的主要緣由之一,將來(lái)社會(huì)進(jìn)一步地朝著科技化、信息化、智能化的方向前進(jìn)。在信息大爆炸的今日,充分利用這些信息將有助于社會(huì)的現(xiàn)代化建設(shè),這其中圖像信息是目前人們生活中最常見(jiàn)的信息。識(shí)別系統(tǒng)包括圖像分割、目標(biāo)關(guān)鍵特征提取、目標(biāo)類別分類三個(gè)步驟。Hinton2023Lecun目以提高訓(xùn)練性能。YOLO課程工程爭(zhēng)論的意義眾所周知,當(dāng)前是信息時(shí)代,信息的獲得、加工、處理以及應(yīng)用都有了飛躍上,據(jù)一些國(guó)外學(xué)者所做的統(tǒng)計(jì),人類所獲得外界信息有80%左右是來(lái)自眼睛攝為特征的圖像數(shù)據(jù)處理廣泛應(yīng)用于醫(yī)學(xué)、交通、工業(yè)自動(dòng)化等領(lǐng)域。〔例如〔例如,人臉識(shí)別或面部表情識(shí)別〕。深度學(xué)習(xí)的好處是用非監(jiān)視式神經(jīng)網(wǎng)絡(luò),它仿照人腦的機(jī)制來(lái)解釋數(shù)據(jù),例如圖像,聲音和文本。是一些值為0~255目標(biāo)檢測(cè)并不是一個(gè)簡(jiǎn)潔解決的任務(wù)。生物制藥經(jīng)濟(jì)調(diào)控等多領(lǐng)域有很大的作用。國(guó)內(nèi)外爭(zhēng)論現(xiàn)狀能否像人類一樣能具有學(xué)習(xí)力量呢?1959年美國(guó)的塞繆爾(Samuel)設(shè)計(jì)了一個(gè)下棋程序,這個(gè)程序具有學(xué)習(xí)力量,它可以在不斷的對(duì)弈中改善自己的棋藝。43時(shí)也推動(dòng)了目標(biāo)識(shí)別技術(shù)的進(jìn)展,技術(shù)的革總是相互影響的。成了機(jī)器視覺(jué)領(lǐng)域的爭(zhēng)論熱點(diǎn),被國(guó)內(nèi)外學(xué)者廣泛關(guān)注。目標(biāo)檢測(cè)的爭(zhēng)論主要包括了基于視頻圖像的目標(biāo)檢測(cè)和基于靜態(tài)圖片的目標(biāo)特征的檢測(cè)方法。〔包括對(duì)客觀世界三維環(huán)境的感知、IBM、Microsoft、麻省理工學(xué)院等近幾品投入了市場(chǎng)。VIEWS的車輛交通監(jiān)控原型系統(tǒng)的爭(zhēng)論閱歷,在之前的理論爭(zhēng)論的根底上,自行設(shè)計(jì)并初步實(shí)現(xiàn)了一個(gè)擁有完全自主學(xué)問(wèn)產(chǎn)權(quán)的交通監(jiān)控原型系統(tǒng)star)。國(guó)內(nèi)其他高校如上海交通大學(xué)、北京航空航天大學(xué)也對(duì)這方面進(jìn)展了爭(zhēng)論。間互遮擋和人體自遮擋問(wèn)題,尤其是在擁擠狀態(tài)下,多人的檢測(cè)更是難處理。本論文構(gòu)造本文是基于回歸方法的深度學(xué)習(xí)目標(biāo)識(shí)別算法YOLO的爭(zhēng)論。的構(gòu)造。CentOSOpenCVCUDA環(huán)境的搭建。第三章:YOLOYOLOYOLO的創(chuàng)。第四章:訓(xùn)練數(shù)據(jù)采集與制作。包括訓(xùn)練數(shù)據(jù)的采集、訓(xùn)練數(shù)據(jù)的制作。試訓(xùn)練效果。其次章使用工具介紹及安裝CentOSEnterpriseLinux譯而成。由于出自同樣的源代碼,因此有些要求高度穩(wěn)定性的效勞器以CentOSRedHatEnterpriseLinuxCentOS包含封閉源代碼軟件。的一個(gè)發(fā)行版本。CentOSlinuxRedHat版的產(chǎn)品,它是RedHatEnterpriseLinux,CentOSRHELRHELRedHatCentOSREHL術(shù)支持和升級(jí)效勞。REDHAT;CentOSREDHATAS4CentOSyumREDHATCentOSREDHATASBUG?;陂_(kāi)源的特性,LinuxLinuxPCUnixLinuxCentOS7.0OpenCVOpenCV:OpenSourceComputerVisionLibrary。OpenCV基于(開(kāi)源)發(fā)行的跨平臺(tái)計(jì)算機(jī)視覺(jué)庫(kù),可以運(yùn)行在Linux、WindowsMacOSCC++的很多通用算法。CIntelIPP更快的處理速度。OpenCV是一個(gè)用于圖像處理分析機(jī)器視覺(jué)方面的開(kāi)源函數(shù)庫(kù)無(wú)論是做它完全是免費(fèi)的。該庫(kù)承受C及C++語(yǔ)言編寫,該庫(kù)的全部代碼都經(jīng)過(guò)優(yōu)化,計(jì)算效率很高由于它更專注于設(shè)計(jì)成為一種用于實(shí)時(shí)系統(tǒng)的開(kāi)源庫(kù)OpenCV承受器上面,其運(yùn)行速度會(huì)更快。它的一個(gè)目標(biāo)友好的機(jī)器視覺(jué)接口函數(shù),從而使得簡(jiǎn)單的機(jī)器視覺(jué)產(chǎn)品可以加速面世。含了橫跨工業(yè)產(chǎn)品檢測(cè)、醫(yī)學(xué)圖像處理、安防、用戶界面、攝像頭標(biāo)定、三維成像、機(jī)器視覺(jué)等領(lǐng)域的超過(guò)500個(gè)接口函數(shù)。 同時(shí),由于計(jì)算機(jī)視覺(jué)與機(jī)器學(xué)習(xí)密不行分該庫(kù)也包含了比較常用的一些機(jī)器學(xué)習(xí)算法圖像機(jī)器視覺(jué)在安防領(lǐng)域有所應(yīng)用。并且在航拍圖片、街道圖片中,也要依靠視覺(jué)的攝像頭標(biāo)定、圖像融合等技術(shù)。近年來(lái),在入侵檢測(cè)、特定目標(biāo)跟蹤目標(biāo)檢測(cè)人臉檢測(cè)人臉識(shí)別人臉跟蹤等領(lǐng)域的應(yīng)用及其廣泛,而這些,僅僅是其應(yīng)用的冰山一角。(1)數(shù)據(jù)獵取〔OpenCV〕;(2)預(yù)處理;(6)分類判別;OpenCVAPI。CUDA隨著顯卡的進(jìn)展,GPUGPUCPU。如此強(qiáng)大的芯片假設(shè)只是作為顯卡就太鋪張了,因此CUDAComputeUnifiedDeviceArchitecture,NVidiaGPUGPUCUDAGPUCOpenCLFortranc++CUDACUDACUDA〔SPA〕和存儲(chǔ)器系統(tǒng)。流處理陣列線程處理器群〕和器〕。GPU的巨大計(jì)算力量來(lái)自于SPA中的大量計(jì)算單元。存儲(chǔ)器系統(tǒng)由幾個(gè)局部組成:存儲(chǔ)器掌握器〔MMC〕、固定功能的光柵操作單元〔ROP〕以及二級(jí)紋理操作。CUDA將CPU〔Host,而GPU〔CoprocessorGPU,CPUGPUCUDAkernel串行處理步驟共同組成的。CUDA執(zhí)行模型如以下圖:Grid〔網(wǎng)格〕SPAThread〔線程〕SPKernel一個(gè)網(wǎng)格〔Grid〕的形式執(zhí)行,每個(gè)網(wǎng)格由假設(shè)干個(gè)線程塊〔block〕組成,每一個(gè)線程塊又由假設(shè)干個(gè)線程〔thread〕組成。在CUDA的架構(gòu)下,一個(gè)程序分為兩個(gè)部份:Host端和Device端。Host端是指在CPU上執(zhí)行的部份,而Device端則是在顯示芯片〔GPU〕上執(zhí)行的部份。Device端的程序又稱為“kernel“。通常Host端程序會(huì)將數(shù)據(jù)預(yù)備好后,復(fù)制到顯卡的內(nèi)存中再由顯示芯片執(zhí)行Device端程序完成后再由Host端程序?qū)⒔Y(jié)果從顯卡的內(nèi)存中取回。由于 CPU存取顯卡內(nèi)存時(shí)只能透過(guò) PCIExpress接口,因此速度較慢,因此不能常常進(jìn)展這類動(dòng)作,以免降低效率。CPU是不同的。主要的特點(diǎn)包括:latency(等待時(shí)間)的問(wèn)題:CPUcache來(lái)削減存取主內(nèi)存的次數(shù),以避開(kāi)內(nèi)存latency影響到執(zhí)行效率。顯示芯片則多半沒(méi)有cache〔或很小〕,而利用并行化執(zhí)行的方式來(lái)隱蔽內(nèi)存的latency〔即當(dāng)?shù)谝环种е噶畹膯?wèn)題:CPU通常利用分支推測(cè)等方式來(lái)削減分支指令造成的流latency的方式。不過(guò),通常顯示芯片處理分支的效率會(huì)比較差。CUDAlatency,并有效利用顯示芯片上的大量執(zhí)行單元。使用CUDA時(shí),thread在執(zhí)行是很正常的。因此,假設(shè)不能大量并行化的問(wèn)題,GPU都交給GPU實(shí)現(xiàn)。另外需要留意的是,由于CPU存取顯存時(shí)只能通過(guò)PCI-Express開(kāi)頭時(shí)將數(shù)據(jù)復(fù)制進(jìn)GPUGPU再將其復(fù)制到系統(tǒng)內(nèi)存中。環(huán)境的搭建一、工程源代碼下載與安裝使用git把工程源代碼下載到本地gitclones://github/pjreddie/darknetgitclones://github/pjreddie/darknet進(jìn)入工程名目,編譯cddarknetcddarknetmake二、工程名目構(gòu)造darknet├─cfgdarknet├─cfg├─data工程名目數(shù)據(jù)存放名目./darknetdetectcfg/yolo.cfgyolo.weightsdata/dog.jpg在上述命令中,detect./darknetdetectcfg/yolo.cfgyolo.weightsdata/dog.jpg在上述命令中,detect表示調(diào)用darknet的對(duì)象識(shí)別功能,cfg/yolo.cfg是配yolo.weights步下載的權(quán)重?cái)?shù)據(jù),data/dog.jpg圖:├─examples├─include├─python├─scripts├─src├─darknet│ ├─config.php│ ├─common.phpC工程源代碼模塊配置文件模塊函數(shù)文件三、測(cè)試對(duì)象識(shí)別下載官方供給的訓(xùn)練好的權(quán)重?cái)?shù)據(jù)wgets://pjreddie/media/files/yolo.weightswgets://pjreddie/media/files/yolo.weights測(cè)試識(shí)別對(duì)象:執(zhí)行命令:CPU8predictions.jpg,翻開(kāi)圖片如以下圖所示:四、訓(xùn)練環(huán)境安裝YUMOpenCVsudoyuminstallopencvsudoyuminstallopencvs://developer.nvidia/cuda-downloads安裝顯卡驅(qū)動(dòng)及其開(kāi)發(fā)工具包CUDACUDANvidiaGTX860M。CUDAs://developer.nvidia/cuda-downloadslspci|grep-invidia官方還供給了CUDApdfNvidialspci|grep-invidia有任何輸出說(shuō)明本機(jī)有Nvidia顯卡,本機(jī)輸出結(jié)果如下:01:00.03Dcontroller:NVIDIACorporationGM107M[GeForceGTX860M](reva2)01:00.03Dcontroller:NVIDIACorporationGM107M[GeForceGTX860M](reva2)接下來(lái)查看系統(tǒng)內(nèi)核版本:unameuname-m&&cat/etc/*release該命令會(huì)顯示系統(tǒng)架構(gòu)以及內(nèi)核版本信息,本機(jī)主要的輸出信息如下:x86_64x86_64CentOSCentOSLinuxrelease7.3.1611(Core)gcc--versiongccgcc--versionsudoyuminstallsudoyuminstallkernel-devel-$(uname-r) kernel-headers-$(uname-r)blacklistnouveauoptionsnouveaumodeset=0runfileNouveau3Dblacklistnouveauoptionsnouveaumodeset=0initramfs:sudodracut--forcesudodracut--force./cuda_8.0.61_375.26_linux-run不要登錄,按下ALT+F2進(jìn)入命令提示符模式,使用root用戶登錄,然后使用 init3命令進(jìn)入多用戶模式開(kāi)頭安裝Naidia驅(qū)動(dòng)。執(zhí)行以下命令開(kāi)頭安裝CUDA:./cuda_8.0.61_375.26_linux-runexportPATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}}exportLD_LIBRARY_PATH=/usr/local/cuda-8.0/lib64\${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}CUDACUDAexportPATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}}exportLD_LIBRARY_PATH=/usr/local/cuda-8.0/lib64\${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}YOLOMakefileOPENCV=1GPU=0GPU=1,并執(zhí)行make第三章YOLOYOLO與識(shí)別方法〔FastR-CNN〕將目標(biāo)識(shí)別任務(wù)分類目標(biāo)區(qū)域推測(cè)和類別推測(cè)實(shí)現(xiàn)在準(zhǔn)確率較高的狀況下快速目標(biāo)檢測(cè)與識(shí)別,更加適合現(xiàn)場(chǎng)應(yīng)用環(huán)境。YOLO為一種的目標(biāo)檢測(cè)方法,該方法的特點(diǎn)是實(shí)現(xiàn)快速檢測(cè)的同時(shí)還達(dá)45/s155/s。與當(dāng)前最好系統(tǒng)相比,YOLO推測(cè)的假陽(yáng)性優(yōu)于當(dāng)前最好的方法。人類視覺(jué)系統(tǒng)快速且精準(zhǔn),只需看一眼即可識(shí)別圖像中物品及其位置。方法提出目標(biāo)區(qū)域,然后承受分類器來(lái)實(shí)現(xiàn)識(shí)別。近期的R-CNN類方法承受識(shí)別這些boundingboxespost-processingboundingboxesboundingboxes類別概率的單個(gè)回歸問(wèn)題,只需一眼即可檢測(cè)目標(biāo)類別和位置。YOLOYOLOboundingboxes:本方法相對(duì)于傳統(tǒng)方法有如下優(yōu)點(diǎn):速度格外快。YOLOTitanXGPU45150/sregionproposal-FastR-CNNFastR-CNNFastR-CNN,YOLO準(zhǔn)確率高很多。本方法有如下缺點(diǎn):YOLO由于一個(gè)網(wǎng)格中只推測(cè)了兩個(gè)框,并且只屬于一類。泛化力量偏弱。由于損失函數(shù)的問(wèn)題,定位誤差是影響檢測(cè)效果的主要緣由。尤其是大小物體的處理上,還有待加強(qiáng)。YOLO的核心思想和實(shí)現(xiàn)方法1.YOLOYOLO的核心思想就是利用整張圖作為網(wǎng)絡(luò)的輸入,直接在輸出層回歸boundingboxboundingbox2.YOLOYOLO格中,則這個(gè)網(wǎng)格就負(fù)責(zé)推測(cè)這個(gè)目標(biāo)。box,boundingboxconfidenceconfidencebox的:Pr目標(biāo)〕IOUtruth〔其中假設(shè)有目標(biāo)落在一個(gè)gridcell1,pred0boundingboxgroundtruthIOU值〕。(x,y,w,h)confidence5格還要推測(cè)一個(gè)類別信息,記為CSxS個(gè)網(wǎng)格,每個(gè)網(wǎng)格要推測(cè)BboundingboxCcategoriesSxSx(5*B+C)tensor。〔留意:class信息是針對(duì)每個(gè)網(wǎng)格的,confidence信息是針對(duì)每個(gè)boundingbox〕。448x448,S=7,B=2,一共有(C=20)7x7x30tensor。整個(gè)網(wǎng)絡(luò)構(gòu)造如以下圖所示:在測(cè)試的時(shí)候,每個(gè)網(wǎng)格推測(cè)的class信息和boundingbox推測(cè)的confidenceboundingboxclass-specificconfidencescore:Pr(class|object)Pr(object)IOUtruthPr(class)IOUtruthpred i pred等式左邊第一項(xiàng)就是每個(gè)網(wǎng)格推測(cè)的類別信息,其次三項(xiàng)就是每個(gè)confidenceencodeboxboxconfidencescoreboxes,boxesNMSYOLO的實(shí)現(xiàn)細(xì)節(jié)1.預(yù)訓(xùn)練:20全連接層。2.推測(cè):448*448,并且增加了四boundingbox,01。3.激活函數(shù):leakyReLU函數(shù):誤差傳播:0。它們的奉獻(xiàn)過(guò)大,會(huì)使得網(wǎng)絡(luò)無(wú)法收斂。boundingboxboxboxw,h,x,yx此外,一個(gè)網(wǎng)格可能會(huì)推測(cè)多個(gè)box,期望每個(gè)boxbox。公式為:其中其中iboundingboxj負(fù)責(zé)這個(gè)物體的推測(cè)。i使用隨機(jī)梯度下降法,以及dropout的方法。YOLOYOLO將物體檢測(cè)作為回歸問(wèn)題求解?;谝粋€(gè)單獨(dú)的端到端網(wǎng)絡(luò),完成從YOLORCNN、FastRCNNFasterRCNNYOLOYOLOregionproposalRCNN/FastRCNN〔獨(dú)立于網(wǎng)絡(luò)之selectivesearch〕求取候選框〔可能會(huì)包含物體的矩形區(qū)域〕,訓(xùn)練過(guò)程因此也是分成多個(gè)模塊進(jìn)展。FasterRCNNRPN〔regionproposalnetwork〕卷積網(wǎng)絡(luò)替代RCNN/FastRNNselectivesearchRPNFastRCNNRPNFastRCNNRPNFastRCNNYOLO將物體檢測(cè)作為一個(gè)回歸問(wèn)題進(jìn)展求解,輸入圖像經(jīng)過(guò)一次inference,便能得到圖像中全部物體的位置和其所屬類別及相應(yīng)的置信概率。RCNNA〔分類問(wèn)題〕,boundingbox〔回歸問(wèn)題〕。第四章訓(xùn)練數(shù)據(jù)采集與制作訓(xùn)練數(shù)據(jù)的采集預(yù)備需要訓(xùn)練的圖片:本次試驗(yàn)訓(xùn)練的是水果的識(shí)別,種類一共5種,分別是WaterMelon、張圖片。圖片全部從百度圖片中下載,圖片區(qū)分率一般在400*300像素左右。500000中。訓(xùn)練數(shù)據(jù)的制作171名稱。xmlxml,xmldarknet├─cfg├─......├─srcdarknet├─cfg├─......├─src├─VOCdevkit工程名目配置文件存放名目│ ├─VOC2023工程源代碼數(shù)據(jù)標(biāo)記年份││├─Annitations xml│││ ├─00000.xml xml│││ ├─00001.xml xml│││ ├─......│││ ├─00171.xml xml││├─ImageSets 圖片相關(guān)信息│││ ├─Main 文件位置信息│││ │├─train.txt 保存了全部圖片位置的文件││├─JPEGImages 需要訓(xùn)練的圖片│││ ├─00000.jpg 水果圖片│││ ├─00001.jpg 水果圖片│││ ├─......│││ ├─00171.jpg 水果圖片││├─labels labels│││├─00000.txtlabels│││├─00001.txtlabels│││├─.....│││├─00170.txtlabelsYOLO不能識(shí)別xml文件,需要將其轉(zhuǎn)化成其識(shí)別的格式。使用工程自帶的voc_label.py腳本可以將xml格式轉(zhuǎn)換成YOLO所需的label文件。翻開(kāi)xml置等信息。文件內(nèi)容如以下圖所示。該腳本同時(shí)會(huì)生成上面名目構(gòu)造中的labels0”代表的是代表西瓜等,后面4圖片中的位置的比例。第五章訓(xùn)練配置、訓(xùn)練及測(cè)試訓(xùn)練效果訓(xùn)練配置strawberrywatermelonapple第四章是預(yù)備訓(xùn)練數(shù)據(jù)的全部過(guò)程,接下來(lái)要修改配置文件。創(chuàng)立5pythonstrawberrywatermelonappleorangeorangepineapplepineappleclasses=5train=/home/myd/new/darknet/VOCdevkit/VOC2023/ImageSets/Main/train.txtnames= /home/myd/new/darknet/cfg/sbackupclasses=5train=/home/myd/new/darknet/VOCdevkit/VOC2023/ImageSets/Main/train.txtnames= /home/myd/new/darknet/cfg/sbackup=backup_mydcfg/yolo.cfgyolo-myd.cfg,并編輯這個(gè)文件,主要修r(nóng)egionclasses5.region層上一層convolution層,把其中的filters值修改成50,依據(jù)網(wǎng)上教程,計(jì)(classes+coords+1)*(NUM)(5+4+1)*5=50。[myd@localhost[myd@localhostdarknet]$./darknetdetectortrain./cfg/myd.data./cfg/yolo-myd.cfgyolo-mydlayer filters size0conv 32 3x3/11max 2x2/2input416x416x416x416xoutput332->->416x416x 32208x208x32reorgrouteconvconv/226x 26x 64->13x 13x25627241024503x3/11x1/113x13x13x128013x1024-> 13x-> 13x13x102413x5031detectionLearningRate:0.01,Momentum:0.9,Decay:0.0005Resizing....執(zhí)行以下命令開(kāi)頭訓(xùn)練:./darknet./darknetdetectortrain./cfg/myd.datacfg/yolo-myd.cfg執(zhí)行命令后的輸出如下:2conv643x3/1208x208x 32->208x208x 643max2x2/2208x208x 64->104x104x 644conv1283x3/1104x104x 64->104x104x1285conv641x1/1104x104x128->104x104x 646conv1283x3/1104x104x 64->104x104x1287max2x2/2104x104x128->52x 52x1288conv2563x3/152x 52x128->52x 52x2569conv1281x1/152x 52x256->52x 52x12810conv2563x3/152x 52x128->52x 52x25611max2x2/252x 52x256->26x 26x25612conv5123x3/126x 26x256->26x 26x51213conv2561x1/126x 26x512->26x 26x25614conv5123x3/126x 26x256->26x 26x51215conv2561x1/126x 26x512->26x 26x25616conv5123x3/126x 26x256->26x 26x51217max2x2/226x 26x512->13x 13x51218conv10243x3/113x13x512->13x13x102419conv5121x1/113x13x1024->13x13x51220conv10243x3/113x13x512->13x13x102421conv5121x1/113x13x1024->13x13x51222conv10243x3/113x13x512->13x13x102423conv10243x3/113x13x1024->13x13x102424conv10243x3/113x13x1024->13x13x102425route1626conv641x1/126x26x512->26x26x 64訓(xùn)練過(guò)程中會(huì)打印訓(xùn)練進(jìn)度的信息,如下所示:Loaded:0.000000secondsRegionAvgIOU:0.160720,Class:0.231168,Obj:0.521430,NoObj:0.413074,AvgRecall:0.000000, count:2RegionAvgIOU:0.180606,Class:0.679878,Obj:0.386150,NoObj:0.408220,AvgRecall:0.000000, count:11:186.851959,186.851959avg,0.000000rate,0.950000seconds,2imagesLoaded:0.000000secondsRegionAvgIOU:0.254033,Class:0.317158,Obj:0.520234,NoObj:0.409462,AvgRecall:0.202300, count:5RegionAvgIOU:0.241384,Class:0.085939,Obj:0.527829,NoObj:0.407437,AvgRecall:0.000000, count:12:216.814362,189.848206avg,0.000000rate,0.550000seconds,4imagesLoaded:0.000000secondsRegionAvgIOU:0.226418,Class:0.028838,Obj:0.529031,NoObj:0.421976,AvgRecall:0.000000, count:2RegionAvgIOU:0.001094,Class:0.286836,Obj:0.057044,NoObj:0.412083,AvgRecall:0.000000, count:13:279.181519,198.781540avg,0.000000rate,0.550000seconds,6imagesLoaded:0.000000secondsRegionAvgIOU:0.161439,Class:0.111352,Obj:0.491796,NoObj:0.411375,AvgRecall:0.000000, count:5RegionAvgIOU:0.245507,Class:0.220506,Obj:0.330526,NoObj:0.407965,AvgRecall:0.000000, count:54:250.851227,203.988510avg,0.000000rate,0.580000seconds,8

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論