




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
第頁(yè)基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)分析概述目錄TOC\o"1-3"\h\u10608基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)分析概述 189531.1.1深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) 1159741.1.2目標(biāo)分類網(wǎng)絡(luò) 496531.1.3深度學(xué)習(xí)框架 7深度學(xué)習(xí)的應(yīng)用將人工智能的發(fā)展推上了一個(gè)新的臺(tái)階,開啟了智能時(shí)代的新篇章。1956年中,專家學(xué)者們就提出了利用計(jì)算機(jī)代替人類完成各種不同需求的人工智能,信息時(shí)代的到來(lái)給人工智能的普及發(fā)展提供了大量的數(shù)據(jù)支撐,計(jì)算機(jī)的超強(qiáng)處理能力給人工智能的實(shí)現(xiàn)提供了平臺(tái)。深度神經(jīng)網(wǎng)絡(luò)的出現(xiàn)給人工智能的實(shí)現(xiàn)提供了可行性,它能貫穿整個(gè)算法的學(xué)習(xí)過(guò)程,先對(duì)海量的數(shù)據(jù)進(jìn)行學(xué)習(xí)并分析其特征,然后對(duì)新的數(shù)據(jù)、事件或目標(biāo)進(jìn)行判斷或分類,目標(biāo)檢測(cè)、圖像分類、模式識(shí)別等方面大量普及。深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)深度神經(jīng)網(wǎng)絡(luò)是一種特殊的網(wǎng)絡(luò),它是利用網(wǎng)絡(luò)的深度自動(dòng)學(xué)習(xí)數(shù)據(jù)的表層特征,包含輸入層、隱含層和輸出層[35]等。神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的計(jì)算單元,神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)可以表示每個(gè)神經(jīng)元是如何進(jìn)行連接操作的[36]。神經(jīng)網(wǎng)絡(luò)通過(guò)提取目標(biāo)的特征進(jìn)行分類,如果特征過(guò)少或者不明確,易導(dǎo)致網(wǎng)絡(luò)欠擬合,如果特征過(guò)多則易導(dǎo)致網(wǎng)絡(luò)過(guò)擬合,因此需要構(gòu)建和組合不同的隱含層提高模型訓(xùn)練效果,完成目標(biāo)分類或識(shí)別任務(wù)。一般來(lái)說(shuō),人工神經(jīng)網(wǎng)絡(luò)的輸入層代表著目標(biāo)的特征,輸出層則代表最終網(wǎng)絡(luò)分類的個(gè)數(shù),隱含層的個(gè)數(shù)和組成可以人為設(shè)定,通過(guò)不斷的訓(xùn)練以及多次迭代調(diào)整參數(shù)減少誤差,將最終得到的結(jié)果與期望的結(jié)果進(jìn)行差值對(duì)比,將差值作為后續(xù)網(wǎng)絡(luò)參數(shù)更新的依據(jù),以梯度下降法作為網(wǎng)絡(luò)收斂方向,可依據(jù)反向傳播原理進(jìn)行模型參數(shù)的更新,最終得到最優(yōu)的識(shí)別網(wǎng)絡(luò),人工神經(jīng)網(wǎng)絡(luò)模型圖如圖2-1所示。圖2-1人工神經(jīng)網(wǎng)絡(luò)模型圖卷積神經(jīng)網(wǎng)絡(luò)是增加了多個(gè)隱含層的人工神經(jīng)網(wǎng)絡(luò),不同組成結(jié)構(gòu)的網(wǎng)絡(luò)性能也不同,研究人員在研究算法的性能上對(duì)網(wǎng)絡(luò)的構(gòu)成方式不斷探索,在人工神經(jīng)網(wǎng)絡(luò)的輸入層后面加了圖像濾波、形態(tài)學(xué)處理等預(yù)處理操作,使其變成包含卷積操作且具有深度的神經(jīng)網(wǎng)絡(luò),除此之外還包含池化層、激活層、全連接層。輸入層:由圖像信息作為網(wǎng)絡(luò)的輸入,圖像信息主要是三通道形式的矩陣,因此輸入層主要以三維矩陣形式輸入。卷積層:卷積層運(yùn)用數(shù)學(xué)計(jì)算對(duì)圖像的特征信息計(jì)算獲得目標(biāo)的多尺度圖像信息,具有強(qiáng)大的學(xué)習(xí)能力,它主要依靠卷積核進(jìn)行卷積運(yùn)算操作,每一層有一個(gè)或多個(gè)卷積核用來(lái)映射輸入和輸出信息之間的關(guān)系。卷積操作是卷積神經(jīng)網(wǎng)絡(luò)的重要步驟,主要是通過(guò)規(guī)定尺寸的滑動(dòng)窗口對(duì)輸入圖像矩陣的像素值進(jìn)行提取,將提取得到的值與卷積核一一相乘并相加,在對(duì)應(yīng)的位置上保存結(jié)果,卷積過(guò)程如圖2-2所示。圖2-2卷積過(guò)程輸出層的圖像大小是由卷積核的size和padding組成,卷積核的輸入是尺寸為Hp×WpQUOTEWp的圖片,通過(guò)卷積內(nèi)核函數(shù)后,輸出的特征圖的大小nHnHnW其中f表示卷積核尺寸,P表示長(zhǎng)寬方向填充的像素個(gè)數(shù),S表示步長(zhǎng),卷積核的尺寸決定了圖像感受野的大小。激活層:如果網(wǎng)絡(luò)不適用激活函數(shù),無(wú)論增加多少卷積層,網(wǎng)絡(luò)仍然成線性變換,因此在圖片經(jīng)過(guò)卷積層的計(jì)算后,為了增強(qiáng)網(wǎng)絡(luò)的特征處理能力,在卷積層之后增加激活函數(shù)增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力,從而更好地解決網(wǎng)絡(luò)的非線性表達(dá)問(wèn)題,該函數(shù)可以通過(guò)控制前一個(gè)神經(jīng)元的強(qiáng)弱并決定下一個(gè)神經(jīng)元的輸出程度,神經(jīng)元之間的傳遞是線性關(guān)系,但是大多數(shù)情況下網(wǎng)絡(luò)是非線性的,因此需要依靠激活函數(shù)將網(wǎng)絡(luò)進(jìn)行轉(zhuǎn)換,提高網(wǎng)絡(luò)的擬合能力,常用的激活函數(shù)有:(1)ReLU函數(shù):ReLU函數(shù)可以通過(guò)導(dǎo)數(shù)為0或1的輸入解決梯度消失問(wèn)題,計(jì)算公式見(jiàn)式(2-3)。Reluxx表示的是上一個(gè)神經(jīng)元的輸出以及當(dāng)前神經(jīng)元的輸入,當(dāng)x為正數(shù)時(shí),函數(shù)成激進(jìn)狀態(tài),函數(shù)的輸出值保持為1左右,沒(méi)有資源消耗等問(wèn)題,網(wǎng)絡(luò)訓(xùn)練的速度加快,且表達(dá)能力增強(qiáng);當(dāng)x小于0時(shí),函數(shù)處于抑制狀態(tài),如果0越多,則表示網(wǎng)絡(luò)的表達(dá)能力越弱,函數(shù)圖如圖2-3所示。(2)Sigmoid函數(shù):Sigmoid函數(shù)通常對(duì)圖像進(jìn)行二分類處理操作,輸出結(jié)果要么是0,要么是1。計(jì)算公式見(jiàn)式(2-4)。Sxx表示的是前一個(gè)最終的輸出結(jié)果、當(dāng)前神經(jīng)元的輸入,Sigmoid最終的輸出結(jié)果是0-1。當(dāng)x小于0,函數(shù)結(jié)果是0,表示神經(jīng)元激活失??;當(dāng)x為正數(shù)時(shí),不存在梯度飽和問(wèn)題,且該層的輸出為1,表示神經(jīng)元激活成功,可以加快梯度收斂的速度,然后進(jìn)行反向傳播,即乘以激活函數(shù)的導(dǎo)數(shù)。導(dǎo)數(shù)公式見(jiàn)式(2-5)。SxSigmoid激活函數(shù)是一個(gè)嚴(yán)格遞增且有界的函數(shù),圖像如圖2-4所示。圖2-3ReLU函數(shù)圖圖2-4.Sigmoid函數(shù)圖池化層:池化層是對(duì)圖像特征進(jìn)行提取與過(guò)濾,對(duì)其進(jìn)行平移操作時(shí),輸出結(jié)果的大小保持不變,可分為最大池化層和平均池化層,最大池化層提取樣本中的最大值,平均池化層采用對(duì)應(yīng)位置的平均值減少學(xué)習(xí)參數(shù),將其特征數(shù)變成上一層的一半,從而縮減網(wǎng)絡(luò)的大小,提高網(wǎng)絡(luò)的運(yùn)行速度,增強(qiáng)特征的魯棒性,計(jì)算公式見(jiàn)式(2-6)、(2-7)。mHmW經(jīng)過(guò)池化層輸出的特征圖的大小mH×mW,mH全連接層:全連接層是將相鄰兩層之間全部的神經(jīng)元進(jìn)行連接操作,因此它的參數(shù)的數(shù)量在整個(gè)網(wǎng)絡(luò)中是最多的,且權(quán)值矩陣的大小是固定的,可以減少特征信息的損失,一般作用在網(wǎng)絡(luò)的尾端。輸出層通過(guò)Softmax分類器進(jìn)行分類,其計(jì)算公式見(jiàn)式(2-8)。yk其中,ak代表的是第k個(gè)輸入神經(jīng)元,n卷積神經(jīng)網(wǎng)絡(luò)通過(guò)共享卷積核保留領(lǐng)域之間的相關(guān)性以及局部聯(lián)系性,在網(wǎng)絡(luò)訓(xùn)練中可以減少參數(shù)使用和內(nèi)存占用量。神經(jīng)元在傳遞信息的過(guò)程中,當(dāng)前層的輸入只與前一層的輸出有關(guān),與其它層無(wú)關(guān),說(shuō)明了深度卷積神經(jīng)網(wǎng)絡(luò)具有局部感知能力,即在對(duì)一張圖像獲取其部分的信息之后,可以綜合其局部感知信息獲取該圖像的全部信息。通過(guò)不同的神經(jīng)元之間共享同一個(gè)卷積核實(shí)現(xiàn)參數(shù)共享,可以減少多余參數(shù)的使用,降低網(wǎng)絡(luò)的計(jì)算量。目標(biāo)分類網(wǎng)絡(luò)隨著研究人員不斷的探索,越來(lái)越多性能優(yōu)越的網(wǎng)絡(luò)不斷被發(fā)現(xiàn),其以優(yōu)越的性能一直在計(jì)算機(jī)研究領(lǐng)域占據(jù)有利位置,在圖像識(shí)別、檢測(cè)、語(yǔ)義分割等任務(wù)上有著很強(qiáng)的表現(xiàn)力。常見(jiàn)的卷積神經(jīng)網(wǎng)絡(luò)有VGGNet、DenseNet[37]、ResNet[38]、Inception、LeNet、AlexNet等,接下來(lái)將詳細(xì)介紹與本文算法有關(guān)的三個(gè)網(wǎng)絡(luò)結(jié)構(gòu)。1.VGGNet:VGGNet最早是由國(guó)外學(xué)者在研究網(wǎng)絡(luò)的深度與性能時(shí)探索出來(lái)的一種神經(jīng)網(wǎng)絡(luò)。它的卷積層多次使用的核大小為3×3,最大池化層的卷積核尺寸主要使用2×2大小,其以模型簡(jiǎn)單、收斂速度快、分類效率高的優(yōu)越性被逐漸人們關(guān)注,由其發(fā)展而來(lái)的常用有VGG16、VGG19等相關(guān)網(wǎng)絡(luò),VGG16網(wǎng)絡(luò)結(jié)構(gòu)如圖2-5所示。圖2-5VGG16網(wǎng)絡(luò)圖VGG16的傳播過(guò)程包括:卷積操作、激活函數(shù)、池化操作、全連接層、Softmax分類。具體網(wǎng)絡(luò)結(jié)構(gòu)是首先輸入224×224×3尺寸的特征圖,通過(guò)兩個(gè)包含兩層3×3大小的卷積層和一層2×2大小的池化層的塊來(lái)獲取112×112×128的尺寸大小,再分別經(jīng)過(guò)三個(gè)3×3卷積層和一層2×2最大池化層的塊得到7×7×512的特征圖,再經(jīng)過(guò)全連接層,包含兩個(gè)尺寸結(jié)構(gòu)為1×1×4096和一個(gè)1×1×1000,利用Softmax函數(shù)預(yù)測(cè)類別個(gè)數(shù)并輸出,最終實(shí)現(xiàn)目標(biāo)識(shí)別任務(wù)。VGG19比VGG16網(wǎng)絡(luò)多三層卷積層,其余結(jié)構(gòu)一樣,由于VGGNet反復(fù)使用尺寸相同的卷積核,即使網(wǎng)絡(luò)結(jié)構(gòu)不斷加深,也不會(huì)增加模型的計(jì)算量,不會(huì)導(dǎo)致網(wǎng)絡(luò)參數(shù)爆炸。2.DenseNetDenseNet最早是由2017年CVPR上的一篇論文提出,并獲得了當(dāng)年最佳論文,它的提出給卷積神經(jīng)網(wǎng)絡(luò)帶來(lái)一種全新的結(jié)構(gòu),與其他網(wǎng)絡(luò)構(gòu)造不同,DenseNet采用的密集連接機(jī)制,在網(wǎng)絡(luò)中每?jī)蓪佣枷嗷ミB接,當(dāng)前層學(xué)習(xí)到的所有特征都將傳遞給后面所有的網(wǎng)絡(luò)層,也均來(lái)自前面的層,這樣使特征不斷的得到復(fù)用,能夠解決梯度消失問(wèn)題,促進(jìn)網(wǎng)絡(luò)特征的傳遞效率,提高網(wǎng)絡(luò)效率。網(wǎng)絡(luò)圖如圖2-6所示。圖2-6DenseNet網(wǎng)絡(luò)圖DenseNet網(wǎng)絡(luò)的主要模塊是DenseBlock,它共有5層結(jié)構(gòu),每一層網(wǎng)絡(luò)特征的維度為4,假設(shè)[x0,x1xi3.ResNetResNet利用殘差學(xué)習(xí)單元構(gòu)造了50、152層等不同層數(shù)的神經(jīng)網(wǎng)絡(luò),一般來(lái)說(shuō),隨著網(wǎng)絡(luò)深度加深,容易消耗過(guò)多的資源,且易導(dǎo)致模型過(guò)擬合、梯度消失或爆炸等系列對(duì)網(wǎng)絡(luò)性能有影響的問(wèn)題,但是ResNet的產(chǎn)生解決了以上問(wèn)題,它利用殘差學(xué)習(xí)單元的跳躍連接機(jī)制,將輸入信息直接繞道輸出,在增加網(wǎng)絡(luò)層數(shù)的同時(shí)也能減少網(wǎng)絡(luò)的參數(shù)及計(jì)算量,加快了網(wǎng)絡(luò)訓(xùn)練的效率,提高了模型檢測(cè)的準(zhǔn)確率。殘差學(xué)習(xí)單元的結(jié)構(gòu)圖可如圖2-7所示。圖2-7殘差學(xué)習(xí)單元?dú)埐顚W(xué)習(xí)單元可分為直接映射和殘差部分,直接映射表示當(dāng)前網(wǎng)絡(luò)輸入直接由前一層的輸出得到,x為網(wǎng)絡(luò)的輸入,假設(shè)直接從前一層直接映射得到的特征為H(x),利用殘差單元的特殊學(xué)習(xí)機(jī)制,得到的結(jié)果為Fx=Hx?x深度學(xué)習(xí)框架1.TensorFlow:TensorFlow是一種基于端到端學(xué)習(xí)的開源深度學(xué)習(xí)框架,它是一個(gè)數(shù)學(xué)符號(hào)系統(tǒng),主要以數(shù)據(jù)流為基礎(chǔ)進(jìn)行運(yùn)算,能部署在服務(wù)器上,定期由專業(yè)人員維護(hù)與開發(fā),支持卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練與測(cè)試,因此以TensorFlow為訓(xùn)練框架的常用網(wǎng)絡(luò)包括VGGNet、DenseNet、ResNet等,并為大多較復(fù)雜的深度學(xué)習(xí)模型提前設(shè)計(jì)好需要用的代碼框架,計(jì)算特點(diǎn)如下:(1)符號(hào)計(jì)算:符號(hào)計(jì)算也叫數(shù)據(jù)流圖,以變量構(gòu)建的一個(gè)具有計(jì)算能力的圖形結(jié)構(gòu),從圖中就可以看出每個(gè)變量之間的關(guān)系,規(guī)定了它們之間的計(jì)算方式,是TensorFlow的編程結(jié)構(gòu),它的內(nèi)容包含了圖結(jié)構(gòu)和圖集合兩種類型,圖結(jié)構(gòu)包括圖的節(jié)點(diǎn)以及邊緣對(duì)象,由各種方法組合在一起,對(duì)其它操作沒(méi)有約束,圖集合是對(duì)程序里面的元數(shù)據(jù)進(jìn)行存儲(chǔ)。下面以圖像化的方式展開數(shù)據(jù)流圖,其過(guò)程如圖2-8所示。圖2-8數(shù)據(jù)流圖數(shù)據(jù)流圖也是一種有向圖,圖中的a,b,c,d,e表示的是數(shù)據(jù)流圖的節(jié)點(diǎn),一般用來(lái)進(jìn)行數(shù)學(xué)操作,也作為數(shù)據(jù)的輸入輸出、函數(shù)或者計(jì)算,而黑色箭頭表示的是數(shù)據(jù)節(jié)點(diǎn)的流動(dòng)方向,節(jié)點(diǎn)之間的邊代表了數(shù)值、矩陣或者張量,且具有相互依賴關(guān)系,a和d稱為直接依賴,a和e稱為間接依賴。(2)張量:張量(Tensor)是TensorFlow的數(shù)據(jù)類型,可以提高代碼的可讀性。張量可以代表矩陣的推廣,它包含名字、維度和類型等三種屬性,但是名字是唯一能表示張量的。(3)會(huì)話:當(dāng)數(shù)據(jù)流圖構(gòu)建完畢后,由圖創(chuàng)建會(huì)話(Session)并運(yùn)行圖的各個(gè)部分操作,管理程序運(yùn)行時(shí)的所有資源。綜合以上對(duì)TensorFlow的特性分析,TensorFlow具有強(qiáng)大的可移植性,在支持CPU、GPU或TPU的設(shè)備上都可以完成框架與模型的移植與應(yīng)用,如樹莓派[39]、安卓、NvidiaJetson開發(fā)板等;許多種開發(fā)語(yǔ)言都用到此框架,因?yàn)槠渲邪舜罱ê玫腃++和Python應(yīng)用平臺(tái),使用過(guò)程中可以自行編寫開發(fā)平臺(tái)和修改網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù);高度的靈活性與效率,支持以計(jì)算圖的方式建立網(wǎng)絡(luò)。2.Caffe:Caffe是一個(gè)性能優(yōu)越的深度學(xué)習(xí)框架且代碼開源,在深度學(xué)習(xí)領(lǐng)域一直占有很高的地位。Caffe框架的網(wǎng)絡(luò)結(jié)構(gòu)將框架內(nèi)的組件包裝成模塊的形式,方便新模型的學(xué)習(xí)和使用,能提高網(wǎng)絡(luò)訓(xùn)練效率。Caffe最開始的目標(biāo)是圖像相關(guān)的問(wèn)題,卷積神經(jīng)網(wǎng)絡(luò)的代碼大多數(shù)是用Caffe編寫,但是對(duì)于RNN,LSTM等語(yǔ)義網(wǎng)絡(luò)的支持性不夠好。且文檔特別貧乏,常需要投入大量時(shí)間理解它。Caffe的結(jié)構(gòu)由Blob、Layer、Net、Solver組成,Blob代表模型數(shù)據(jù),Layer代表各個(gè)網(wǎng)絡(luò)層,Net代表整個(gè)網(wǎng)絡(luò),Solver代表整個(gè)網(wǎng)絡(luò)模型的計(jì)算方法。其中:(1)Blob代表數(shù)據(jù)集,網(wǎng)絡(luò)參數(shù)以及數(shù)據(jù)的儲(chǔ)存位置和連接場(chǎng)所。(2)Layer主要是對(duì)網(wǎng)絡(luò)中每一層的抽象,在神經(jīng)網(wǎng)絡(luò)的每一
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 檢驗(yàn)技術(shù)相關(guān)試題及答案
- 情商面試面試官必問(wèn)問(wèn)題及答案解析
- 智慧職場(chǎng)精英:哲學(xué)典故面試題庫(kù)全攻略
- 武漢控股面試題庫(kù):高級(jí)職位面試實(shí)戰(zhàn)技巧
- 國(guó)際財(cái)務(wù)招聘實(shí)戰(zhàn)面試題庫(kù):如何應(yīng)對(duì)國(guó)際化職位的挑戰(zhàn)
- 學(xué)校新消防知識(shí)培訓(xùn)內(nèi)容課件
- 高級(jí)商業(yè)談判與經(jīng)營(yíng)策略面試題庫(kù)
- 14歲集體生日課件
- 12306客服培訓(xùn)知識(shí)課件
- 醫(yī)療技術(shù)人才選拔高級(jí)人才測(cè)評(píng)題庫(kù)
- 2025年食品安全培訓(xùn)考試試題及答案
- 2025年長(zhǎng)江證券港股通開通測(cè)試題及答案
- 16J914-1 公用建筑衛(wèi)生間
- 《湖南省醫(yī)療保險(xiǎn)“雙通道”管理藥品使用申請(qǐng)表》
- 小學(xué)五年級(jí)下科學(xué)期末考試質(zhì)量分析
- GB/T 7324-2010通用鋰基潤(rùn)滑脂
- GB/T 20000.1-2014標(biāo)準(zhǔn)化工作指南第1部分:標(biāo)準(zhǔn)化和相關(guān)活動(dòng)的通用術(shù)語(yǔ)
- oh卡牌理論-課件
- 皮肌炎與多肌炎的診療及進(jìn)展課件
- 食品安全自身檢查記錄表
- 臨床常見(jiàn)危急值及處理培訓(xùn)課件
評(píng)論
0/150
提交評(píng)論