




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
神經(jīng)網(wǎng)絡(luò)算法第1頁,共79頁,2023年,2月20日,星期一反向傳播網(wǎng)絡(luò)
Back—PropagationNetwork,由于其權(quán)值的調(diào)整采用反向傳播(Backpropagation)的學(xué)習(xí)算法,因此被稱為BP網(wǎng)絡(luò)。第2頁,共79頁,2023年,2月20日,星期一BP網(wǎng)絡(luò)
是一種單向傳播的多層前向網(wǎng)絡(luò)其神經(jīng)元的變換函數(shù)是S型函數(shù),因此輸出量為0到1之間的連續(xù)量它可以對非線性可微分函數(shù)進行權(quán)值訓(xùn)練,從而實現(xiàn)輸入到輸出的任意的非線性映射。
第3頁,共79頁,2023年,2月20日,星期一網(wǎng)絡(luò)中心思想是梯度下降法通過梯度搜索技術(shù),使網(wǎng)絡(luò)實際輸出值與期望輸出值的誤差均方值最小。第4頁,共79頁,2023年,2月20日,星期一網(wǎng)絡(luò)的學(xué)習(xí)過程是一種誤差邊向后傳播邊修正權(quán)系數(shù)的過程第5頁,共79頁,2023年,2月20日,星期一7.2.2BP網(wǎng)絡(luò)結(jié)構(gòu)BP神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)輸入層隱層輸出層輸入輸出第6頁,共79頁,2023年,2月20日,星期一BP網(wǎng)絡(luò)是一種多層前向神經(jīng)網(wǎng)絡(luò)一般分三層:輸入層,隱層,輸出層,也可以有2層或更多個隱層。層與層之間采用全互聯(lián)方式,同一層單元之間不存在相互連接。第7頁,共79頁,2023年,2月20日,星期一1)輸入層單元無轉(zhuǎn)換函數(shù),直接接收信號傳給下一層,所以有些書不認(rèn)為輸入層是一個網(wǎng)絡(luò)層。2)在一般情況下,均是在隱含層采用S型激活函數(shù),而輸出層采用線性激活函數(shù)?!瓁1x2xny1yp只有當(dāng)希望對網(wǎng)絡(luò)的輸出進行限制,如限制在0和1之間,那么則在輸出層包含S型激活函數(shù)第8頁,共79頁,2023年,2月20日,星期一BP網(wǎng)絡(luò)特點是多層網(wǎng)絡(luò),包括輸入層、隱層和輸出層層與層之間采用全互連方式,同一層神經(jīng)元之間不連接權(quán)值通過學(xué)習(xí)算法進行調(diào)節(jié)神經(jīng)元激發(fā)函數(shù)為S函數(shù)層與層的連接是單向的,信息傳播是雙向的第9頁,共79頁,2023年,2月20日,星期一感知機網(wǎng)絡(luò)利用輸出誤差只能修改最后一層的權(quán)值而BP網(wǎng)絡(luò)實現(xiàn)了多層學(xué)習(xí),每一層的權(quán)值均可訓(xùn)練學(xué)習(xí)修改。第10頁,共79頁,2023年,2月20日,星期一BP學(xué)習(xí)規(guī)則BP算法屬于δ算法,是一種監(jiān)督式的學(xué)習(xí)算法。第11頁,共79頁,2023年,2月20日,星期一其主要思想為:對于q個輸入學(xué)習(xí)樣本:
P1,P2,……Pq,已知與其對應(yīng)的輸出樣本為:
T1,T2,……Tq。學(xué)習(xí)的目的:是用網(wǎng)絡(luò)的實際輸出A1,A2,……Aq與目標(biāo)矢量T1,T2,……Tq之間的誤差來修改其權(quán)值使Al(l=l,2…,q)與期望的Tl盡可能地接近;即:使網(wǎng)絡(luò)輸出層的誤差平方和達(dá)到最小。第12頁,共79頁,2023年,2月20日,星期一BP算法的學(xué)習(xí)過程由
正向傳播和反向傳播組成第13頁,共79頁,2023年,2月20日,星期一BP算法是由兩部分組成:信息的正向傳遞與誤差的反向傳播。
在正向傳播過程中,輸入信息從輸入經(jīng)隱含層逐層計算傳向輸出層,每一層神經(jīng)元的狀態(tài)只影響下一層神經(jīng)元的狀態(tài)。
第14頁,共79頁,2023年,2月20日,星期一如果在輸出層沒有得到期望的輸出,則計算輸出層的誤差變化值,然后轉(zhuǎn)向反向傳播,通過網(wǎng)絡(luò)將誤差信號沿原來的連接通路反傳回來修改各層神經(jīng)元的權(quán)值直至達(dá)到期望目標(biāo)。第15頁,共79頁,2023年,2月20日,星期一BP網(wǎng)絡(luò)用途1)函數(shù)逼近:用輸入矢量和相應(yīng)的輸出矢量訓(xùn)練一個網(wǎng)絡(luò)逼近—個函數(shù);2)模式識別:用一個特定的輸出矢量將它與輸入矢量聯(lián)系起來;3)分類:把輸入矢量以所定義的合適方式進行分類;4)數(shù)據(jù)壓縮:減少輸出矢量維數(shù)以便于傳輸或存儲。第16頁,共79頁,2023年,2月20日,星期一BP網(wǎng)絡(luò)的逼近第17頁,共79頁,2023年,2月20日,星期一用于逼近的BP網(wǎng)絡(luò)第18頁,共79頁,2023年,2月20日,星期一前向傳播:計算網(wǎng)絡(luò)輸出輸出層輸出隱層輸出采用S函數(shù)隱層輸入:第19頁,共79頁,2023年,2月20日,星期一第20頁,共79頁,2023年,2月20日,星期一第21頁,共79頁,2023年,2月20日,星期一第22頁,共79頁,2023年,2月20日,星期一第23頁,共79頁,2023年,2月20日,星期一BP網(wǎng)絡(luò)逼近仿真Chap7_1.m第24頁,共79頁,2023年,2月20日,星期一設(shè)計的網(wǎng)絡(luò)結(jié)構(gòu)為2-6-1;權(quán)值w1,w2的初值取[-1,+1]之間的隨機值,取第25頁,共79頁,2023年,2月20日,星期一第26頁,共79頁,2023年,2月20日,星期一第27頁,共79頁,2023年,2月20日,星期一第28頁,共79頁,2023年,2月20日,星期一第29頁,共79頁,2023年,2月20日,星期一第30頁,共79頁,2023年,2月20日,星期一第31頁,共79頁,2023年,2月20日,星期一第32頁,共79頁,2023年,2月20日,星期一第33頁,共79頁,2023年,2月20日,星期一第34頁,共79頁,2023年,2月20日,星期一初始化加輸入和期望輸出計算隱層和輸出層的輸出迭代次數(shù)加1調(diào)節(jié)輸出層和隱層的連接權(quán)值改變訓(xùn)練樣板訓(xùn)練樣終止?迭代終止?BP算法的基本流程NoNoyy第35頁,共79頁,2023年,2月20日,星期一BP網(wǎng)絡(luò)模式識別一、由于神經(jīng)網(wǎng)絡(luò)具有自學(xué)習(xí)、自組織和并行處理等特征,并具有很強的容錯能力和聯(lián)想能力,因此,神經(jīng)網(wǎng)絡(luò)具有模式識別能力。在神經(jīng)網(wǎng)絡(luò)識別中,根據(jù)標(biāo)準(zhǔn)的輸入輸出模式對,采用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法,以標(biāo)準(zhǔn)的模式作為學(xué)習(xí)樣本進行訓(xùn)練,通過學(xué)習(xí)調(diào)整神經(jīng)網(wǎng)絡(luò)的連接權(quán)值。當(dāng)訓(xùn)練滿足要求后,得到知識庫,利用神經(jīng)網(wǎng)絡(luò)并行推理算法便可對所需的輸入模式進行識別。第36頁,共79頁,2023年,2月20日,星期一BP網(wǎng)絡(luò)的訓(xùn)練過程
為了訓(xùn)練一個BP網(wǎng)絡(luò),需要計算網(wǎng)絡(luò)加權(quán)輸入矢量以及網(wǎng)絡(luò)輸出和誤差矢量,然后求得誤差平方和。當(dāng)所訓(xùn)練矢量的誤差平方和小于誤差目標(biāo),訓(xùn)練則停止,否則在輸出層計算誤差變化,且采用反向傳播學(xué)習(xí)規(guī)則來調(diào)整權(quán)值,并重復(fù)此過程。當(dāng)網(wǎng)絡(luò)完成訓(xùn)練后,對網(wǎng)絡(luò)輸入一個不是訓(xùn)練集合中的矢量,網(wǎng)絡(luò)將給出輸出結(jié)果。第37頁,共79頁,2023年,2月20日,星期一
為了能夠較好地掌握BP網(wǎng)絡(luò)的訓(xùn)練過程,我們再用兩層網(wǎng)絡(luò)為例來敘述BP網(wǎng)絡(luò)的訓(xùn)練步驟。1)用小的隨機數(shù)對每一層的權(quán)值W初始化,以保證網(wǎng)絡(luò)不被大的加權(quán)輸入飽和;2)計算網(wǎng)絡(luò)各層輸出矢量A1和A2以及網(wǎng)絡(luò)誤差E第38頁,共79頁,2023年,2月20日,星期一3)計算各層反傳的誤差變化并計算各層權(quán)值的修正值以及新權(quán)值4)再次計算權(quán)值修正后誤差平方和:5)檢查誤差是否小于給定誤差,若是,訓(xùn)練結(jié)束;否則繼續(xù)。第39頁,共79頁,2023年,2月20日,星期一以上所有的學(xué)習(xí)規(guī)則與訓(xùn)練的全過程,仍然可以用函數(shù)trainbp.m來完成。它的使用同樣只需要定義有關(guān)參數(shù):顯示間隔次數(shù),最大循環(huán)次數(shù),目標(biāo)誤差,以及學(xué)習(xí)速率,而調(diào)用后返回訓(xùn)練后權(quán)值,循環(huán)總數(shù)和最終誤差:TP=[disp_freqmax_epocherr_goal1r];[W,B,epochs,errors]=trainbp(W,B,’F’,P,T,TP);第40頁,共79頁,2023年,2月20日,星期一基于BP算法的多層前饋網(wǎng)絡(luò)用圖像壓縮編碼Ackley和Hinton等人1985年提出了利用多層前饋神經(jīng)網(wǎng)絡(luò)的模式變換能力實現(xiàn)數(shù)據(jù)編碼的基本思想。其原理是,把一組輸入模式通過少量的隱層節(jié)點映射到一組輸出模式,并使輸出模式等同于輸入模式。當(dāng)中間隱層的節(jié)點數(shù)比輸入模式維數(shù)少時,就意味著隱層能更有效的表現(xiàn)輸入模式,并把這種表現(xiàn)傳給輸出層。在這個過程中,輸入層和隱層的變換可以看成是壓縮編碼的過程;而隱層和輸出層的變換可以看成是解碼過程。第41頁,共79頁,2023年,2月20日,星期一用多層前饋網(wǎng)實現(xiàn)圖像數(shù)據(jù)壓縮時,只需一個隱層,如圖原圖像nn重建圖像nn第42頁,共79頁,2023年,2月20日,星期一輸入層和輸出層均含有n*n個神經(jīng)元,每個神經(jīng)元對應(yīng)于n*n圖像分塊中的一個像素。隱層神經(jīng)元的數(shù)量由圖像壓縮比決定,如n=16時,取隱層神經(jīng)元數(shù)為m=8,則可將256像素的圖像塊壓縮為8像素。通過調(diào)整權(quán)值使訓(xùn)練集圖像的重建誤差達(dá)到最小。訓(xùn)練后的網(wǎng)絡(luò)就可以用來執(zhí)行圖像的數(shù)據(jù)壓縮任務(wù)了,此時隱層輸出向量便是數(shù)據(jù)壓縮結(jié)果,而輸出層的輸出向量便是圖像重建的結(jié)果。第43頁,共79頁,2023年,2月20日,星期一黑白圖像的邊緣檢測:第44頁,共79頁,2023年,2月20日,星期一分析BP網(wǎng)絡(luò)結(jié)構(gòu)特點:
1.BP網(wǎng)絡(luò)具有一層或多層隱含層,與其他網(wǎng)絡(luò)模型除了結(jié)構(gòu)不同外,主要差別表現(xiàn)在激活函數(shù)上。
BP網(wǎng)絡(luò)的設(shè)計第45頁,共79頁,2023年,2月20日,星期一2.BP網(wǎng)絡(luò)的激活函數(shù)必須是處處可微的,所以它就不能采用二值型的閥值函數(shù){0,1}或符號函數(shù){—1,1},BP網(wǎng)絡(luò)經(jīng)常使用的是S型的對數(shù)或正切激活函數(shù)和線性函數(shù)。第46頁,共79頁,2023年,2月20日,星期一3.只有當(dāng)希望對網(wǎng)絡(luò)的輸出進行限制,如限制在0和1之間,那么在輸出層應(yīng)當(dāng)包含S型激活函數(shù),在一般情況下,均是在隱含層采用S型激活函數(shù),而輸出層采用線性激活函數(shù)。第47頁,共79頁,2023年,2月20日,星期一4、輸入和輸出是并行的模擬量;5、網(wǎng)絡(luò)的輸入輸出關(guān)系是各層連接的權(quán)因子決定,沒有固定的算法;第48頁,共79頁,2023年,2月20日,星期一6、權(quán)因子是通過學(xué)習(xí)信號調(diào)節(jié)的,這樣學(xué)習(xí)越多,網(wǎng)絡(luò)越聰明;7、隱含層越多,網(wǎng)絡(luò)輸出精度越高,且個別權(quán)因子的損壞不會對網(wǎng)絡(luò)輸出產(chǎn)生大的影響第49頁,共79頁,2023年,2月20日,星期一BP網(wǎng)絡(luò)的設(shè)計1網(wǎng)絡(luò)的層數(shù):理論上已經(jīng)證明:具有偏差和至少一個S型隱含層加上一個線性輸出層的網(wǎng)絡(luò),能夠逼近任何有理函數(shù)。增加層數(shù)主要可以更進一步的降低誤差,提高精度,但同時也使網(wǎng)絡(luò)復(fù)雜化,從而增加了網(wǎng)絡(luò)權(quán)值的訓(xùn)練時間。一般情況下,應(yīng)優(yōu)先考慮增加隱含層中的神經(jīng)元數(shù)。能不能僅用具有非線性激活函數(shù)的單層網(wǎng)絡(luò)來解決問題呢?結(jié)論是:沒有必要或效果不好。第50頁,共79頁,2023年,2月20日,星期一2隱含層的神經(jīng)元數(shù)網(wǎng)絡(luò)訓(xùn)練精度的提高,可以通過采用一個隱含層,而增加其神經(jīng)元數(shù)的方法來獲得。這在結(jié)構(gòu)實現(xiàn)上,要比增加更多的隱含層要簡單得多。在具體設(shè)計時,比較實際的做法是通過對不同神經(jīng)元數(shù)進行訓(xùn)練對比,然后適當(dāng)?shù)丶由弦稽c余量。第51頁,共79頁,2023年,2月20日,星期一3)初始權(quán)值的選取一般取初始權(quán)值在(-1,1)之間的隨機數(shù)。在MATLAB工具箱中可采用函數(shù)initff.m來初始化權(quán)值閾值。由于每次訓(xùn)練時都對權(quán)值進行隨機初始化,所以每次訓(xùn)練得到的網(wǎng)絡(luò)權(quán)值都是不一樣的。第52頁,共79頁,2023年,2月20日,星期一4學(xué)習(xí)速率學(xué)習(xí)速率決定每一次循環(huán)訓(xùn)練中所產(chǎn)生的權(quán)值變化量。大的學(xué)習(xí)速率可能導(dǎo)致系統(tǒng)的不穩(wěn)定。小的學(xué)習(xí)速率導(dǎo)致較長的訓(xùn)練時間,可能收斂很慢,不過能保證網(wǎng)絡(luò)的誤差值不跳出誤差表面的低谷而最終趨于最小誤差值。所以在一般情況下,傾向于選取較小的學(xué)習(xí)速率以保證系統(tǒng)的穩(wěn)定性。學(xué)習(xí)速率的選取范圍在0.01—0.8之間。第53頁,共79頁,2023年,2月20日,星期一5期望誤差的選取在設(shè)計網(wǎng)絡(luò)的訓(xùn)練過程中,期望誤差值也應(yīng)當(dāng)通過對比訓(xùn)練后確定一個合適的值。這個所謂的“合適”,是相對于所需要的隱含層的節(jié)點數(shù)來確定,因為較小的期望誤差值是要靠增加隱含層的節(jié)點,以及訓(xùn)練時間來獲得的。一般情況下,作為對比,可以同時對兩個不同期望誤差值的網(wǎng)絡(luò)進行訓(xùn)練,最后通過綜合因素的考慮來確定采用其中一個網(wǎng)絡(luò)。第54頁,共79頁,2023年,2月20日,星期一BP網(wǎng)絡(luò)的局限與不足(1)需要較長的訓(xùn)練時間因為涉及到求導(dǎo)的運算,需要的時間較長(2)訓(xùn)練癱瘓問題通常為了避免這種現(xiàn)象的發(fā)生,一是選取較小的初始權(quán)值,二是采用較小的學(xué)習(xí)速率,但這又增加了訓(xùn)練時間。第55頁,共79頁,2023年,2月20日,星期一(3)局部極小值BP算法可以使網(wǎng)絡(luò)權(quán)值收斂到一個解,但它并不能保證所求為誤差超平面的全局最小解,很可能是一個局部極小解。WEW初始值不合適時,可能落入局部極小值。第56頁,共79頁,2023年,2月20日,星期一7.2.11反向傳播法的改進方法目標(biāo):為了加快訓(xùn)練速度,避免陷入局部極小值。1附加動量法附加動量法使網(wǎng)絡(luò)在修正其權(quán)值時,不僅考慮誤差在梯度上的作用,而且考慮在誤差曲面上變化趨勢的影響,其作用如同一個低通濾波器,它允許網(wǎng)絡(luò)忽略網(wǎng)絡(luò)上的微小變化特性。利用附加動量的作用則有可能滑過局部極小值。第57頁,共79頁,2023年,2月20日,星期一該方法是在反向傳播法的基礎(chǔ)上在每一個權(quán)值的變化上加上一項正比于前次權(quán)值變化量的值,并根據(jù)反向傳播法來產(chǎn)生新的權(quán)值變化。附加動量法的實質(zhì)是將最后一次權(quán)值變化的影響,通過一個動量因子來傳遞。當(dāng)動量因子取值為零時,權(quán)值的變化僅是根據(jù)梯度下降法產(chǎn)生;當(dāng)動量因子取值為1時,新的權(quán)值變化則是設(shè)置為最后一次權(quán)值的變化,而依梯度法產(chǎn)生的變化部分則被忽略掉了。第58頁,共79頁,2023年,2月20日,星期一2誤差函數(shù)的改進
包穆(Baum)等人于1988年提出一種誤差函數(shù)為:不會產(chǎn)生不能完全訓(xùn)練的癱瘓現(xiàn)象。
第59頁,共79頁,2023年,2月20日,星期一3自適應(yīng)學(xué)習(xí)速率
學(xué)習(xí)率η也稱步長,在標(biāo)準(zhǔn)BP算法中定為常數(shù),然而在實際應(yīng)用中,很難確定一個從始至終都合適的最佳學(xué)習(xí)率,從誤差曲面可以看出,平坦區(qū)域內(nèi)η太小會使訓(xùn)練次數(shù)增加而希望增大η值;而在誤差變化劇烈的區(qū)域,η太大會因調(diào)整量過大而跨過較宰的“坑凹”處,使訓(xùn)練出現(xiàn)振蕩,反而使迭代次數(shù)增加。為了加速收斂過程,一個較好的思路是自適應(yīng)改變學(xué)習(xí)率,使其該大時增大,該小時減小。第60頁,共79頁,2023年,2月20日,星期一通常調(diào)節(jié)學(xué)習(xí)速率的準(zhǔn)則是:檢查權(quán)值的修正值是否真正降低了誤差函數(shù),如果確實如此,則說明所選取的學(xué)習(xí)速率值小了,可以對其增加一個量;若不是這樣,而產(chǎn)生了過調(diào),那么就應(yīng)該減小學(xué)習(xí)速率的值。下式給出了一種自適應(yīng)學(xué)習(xí)速率的調(diào)整公式:MATLAB工具箱中帶有自適應(yīng)學(xué)習(xí)速率進行反向傳播訓(xùn)練的函數(shù)為:trainbpa.m。它可以訓(xùn)練直至三層網(wǎng)絡(luò)。使用方法為:[W,B,epochs,TE]=trainbpa(W,B,’F’,P,T,TP)第61頁,共79頁,2023年,2月20日,星期一可以將動量法和自適應(yīng)學(xué)習(xí)速率結(jié)合起來以利用兩方面的優(yōu)點。這個技術(shù)已編入了函數(shù)trainbpx.m之中。這個函數(shù)的調(diào)用和其他函數(shù)一樣,只是需要更多的初始參數(shù)而已:TP=[disp_freqmax_epocherror_goallr1r_inc1r_decmom_consterr_ratio];[W,B,epochs,[error;lr]]=trainbpx(W,B,F(xiàn),P,T,TP)第62頁,共79頁,2023年,2月20日,星期一本章小結(jié)1)反向傳播法可以用來訓(xùn)練具有可微激活函數(shù)的多層前向網(wǎng)絡(luò)以進行函數(shù)逼近,模式分類等工作;2)反向傳播網(wǎng)絡(luò)的結(jié)構(gòu)不完全受所要解決的問題所限制。網(wǎng)絡(luò)的輸入神經(jīng)元數(shù)目及輸出層神經(jīng)元的數(shù)目是由問題的要求所決定的,而輸入和輸出層之間的隱含層數(shù)以及每層的神經(jīng)元數(shù)是由設(shè)計者來決定的;3)已證明,兩層S型線性網(wǎng)絡(luò),如果S型層有足夠的神經(jīng)元,則能夠訓(xùn)練出任意輸入和輸出之間的有理函數(shù)關(guān)系;第63頁,共79頁,2023年,2月20日,星期一4)反向傳播法沿著誤差表面的梯度下降,使網(wǎng)絡(luò)誤差最小,網(wǎng)絡(luò)有可能陷入局部極小值;5)附加動量法使反向傳播減少了網(wǎng)絡(luò)在誤差表面陷入低谷的可能性并有助于減少訓(xùn)練時間;6)太大的學(xué)習(xí)速率導(dǎo)致學(xué)習(xí)的不穩(wěn)定,太小值又導(dǎo)致極長的訓(xùn)練時間。自適應(yīng)學(xué)習(xí)速率通過在保證穩(wěn)定訓(xùn)練的前提下,達(dá)到了合理的高速率,可以減少訓(xùn)練時間;7)80%—90%的實際應(yīng)用都是采用反向傳播網(wǎng)絡(luò)的。改進技術(shù)可以用來使反向傳播法更加容易實現(xiàn)并需要更少的訓(xùn)練時間。第64頁,共79頁,2023年,2月20日,星期一
1985年——Powell提出多變量插值的徑向基函數(shù)(RadialBasisFunction,RBF)方法;
1988年——Broomhead&Lowe將RBF應(yīng)用于神經(jīng)網(wǎng)絡(luò)7.3RBF神經(jīng)網(wǎng)絡(luò)第65頁,共79頁,2023年,2月20日,星期一RBF網(wǎng)絡(luò)——徑向基函數(shù)網(wǎng)絡(luò)(RadialBasisFunction,簡稱RBFNN)第66頁,共79頁,2023年,2月20日,星期一…………x1x2xny1yp輸入輸出是一種三層前饋網(wǎng)絡(luò)第67頁,共79頁,2023年,2月20日,星期一網(wǎng)絡(luò)特點:1)結(jié)構(gòu)相對簡單2)在參數(shù)(節(jié)點數(shù),μ,σ)選擇合適時,收斂速度快三層輸入層隱層——神經(jīng)元函數(shù)多采用高斯函數(shù)輸出層——線性神經(jīng)元函數(shù)第68頁,共79頁,2023年,2月20日,星期一構(gòu)成RBF網(wǎng)絡(luò)的基本思想:
1)用RBF作為隱單元的“基”構(gòu)成隱含層空間,將輸入矢量直接映射到隱空間(不通過權(quán)連接);
2)網(wǎng)絡(luò)輸出時隱單元輸出的線性加權(quán)和,(通過權(quán)連接可調(diào)參數(shù))輸入隱層輸出非線性線性(高斯核函數(shù))第69頁,共79頁,2023年,2月20日,星期一σc該激活函數(shù)具有局部感受能力,只有輸入落入某個范圍內(nèi),才有明顯輸出,不象BP,輸入在(-∞,+∞)均有輸出。第70頁,共79頁,2023年,2月20日,星期一隱含層節(jié)點核函數(shù)作用:
對輸入信號在局部產(chǎn)生響應(yīng)第71頁,共79頁,2023年,2月20日,星期一網(wǎng)絡(luò)輸出采用高斯基函數(shù)的優(yōu)點:1)表示形式簡單2)徑向?qū)ΨQ3)光滑性好,任意階導(dǎo)數(shù)存在4)便于進行理論分析第72頁,共79頁,2023年,2月20日,星期一學(xué)習(xí)過程分為兩個階段:第一階段——無教師學(xué)習(xí)(根
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年哈爾濱工程大學(xué)發(fā)展計劃處學(xué)科專業(yè)建設(shè)辦公室管理崗位招聘2人模擬試卷有完整答案詳解
- 2025貴陽學(xué)院人才引進15人模擬試卷及答案詳解(典優(yōu))
- 2025黑龍江雙鴨山市饒河縣招募就業(yè)見習(xí)單位及招聘見習(xí)人員668人考前自測高頻考點模擬試題及答案詳解(各地真題)
- 2025年河北石家莊協(xié)和醫(yī)學(xué)中等專業(yè)學(xué)校公開招聘教師20名模擬試卷帶答案詳解
- 2025國能包頭煤化工有限責(zé)任公司高校畢業(yè)生招聘人員模擬試卷及答案詳解(名校卷)
- 2025福建漳州市醫(yī)院臨時聘用人員(第二批)考前自測高頻考點模擬試題附答案詳解(黃金題型)
- 2025江西南昌市勞動保障事務(wù)代理中心招聘外包人員1名考前自測高頻考點模擬試題及參考答案詳解
- 2025年龍巖市供電服務(wù)有限公司招聘59人考前自測高頻考點模擬試題及一套答案詳解
- 2025湖北恩施州巴東縣信陵鎮(zhèn)人民政府公益性崗位人員招聘8人考前自測高頻考點模擬試題附答案詳解(完整版)
- 2025廣西百色市平果市民政局公益性崗位人員招聘1人考前自測高頻考點模擬試題附答案詳解(突破訓(xùn)練)
- 火龍罐聯(lián)合耳穴壓豆治療失眠個案護理
- 天津2021年高一外研版英語單詞必修一默寫版
- 2023麻醉科導(dǎo)管相關(guān)性血流感染預(yù)防專家共識
- 黑龍江省道外區(qū)2023年中考二模語文試卷【含答案】
- 中國傳統(tǒng)文化考試復(fù)習(xí)題庫(帶答案)
- 食品分析實驗報告
- 晉升管理制度完整版
- 醫(yī)院結(jié)核菌素試驗結(jié)果報告單
- 體育館場地使用申請表(羽毛球館、乒乓球館、籃球館、多功能廳、瑜伽館)
- 廣西普通高中2023屆高三摸底測試數(shù)學(xué)(理)試題
- 2023年新高考模擬考試英語試卷(共18份)(含答案)
評論
0/150
提交評論