【充電樁故障診斷的卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建與優(yōu)化11000字(論文)】_第1頁(yè)
【充電樁故障診斷的卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建與優(yōu)化11000字(論文)】_第2頁(yè)
【充電樁故障診斷的卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建與優(yōu)化11000字(論文)】_第3頁(yè)
【充電樁故障診斷的卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建與優(yōu)化11000字(論文)】_第4頁(yè)
【充電樁故障診斷的卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建與優(yōu)化11000字(論文)】_第5頁(yè)
已閱讀5頁(yè),還剩35頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1第一章緒論以選擇到能正常使用的充電樁,工作人員可以及時(shí)對(duì)出現(xiàn)故障的充電樁進(jìn)行維近十幾年來(lái),電動(dòng)汽車發(fā)展很快,通過(guò)這些細(xì)節(jié)表速建設(shè)和應(yīng)用。國(guó)務(wù)院辦公廳早在2015年就發(fā)布了有關(guān)充電樁設(shè)施建設(shè)的指導(dǎo)電動(dòng)汽車已經(jīng)成為世界各國(guó)發(fā)展的一個(gè)重要方向。目前,美國(guó)有超過(guò)25000個(gè)充電站和76000個(gè)充電樁,其中公共充電樁超過(guò)70%,充電基礎(chǔ)設(shè)施基本上覆充電樁相關(guān)領(lǐng)域帶來(lái)了深刻的突破性影響,這對(duì)于今眾所周知,在語(yǔ)音識(shí)別、圖像處理和其他領(lǐng)域,深度學(xué)習(xí)已有成功應(yīng)用的實(shí)2的故障研究等。機(jī)械、設(shè)備的故障診斷或者分析,在現(xiàn)實(shí)應(yīng)用中影響巨大,可以及時(shí)判斷故障源頭、故障位置,甚至可以提出相應(yīng)的解決方案,為人們生活或者工業(yè)生產(chǎn)減少損失。第二章相關(guān)背景知識(shí)互聯(lián)網(wǎng)快速發(fā)展,海量數(shù)據(jù)無(wú)處不在。對(duì)大量數(shù)據(jù)進(jìn)行處理和分析計(jì)算的要求不斷提高,深度學(xué)習(xí)理論及其實(shí)踐研究受到前所未有的關(guān)注和發(fā)展,已成為一個(gè)重要的學(xué)習(xí)算法(林浩然,吳志明,2020)。提取輸入數(shù)據(jù)的特征,分層抽取,使用激活函數(shù)實(shí)現(xiàn)自動(dòng)提取。如今,可以不再依賴人工特征提取,取得模式識(shí)別領(lǐng)域的重大突破,如自然語(yǔ)言處理,計(jì)算機(jī)視覺(jué)等。深度學(xué)習(xí)的“學(xué)習(xí)”,主要是指學(xué)習(xí)數(shù)據(jù)的有用表示,尋找數(shù)據(jù)的內(nèi)部結(jié)構(gòu),發(fā)現(xiàn)變量之間的內(nèi)在關(guān)系。這在一定程度上確認(rèn)了已有研究證明,使用不用的數(shù)據(jù)表現(xiàn)方式,對(duì)結(jié)果會(huì)有不一樣的影響(唐子凡,何悅彤,2019)。良好的數(shù)據(jù)表示可以降低輸入數(shù)據(jù)中無(wú)關(guān)因素的影響,保留學(xué)習(xí)需要的有關(guān)因素。目前,深度學(xué)習(xí)正處在一個(gè)快速發(fā)展的階段。CNN是深度學(xué)習(xí)領(lǐng)域的重要結(jié)構(gòu)之一,提取特征是其主要特點(diǎn),由早期的尺度不變特征轉(zhuǎn)變(ScaleHOG),演化發(fā)展到現(xiàn)在。卷積神經(jīng)網(wǎng)絡(luò)的研究始于20世紀(jì)80、90年代,21世紀(jì)以后,深度學(xué)習(xí)理論不斷提出和研究、數(shù)字計(jì)算設(shè)備得到巨大改進(jìn)和優(yōu)化,這在一定范圍內(nèi)顯示了卷積網(wǎng)絡(luò)進(jìn)入告訴發(fā)展的時(shí)期(趙俊杰,王欣怡,2023)。對(duì)于這一部分的創(chuàng)作借鑒了章和寧教授的相關(guān)主題的研究,主要體現(xiàn)在思路和手法方面,在思路上遵循了其強(qiáng)調(diào)的系統(tǒng)性與邏輯性的原則。CNN有兩大獨(dú)特優(yōu)點(diǎn):局部連接和權(quán)值共享,研究模式識(shí)別領(lǐng)域具有重要意義。作為典型的前饋神經(jīng)網(wǎng)絡(luò),CNN的本質(zhì)是構(gòu)造用于提取數(shù)據(jù)特征的多個(gè)卷積核。利用卷積核、卷積運(yùn)算和池化操作,這在某種程度上表征提取隱藏在數(shù)據(jù)中的拓?fù)涮卣?。采用分層網(wǎng)絡(luò)結(jié)構(gòu),將提取的特征逐步抽象化,最終得到輸入數(shù)據(jù)的特征表示。CNN主要特點(diǎn)是稀疏連接、權(quán)值共享、空間或時(shí)間采樣的組合。3變性,因此CNN十分適合處理和學(xué)習(xí)海量數(shù)據(jù)。卷積神經(jīng)網(wǎng)絡(luò)的描述如圖2-1式(2-1)所示,離散定義如公式(2-2)所示(孫藝博,陳可欣,2020)。公式(2-1)公式(2-2)卷積操作就是“循環(huán)乘積與相加”。設(shè):信號(hào)a:[134987],信號(hào)b:[2463],卷積:a*b。卷積運(yùn)算過(guò)程如圖2-2所示:4操作流程圖如下:C(1)2x1=2(2)tx4+2x3=10(4)1x3+3x6+4x4+2x9=55(5)3x3+4x6+9x4+8x2=85(6)4x3+9x6+8x4+7×2=112他勝負(fù)55開(kāi)(3)7x3-21←(1)輸入層(InputLayer):將數(shù)據(jù)統(tǒng)一預(yù)處理,得到想要的數(shù)據(jù)輸入形式,(2)卷積層(ConvolutionLayer):通過(guò)卷積運(yùn)算提取數(shù)據(jù)的局部特征,送入池化層繼續(xù)篩選和過(guò)濾。卷積運(yùn)算的主要目的是提高原始信號(hào)的特性,減少噪(3)池化層(PoolingLayer):降維處理,過(guò)濾掉不重要的特征,實(shí)現(xiàn)參數(shù)數(shù)量減少,提高計(jì)算速度和模型的容錯(cuò)性,降低過(guò)擬合程度,為了獲得更具有代表性的特征;(4)全連接層(FullConnectedLayer):將處理后的極具代表性的抽象化特征整合起來(lái),即對(duì)生成的特征進(jìn)行加權(quán);(5)輸出層(OutputLayer):輸出模型的預(yù)測(cè)結(jié)果。如圖2-3所示:2.3數(shù)據(jù)預(yù)處理5一般情況下,數(shù)據(jù)可能會(huì)出現(xiàn)不完整的、標(biāo)注不統(tǒng)一、缺漏等情況,這時(shí)就需要對(duì)即將要輸入到卷積神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)進(jìn)行預(yù)處理,在這種氛圍中使得數(shù)據(jù)在一個(gè)統(tǒng)一的標(biāo)準(zhǔn)下,以便后面使用模型對(duì)數(shù)據(jù)進(jìn)行處理和使用,有時(shí)可加快程序運(yùn)行過(guò)程的收斂速度。這種雙重視角不僅促進(jìn)了對(duì)研究對(duì)象內(nèi)部運(yùn)作的理解,也為解決實(shí)際問(wèn)題提出了更具針對(duì)性的方法。輸入數(shù)據(jù)是否經(jīng)過(guò)預(yù)處理,對(duì)網(wǎng)絡(luò)的收斂和訓(xùn)練速度有直接影響(王文博,蔡佳霖,2022)。因此,不管是訓(xùn)練集還是驗(yàn)證集,或是測(cè)試集,數(shù)據(jù)輸入前,都必須進(jìn)行預(yù)處理。(1)零均值化(中心化):常用于圖片處理。處理每個(gè)訓(xùn)練數(shù)據(jù)的特征,減去特征均值。也就表示,在這類條件當(dāng)中把數(shù)據(jù)中各個(gè)維度中心向零調(diào)整了。在幾何平面上的顯示效果是,將數(shù)據(jù)的中心移到坐標(biāo)原點(diǎn)。(2)數(shù)據(jù)歸一化(又稱標(biāo)準(zhǔn)化):把需要處理的數(shù)據(jù)按照一定比例縮放,最后落在的一定范圍內(nèi)。常用的兩種操作是減去數(shù)據(jù)的均值和除于標(biāo)準(zhǔn)差。(3)白化:用每個(gè)特征軸上的數(shù)據(jù)除以相應(yīng)的特征值,從而達(dá)到歸一化幅度的目標(biāo)。2.4幾種評(píng)估指標(biāo)混淆矩陣(ConfusionMatrix),別名錯(cuò)誤矩陣,它是一種常用的分類輔助工具,能直觀地查看數(shù)據(jù)在模型中的分布。處于這種狀況下混淆矩陣由兩個(gè)維度構(gòu)成,一個(gè)維度表示預(yù)測(cè)的類別,另一個(gè)表示實(shí)際的類別(楊柏林,范婷婷,2023)。本文中的數(shù)據(jù)處理技巧對(duì)比早期的方法而言,更加簡(jiǎn)潔高效。采用了更為簡(jiǎn)化的預(yù)處理程序,這一程序去除了不必須的轉(zhuǎn)換步驟,優(yōu)化了數(shù)據(jù)清理和歸一化過(guò)程,從而極大提高了處理效率。如下表2-1所示:實(shí)際為正樣本實(shí)際為負(fù)樣本兩個(gè)維度下可交織形成四種情況:(1)實(shí)際是正樣,預(yù)測(cè)也是正樣:TruePositive(TP);(2)實(shí)際是正樣,而預(yù)測(cè)是負(fù)樣:FalseNegative(FN);6預(yù)期結(jié)果與實(shí)際結(jié)果相同則稱為真True,預(yù)測(cè)結(jié)果與實(shí)際結(jié)果不同則稱為假2.4.2準(zhǔn)確率設(shè)計(jì),以期實(shí)現(xiàn)更深入的理解和更廣泛的應(yīng)用價(jià)值。準(zhǔn)確率的計(jì)算公式如公式 (2-3)所示:公式(2-3)2.4.3精確度比情況11]。精確度的計(jì)算公式如公式(2-4)所示:公式(2-4)2.4.4召回率公式(2-5)F1Score是一個(gè)綜合精確度和召回率的指標(biāo)。F1值的計(jì)算公式如公式(2-6)7公式(2-6)2.5本章小結(jié)近幾年來(lái),將深度學(xué)習(xí)算法應(yīng)用于實(shí)際生產(chǎn)和人們多,從這些細(xì)節(jié)中可以看出第一小節(jié)介紹了深度學(xué)習(xí)的研究現(xiàn)狀和成功應(yīng)用領(lǐng)域。緊接著,第二小節(jié)闡述了CNN、一維卷積運(yùn)算、卷積網(wǎng)絡(luò)一般結(jié)構(gòu)。本章算公式。8第三章整體設(shè)計(jì)介紹少的準(zhǔn)備就是設(shè)計(jì)基本模塊,在這樣的背景下方便統(tǒng)一規(guī)劃整體思路和過(guò)程模調(diào)整、驗(yàn)證集驗(yàn)證、測(cè)試集測(cè)試。如圖3-1模塊流程所示(孫嘉祺,張浩辰,2023):數(shù)據(jù)預(yù)處理加載數(shù)據(jù)采集調(diào)整優(yōu)化驗(yàn)證模塊結(jié)果評(píng)估圖3-1模塊流程整體的設(shè)計(jì)結(jié)構(gòu)如圖3-2整體設(shè)計(jì)結(jié)構(gòu)所示:數(shù)據(jù)測(cè)試數(shù)據(jù)收集結(jié)果評(píng)價(jià)參數(shù)調(diào)整數(shù)據(jù)集劃分卷積網(wǎng)絡(luò)構(gòu)建參數(shù)初始化數(shù)據(jù)預(yù)處理驗(yàn)證模型訓(xùn)練模型9PyTorch是近年來(lái)最受歡迎的使用框架之一,前身是Torch,是一個(gè)開(kāi)源的深(1)良好的靈活性,支持動(dòng)態(tài)計(jì)算圖;(2)易用,近于傻瓜式操作,很實(shí)用;(3)有非常詳盡清楚的官方指南。3.4卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建所以,在輸入層時(shí)就需要將訓(xùn)練的數(shù)據(jù)映射到激活函數(shù)的值域(韓思源,張文據(jù)計(jì)算量14]。可以將卷積理解為一個(gè)函數(shù),確定輸入數(shù)據(jù)和卷積核,經(jīng)過(guò)一定一維卷積的輸入是1個(gè)向量和卷積核,某種程度看出輸出是1個(gè)向量。一般情況,卷積核長(zhǎng)度要小于輸入向量。卷積核的大小一般為奇數(shù)*奇數(shù),主要原因樣。具體舉例:假設(shè)輸入為4*4,要求輸出也是4*4。借助實(shí)證分析、案例分析素及其作用機(jī)理。當(dāng)卷積核為3*3時(shí),填充即在輸入數(shù)據(jù)的四周增添1層;而當(dāng)卷積核為2*2時(shí),填充即在輸入數(shù)據(jù)的兩邊增添1層。如圖3-3所示,左圖是卷積核為奇數(shù)的填充情況,右圖是卷積核為偶數(shù)的填充情況,其中黃色區(qū)域代表3*3或者2*2的卷積核,從這些對(duì)話中看出綠色區(qū)域代表4*4的原始尺寸(有部分與黃色重疊),藍(lán)色為填充區(qū)域(有部分與黃色重疊)(魏弘宇,鄧彥霖,2022(2)易于確定卷積錨點(diǎn)。從這些跡象表明卷積操作時(shí),通常把卷積核的中心當(dāng)為基準(zhǔn)。奇數(shù)比較好確定卷積核的中心,若是偶數(shù)就不好確定了。卷積層的下一層就是池化層,這一層的主要作用是減少冗余信息,提高模型的不變性,防止模型出現(xiàn)過(guò)擬合。目前主要有兩種池化方法:平均法(MeanPooling)和最大法(MaxPooling)(周子安,馬若彤,2021)。平均池化法的前向傳播是指,這在一定程度上展現(xiàn)了對(duì)區(qū)域內(nèi)數(shù)據(jù)將其均值傳給下一層,如圖3-4所示;而反向傳播是指,將數(shù)據(jù)平均化分給前一層,如圖3-5所示,并且平均池化前后梯度之和不變。2411243322331311反向傳播最大值池化是最常見(jiàn)、使用最多的池化方法。最大池化提取了最大值,同時(shí)也滿足梯度之和不變的要求(李俊凱,王佳琪,2021)。通過(guò)這些細(xì)節(jié)表明它的向前傳播是將區(qū)域中的最大值傳給下一層15];反向傳播是將值傳給前一層的某一特定位置,這個(gè)特定位置也就是前向傳播時(shí)此最大值所在的位置,其余位置用“0”補(bǔ)充。在設(shè)計(jì)優(yōu)化的過(guò)程中,本文特別關(guān)注了經(jīng)濟(jì)合理性與方案的可復(fù)制性,相較于原始規(guī)劃,在多個(gè)方面進(jìn)行了細(xì)致的改良與提升。222332433241113114341圖3-6最大池化的前向傳播0000反向傳播圖3-7最大值池化的反向傳播全連接層(FC),一般會(huì)放在網(wǎng)絡(luò)的末尾,整合卷積后輸出的高抽象性特征,不同分類結(jié)果會(huì)有不同的概率,F(xiàn)C起到分類器的作用,依據(jù)此理論框架進(jìn)行全面分析可獲知結(jié)果依照概率進(jìn)行分類[16]。本章主要介紹了此次實(shí)驗(yàn)構(gòu)建的分析模型的整體設(shè)計(jì)。第一小節(jié)描述了此次實(shí)驗(yàn)的需求,包括數(shù)據(jù)預(yù)處理、卷積神經(jīng)網(wǎng)絡(luò)建立、訓(xùn)練過(guò)程建立、參數(shù)調(diào)整、測(cè)試集測(cè)試等,并以圖3-1展示需要完成的過(guò)程。這些研究設(shè)想與探索領(lǐng)域不僅立足于對(duì)當(dāng)前狀況的深刻洞察,還結(jié)合了領(lǐng)域內(nèi)的最新發(fā)展與未來(lái)預(yù)測(cè),旨在探索未知地帶、解決現(xiàn)實(shí)問(wèn)題并推動(dòng)學(xué)術(shù)進(jìn)步。在第二小節(jié)中,則以流程圖的形式完整的展示此實(shí)驗(yàn)整體設(shè)計(jì)結(jié)構(gòu)和結(jié)果評(píng)估輸出。第三小節(jié)重點(diǎn)介紹卷積神經(jīng)網(wǎng)絡(luò)的構(gòu)建,輔以圖表形式,分別介紹了各層次的功能和作用。CNN除了包括輸入層、卷積層、池化層、全連接層、輸出層[12],還有激發(fā)層、正則化層等等。卷積層是CNN的核心層。torch.nn.Module類的內(nèi)部有超過(guò)40個(gè)的函數(shù),是PyTorch中所有neuralnetworkmodule的基類。定義卷積網(wǎng)絡(luò)時(shí),要繼承這個(gè)類,并重新構(gòu)造init和forward。_init中主要是初始化一些層;forward則是實(shí)現(xiàn)層與層的連接。利用classtorch.nn.Convld()對(duì)卷積網(wǎng)絡(luò)進(jìn)行定義,根據(jù)需要對(duì)層數(shù)和相應(yīng)參數(shù)進(jìn)行設(shè)置,各參數(shù)含義如表4-2介紹所示:表4-2Conv1d()參數(shù)介紹卷積過(guò)程可能會(huì)出現(xiàn)數(shù)據(jù)維度不一致的結(jié)果,在這種布局里這時(shí)可能要對(duì)數(shù)據(jù)進(jìn)行歸一化,使每一層的輸入保持相同的分布[18],可利用nn.BatchNormld()對(duì)輸入進(jìn)行批標(biāo)準(zhǔn)化操作,從而獲得想要的數(shù)據(jù)分布(陳梓萱,王俊熙,2022)。這一發(fā)現(xiàn)不僅增強(qiáng)了本文對(duì)該領(lǐng)域知識(shí)體系的信心,還為跨學(xué)科合作提供了共識(shí)基卷積層不包含激活函數(shù),需要定義激活函數(shù),其作用是能在神經(jīng)網(wǎng)絡(luò)中加入一些非線性因子,使其能較好地解決較復(fù)雜的問(wèn)題。從這些程序可以發(fā)現(xiàn)激活函數(shù)最終決定了要發(fā)射給下一個(gè)節(jié)點(diǎn)的內(nèi)容,定義了該節(jié)點(diǎn)在給定的輸入或輸入集合下的輸出。激活函數(shù)應(yīng)該具有的性質(zhì)如圖4-1所示(李浩然,張子和,2022):性質(zhì)原因非線性線性激活層不起作用范圍最好不飽和當(dāng)有飽和的區(qū)間段時(shí),若系統(tǒng)優(yōu)化進(jìn)入到該段,梯度當(dāng)激活函數(shù)是單調(diào)時(shí),單層神經(jīng)網(wǎng)絡(luò)的誤差函數(shù)是凸的,好優(yōu)化習(xí),而不必調(diào)整網(wǎng)絡(luò)的初值目前常用的激活函數(shù)都只有圖4-1中的某幾個(gè)特性,無(wú)一具有全部特征。目前流行的激活函數(shù)一一線性整流函數(shù)(ReLU),它的取值區(qū)間為(0,+∞)。在數(shù)學(xué)學(xué)科中,ReLU激活函數(shù)指的是斜坡函數(shù),這些相似性不僅體即公式(4-1),圖像如圖4-1所示。使用ReLU后,輸入向量a,從這些措施中看出會(huì)輸出max(0,WTa+b)到下一層。ReLU激活函數(shù)的優(yōu)缺點(diǎn)總結(jié)如圖4-3所示公式(4-1)f(v)=0y優(yōu)點(diǎn)缺點(diǎn)反向傳播時(shí),可以避免梯度消失依存關(guān)系,緩解了過(guò)擬合問(wèn)題的發(fā)生左側(cè)神經(jīng)元為0,導(dǎo)致神經(jīng)元死亡,不再更新求導(dǎo)相對(duì)簡(jiǎn)單在這等場(chǎng)景中如果建立的學(xué)習(xí)模型在訓(xùn)練樣本上表現(xiàn)過(guò)用價(jià)值。常見(jiàn)的解決過(guò)擬合的一種方法是Dropout,其原理是讓網(wǎng)絡(luò)中的一些神經(jīng)元隨機(jī)停止工作(如圖3-3所示),從而達(dá)到簡(jiǎn)化的過(guò)程。4.3訓(xùn)練過(guò)程一般訓(xùn)練過(guò)程為:第一步:網(wǎng)絡(luò)的權(quán)值初始化;第二步:數(shù)據(jù)經(jīng)過(guò)卷積層、下采樣層、全連接層的向前傳播得到輸出值[54];第三步:求出網(wǎng)絡(luò)的輸出值與目標(biāo)值之間的誤差;第四步:誤差大于期望值時(shí),會(huì)把誤差傳回網(wǎng)絡(luò);否則,結(jié)束訓(xùn)練。第五步:利用誤差值進(jìn)行權(quán)值更新。重新回到第二步。初始化初始化偏量是否在容迕范圍內(nèi)?是否一誤差傳輸過(guò)程為:首先,求出網(wǎng)絡(luò)總誤差δ(x),即返回值與目標(biāo)值的差值。再誤差的來(lái)源是多樣的、不定性的,例如,在網(wǎng)絡(luò)總誤差δ(x)的計(jì)算如公式(4-2)所示,其中:x表示輸出層,a(x)表示δ(x)=-(y-a(x))*f(Z(x))公式(4-2)權(quán)值更新過(guò)程如下:混淆矩陣作為卷積核,對(duì)卷積核輸陣[20]。本章主要闡述了實(shí)驗(yàn)中的一些局部設(shè)計(jì)處理內(nèi)容數(shù)定義情況,包涵了Conv1d()、ReLU激活函數(shù)、dropout等。第三小節(jié)主要介第五章實(shí)驗(yàn)與結(jié)果分析5.1運(yùn)行環(huán)境和編程語(yǔ)言本實(shí)驗(yàn)是在PyTorch框架下進(jìn)行的,在PyCharm平臺(tái)上使用Python語(yǔ)言進(jìn)行程序編寫和調(diào)試運(yùn)行,代碼格式依照PyCharm平臺(tái)的規(guī)范。anaconda的安裝包,用來(lái)管理工作環(huán)境。通過(guò)這些細(xì)節(jié)表明在AnacondaPrompt窗□新建一個(gè)pytorch環(huán)境,激活此環(huán)境。在PyTorch官網(wǎng)上選擇合適的下載安進(jìn)行處理同時(shí)進(jìn)行了敏感性分析,以評(píng)估研究結(jié)果對(duì)PyCharm導(dǎo)入:在PyCharm中新建一個(gè)項(xiàng)目,將Python解釋器更改為已經(jīng)搭建好的pytorch環(huán)境,即可編譯使用。5.2數(shù)據(jù)集采集本文采用的實(shí)驗(yàn)數(shù)據(jù)來(lái)源是百度點(diǎn)石中“充電樁據(jù)集,可直接從網(wǎng)上下載數(shù)據(jù)集csv文件到本地。5.3實(shí)驗(yàn)結(jié)果分析如圖5-1所示的混淆矩陣,是由兩個(gè)維度構(gòu)成,一個(gè)維度“Prer通過(guò)混淆矩陣可知,這無(wú)疑地揭示了本質(zhì)本次輸入數(shù)據(jù)共有17100條,其中實(shí)際標(biāo)簽值為“0”的有8449條,分析正確的有7597條,852條分析錯(cuò)誤;實(shí)際標(biāo)簽值為“1”的共有8651條,分析正確的有7659條,剩余的992條分析錯(cuò)誤。準(zhǔn)確率(Acc)可以直接運(yùn)用本文公式(2-3)計(jì)算得到的,但是精確度、召回precision_score()、recall()、f1_score()中的參數(shù)“average”。實(shí)驗(yàn)中設(shè)置average=macro,計(jì)算二分類metrics的均值,某種程度看出給每個(gè)類相同權(quán)重的分值。因而得到的結(jié)果分別為:precision=0.8998,recall=0.8922,f1_score=0.8922。圖5-1實(shí)驗(yàn)測(cè)試得到的混淆矩陣P和N的計(jì)算如公式(5-1)和公式(5-2)所示(劉志宏,李昊天,2022)。公式(5-1)公式(5-2)這在某種程度上印證了受試者工作特征曲線(ROC),是一個(gè)基于混淆矩陣得出的圖表。該曲線的橫坐標(biāo)為假陽(yáng)性率(FalsePositiveRate,FPR),如公式(5-3)所示;縱坐標(biāo)為真陽(yáng)性率(TruePositiveRate,TPR),如公式(5-4)所示。公式(5-3)公式(5-4)越低,ROC曲線表現(xiàn)得越陡峭,這在一定程度上確認(rèn)了說(shuō)明模型越接近最佳情況(陳雨彤,周曉琳,2022)。在ROC曲線圖像上的表現(xiàn)為,越靠近坐標(biāo)點(diǎn)(0,1)的情況越好。在研究策略上,本文展示了獨(dú)特的方法論視角,創(chuàng)造性地融合了多種學(xué)科的研究方法。在理論層面,通過(guò)整合不同理論體系的內(nèi)容,構(gòu)建了一個(gè)更為綜合的理論框架。ROC定量分析:將ROC曲線沿著橫坐標(biāo)軸做積分,得到的面積大小,即為AUC值的概念,AUC的通用判斷標(biāo)準(zhǔn)如表5-1所示。這在一定范圍內(nèi)顯示了由表可知,AUC的值越大,說(shuō)明模型的性能越好(鄧雅婷,朱晨曦,2021)。在這一基礎(chǔ)上,結(jié)合研究主題,精心制定了科學(xué)合理的研究方案,包含數(shù)據(jù)收集方式、樣本選取標(biāo)準(zhǔn)以及分析體系。本實(shí)驗(yàn)?zāi)P偷玫降腞OC曲線如圖5-2所示,其中藍(lán)色線段為此次實(shí)驗(yàn)得到的實(shí)際TPR與FPR的比值情況,紅色虛線無(wú)論實(shí)際樣本為正或?yàn)樨?fù),預(yù)測(cè)為正和為負(fù)的概率都是0.5。這在某種程度上表征此實(shí)驗(yàn)得到的AUC值為0.8917,說(shuō)明此模型的性能較好。AUC數(shù)值范圍模型性能效果較低,可用于預(yù)測(cè)股票效果一般效果很好效果非常好,但一般不太可能5.4本章小結(jié)本章節(jié)主要闡述了實(shí)驗(yàn)的運(yùn)行環(huán)境、數(shù)據(jù)采集方小節(jié)介紹了PyTorch環(huán)境的搭建和PyCharm的使用。第二小節(jié)介紹了本實(shí)驗(yàn)所用價(jià)指標(biāo)情況,以及實(shí)驗(yàn)的ROC曲線情況,從而判斷該模型的有效性情況。故障診斷分析問(wèn)題主要基于對(duì)大量數(shù)據(jù)進(jìn)行處理和學(xué)習(xí),在有新的樣本數(shù)據(jù)輸入時(shí),希望可以輸出正確的預(yù)測(cè)結(jié)果。而卷積神經(jīng)網(wǎng)絡(luò)能夠利用卷積核對(duì)輸入數(shù)據(jù)進(jìn)行卷積池化,這在某種程度上指出提取出數(shù)據(jù)中的結(jié)構(gòu)特征,其權(quán)值共享的特性也可以有效地避免過(guò)擬合。在數(shù)據(jù)收集時(shí),本文采用多種數(shù)據(jù)來(lái)源渠道,實(shí)現(xiàn)數(shù)據(jù)的相互補(bǔ)充與驗(yàn)證,同時(shí)依據(jù)標(biāo)準(zhǔn)化的操作流程,減少數(shù)據(jù)采集中的主觀錯(cuò)誤。因此,CNN可以在深度學(xué)習(xí)故障診斷領(lǐng)域中發(fā)揮極大的作用。本實(shí)驗(yàn)旨在使用CNN模型,通過(guò)對(duì)充電樁故障的數(shù)據(jù)集進(jìn)行模型訓(xùn)練,希望得到一個(gè)可以盡量準(zhǔn)確的關(guān)于某充電樁是否能正常使用的結(jié)果。經(jīng)實(shí)驗(yàn)可知,17100條數(shù)據(jù)的測(cè)試集經(jīng)過(guò)模型分析,可以得到準(zhǔn)確率大約在88%的結(jié)果,表明此模型具有良好的可靠性。[1]袁鴻濤.純電動(dòng)汽車電控系統(tǒng)專利預(yù)警分析[D].景德鎮(zhèn)陶瓷大學(xué),2019.[3]YuXin,ShunmingLi,JinruiWang,ZenghuiAnmulti-objectdeepCNN[J].IETScience,Measurement&Technology,2020,14(4).[4]王俊鵬,劉一凡.基于一維卷積神經(jīng)網(wǎng)絡(luò)的滾動(dòng)軸承

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論