基于U-Net網(wǎng)絡的醫(yī)學圖像分割方法研究_第1頁
基于U-Net網(wǎng)絡的醫(yī)學圖像分割方法研究_第2頁
基于U-Net網(wǎng)絡的醫(yī)學圖像分割方法研究_第3頁
基于U-Net網(wǎng)絡的醫(yī)學圖像分割方法研究_第4頁
基于U-Net網(wǎng)絡的醫(yī)學圖像分割方法研究_第5頁
已閱讀5頁,還剩29頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

目錄TOC\o"1-2"\h\u17310目錄 129584基于U-Net網(wǎng)絡的醫(yī)學圖像分割方法研究 28473摘要 227287Abstract 314655第一章緒論 3101241.1研究背景及意義 3314261.2國內(nèi)外研究現(xiàn)狀 4245711.3主要研究內(nèi)容 7102901.4組織結(jié)構(gòu) 727291第二章相關(guān)理論基礎 925992.1神經(jīng)網(wǎng)絡基本概念 939312.2卷積神經(jīng)網(wǎng)絡 9193682.3本章小結(jié) 133251第三章基于U-Net網(wǎng)絡的改進模型研究 1468343.1U-Net模型系列 1493473.2改進的U-Net網(wǎng)絡結(jié)構(gòu) 16138403.3數(shù)據(jù)集介紹和預處理 22217833.4實驗分析 2468863.5本章小結(jié) 2818174第四章肝臟分割可視化系統(tǒng) 29224254.1系統(tǒng)架構(gòu) 29324654.2系統(tǒng)設計 29304624.3本章小結(jié) 326699第五章結(jié)論與展望 33199555.1結(jié)論 33228765.2展望 331745參考文獻 34916致謝 36基于U-Net網(wǎng)絡的醫(yī)學圖像分割方法研究摘要:醫(yī)學圖像分割是醫(yī)學圖像處理領(lǐng)域中不可缺少的步驟,隨著深度學習技術(shù)的不斷進步,醫(yī)學圖像分割技術(shù)取得了巨大突破。U-Net網(wǎng)絡是較為主流且分割表現(xiàn)良好的醫(yī)學圖像分割網(wǎng)絡具有結(jié)構(gòu)簡單明了,參數(shù)量相對較少等優(yōu)點,但是傳統(tǒng)U-Net醫(yī)學圖像分割任務中存在信息丟失和預測尺度單一等不足。因此,本文在基于U-Net網(wǎng)絡醫(yī)學圖像分割模型的基礎上,提出了新的改進模型,并在實驗中驗證了有效性。主要工作內(nèi)容如下:(1)在編碼結(jié)構(gòu)中引入SE通道注意力,引導模型對重要特征的關(guān)注程度(2)設計特征融合處理模塊(3)加入金字塔結(jié)構(gòu)提升模型對輸入圖像的多尺度特征提取能力(4)通過IOU、Dice、精確度評價指標驗證模型分割效果。(5)設計圖像分割可視化系統(tǒng)平臺關(guān)鍵詞:深度學習;U-Net;注意力機制;特征融合ResearchonmedicalimagesegmentationmethodbasedonU-NetnetworkAbstract:

Medicalimagesegmentationisanindispensablestepinthefieldofmedicalimageprocessing,andwiththecontinuousprogressofdeeplearningtechnology,medicalimagesegmentationtechnologyhasmadegreatbreakthroughs.TheU-Netnetworkisamainstreammedicalimagesegmentationnetworkwithgoodsegmentationperformance,whichhastheadvantagesofsimpleandclearstructureandrelativelyfewparameters,butthereareshortcomingsinthetraditionalU-Netmedicalimagesegmentationtask,suchasinformationlossandsinglepredictionscale.Therefore,basedonthemedicalimagesegmentationmodelbasedontheU-Netnetwork,anewandimprovedmodelisproposed,andtheeffectivenessisverifiedinexperiments.Themainworkcontentsareasfollows:(1)SEchannelattentionisintroducedintothecodingstructuretoguidethemodel'sattentiontoimportantfeatures,(2)thefeaturefusionprocessingmoduleisdesigned,(3)thet-featurepyramidstructureisaddedtoimprovethemodel'smulti-scalefeatureextractionabilityoftheinputimage,and(4)themodelsegmentationeffectisverifiedbyIOU,Diceandaccuracyevaluationindexes.(5)DesigntheimagesegmentationvisualizationsystemplatformKeyWords:Deeplearning;U-Net;;Attentionmechanisms;Residualconnections;Featurefusion第一章緒論1.1研究背景及意義人工智能與醫(yī)療健康產(chǎn)業(yè)的融合已經(jīng)被社會廣泛認可,并且備受矚目的發(fā)展前景,科技的快速進步和人工智能技術(shù)的日益成熟,進一步推動了這一趨勢。我國《“十四五”生物經(jīng)濟發(fā)展規(guī)劃》是我國首個五年生物經(jīng)濟規(guī)劃,由國家發(fā)展和改革委員會發(fā)布,其中,推動生物技術(shù)和信息技術(shù)的融合創(chuàng)新成為了規(guī)劃的重要主題之一,規(guī)劃鼓勵促進人工智能影像、人工智能診療、手術(shù)機器人等智慧醫(yī)療設備的研究開發(fā),并廣泛應用人工智能于腫瘤等疾病領(lǐng)域。因此,在國家政策和社會需求的雙重推動下,我國醫(yī)療人工智能應用領(lǐng)域的市場規(guī)模不斷擴大。隨著現(xiàn)代社會醫(yī)療技術(shù)的不斷進步,醫(yī)學圖像使醫(yī)學問題的研究更加具體化,擺脫了以往依賴經(jīng)驗主義的局限,開啟了科學、系統(tǒng)的醫(yī)學研究新時代。其中基于深度學習的醫(yī)學圖像處理對于臨床診斷、治療方案的制定以及疾病預測具有關(guān)鍵性作用,醫(yī)學圖像分割則是醫(yī)學圖像處理領(lǐng)域的重要技術(shù)之一,旨在準確地提取醫(yī)學影像中的感興趣區(qū)域,與背景進行分離。不同于傳統(tǒng)依靠人工操作進行的分割,機器學習的圖像分割既省時省力,又極大減少了誤差,這項技術(shù)被廣泛運用于計算機輔助診斷、手術(shù)規(guī)劃以及治療等領(lǐng)域,對醫(yī)療健康產(chǎn)業(yè)的智能化起到極大的作用。為了實現(xiàn)智能化技術(shù)代替人工并保持高精度的目的,本文利用深度學習的方法,基于U-Net網(wǎng)絡模型并不斷優(yōu)化、改進模型,選擇肝臟CT影像數(shù)據(jù)集,以達到從醫(yī)療影像圖像樣本中精準分割肝臟區(qū)域的目的,可以極大減輕人工壓力,提高醫(yī)學影像分割的準確性和效率,對于醫(yī)療健康和醫(yī)學圖像處理領(lǐng)域發(fā)展具有重要的意義。1.2國內(nèi)外研究現(xiàn)狀圖像分割是計算機視覺研究的熱點,經(jīng)過數(shù)十年的發(fā)展,人們提出了許多分割算法并廣泛應用。目前,國內(nèi)外對醫(yī)學圖像分割方法進行了廣泛的研究,主要區(qū)分為兩類:一類是傳統(tǒng)的一些醫(yī)學圖像分割方法,另一類是近些年主流的基于深度學習的醫(yī)學圖像分割方法,下文將分別對這兩類方法展開討論。1.2.1傳統(tǒng)的醫(yī)學圖像分割方法傳統(tǒng)算法的圖像分割方法,主要包括基于閾值的分割算法[1]、基于邊緣檢測的分割算法[2]和基于區(qū)域的分割算法[3]。但醫(yī)學圖像通常具有對比度低、組織紋理復雜、邊界區(qū)域模糊等特點,極大地限制了傳統(tǒng)算法圖像分割算法的效果和應用場景[4]。(1)基于閾值的分割算法閾值分割算法是基于圖像特征信息進行分割,目前已有很多種相關(guān)算法問世。其主要思想是不同的目標具有不同的諸如顏色、灰度、輪廓等特征,根據(jù)特征間的細小差別,通過選取特定的閾值將目標物與背景劃分開來,進而實現(xiàn)快速的圖像分割。閾值法的基本原理是先確定一個閾值[5],然后將所有像素按照其特征值與閾值的大小關(guān)系劃分為2個類別。當特征值大于閾值時,該像素被歸為目標類;反之,被歸為背景類。通過選擇合適的閾值,可以實現(xiàn)對圖像目標與背景的有效分離[6]。閾值分割算法在處理復雜圖像和應對噪聲等方面有局限性,特別是在處理多樣化圖像情況時可能無法滿足需求。基于邊緣檢測的分割算法基于邊緣檢測分割算法利用圖像的像素邊緣信息進行分割,步驟包括邊緣檢測、連接和區(qū)域填充。邊緣檢測是基于梯度或差分運算來確定圖像中灰度變化最為顯著的位置,常用的邊緣檢測[7]算子包括Sobel、Prewitt、Canny等。這些算子可以有效檢測圖像中的邊緣,并用像素強度變化來表示。在獲得初步的邊緣檢測結(jié)果后,需要進行邊緣連接以獲得完整的邊緣輪廓。常用的邊緣連接方法包括基于閾值、基于邊緣跟蹤和基于邊緣細化等。這些方法可以將局部的邊緣片段連接成連續(xù)的邊緣線段或閉合的邊緣輪廓。在獲取完整的邊緣輪廓后,通過填充算法將圖像分割成相似特征的區(qū)域。常見的填充算法包括種子點填充、區(qū)域生長和分水嶺算法等,它們根據(jù)邊緣信息將像素分組成不同的區(qū)域,實現(xiàn)圖像分割?;趨^(qū)域的分割算法基于區(qū)域的分割算法是將圖像劃分為具有相似屬性或特征的區(qū)域。區(qū)域生長算法[8]進行圖像分割,首先會將圖像中的各個區(qū)域進行區(qū)域聚類,然后將像素連成線,統(tǒng)一為某個區(qū)域后,對圖像進行分割,利用改方法進行圖像分割之前,首先需要對生長點進行選取。生長點的選取規(guī)則可以是單個點,也可以是小區(qū)域,依據(jù)圖像的紋理、灰度和空間信息進行區(qū)域相似點的聚類。該方法重復上述過程,直至提取圖像邊緣輪廓特征后,達到閾值即認為分割任務完成。Rafiei[9]等設計了一種三維區(qū)域算法,利用生長算法,對圖像中目標區(qū)域的空間特征進行分割任務的實現(xiàn),首先利用種子數(shù)的選取,和早停策略,對算法進行優(yōu)化,實現(xiàn)自動化的參數(shù)選取,該方法對圖像的空間特征依賴性較強,因此對于某些肝臟區(qū)域的邊緣特征提取效果不佳。Laurent[10]等人對于圖像的非線性特征進行研究設計,然后利用蒙特卡洛方法對圖像中某些區(qū)域進行種子點的選取,對區(qū)域生長算法進行改進,優(yōu)化了生長策略,可以手工選取目標區(qū)域,Amita[11]等人對三維區(qū)域的肝臟腫瘤圖像進行了研究,深入考慮了圖像腫瘤的三維幾何形狀,對于邊緣信息進行了保留,達到了較好的分割性能,但是傳統(tǒng)算法具有計算量較大的缺點。1.2.2深度學習算法研究近年來,卷積神經(jīng)網(wǎng)絡(CNN)在圖像分割領(lǐng)域取得了巨大進展,成為研究的熱點之一。其優(yōu)點包括計算效率高、網(wǎng)絡模型復雜度低以及分割效果優(yōu)異。傳統(tǒng)算法雖然能在一定程度上實現(xiàn)醫(yī)學圖像中目標器官的分割,但是由于其對背景的紋理顏色等特征處理起來十分繁瑣,無法達到較高性能的分割,因此,為了解決傳統(tǒng)算法在分割任務中的局限性,得益于卷積神經(jīng)網(wǎng)絡對圖像特征提取的優(yōu)勢,很多學者轉(zhuǎn)而采用深度學習進行圖像分割,主要是利用卷積神經(jīng)網(wǎng)絡對圖像的高性能特征提取,以端到端的方法實現(xiàn)病灶分割,無須醫(yī)生進行人工檢測,這樣的方法在眼底、腦瘤分割等多個領(lǐng)域已經(jīng)十分成熟。其中最典型的網(wǎng)絡是FCN和U-Net,F(xiàn)CN[12]開創(chuàng)了端對端全卷積神經(jīng)網(wǎng)絡的先河,此后SegNet[13]、U-Net[14]、Deeplab系列[15-17]等語義分割網(wǎng)絡陸續(xù)涌現(xiàn)出來。在圖像分割領(lǐng)域,Long[18]等人利用FCN卷積神經(jīng)網(wǎng)絡模型,將模型中的線性層全部替換為卷積層,實現(xiàn)全卷積神經(jīng)網(wǎng)絡,可以對任意分辨率的圖像進行特征提取,在模型中不斷將圖像尺寸縮小,最后再恢復圖像細節(jié)到原分辨率,實現(xiàn)對圖像中目標區(qū)域的像素級分割。R等人對于FCN模型進行了分割后,發(fā)現(xiàn)性能并不能滿足實際應用,因此利用U-Net網(wǎng)絡模型,U-Net與FCN原理非常相似,但不同之處在于U-Net網(wǎng)絡是采用完全對稱的方式處理目標圖像[19],實現(xiàn)網(wǎng)絡的對稱編碼器-解碼器結(jié)構(gòu),通過設計了跳躍鏈接的結(jié)構(gòu),實現(xiàn)特征的上下文信息交互傳遞,對于小分辨率的尺寸不斷利用反卷積進行尺寸的恢復,將圖像恢復到原來的尺寸,最終達到較為準確的分割。醫(yī)學圖像分割數(shù)據(jù)較少,而U-Net在數(shù)據(jù)量受到限制時依舊表現(xiàn)較好,U-Net對稱的編碼和解碼結(jié)構(gòu)可以提取到豐富的高級語義特征,并分別對輸入圖片進行下采樣、上采樣16倍,在特征圖輸出時恢復到原圖的分辨率,這樣的結(jié)構(gòu)對于小數(shù)據(jù)類型的醫(yī)學影像數(shù)據(jù)集可以提取豐富的圖像語義,因此U-Net在醫(yī)學影像分割方面的表現(xiàn)很好??偟膩碚f,不論是國內(nèi)還是國外都在醫(yī)學圖像分割領(lǐng)域非常活躍。相比于傳統(tǒng)的醫(yī)學圖像分割方法,顯然基于深度學習的方法具有更好的靈活性和泛化能力,能夠有效地解決醫(yī)學圖像分割任務中的挑戰(zhàn),并取得顯著的進展和成就。深度學習技術(shù)的應用和不斷創(chuàng)新為醫(yī)學圖像分割領(lǐng)域帶來了新的機遇和挑戰(zhàn)。1.3主要研究內(nèi)容為解決人工醫(yī)學圖像分割的局限性,本文利用深度學習的方法,在收集肝臟CT影像數(shù)據(jù)集的基礎上,研究一種基于改進U-Net網(wǎng)絡的分割方法。全文主要研究內(nèi)容如下:(1)建立U-Net卷積神經(jīng)網(wǎng)絡及其變體,對構(gòu)建的數(shù)據(jù)集進行訓練實驗,分別從多尺度、注意力機制和特征融合結(jié)構(gòu)的角度上對U-Net進行改進,提升模型對特征的表達能力,解決圖像中存在的多尺度問題和背景復雜干擾問題,在數(shù)據(jù)集進行實驗。(2)將本文研究的U-net網(wǎng)絡變體與經(jīng)典U-Net網(wǎng)絡模型進行評價指標的對比,得出改進模型的優(yōu)越性,并依據(jù)本論文選取的數(shù)據(jù)集設計出肝臟分割可視化平臺。1.4組織結(jié)構(gòu)本文利用U-Net神經(jīng)網(wǎng)絡進行肝臟腫瘤CT圖像的分割,文章的組織結(jié)構(gòu)如下:第一章緒論。本章首先分析基于深度學習的醫(yī)學圖像分割的背景與意義,分析了國內(nèi)外學者對于對圖像分割方法的研究情況,以及U-Net網(wǎng)絡的發(fā)展由來和基礎優(yōu)勢。第二章相關(guān)理論基礎。本章首先對神經(jīng)網(wǎng)絡理論進行了介紹,又重點介紹了卷積神將網(wǎng)絡結(jié)構(gòu)的基礎知識,為后文進行理論鋪墊。第三章基于U-Net網(wǎng)絡的改進模型研究。本章建立改進U-Net神經(jīng)網(wǎng)絡模型,在數(shù)據(jù)集上進行訓練實驗并驗證分割效果。第四章肝臟分割可視化系統(tǒng)。進一步實現(xiàn)本論文所示算法的實際應用。第五章總結(jié)與展望。

第二章相關(guān)理論基礎2.1神經(jīng)網(wǎng)絡基本概念神經(jīng)網(wǎng)絡(NeuralNetwork,NN),是一種常見的人工神經(jīng)網(wǎng)絡模型,具有輸入層、隱藏層和輸出層。它通過前向和反向傳播階段訓練,調(diào)整連接權(quán)重,實現(xiàn)輸入與輸出之間的映射關(guān)系,從而使網(wǎng)絡能夠?qū)W習和適應輸入數(shù)據(jù)的模式和規(guī)律,通常用于解決分類和回歸問題。給神經(jīng)網(wǎng)絡提供輸入向量

,讓它根據(jù)自己的參數(shù)矩陣輸出對應的輸出值,這就是前向傳播;讓神經(jīng)網(wǎng)絡根據(jù)輸出值和真實值之間的差別,反向更新參數(shù)矩陣,使之擬合得更好,這就是反向傳播。神經(jīng)網(wǎng)絡的優(yōu)點包括:具備學習和適應復雜非線性模式的能力,能夠泛化并預測未知數(shù)據(jù),通過調(diào)整網(wǎng)絡結(jié)構(gòu)和參數(shù)以滿足不同問題需求。在神經(jīng)網(wǎng)絡進行訓練之前,首先需要對網(wǎng)絡的權(quán)重和偏置進行初始化。隨機選擇初始值有助于打破對稱性,讓神經(jīng)元獨立學習特征,更好適應數(shù)據(jù)。網(wǎng)絡結(jié)束訓練的判定方法包括兩種,分別是輸出誤差符合要求或?qū)W習次數(shù)已達到設定數(shù)值,若未達到此兩種情況,則將繼續(xù)進行下一輪訓練學習。2.2卷積神經(jīng)網(wǎng)絡卷積神經(jīng)網(wǎng)絡(ConvolutionalNeuralNetwork,CNN)結(jié)構(gòu)如圖2-1所示,主要由以下幾個模塊組成:卷積層、池化層和全連接層。卷積層通過在局部區(qū)域使用多維卷積核來實現(xiàn)圖像位置的特征提取和特征映射。池化層通過對特征空間進行下采樣,傳遞相關(guān)特征給后續(xù)層,減少了后續(xù)全連接層中的可訓練參數(shù)數(shù)量,拓展了多尺度特征提取的感受野,同時提供了平移不變性。典型的卷積神經(jīng)網(wǎng)絡型使用多個卷積運算,然后是激活函數(shù)和池化層,以提取多尺度特征。全連接層被設計為將特征圖從前一層轉(zhuǎn)換為一維特征向量。最終的全連接層作為分類層操作,并提供目標分類任務的概率[20]。圖2-1CNN結(jié)構(gòu)圖2.2.1卷積層卷積層是卷積神經(jīng)網(wǎng)絡中的最重要的核心層,用于從輸入數(shù)據(jù)中提取局部特征,這些提取到的特征再經(jīng)過后續(xù)的網(wǎng)絡層進行進一步的學習和處理。卷積層由一系列濾波器(也稱為卷積核或特征檢測器,后續(xù)稱為卷積核)組成,每個特征圖對應一個卷積核,經(jīng)過訓練后網(wǎng)絡可學習卷積核權(quán)重,進而捕捉輸入數(shù)據(jù)的不同特征。卷積操作是將卷積核核與輸入數(shù)據(jù)逐元素相乘并求和,然后以一定的步長在輸入數(shù)據(jù)上滑動核,生成輸出特征圖。具體來說,卷積操作在輸入數(shù)據(jù)的不同位置應用卷積核,從而生成輸出特征圖。卷積層的主要特點包括:局部感知性:卷積層通過在輸入數(shù)據(jù)的局部區(qū)域應用卷積核來提取特征,從而實現(xiàn)了對輸入數(shù)據(jù)的局部感知。這使得卷積層能夠捕捉到輸入數(shù)據(jù)中的局部模式和結(jié)構(gòu)信息;參數(shù)共享:在卷積層中,每個卷積核的參數(shù)都與輸入數(shù)據(jù)的所有位置共享,這意味著相同的特征可以在輸入數(shù)據(jù)的不同位置共享相同的卷積核。這種參數(shù)共享的機制大大減少了模型的參數(shù)數(shù)量,提高了模型的效率和泛化能力;平移不變性:由于參數(shù)共享的機制,卷積層具有平移不變性,即輸入數(shù)據(jù)的平移或偏移不會影響卷積核取的特征。這使得卷積層能夠有效地處理不同位置的輸入數(shù)據(jù);特征映射:每個濾波器在卷積操作后生成一個特征映射(FeatureMap),表示輸入數(shù)據(jù)中某種特定特征的空間分布情況。多個濾波器并行作用于輸入數(shù)據(jù)可以生成多個特征映射,從而豐富了對輸入數(shù)據(jù)的特征表達能力。若輸入特征圖的大小為,移動步長為,卷積核大小為,padding為,獲得的特征圖的大小為,計算如下:(2-1)假設輸入圖像為5×5,卷積核大小為3×3,步長取1,padding為0,計算過程如圖2-2所示。首先將卷積核與輸入特征圖對應部分內(nèi)積,將所有乘積相加得到一個特征值,然后以步長平移卷積核重復之前的操作得到所有的特征值,這時所有的特征值也就構(gòu)成了新的特征圖。卷積操作過程如圖2-2所示圖2-2卷積示意圖2.2.2池化層池化層(PoolingLayer)是卷積神經(jīng)網(wǎng)絡中的一種常用層類型,其主要作用是通過減少特征圖的尺寸和數(shù)量,降低計算量和參數(shù)數(shù)量,同時保留特征圖中重要的局部特征,從而提高模型的計算效率和訓練速度,在一定程度上降低了模型復雜度,從而減少了過擬合的風險。此外,池化操作在每個池化區(qū)域內(nèi)對特征進行聚合,因此對輸入數(shù)據(jù)的平移或偏移具有一定的不變性,有助于提高模型的魯棒性和泛化能力。池化層有最大池化(MaxPooling)和平均池化(AveragePooling)兩種類型。最大池化是指將輸入張量內(nèi)的每個小區(qū)域內(nèi)的最大值輸出,而平均池化則是將輸入張量內(nèi)每個區(qū)域的平均值作為輸出,這兩種池化方法在操作上有所不同,但其共同目標是將特征圖分割成更小的區(qū)域,并對每個區(qū)域進行聚合操作以生成新的特征圖。如圖2-3所示是池化過程示意圖。圖2-3池化過程圖2.2.3全連接層全連接層(FullyConnectedLayer,FC)通常用于深度學習任務的最后一層,在網(wǎng)絡的末端對輸入特征進行加權(quán)操作從而達到分類特征的目的。全連接層不同于卷積層局部連接操作的特點,在全連接層中除輸入層之外的每個神經(jīng)元都與上一層所有神經(jīng)元進行連接。全連接的結(jié)構(gòu)示意圖如圖2-4所示。全連接層操作流程是將神經(jīng)元從一個特征空間經(jīng)過全連接層映射到另一個特征空間,對于目標空間中任意神經(jīng)元都會與原始特征空間中每一個神經(jīng)元建立聯(lián)系。在網(wǎng)絡訓練中,卷積層或池化層將原始特征映射到隱藏層,全連接層將隱藏層中的所有神經(jīng)元映射到目標樣本空間,以進行分布式特征表示,最終將之前層級提取的特征映射轉(zhuǎn)化為類別概率或數(shù)值預測。圖2-4全連接結(jié)構(gòu)圖2.2.4激活函數(shù)激活函數(shù)是神經(jīng)網(wǎng)絡中的一種非線性函數(shù),被用來在神經(jīng)元中引入非線性變換,從而使神經(jīng)網(wǎng)絡可以學習和逼近復雜的非線性關(guān)系。激活函數(shù)在神經(jīng)網(wǎng)絡的每一層中都被應用,將神經(jīng)元的輸入轉(zhuǎn)換為輸出,其主要作用是引入非線性,使得神經(jīng)網(wǎng)絡能夠?qū)W習和表示復雜的非線性關(guān)系。常用的激活函數(shù)有修正線性單元(ReLU函數(shù)),Sigmoid函數(shù)和Tanh函數(shù),本文選取ReLU函數(shù)作為激活函數(shù)。通常其指代數(shù)學中的斜坡函數(shù),函數(shù)的表達式如公式2-2所示,其對應的函數(shù)示意圖如圖2-5所示。(2-2)由公式2-2可以得到ReLU函數(shù)中max指的是取兩個值中的最大值,當輸入值小于0時,輸出值等于0,輸入值大于0時,輸出值等于輸入值。能夠看到該函數(shù)在輸入值大于0時,其相應的導數(shù)始終為1,函數(shù)的這種特性有助于深度學習的訓練與收斂[21]。圖2-5ReLU函數(shù)示意圖2.3本章小結(jié)本章介紹了神經(jīng)網(wǎng)絡的基礎和卷積神經(jīng)網(wǎng)絡結(jié)構(gòu)的相關(guān)知識,為后文的U-Net網(wǎng)絡研究提供理論借鑒。

第三章基于U-Net網(wǎng)絡的改進模型研究3.1U-Net模型系列U-Net、R2U-Net和AttentionU-Net都是用于圖像分割任務的經(jīng)典神經(jīng)網(wǎng)絡結(jié)構(gòu),它們都在醫(yī)學圖像分析等領(lǐng)域得到了廣泛應用。3.1.1U-Net2015年,Ronneberger等人[14]提出了一種端到端的用于醫(yī)學圖像分割的深度學習模型,是一種用于語義分割任務的全卷積神經(jīng)網(wǎng)絡結(jié)構(gòu),因其網(wǎng)絡結(jié)構(gòu)酷似字母“U”而被命名為U-Net,其特點是將編碼器(由卷積和池化層組成)和解碼器(由反卷積和跳躍連接組成)結(jié)合起來,以提高分割準確性,也有人把這樣的結(jié)構(gòu)叫做Encoder-Decoder結(jié)構(gòu)。U-Net的編碼器部分用于提取圖像特征,解碼器部分則用于將這些特征映射回原始圖像尺寸,同時利用跳躍連接保留了更豐富的空間信息,有助于更精準地分割目標,結(jié)構(gòu)如圖3-1所示。圖3-1U-Net結(jié)構(gòu)圖編碼器部分由卷積層和池化層構(gòu)成,紅色箭頭所指的是一個卷積核大小為的卷積操作,每次特征提取后通道數(shù)會加倍。卷積操作提取輸入圖像的特征,逐漸縮小特征圖的尺寸,池化操作可以減少網(wǎng)絡中的參數(shù)數(shù)量,降低特征圖的空間分辨率。解碼器由卷積層和上采樣層構(gòu)成,是編碼器的對稱結(jié)構(gòu),卷積層用于回復輸入圖像大小,上采樣是通過四次反卷積操作低分辨率圖像放大到高分辨率圖像的過程。U-Net網(wǎng)絡的突出特點就是引入了跳躍連接(也稱為跳躍鏈接),通過將編碼器中每一層的特征圖與解碼器中對稱的層進行連接。跳躍連接有助于解決信息丟失和梯度消失問題,提高網(wǎng)絡對局部和全局上下文信息的抓取能力,特別在圖像分割任務中處理目標邊界和細節(jié)方面表現(xiàn)更佳。3.1.2R2U-NetR2U-Net,作為一種改進版的神經(jīng)網(wǎng)絡結(jié)構(gòu),專注于醫(yī)學圖像分析領(lǐng)域的圖像分割任務。它結(jié)合了ResidualBlock和RecurrentBlock的思想,以提高分割網(wǎng)絡的性能和準確性。受到ResNet的殘差連接啟發(fā),R2U-Net采用殘差連接以應對網(wǎng)絡訓練中可能出現(xiàn)的梯度消失情況。殘差連接允許網(wǎng)絡跳過一些層,直接將輸入添加到輸出,使得在反向傳播時能夠更容易地傳遞梯度,有助于訓練更深的網(wǎng)絡;受到循環(huán)神經(jīng)網(wǎng)絡(RNN)中的循環(huán)連接的啟發(fā),R2U-Net引入了循環(huán)連接來捕獲圖像中的空間關(guān)系和上下文信息。通過在編碼器和解碼器之間引入循環(huán)連接,網(wǎng)絡可以在不同層次上保持圖像的連續(xù)性,并利用先前層次的信息來指導下一層的特征提取。改善了網(wǎng)絡的訓練和優(yōu)化過程,減少了梯度消失和梯度爆炸的問題,使得更深的網(wǎng)絡可以更穩(wěn)定地訓練;能夠捕獲更豐富的空間信息和上下文關(guān)系,提高了圖像分割的準確性和魯棒性;讓網(wǎng)絡能夠更好地適應各種尺寸和復雜度的圖像,提高了其泛化能力和實用性。,如圖3-2所示。圖3-2R2U-Net3.1.3AttentionU-NetAttentionU-Net是在U-Net基礎上引入了空間注意力機制的改進版,由Oktay等人[22]于2018年提出。通過引入注意力機制,AttentionU-Net動態(tài)調(diào)整特征圖的重要性,使網(wǎng)絡更關(guān)注關(guān)鍵特征區(qū)域,提高分割準確性。通過學習圖像的全局和局部上下文信息,網(wǎng)絡可以自適應地選擇性地提取和利用圖像中的關(guān)鍵特征,以提高模型對關(guān)鍵信息的感知能力,從而更好地進行分割。和傳統(tǒng)的U-Net網(wǎng)絡結(jié)構(gòu)相似,AttentionU-Net同樣采用了編碼器-解碼器結(jié)構(gòu),編碼器提取圖像特征,解碼器將這些特征映射回原始圖像尺寸,實現(xiàn)像素級別的語義分割。AttentionU-Net還保留了U-Net中的跳躍連接結(jié)構(gòu),允許網(wǎng)絡在不同層次上保持圖像的連續(xù)性,并利用先前層次的信息來指導下一層的特征提取。跳躍連接有助于減輕信息丟失和梯度消失問題,提高了網(wǎng)絡的穩(wěn)定性和性能,如圖3-3所示。圖3-3AttentionU-Net3.2改進的U-Net網(wǎng)絡結(jié)構(gòu)傳統(tǒng)基于U-Net醫(yī)學圖像分割任務中存在預測尺度單一和信息丟失等問題。針對存在的問題,本文提出一種由多重注意力引導機制的U-Net醫(yī)學圖像分割。首先,在U-Net的編碼結(jié)構(gòu)中,引入多個SE通道注意力,引導編碼器聚焦圖像特征,以提升特征表達的能力,減少冗余背景信息帶來的干擾;其次,通過設計特征融合處理模塊,對編碼器傳來的特征圖進行復雜語義特征的融合處理;最后,在解碼器部分,加入金字塔結(jié)構(gòu)捕獲全局空間信息,提高模型對數(shù)據(jù)集圖像的多尺度特征提取能力,以提高整體網(wǎng)絡的表達能力和分割性能,如圖3-4所示。圖3-4改進后U-Net結(jié)構(gòu)圖3.2.1注意力機制(1)注意力機制。注意力機制的由來可以追溯到神經(jīng)科學和計算機科學領(lǐng)域。它是一種模擬人類認知過程的方法,旨在提高機器學習算法在處理大規(guī)模數(shù)據(jù)時的效率和準確性。注意力機制的概念最初受到對人類大腦認知過程的研究啟發(fā)。研究人員發(fā)現(xiàn),在處理感知、學習和決策時,人類大腦傾向于集中關(guān)注某些特定的信息,而忽略其他無關(guān)緊要的信息。這種關(guān)注的焦點就是所謂的“注意力”,它可以幫助我們在海量信息中更高效地處理和解決問題。圖像注意力機制的主要思想是在圖像中引入可學習的注意力權(quán)重,這些權(quán)重用于指導模型注意圖像的不同部分。通過這種方式,模型可以有選擇地關(guān)注與任務相關(guān)的區(qū)域,而忽略其他無關(guān)緊要的區(qū)域,從而降低了對整個圖像的全局處理負擔。圖像注意力機制有助于提高計算機視覺任務的性能,尤其是在處理大尺寸圖像或復雜場景時。通過集中注意力于與任務相關(guān)的局部信息,注意力機制可以減少冗余計算,并在一定程度上提高模型的泛化能力。(2)通道域注意力機制。如圖3-5、3-6所示的SE(Squeeze-and-Excitation)注意力機制是一種用于增強卷積神經(jīng)網(wǎng)絡性能的注意力機制,主要應用于通道維度上,基本思想是從網(wǎng)絡的輸出特征圖中提取每個通道的全局信息,并利用這些信息來調(diào)整通道的權(quán)重,以提高模型在圖像分割、分類等任務中的表現(xiàn)。SE注意力機制的主要思想可以概括為“壓縮”和“激發(fā)”兩個階段:壓縮(Squeeze):在壓縮階段,SE注意力機制通過全局平均池化操作來獲取每個通道的全局信息。對于一個輸入特征圖(大小為H×W×C,其中H是高度,W是寬度,C是通道數(shù)),全局平均池化將對每個通道的特征進行平均,生成一個長度為C的全局向量。這個全局向量反映了整個特征圖中每個通道的全局重要性。經(jīng)過這一步驟后把原來的特征圖的維度降維到,壓縮操作可以用公式表示為:(3-1)激發(fā)(Excitation):在激發(fā)階段,SE注意力機制引入了兩個全連接層(通常是一個隱藏層和一個sigmoid激活層),用于學習每個通道的權(quán)重。具體來說,全連接層將全局向量映射到一個中間表示,然后通過sigmoid激活函數(shù)將其縮放到0到1之間的范圍。這個縮放后的向量表示了每個通道的相對重要性,即通道權(quán)重。最后在融合階段,實現(xiàn)各個通道的特征加權(quán)。這樣模型就能自適應地強調(diào)對當前任務最有用的通道特征,減弱無關(guān)緊要的通道特征。SE注意力模塊的結(jié)構(gòu)示意圖如圖3-5所示。其中表示壓縮操作,表示激發(fā)操作,代表的是卷積操作,代表的是加權(quán)操作。圖3-5SE注意力機制模塊結(jié)構(gòu)圖綜上所述,將SE注意力機制嵌入到每個Block塊的輸出層,SE通道注意力機制通過自適應地調(diào)整特征圖的通道權(quán)重,使對應的特征可以更加關(guān)注圖像中關(guān)于醫(yī)學中器官部位有貢獻的通道,能夠有效地提高模型對重要特征的關(guān)注程度,抑制噪聲干擾,適應不均勻特征分布,并提高圖像分割的精度和魯棒性,提升模型的表征能力,增強跨層連接的特征傳輸能力,加強上下文信息的溝通,從而提高圖像特征的判別能力,因此在醫(yī)學圖像分割任務中表現(xiàn)出色。SE注意力機制的引入使得模型在不增加太多參數(shù)和計算成本的情況下,獲得顯著的性能提升,如圖3-6為SE注意力機制代碼。圖3-6SE注意力機制代碼3.2.2金字塔結(jié)構(gòu)金字塔特征結(jié)構(gòu),如圖3-7所示的這種結(jié)構(gòu)的作用是引入多尺度的特征信息,使得模型能夠更好地處理不同尺度下的分割目標任務,并提高分割結(jié)果的準確性。金字塔結(jié)構(gòu)包含多個分辨率不同的特征圖,涵蓋不同尺度的信息。這些特征圖從粗到細提供不同層次的語義和細節(jié)信息,能夠捕獲多尺度特征并融合。在U-Net解碼器中,可以引入多個金字塔特征圖,并與編碼器對應的特征圖連接或融合。金字塔特征提取結(jié)構(gòu)的作用主要包括以下幾部分:(1)多尺度感受野:由于不同分支處理不同尺度下的分割目標特征,金字塔特征提取結(jié)構(gòu)可以實現(xiàn)多尺度感受野。這種結(jié)構(gòu)允許模型同時處理圖像中的小目標和大目標,從而提升了分割結(jié)果的準確性和魯棒性。(2)細節(jié)保持:在解碼器階段,每個分支都融合了相應尺度的細節(jié)信息。這有助于保留圖像的局部細節(jié),使得模型在分割任務中更加細致準確。(3)上下文信息:多個分支同時處理不同尺度的特征,可以獲取更豐富的上下文信息。這對于理解圖像中語義上下文關(guān)系非常有幫助。在編碼器和特征融合處理部分,分別對特征圖進行了通道和空間上的特征提取,為加強網(wǎng)絡對分割目標多尺度特征的提取能力,設計金字塔模塊附著在Decoder的每個層級后,將輸出作為金字塔模塊[23]的輸入,進行多尺度特征融合。由于編碼器中利用多重注意力對特征圖的重要區(qū)域進行聚焦引導,在特征圖中已經(jīng)有分割目標的部分區(qū)域被識別為重要特征區(qū)域,利用U-Net反卷積帶來的不同分辨率的特征圖,對其進行3×3的空洞率為2的卷積后,進行投影映射,與原Decoder主干輸出的特征圖進行相乘處理,在網(wǎng)絡的最后得到增強的多尺度特征圖,同時空洞卷積降低了計算成本提升了效率,提高模型擬合速度。圖3-7特征金字塔結(jié)構(gòu)示意圖3.2.3特征融合模塊由前文知,骨干網(wǎng)絡傳來的特征中,包含了對輸入的圖像提取到的多層級復雜語義信息,輸入特征圖逐漸降低特征圖的空間尺寸,同時增加通道數(shù)量,然后將來自不同層級的特征進行合并,從而恢復細節(jié)和位置信息,但是使用的方法無法對豐富的語義進行特征識別處理,因此,設計如圖3-8和3-9所示的特征融合連接模塊,首先對輸入的特征圖進行同等通道數(shù)的特征提取,然后通過1×1的卷積進行通道變換,加強來自于編碼器SE注意力機制提取的維度信息,然后通過空洞卷積擴大感受野,避免了重復的上、下采樣帶來的特征信息丟失問題,然后在不同尺度上進行特征的再融合處理。在模塊的后半程設計殘差連接處理,提高網(wǎng)絡的特征提取能力,增強特征圖的表達能力。圖3-8特征融合處理模塊圖3-9特征融合結(jié)構(gòu)代碼(部分)特征融合能夠同時利用低層次和高層次的特征信息,進一步挖掘高維特征圖中隱含的信息,使得模型能夠在保留全局語義信息的同時保持局部細節(jié),從而在圖像任務中取得更好的性能。3.3數(shù)據(jù)集介紹和預處理3.3.1數(shù)據(jù)集介紹醫(yī)學圖像的采集確實需要特殊的設備和環(huán)境,以及經(jīng)驗豐富的醫(yī)生進行手動標注。這導致高質(zhì)量且可獲取的公開數(shù)據(jù)集相對較少。為了對肝臟及肝臟腫瘤分割方法進行準確性、魯棒性和可行性的分析,研究人員通常會選擇一些常用的數(shù)據(jù)集,其中主要的數(shù)據(jù)集是LiTS(LiverTumorSegmentationChallenge)。LiTS數(shù)據(jù)集是一個用于肝臟及腫瘤分割的公開數(shù)據(jù)集,由來自多個機構(gòu)的CT掃描圖像組成。這個數(shù)據(jù)集提供了大量的CT圖像和手動標注的肝臟及腫瘤分割結(jié)果,可用于評估肝臟腫瘤分割算法的性能。這些數(shù)據(jù)集為研究人員提供了一個標準化的評估平臺,可以用于比較不同肝臟及肝臟或肝臟腫瘤分割算法的性能,以及評估它們在實際臨床應用中的可行性。雖然這些數(shù)據(jù)集可能不夠完美,但它們?nèi)匀皇悄壳搬t(yī)學圖像分析領(lǐng)域中最常用的數(shù)據(jù)資源之一。圖3-10數(shù)據(jù)集圖像該數(shù)據(jù)集是由131個患者由原發(fā)性肝癌和轉(zhuǎn)移性肝癌構(gòu)成的三維圖像數(shù)據(jù)集,進行了手動標注,每一個圖像的CT值都在-3024到3071之間,因此CT影響的對比度較弱,整體看起來較為模糊,因此在數(shù)據(jù)進行訓練之前,需要進行多種預處理操作,如圖3-10所示,左邊為原圖,右邊為肝臟圖像的分割區(qū)域。3.3.2數(shù)據(jù)集預處理(1)對數(shù)據(jù)集進行劃分,訓練集、驗證集、測試集按照6:2:2劃分(2)首先通過.nii格式的數(shù)據(jù)進行肝臟區(qū)域劃分,然后進行切片處理,按照一定規(guī)則進行體素的剪切,將圖像進行尺寸的固定,使數(shù)據(jù)集圖片格式成為.png,并進行灰度直方圖歸一化處理;(3)進行對比度調(diào)整,由于圖像整體較灰,對比度明顯較低,無法區(qū)分肝臟和其他器官區(qū)域,因此進行對比度調(diào)整,實現(xiàn)肝臟的突出;(4)旋轉(zhuǎn):將圖像順時針旋轉(zhuǎn)90度,從而增加數(shù)據(jù)集的多樣性,并使模型具有旋轉(zhuǎn)不變性。預處理后對比如圖3-11所示:圖3-11預處理后圖像對比圖3-12預處理相關(guān)代碼(部分)3.4實驗分析3.4.1評價指標及損失函數(shù)在醫(yī)學影像分割領(lǐng)域,經(jīng)典量化評價指標有:交并比(MeanIntersectionOverUnion,mIOU),Dice相似系數(shù)(DiceSimilarityCoefficient,DSC)和準確率(Accuracy)。語義分割中常用IOU進行指標評價,計算的是網(wǎng)絡預測分割圖像部分和標準的圖像分割區(qū)域交集在兩者并集中所占的比例;在一個醫(yī)學影像數(shù)據(jù)集中,常常會有分割種類不平衡的問題,為衡量這項指標,對DSC進行分析;而Acc指標則是基于像素點進行分類,在預測分割性能的正確度上作分析。以下是上述指標的計算方式: (3-1) (3-2) (3-3)式3-1到3-3中,TP代表實際為陽性樣本且被預測為陽性樣本的特征的數(shù)量,TN代表實際為陰性樣本且被預測為陰性樣本的特征的數(shù)量,F(xiàn)P代表預測為陽性樣本但實際是陰性樣本的特征的數(shù)量,F(xiàn)N代表預測為陰性樣本但實際上是陽性樣本的特征的數(shù)量。損失函數(shù)(LossFunction)是用來估量模型的預測值和真實值的不一致程度。圖像分割二分類算法一般使用二元交叉熵作為損失函數(shù),本文以二元交叉熵作為損失函數(shù)。二元交叉熵損失函數(shù)為:CEp,y=?ylogp?1(1?y)式中,p和y分別是預測值和人工標注值。3.4.2訓練參數(shù)設置由于訓練神經(jīng)網(wǎng)絡需要充足算力支持,為保證模型的運算效率和準確性,本章實驗在Windows11系統(tǒng)、GEFORCERTX2080TiGPU上進行訓練,并完成后續(xù)實驗,使用Python作為編譯語言,PyTorch深度學習框架進行代碼的編寫。本章所用的數(shù)據(jù)集為LiTS數(shù)據(jù)集,數(shù)據(jù)集樣本數(shù)量較小,訓練時采用高斯分布進行初始化,優(yōu)化器采用Adam優(yōu)化器,初始學習率設定為0.01,迭代輪次為150輪,批訓練大小為64。3.4.3實驗分析表3-1為U-Net、R2U-Net和AttentionU-Net模型在數(shù)據(jù)集上的測試結(jié)果,本文所提出網(wǎng)絡結(jié)構(gòu)在肝臟影像數(shù)據(jù)集上的mIoU、DSC和Acc分別是86.1%,92%和98.8%。對比原U-Net網(wǎng)絡結(jié)構(gòu)的71.11%,81.08%和93.88%和其他經(jīng)典網(wǎng)絡結(jié)構(gòu)在該數(shù)據(jù)集上的性能指標均有提升,這證明了本文所提出網(wǎng)絡結(jié)構(gòu)的優(yōu)越性。表3-1結(jié)果對比MethodmIoU/%Accuracy/%DSC/%U-Net77.4095.2286.16R2U-NetAttentionU-Net本文算法71.1193.8881.0879.2196.1287.4286.1098.8092.00如圖3-13、3-14所示,本節(jié)對于U-Net改進前后的兩個模型數(shù)據(jù)集上進行訓練實驗得到損失變化曲線,可以看出兩個模型的訓練過程中,均在前20輪迅速擬合,損失值迅速下降,在20-60輪擬合速度變緩,在80輪以后基本達到了正常擬合水平。但是從圖中可以看出,改進后的模型擬合速度更快,損失更低,在驗證集上的損失也更小,驗證了模型改進性能的優(yōu)越性。圖3-13基礎模型訓練損失圖圖3-14改進后模型訓練損失圖分析表3-1和圖3-13的結(jié)果,原因認為是在肝臟圖像數(shù)據(jù)集中,器官分布復雜,大小尺度不一。本文方法,首先在網(wǎng)絡中加入的多重注意力引導網(wǎng)絡,能夠有效識別復雜背景下的肝臟區(qū)域特征,減少冗余背景信息帶來的特征干擾;其次,多尺度模塊使得網(wǎng)絡增強了對不同大小、形狀的肝臟的識別能力,同時提高了網(wǎng)絡的魯棒性。另外,由DSC可以看出,本文網(wǎng)絡對數(shù)據(jù)集的適應能力較強,而高準確率和高精確率體現(xiàn)了網(wǎng)絡對特征的提取能力較強和較好的擬合能力。圖3-15多種算法效果對比圖如圖3-15所示的是經(jīng)過多個網(wǎng)絡模型圖像分割后的肝臟原圖及分割圖。圖中第一列肝臟CT原圖,第二列為對應的標簽圖,第三列本文算法分割圖,后續(xù)分別為AttentionU-Net、R2U-Net和U-Net的分割結(jié)果。由圖可知,本文算法對于肝臟的邊緣部分輪廓提取效果較好,能夠完整的分割出部位,對于極小的空隙處,也能做到精準分割,在原標簽圖和分割出的圖像對比中,我們的網(wǎng)絡模型分割結(jié)果也更加趨近于標簽圖例,說明網(wǎng)絡結(jié)構(gòu)設置合理,模型分割性能優(yōu)異。同時,本文為說明加入模塊對模型大小和檢測速度的影響,對模型的復雜度進行了測算,如表3-2所示,在少量增加了參數(shù)量的同時,速度并不受影響,綜合性能較好。表3-2算法性能對比結(jié)果算法名稱GFLOPsParametersU-Net本節(jié)改進算法1×1.4×31.04M39.2M3.5本章小結(jié)本章首先介紹了U-Net系列經(jīng)典網(wǎng)絡模型算法,然后基于U-Net網(wǎng)絡結(jié)構(gòu),針對其不足進行了網(wǎng)絡的優(yōu)化設計,由于CT數(shù)據(jù)集中存在的復雜背景干擾等問題,進行了數(shù)據(jù)的重新整理,然后對U-Net和改進的算法分別進行了訓練,證明了模型優(yōu)化的有效性。

第四章肝臟分割可視化系統(tǒng)為研究肝臟CT圖像分割算法的實際應用方法,并滿足分割需要,搭建圖像分割平臺。本章首先介紹平臺的系統(tǒng)架構(gòu),然后確定本論文提出的改進U-Net網(wǎng)絡算法調(diào)用及功能實現(xiàn)的整體流程,針對性的設計平臺各個模塊功能,實現(xiàn)平臺的流暢運行。4.1系統(tǒng)架構(gòu)肝臟分割可視化系統(tǒng)應包含幾部分:前端的用戶登錄與操作界面、后端的圖像處理模塊、圖像分割算法調(diào)用模塊和結(jié)果展示模塊。因此整體的系統(tǒng)架構(gòu)可分為:用戶登錄、圖像采集和錄入、基于改進U-Net的圖像分割算法、結(jié)果展示。其中算法模塊是整個平臺的核心,可以進行模型的訓練和優(yōu)化,其余功能均集成在用戶界面模塊,實現(xiàn)用戶與平臺的交互。本文設計的平臺架構(gòu),是在Windos11、16G內(nèi)存環(huán)境下,采用Python語言,PyQt5模塊進行搭建,調(diào)用的算法即為本文所建算法,系統(tǒng)架構(gòu)圖如圖4-1所示。圖4-1系統(tǒng)架構(gòu)4.2系統(tǒng)設計4.2.1登錄界面在打開該平臺后,首先進入如圖4-2所示的登錄界面,該界面中包括背景界面、用戶登錄框體部分,用戶登錄框體包括用戶名和密碼兩個輸入部分,屬于必須填寫的內(nèi)容,在輸入用戶信息后,點擊登錄按鈕后即可進入肝臟分割可視化平臺。圖4-2登錄界面4.2.2界面設計在通過登錄界面后,將進入用戶-機器的交互界面,如圖4-3所示,在界面中包含:模式選擇、操作選擇、輸入顯示、分割效果圖展示幾個部分。操作流程為:首先,通過模式選擇,選取加載圖像,加載完成后,視頻或者圖片會在輸入顯示模塊進行展示,平臺將等待用戶進行算法調(diào)用的操作選擇,是否進行圖像分割,如需進行分割,選擇開始執(zhí)行按鈕,即開始在后臺調(diào)用算法進行肝臟圖像分割,在算法完成處理后,得到的分割效果圖將在相應位置進行展示。圖4-3界面展示如上述操作,當用戶選擇圖像模式進行圖像的加載時,則可以首先點擊“瀏覽”,彈出如圖4-4和圖4-5所示的界面后,即可加載本地圖片,支持JPG和PNG格式。圖4-4圖像加載在選取了一張圖像加載進來后,圖片將如圖4-6所示在輸入圖像部分進行展示,然后調(diào)用算法對其進行肝臟分割,與此同時醫(yī)學圖像分割圖像中含有肝臟分割區(qū)域的將在相應區(qū)域進行展示。圖4-5分割示例4.3本章小結(jié)本章設計了圖像分割可視化平臺架構(gòu),基于本論文選擇的LiTS數(shù)據(jù)集,利用Python語言的PyQt5框架設計了圖像分割平臺,主要實現(xiàn)了利用本論文網(wǎng)絡模型對醫(yī)學圖像的肝臟區(qū)域進行分割,對本論文提出的改進的U-Net網(wǎng)絡模型算法研究的實際應用方面進一步實現(xiàn)。

第五章結(jié)論與展望5.1結(jié)論在醫(yī)學圖像分割的背景下,本文采用U-Net改進算法,進行了目標分割,實現(xiàn)性能提升,開發(fā)了肝臟分割可視化平臺,實現(xiàn)了算法的應用,在保證了算法處理速度的同時,可以便捷、準確分割病灶,本文主要研究成果如下:(1)建立U-Net卷積神經(jīng)網(wǎng)絡及其變體,對構(gòu)建的數(shù)據(jù)集進行訓練實驗,分別從多尺度、注意力機制和特征融合結(jié)構(gòu)的角度上對U-Net進行改進,加入金字塔-空間池化結(jié)構(gòu),并設計了特征融合模塊,最后在結(jié)構(gòu)的各個階段加入注意力機制,提升模型對特征的表達能力,解決圖像中存在的多尺度問題和背景復雜干擾問題,在數(shù)據(jù)集進行實驗。(3)為研究算法的實際應用,通過分析實際需求,設計了可以交互的肝臟分割可視化平臺,包括圖像處理、算法調(diào)用、肝臟分割等功能。5.2展望在后續(xù)研究中,考慮采用多種損失函數(shù)進行對照試驗,不同損失函數(shù)在梯度計算的時候快慢不同,選擇最合適的損失函數(shù)來訓練網(wǎng)絡。本文選擇了SE通道注意力機制引入網(wǎng)絡中,在后續(xù)可以考慮其他注意力機制,選擇其中效果最佳的注意力機制加入U-Net網(wǎng)絡中。醫(yī)學圖像分割可視化平臺功能尚未完備,用戶界面美觀度有待提升。

參考文獻OTSUN.Athresholdselectionmethodfromgray-levelhistograms[J].IEEETransactionsonSystems,Man,andCybernetics,1979,9(1):62-66.MUTHUKRISHNANR,RADHAM.Edgedetectiontechniquesforimagesegmentation[J].InternationalJournalofComputerScienceandInformationTechnology,2011,3(6):259-267.KAGANAMIHG,ZOUBJ.Region-basedsegmentationversusedgedetection[C]//Proceedingsofthe5thInternationalConferenceonIntelligentInformationHidingandMultimediaSignalProcessing.Piscataway:IEEE,2009:1217-1221.曹玉紅,徐海,劉蓀傲,王紫霄,李宏亮.基于深度學習的醫(yī)學影像分割研究綜述[J].計算機應用,2021,41(08):2273-2287.陰國富.基于閾值法的圖像分割技術(shù)[J].現(xiàn)代電子技術(shù),2007,(23):107-108.楊林蛟.基于閾值的圖像分割算法研究綜述:原理、分類及典型算法[J].沈陽師范大學學報(自然科學版),2023,41(06):526-529.岳欣華,鄧彩霞,張兆茹.BP神經(jīng)網(wǎng)絡與形態(tài)學融合的邊緣檢測算法[J].哈爾濱理工大學學報,2021,26(05):83-90.XiangL,YuchenJ,MingleiL,ShenY,etal.LightweightAttentionConvolutionalNeuralNetworkforRetinalVesselImageSegmentation[J].IEEETransactionsonIndustrialInformatics,2021,17(3):1958-1967.R.ManjulaDevi,V.Seenivasagam.AutomaticSegmentationandClassificationofLiverTumorfromCtImageUsingFeatureDifferenceandSvmBasedClassifier-SoftComputingTechnique[J].Softcomputing,2020,24(24):18591-18598.LaurentMassoptier,SergioCasciaro.AnewfullyautomaticandrobustalgorithmforfastsegmentationoflivertissueandtumorsfromCTscans[J].InternationalJournalofM

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論