面向城市場景的高分遙感影像分割算法設計_第1頁
面向城市場景的高分遙感影像分割算法設計_第2頁
面向城市場景的高分遙感影像分割算法設計_第3頁
面向城市場景的高分遙感影像分割算法設計_第4頁
面向城市場景的高分遙感影像分割算法設計_第5頁
已閱讀5頁,還剩21頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

目錄TOC\o"1-3"\h\u85811引言 引言1.1研究背景近年來,高分辨率遙感圖像在城市規(guī)劃、環(huán)境監(jiān)測、災情評估等方面的應用日益廣泛。由于遙感圖像具有較高的空間分辨率,可以獲取更多的城市地物細節(jié),從而實現(xiàn)對城區(qū)地物的精細化提取。但城區(qū)地形復雜,對圖像的自動分割與判讀提出了更高的要求。傳統(tǒng)的基于像素點的圖像分割算法因忽略了像元之間的空間聯(lián)系,常常會出現(xiàn)過度分割的情況,不能滿足對圖像進行高質量分析的要求。如何充分挖掘高分影像所蘊含的豐富的空間與紋理信息,實現(xiàn)高精度、高效率的城區(qū)影像分割,是目前遙感圖像處理研究的一個關鍵科學問題。1.2研究意義高分辨率遙感圖像的分割是提升城市遙感應用效率與精度的關鍵。首先,高精度圖像分割能夠有效提高后續(xù)研究中的精度,幫助規(guī)劃人員更好地了解城市發(fā)展與環(huán)境變化。其次,該方法可以對高分辨圖像中的細節(jié)進行有效處理,消除“過度割”、“誤切”等現(xiàn)象,從而實現(xiàn)對高分辨圖像信息的自動抽取,降低人為干預,加快處理速度。同時,本項目的研究成果也將促進多源數(shù)據(jù)的融合與分析,拓展高分遙感的應用范圍,為城市管理和環(huán)境保護等提供更高效的技術支撐。2相關理論基礎2.1遙感影像分割方法遙感圖像的分割是將像素數(shù)據(jù)分解成若干個彼此獨立、具有各自特征的區(qū)域。定義如下:將R作為一張圖象的全部區(qū)域,通過一定的法則P將R分成一個沒有重疊的子集{S1,S2,...,Sn},這個過程叫做R的分塊。子集的順序具有以下5種特性:(1)圖像中所有子集區(qū)域的并集為原圖像區(qū)域R,如公式2-1所示。(2-1)(2)各個子區(qū)域在空間分布上是相互獨立的關系,即對所有i≠j,均有關系如公式2-2所示。(2-2)(3)分布在區(qū)域Si中的所有像素都具備相似特性,即i=1,2.…,n,均有關系如公式2-3所示。(2-3)(4)分布在不同區(qū)域中的像素都存在特征差異,即對所有i≠j,均有關系如公式2-4所示。(2-4)(5)子集序列中所有區(qū)域Si(i=1,2,…,n)均具有連通特性。2.2面向對象分析方法(OBIA)面向對象分析(OBIA)以物體為基礎,以物體為基礎,對物體進行處理與分析,其核心思想就是充分挖掘物體的各種特性,并對其進行最大限度的抽取與分析。這也是OBIA在高分遙感圖像處理中得到了廣泛的應用。隨著以eCognition為代表的商用高分辨率圖像及其處理軟件的問世,它已經(jīng)成為了高分辨率圖像信息抽取與應用的主流理念,如何將該理念融入到分割方法的具體實現(xiàn)與實現(xiàn)中,還需要我們進行對比、實驗、分析與總結。2.2.1面向對象分析思想OBIA是一種以目標為基礎的分析方法,它把一組有意義的像素數(shù)據(jù)看作是一個最小的運算單位來進行分析。美國R·L·凱蒂格和D·A·蘭德grebe首先提出了OOP的概念和方法。1976年,他們首次提出了一個基于多波段圖像的ECHO分類器,提出了同一類中像元的概率分布函數(shù)是相似的,而不同類型的像元的概率分布是不一樣的,并且認為分類器的計算單位要大于像元。此后,研究者們開展了一系列的OOD算法研究,并開發(fā)出了多個商業(yè)化的高精度圖像分割產品。2.2.2面向對象特征量化圖像分割就是將一幅圖像分成若干個大小相同的塊,這樣就不會產生真正的意義。在對已分割目標進行特定的類別標注,也就是對已分割目標進行分類,使其具備真實的語義信息,并具備信息抽取與利用的價值。在分割到類別劃分中,需要度量分割目標的不同屬性,以實現(xiàn)對分割目標的量化描述與劃分,這種多維向量被稱為目標特征。該方法能夠有效地解決高分遙感圖像中存在的“同物異譜”、“同譜異物”等問題。高分遙感圖像的目標特征十分豐富,其核心問題在于如何從大量的目標特征中選出具有代表性且具有高分離性的特征集合。Eakins等人提出三個層次的語義模型:一是低層的視覺特征,包括光譜、形狀和紋理等;第二個層次為基于視覺特征的語義對象級和空間關系級,其中包含了拓撲結構、上下文等特征;第三個層次是高層次的語義層次,從視頻中的物體和場景中推導而來,比如,實體的語義特征。(1)光譜特征光譜特征是表述影像對象灰度特征的屬性集合,度量了影像的光譜信息。計算公式如表2.1所示。表2.1光譜特征統(tǒng)計表EQ\*jc3\*hps10\o\al(\s\up9(?),C)kk(2)形狀特征形狀特征是表述影像對象空間幾何特征的屬性集合,目前常用的形狀特征的計算公式如表2.2所示。表2.2形狀特征統(tǒng)計表形狀特征計算公式說明長寬比目標區(qū)域的最小外接矩形的臨邊比率。面積目標區(qū)域包含的像元總數(shù)。一個像元單位面積為1。長度形狀指數(shù)一般用于呈線性分布的對象。目標區(qū)域邊界的光滑性。L是目標邊界總長。值越大邊界越不規(guī)則。(3)紋理特征紋理特征是描述影像對象在光譜空間變化規(guī)律的屬性集合,目前常用的紋理特征如表2.3所示。表2.3紋理特征統(tǒng)計表灰度共生矩陣建立估計影像的二階組合條件概率密度。自相關函數(shù)計分形模型引入分形維數(shù)概念表達紋空間到小波域的投影,篩選較穩(wěn)定紋理基元和形態(tài)學結構元素的內部(4)拓撲性質在此基礎上,提出了一種基于拓撲結構的圖像數(shù)據(jù)表示方法。例如:在一個圖像物體附近,嵌入、插入、外切或者與物體有一段距離。(5)背景特性語境特征是指描述圖像目標間所具有的特性或語義關聯(lián)的一組屬性,如圖像目標與其子目標、父目標間的關聯(lián)關系。(6)實體語義特點與圖像目標本身的本質特性不同,它是一種高層次的、與特定目標相關聯(lián)的、與特定目標相關的、更高層次的、更高層次的語義屬性。2.2.3面向對象相似性度量相似性是衡量兩個對象特征之間相關關系大小的指標,提取對象的特征后會組成多維的特征向量。計算他們之間的相似性或者距離,即相似性度量。定義兩個對象i和j的特征向量分別為二者相似性通常有以下幾種計算方式:(1)歐氏(Euclidean)距離(2-1)歐氏距離通過對不同特征分量的差值平方進行求和來計算兩個特征向量間的相似度??紤]到不同特征分量的量綱不同,需要在計算距離前標準化各分量的量綱。(2)馬氏(Mahalanobis)距離(2-2)其中C為輸入向量間的協(xié)方差矩陣,當兩個對象服從同一分布時可用馬氏距離度量相似性,其優(yōu)點是獨立于分量量綱,缺點是不能差別處理個分量,可能會夸大弱特征。(3)閔可夫斯基(Minkowsk)距離(2-3)閔可夫斯基距離是歐式距離的一種推廣,其與數(shù)據(jù)的分布無關,但會在計算過程中放大某一維度的作用。(4)切比雪夫(Chebyshev)距離(2-4)切比雪夫距離是將特征向量中特征數(shù)值差絕對值最大的特征維作為度量相似性的距離。最大限度利用了對象特征間的差異性,但其度量誤差較大。3基于面向城市的高分遙感影像分割算法分析高分遙感圖像的大尺度特征對分割算法的精度與適應性提出了更高的要求,因此,如何在高精度與高效率之間取得平衡是當前遙感圖像分割的一個重要研究方向。本項目擬通過構建高效的數(shù)據(jù)結構網(wǎng)絡,設計高效的融合算法,以保障分割精度與計算效率。本項目擬研究一種基于局部相鄰關系的遙感圖像分割算法,通過對原始影像進行形態(tài)濾波與流域標志轉換,獲得“過分割”影像,并以此為輸入影像,以此為基礎構建區(qū)域數(shù)據(jù)網(wǎng)絡,以最大相似度為準則,在此基礎上,通過對各區(qū)域間的相鄰關系的實時更新,實現(xiàn)對各區(qū)域間的相鄰關系的保持,從而獲得準確的分割效果。該方法充分考慮了區(qū)域之間的相鄰關系,使其具有較高的分割精度,并最大化了運算效率。3.1結合形態(tài)學濾波和標記分水嶺變換的影像預分割在此基礎上,我們提出了一種新的“過分割”算法:利用形態(tài)學濾波對原始圖像進行降噪,然后利用Sobel算子對圖像進行梯度化,然后對梯度圖像做膨脹極小和強迫極小操作,再通過標簽分水嶺變換獲得相應的“過分割”效果,然后再以此為輸入進行區(qū)域融合。詳細的計算是這樣的:假定原圖像是I(x,y),Mn是一種尺寸為n的結構單元,在此基礎上對圖像進行灰度膨脹與侵蝕操作,分別給出了3.1、3.2等式。膨脹:(3-1)腐蝕:(3-2)在此基礎上,提出了一種基于錳3×3的陣列結構來去除圖像中的噪聲。通過開閉操作,可以有效地消除圖像中的高、低亮度細節(jié),消除圖像中的局部極小點,避免出現(xiàn)新的極小點。該方法首先對原始圖像進行一次打開操作和閉合操作,消除圖像中的光與暗噪音,使圖像內部的紋理更加光滑,同時保持了圖像的邊緣信息。雖然利用形態(tài)濾波技術去除了圖像中大量的局部極大極小點,但是由于圖像中精細的紋理信息仍然比較豐富,因此采用分水嶺變換方法,其分割效果仍然存在著“過分割”現(xiàn)象,從而影響了后續(xù)區(qū)域的融合。在此基礎上,提出了一種基于擴張最小變換的梯度圖像標注方法,以減少局部精細的紋理信息。擴張最小變換是一種形態(tài)學門限操作,它通過設置高度閾值,消除了在h以下的積水區(qū)域內的局部極值,從而有效地提高了“過分割”的效果。將高度閾值設為h,則梯度圖象Vf的膨脹最小變換如公式3.3所示。(3-3)這里,?fmark是對梯度圖象進行擴張最小化后的輸出圖象,Emin是擴頻最小轉換操作,h是一個設置的高度門限,越大,所標注的最小值越小,在這個算法中,h是0.1。因為標注過程是二進制的邏輯操作,因此?fmark是二進制的。在得到有標志的圖象之后,采用強迫極小變換來校正圖象的梯度。只有標簽圖象中的最小值被保持在梯度圖象中,如公式3.4所示:(3-4)這里,?fforce是對梯度圖象進行強迫極小轉換的輸出圖象,F(xiàn)min是強迫極小變換操作。該方法首先對圖像進行預分割,然后將形態(tài)濾波與有標簽的流域分割相結合,從而實現(xiàn)對原始圖像的分割。該方法在圖像預處理過程中產生了“過分割”圖像,這時圖像處理的最小單元已經(jīng)不是像素,而是一種光譜均勻的分塊區(qū)域。在接下來的算法中,如何設計一個合理、有效的分區(qū)合并方法,是決定圖像處理質量的一個重要因素。圖3.1預分割流程圖3.2城市建筑物關系網(wǎng)絡結構區(qū)域融合是一個從迭代到收斂的計算過程,其存儲、查找和更新的方法對算法的執(zhí)行效率有很大的影響。根據(jù)搜索范圍的不同,將其劃分為全局優(yōu)化與局部優(yōu)化相結合。全局最優(yōu)匹配是指在每一步迭代時,搜索全局最相近的兩個區(qū)域作為最佳匹配區(qū)域,然后再進行融合,每次融合均以上一次融合的結果為基礎,優(yōu)化性能更好,但其求解速度比較慢,不適合大規(guī)模數(shù)據(jù)處理。區(qū)域鄰接圖(RAG)是一種以圖像為例的全局優(yōu)化匹配方法,它通過對圖像中各房屋間的相似度進行排序,并以此為基礎將其按一定的遞階排序保存到堆中,但在迭代過程中,往往要對序列進行重新排序與更新,無法滿足大規(guī)模數(shù)據(jù)劃分的要求?;诖耍卷椖刻岢鲆环N基于區(qū)域鄰接圖的城市房屋關聯(lián)模型,通過對該模型的局部最優(yōu)匹配策略,構建一種有效的城市房屋關聯(lián)網(wǎng)絡。該方法在區(qū)域拼接時采用局部最優(yōu)匹配策略來保持相鄰關系,既能充分利用局部信息,又能極大地提升算法的運算效率。在分割后的圖像中,存在著一組城市建筑數(shù)據(jù)結構,當區(qū)域融合時,其數(shù)據(jù)結構也將隨之發(fā)生變化,其中包含了該區(qū)域自身的信息以及與之相鄰的區(qū)域搜索信息。城市建筑數(shù)據(jù)結構如下:classObject{intid;//區(qū)域id號List<neiObject>neighbour=newList<neiObject>();//城市建筑物關系表}classneiObject{intid;//區(qū)域id號doublesimilarity;//城市建筑物相似性}因為每個地區(qū)的建筑數(shù)量是不一樣的,所以在建立城市建筑關聯(lián)表時,應將其動態(tài)變化的長度設置為一個動態(tài)的變量。在此基礎上,提出了一種基于圖像中各區(qū)域單位的房屋信息模型,并將其作為一個復雜的建筑物關聯(lián)網(wǎng)絡?;诖?,本項目提出一種基于局部優(yōu)化融合的方法,實現(xiàn)了對網(wǎng)絡中房屋關系的實時、高效地更新與維持。圖3.2城市建筑物關系網(wǎng)絡結構圖在進行區(qū)域融合的首次迭代操作中,首先對城市房屋關聯(lián)網(wǎng)中的各個結構體進行初始化分配。該算法的初始化方式是:先將圖像中的各個區(qū)域的灰度值作為它的區(qū)域id編號,再對圖像中的每個象素進行遍歷,如果相鄰象素之間的灰度差值不小于0,就判定它是一個邊緣象素,轉換之前和之后的灰度值分別與兩個城市建筑的id編號相對應,并把它們存入相應的兩個區(qū)域的數(shù)據(jù)結構體中,再對剩下的像素進行遍歷。3.3城市建筑物拓撲關系維護在此基礎上,提出了一種基于建筑關聯(lián)網(wǎng)絡結構的城市房屋關系模型,實現(xiàn)了對建筑關系的快速更新與維持。具體研究內容包括:(1)在圖像融合過程中,個體與整體房屋之間的關聯(lián)網(wǎng)絡的更新;(2)區(qū)域單元鄰接圖與區(qū)域相鄰關系網(wǎng)絡的維護。本項目以城市高分辨率遙感圖像為研究對象,研究基于編碼的城市高分辨率遙感圖像中的區(qū)域拓撲關系。首先建立了一個區(qū)域基元連接圖,該圖采用了一種新的數(shù)據(jù)結構描述了各區(qū)域之間的關聯(lián)。下面是Python代碼的一個例子,用于實現(xiàn)一個區(qū)域連續(xù)圖:classRegion:def__init__(self,id):self.id=idself.neighbors=[]defadd_neighbor(self,neighbor):ifneighbornotinself.neighbors:self.neighbors.append(neighbor)defcreate_adjacency_graph(regions,adjacency_info):graph={region.id:Region(region.id)forregioninregions}forregion_id,neighborsinadjacency_info.items():region=graph[region_id]forneighbor_idinneighbors:region.add_neighbor(graph[neighbor_id])returngraph3.3.1區(qū)域單元鄰接圖區(qū)域單元鄰接圖是一種可視化的表示,它體現(xiàn)了圖像中各個區(qū)域與其所屬城市建筑之間的相互關聯(lián),是一種無向圖。假定區(qū)域a是與n個區(qū)域局部相連的,那么a的區(qū)域鄰接圖可以被定義為:Ga=(R,F),這里R={r1,r2,...,rn}代表與a相鄰的n個區(qū)域,每一個區(qū)域都對應著一個單元鄰接圖上的結點,用于保存城市建筑的各種特性,F(xiàn)={f1,f2,...,fn}衡量了區(qū)域a與所有房屋之間的相似度,這兩個區(qū)域之間的相似度是由兩個節(jié)點中的一條邊決定的。圖3.3顯示了被分割后的圖像和相應的全部面積單元的鄰接圖。圖3.3區(qū)域單元鄰接圖區(qū)域單元鄰接圖中的邊是聯(lián)系其與其鄰近節(jié)點的關鍵信息,它體現(xiàn)了區(qū)域間的相似度,是判定節(jié)點是否要進行融合的標準。在進行區(qū)域迭代融合過程中,由于局部結點的丟失以及邊權值的改變,因此必須對相鄰圖進行實時更新。所以,每當局部搜索鄰接圖權值最小的時候,它的兩個端點都會被合并,并且在合并結束之后,馬上對鄰接圖中的結點的連通性和邊權值進行更新和維持,以確保其它區(qū)域在合并過程中不受鄰域間關系變化的影響。下文將對在合并過程中需要對區(qū)域單元相鄰關系圖進行更新的具體過程進行分析。(1)刪除和創(chuàng)建節(jié)點。在對區(qū)域進行融合時,先在區(qū)域元素鄰接圖上搜索權值最小的一條邊,如果符合,則下一步要做的就是將這條邊的兩端去掉,然后再建立一個新的。新節(jié)點是兩個結點的并集,具有兩個結點的共有屬性,所以該結點的屬性信息被分配到新結點,而兩個結點所對應的城鎮(zhèn)建筑數(shù)據(jù)結構體也被分配到新結點所對應的城鎮(zhèn)建筑數(shù)據(jù)結構體上。例如,在前一節(jié)描述的分割圖像中,在區(qū)域E單元鄰接圖中,在f(A,E)是全部邊權值的極小值時,將結點A和結點E剔除,重新創(chuàng)建結點AE,在向結點AE相應的區(qū)域單元鄰接圖中添加結點,并添加相應的邊權值。圖3.4中顯示了兩個節(jié)點的連接關系圖。圖3.4合并區(qū)域單元鄰接圖在區(qū)域單元鄰接圖中,需做的修正有:刪除單元間的鄰接圖和單元間的鄰接圖;創(chuàng)建新的結點AE,創(chuàng)建相應的結點鄰接圖;添加邊(AE,A)、(AE,B)、(AE,C)、(AE,D)、(AE,E)、(AE,F)等。(2)對合并后的單元相鄰圖進行更新。在一個新的結點AE中,既包含了A、E的全部特性信息,而且它的鄰接圖還包含了A、E的全部相鄰結點。通常,A、E的相鄰結點都有局部重合的情形,因而在AE結點鄰接圖中可能出現(xiàn)多余的結點,必須予以剔除。另外,因為在組合時,A、E都被刪除了,所以需要從AE單元鄰接圖中去除A、E節(jié)點。圖3.5顯示了AE單元相鄰關系圖的更新。圖3.5更新合并區(qū)域單元更新圖在區(qū)域單元鄰接圖中,應做如下修改:刪除節(jié)點A、B、D、E;在此基礎上,通過刪除邊(AE,A),(AE,B)、(AE,D),然后進行加權運算。(3)對剩余鄰域單元鄰接圖進行更新。在區(qū)域A、E融合時,除了A、E相應的區(qū)域細胞鄰接圖發(fā)生改變,而且與之相關聯(lián)的區(qū)域細胞鄰接圖也出現(xiàn)了差異,所以必須對除A、E以外的鄰近區(qū)域的細胞鄰接圖進行更新,并對其權值進行再計算,以確保剩余鄰近區(qū)域的融合不受影響。在圖3.6中顯示了剩余的鄰接區(qū)域單元圖。圖3.6更新其余區(qū)域單元鄰接圖在區(qū)域單元鄰接圖中,需要做的修改有:刪除結點A、E;創(chuàng)建新結點AE;刪除(B、A)、(B、E)、(C、E)、(D、A)、(D、E);然后對新的邊數(shù)(B,AE)、(C,AE),(D,AE)和(F,AE)進行加權。該方法充分發(fā)揮城區(qū)房屋數(shù)據(jù)結構的優(yōu)點,在實現(xiàn)區(qū)域房屋關聯(lián)關系的同時,可實現(xiàn)區(qū)域房屋關聯(lián)關系的自動更新,從而有效提升算法效率,為區(qū)域相鄰關系的更新提供依據(jù)。以下是創(chuàng)建鄰接圖的示例代碼:classRegionNode:def__init__(self,id):self.id=idself.neighbors=[]defadd_neighbor(self,neighbor):ifneighbornotinself.neighbors:self.neighbors.append(neighbor)defbuild_adjacency_graph(region_ids,adjacency_pairs):nodes={id:RegionNode(id)foridinregion_ids}forregion1,region2inadjacency_pairs:nodes[region1].add_neighbor(nodes[region2])nodes[region2].add_neighbor(nodes[region1])returnnodes3.3.2區(qū)域鄰接關系網(wǎng)該網(wǎng)絡是一種以圖像上任意一個區(qū)域為對象的空間網(wǎng)格結構,它是一種能夠反映整體尺度上某一區(qū)域現(xiàn)狀的無向圖。假定圖像由n個相互獨立的區(qū)域組成,該網(wǎng)絡可以由N=(R,E)組成,這里R={r1,r2,...,rn}代表n個區(qū)域,每一個區(qū)域都與網(wǎng)絡中的一個節(jié)點相連,用于保存該區(qū)域內的各種屬性信息。E={e1、e2、...、en},這里ei是區(qū)域ri與其所屬城市建筑(i=1、2、...、n)之間的相似度,它與節(jié)點ri和相鄰節(jié)點之間的連通邊相對應,而每條邊的權值就是這兩個區(qū)域之間的相似度。在圖3.7中顯示了被分割的圖像和相應的區(qū)域連接網(wǎng)絡。圖3.7區(qū)域鄰接關系網(wǎng)圖區(qū)域鄰接網(wǎng)絡刻畫了圖像中各區(qū)域在圖像上的分布狀況及相似度,用節(jié)點間的相對位置表示,而相似度用兩個結點間的邊權值來體現(xiàn)。在進行區(qū)域迭代融合的過程中,不但局部區(qū)域的鄰接圖會改變,而且區(qū)域間的關聯(lián)網(wǎng)絡也會發(fā)生整體變化,導致某些節(jié)點的消失、邊權值的改變,網(wǎng)絡狀態(tài)必須進行實時的維護。為此,在網(wǎng)絡網(wǎng)絡中遍歷節(jié)點并對其進行融合時,必須對其內部網(wǎng)絡中的節(jié)點連接關系及邊權值進行同步更新與維護,確保該網(wǎng)絡網(wǎng)絡能實時地反映出當前的準確區(qū)域相鄰關系,從而實現(xiàn)對區(qū)域查找、關系查詢等操作。以下將對在合并過程中需要對區(qū)域關聯(lián)網(wǎng)絡進行更新的具體過程進行分析。按順序遍歷網(wǎng)絡中各結點的區(qū)域元素鄰接圖,在此區(qū)域元素鄰接圖中找到權值最小的一條邊,如果符合,就把這兩個節(jié)點合并起來,然后再在本地更新相應的區(qū)域元素鄰接圖。在更新區(qū)域鄰接網(wǎng)絡時,必須先將要合并的結點剔除,再建立一個新的結點,同時修正、更新關聯(lián)的邊和權值。比如,在前一節(jié)描述的分割圖像中,當經(jīng)過區(qū)域A時,在區(qū)域A單元鄰接圖中,與E有關的邊權值是最小的,并且符合合并的條件,這時,按照上面部分描述的方法,更新本地有關的區(qū)域單元鄰接圖。在城市房屋網(wǎng)絡中,刪除A、E以及A、E與其鄰接節(jié)點之間的連接線,以創(chuàng)建新的節(jié)點AE,并在AE和其近鄰節(jié)點之間建立一條新的連接線,并添加相應的邊數(shù)和權值。圖3.8中顯示了兩個節(jié)點之間的城市建筑網(wǎng)絡。圖3.8合并區(qū)域鄰接關系網(wǎng)圖在城市建筑網(wǎng)絡模型中,要做的修改有:刪除節(jié)點A、E;刪除(A、B)、(A、D)、(A、E)、(E、B)、(E、D)、(E、F);然后對新的邊數(shù)(AE,B)、(AE,C)、(AE,D)和(AE,F)進行加權。本項目擬將多幅圖像上的多個區(qū)域單元鄰接圖進行融合,構建基于多個區(qū)域單元的多尺度關聯(lián)網(wǎng)絡,并通過對多個區(qū)域單元間的關聯(lián)進行互補,既能有效地解決多個問題,又能有效地提升計算效率。通過以下步驟更新城市建筑網(wǎng)絡:第一步:遍歷人際網(wǎng)絡中的各個結點,在該結點所對應的區(qū)域單元鄰接圖中,對相似度最高的建筑物進行局部搜索。第二步:如果符合合并條件,則刪除網(wǎng)絡中的兩個結點,新建一個結點,為新結點和鄰近結點之間的連線,再計算權值。步驟3:如果合并條件不符合,則遍歷下一節(jié)點,然后在相鄰的區(qū)域單元鄰接圖中尋找最大相似度的房屋。第四步:繼續(xù)第二步或者第三步,直到所有的節(jié)點都走過一遍,這樣就可以升級一次城市建筑網(wǎng)絡。第一步到第四步是一次對城市建筑網(wǎng)絡網(wǎng)絡的更新,隨著區(qū)域的迭代融合,網(wǎng)絡網(wǎng)絡也會持續(xù)地被更新,直到符合了融合結束的條件。在我們的算法中,一次網(wǎng)絡連接之后,待合并區(qū)域的數(shù)目并沒有改變,這是一種并不存在的合并結束條件。classRegionNetwork:def__init__(self):self.regions={}defadd_region(self,region_id):ifregion_idnotinself.regions:self.regions[region_id]=[]defadd_adjacency(self,region1,region2):ifregion2notinself.regions[region1]:self.regions[region1].append(region2)ifregion1notinself.regions[region2]:self.regions[region2].append(region1)#示例使用network=RegionNetwork()network.add_region(1)network.add_region(2)network.add_adjacency(1,2)3.4基于區(qū)域鄰接關系的遙感影像分割方法及流程本項目擬以城區(qū)房屋關聯(lián)關系為基礎,利用形態(tài)濾波與有標簽流域變換相結合的方式,對原始遙感圖像進行預分割,獲取原始圖像;在此基礎上,通過局部優(yōu)化策略,實現(xiàn)區(qū)域融合。其中,區(qū)域融合是一個關鍵的技術步驟,它包括兩個步驟:首先,將鄰域內的譜圖相似度作為融合與否的判據(jù);第二階段采用目標區(qū)域的邊界值作為融合的標準;針對融合過程中存在的問題,提出了一種基于局部特征相似度的融合方法,通過對融合結果的分析,確定了融合結束條件。在此基礎上,提出一種基于區(qū)域融合的新方法,將圖像中的區(qū)域目標按順序合并。區(qū)域融合標準1是:對于任意一個地區(qū),使用一個公式,求出與之相似度最高的城市建筑。在公式3.5中給出了定義區(qū)域A.B的相似度。(3-5)公式中,RA為R頻段內A區(qū)與B區(qū)的平均灰度;其中,GA是G頻段A區(qū)和B區(qū)的平均灰度,BA是B區(qū)B區(qū)和B區(qū)的平均灰度。設定相似度門檻值D,如果兩個區(qū)域的相似度低于門檻值D,那么就可以將其納入到城鎮(zhèn)建筑中,如果不符合,就不需要進行融合。區(qū)域融合標準2是:對于任意一個區(qū)域,求出它的面積(包括象素)。設定區(qū)域門檻值為S,當面積小于S時,符合合并條件,這時按公式求出與之相似度最大的城區(qū)建筑,如果不符合,就將其保留。按公式3.6計算區(qū)域門限S。(3-6)其中,K是該地區(qū)的真實面積,通常是一個常數(shù),而“分辨率”是一種遙感圖像的空間分辨率。SA隨圖像分辨率的增加而增大,圖像分辨率降低;本項目擬以圖像的空間分辨率為依據(jù),以目標區(qū)域的真實面積(而不是像元數(shù))為依據(jù),實現(xiàn)基于圖像空間分辨率的動態(tài)調整,增強算法的適應性。當一個區(qū)域的一遍合完成后,該區(qū)域的數(shù)目保持不變,則該區(qū)域的合并終止。在圖3.9中顯示了該方法的分段流程。圖3.9分割算法流程圖實施區(qū)域整合的第一階段的特定措施是:步驟一:建立每個分區(qū)的城市建筑數(shù)據(jù)結構。第二步:按照3.2節(jié)的方法初始化每個城市的建筑數(shù)據(jù)結構。步驟三:遍歷待合并區(qū)域,找出與目前兩個地區(qū)相似度最高的建筑,判定是否合并為第一步,若為第四步,否則進行第五步。步驟4:按照3.3部分中的方法,將當前的區(qū)域和相鄰節(jié)點的關系進行合并。第五步:判斷圖像中的每一個區(qū)域,是否都已遍歷一遍。第六步,如果不是的話,那么就按照第3步進行。第六步:判斷最后一步的區(qū)域數(shù)量和最后一步結束后的區(qū)域數(shù)量是否一致,若沒有,則繼續(xù)第三步,若為,則繼續(xù)第二步。雖然圖像中仍殘留著大量的碎片化單元,其規(guī)模很小,且多數(shù)沒有實際意義,且含有部分噪音。在此基礎上,通過將目標區(qū)域的實際面積閾值作為融合的條件,實現(xiàn)了對此類區(qū)域的有效融合。實施區(qū)域整合的具體措施是:步驟1:根據(jù)前一步的工作,遍歷剩余的要合并的區(qū)域,并求出該區(qū)域的面積。判斷是否合并狀態(tài)2,若為,則執(zhí)行第2步,若否,則執(zhí)行第3步。第二步:尋找與當前兩個城區(qū)相似度最高的房屋,按照3.3部分中的算法,對其進行融合,并更新相鄰節(jié)點關系。步驟三:判定視頻中的全部區(qū)域是否已遍歷一遍,若為,則執(zhí)行第四步,若否,則繼續(xù)進行第一步。步驟四:判斷最后一步的范圍和最后一步的范圍的數(shù)量是否一致,若沒有,則繼續(xù)1步,若為,則輸出最后的結果,并終止分割。該算法首先對圖像進行預分割,所得圖像中包含大量細小的細小區(qū)域,而這些細小區(qū)域通常由少數(shù)像素組成,僅具有光譜特征。為此,首先根據(jù)目標區(qū)域的光譜特征相似度,對其進行融合;然后,根據(jù)目標區(qū)域的空間分布特點,對區(qū)域融合過程進行二次融合,使其既能發(fā)揮網(wǎng)絡結構的優(yōu)點,又能兼顧算法的準確性和計算效率。3.5算法實驗與分析3.5.1實驗數(shù)據(jù)與實驗設計本研究以WorldView-2衛(wèi)星的4個0.5m高分遙感圖像為研究對象,以2015里約熱內盧為例,采用紅色、綠色和藍色三個波段,圖像尺寸為438x406,并以此為基礎開展研究。在此基礎上,將所提出的方法應用于高分遙感圖像的分割,并通過分析各步驟的計算結果,評價該方法在高分遙感圖像上的應用效果。在此基礎上,本項目擬開展以下研究工作:1)針對2-3幀圖像,開展2-3圖像的主、客觀分割效果研究;2)利用視覺解譯方法,分別對2-3張圖像進行主、客觀、定性的分割效果,并與Mean-Shift算法進行對比分析;3、4張圖像,利用視覺解譯技術,對兩種方法的分割效果進行評價。(3-7)公式中G是通過人工操作在基準圖像上獲得的理論分割結果圖表,G_i是該圖中的第i個區(qū)域,I是該算法獲得的實際分割結果圖表,I_j是在該圖中G_i相應的區(qū)域,N是參照圖像中被選擇的區(qū)域的數(shù)量之和,SP的范圍在[0,1],SP越大,分割效果越好,反之則越好。圖3.10實驗影像3.5.2實驗結果與分析本實驗通過分割區(qū)域邊緣與原始遙感影像疊加的方式顯示算法的分割效果,并通過目視評價的方式進行分割精度的定性分析。第一組實驗中,對算法流程中各個階段的結果進行說明,從而證明算法對于高分辨率遙感影像具有較高適用性,實驗結果如圖3.11所示。(a)預處理(b)本文方法圖3.11實驗一結果圖圖3.11(a)是對圖像進行形態(tài)濾波及標志流域轉換后的圖像預分割結果,可見,在進行了預分割后,原始圖像的處理單位從一個單一的象素變成了一個均勻的區(qū)域,圖像中要合并的面積達到了6730個。流域分割方法的優(yōu)點是,輸出圖像的區(qū)域是封閉的,它為基于目標的區(qū)域融合提供了依據(jù)。在原始圖像中,“過分割”的情況仍然很嚴重,如圖3.11(b)所示,圖像中有352個區(qū)域,圖像中的植被、道路、建筑等區(qū)域與實際目標的邊界非常接近,“過分割”的情況也有了很大的改善。研究表明,該方法在融合過程中,將各區(qū)域之間的光譜相似度與目標的實際占用范圍相結合,有效地縮減了分割范圍,極大地提升了分割的準確性,取得了更好的效果。在第二個試驗中,使用Mean-Shift算法和該算法對圖像3.10(b)進行了分割,并采用視覺評估方法對圖像分割的準確性進行了定性比較。這片區(qū)域大部分都是植物,只有幾條公路和幾棟房子零零散散的分布著。所選擇的圖像具有一定的代表性,旨在證明該方法對于大塊區(qū)域的分割效果優(yōu)于現(xiàn)有的主流方法。(a)Mean-Shift(b)本文方法(g)本文方法局部1(h)本文方法局部2(i)本文方法局部3(j)本文方法局部4圖3.12實驗二結果圖圖3.12(a)是Mean-Shift算法處理后的劃分結果示意圖,在設置帶寬h為5且最小面積為50的情況下,Mean-Shift算法要求手動地輸入劃分參數(shù)。圖3.12(b)是對該算法進行處理后所獲得的圖像分割結果的圖表,該方法要求對圖像進行空間分辨率的輸入。通過對試驗結果的比較,可以看出:(1)從總體上來說,Mean-Shift和我們提出的方法對大塊區(qū)域都有“過分割”,但是我們的方法比MeanShift方法有很大的提高。(2)與圖3.12(C)、3.12(g)的局部分割結果進行比較,發(fā)現(xiàn)Mean-Shift算法中存在“過分割”、陰影、建筑等碎片化區(qū)域較多的問題,該方法能夠更全面地提取出整個區(qū)域,表現(xiàn)出更好的性能。(3)與圖3.12(D)、3.12(h)相比較,我們提出的方法能較好地保持陰影區(qū)的真實邊界,使得分割后的區(qū)域更有意義,且與Mean-Shift方法相比,該方法的分割準確率顯著提高。(4)與圖3.12(E)、3.12(1)相比較,圖像局部地物分布更密、光譜特征更復雜,Mean-Shift算法存在“過分割”、分割結果多為碎小區(qū)域、難于區(qū)分目標邊界等問題,本項目提出的算法能夠很好地實現(xiàn)局部分割,特別是在光譜不均勻的情況下,能夠更好地分割圖像,說明該方法在處理復雜、地物密集的地區(qū)具有更大的優(yōu)勢。(5)通過與圖3.12(F)、3.12(j)的比較,我們提出的方法對于大面積的植被區(qū)域具有較高的分割精度,但是Mean-Shift算法受分割參數(shù)整體性的制約,容易出現(xiàn)局部“過分割”現(xiàn)象。實驗結果表明,與傳統(tǒng)的Mean-Shift方法相比,該方法在分割塊狀區(qū)域時具有更好的性能。在第三個試驗中,我們使用Mean-Shift和我們提出的方法來劃分圖像3.10(c),并且比較了分割的準確性。研究區(qū)以居民小區(qū)為主體,以建筑、道路等為主體,植被面積很小。我們選擇了一些有代表性的圖像作為研究對象,將我們的方法與現(xiàn)有的圖像分割方法進行對比,結果顯示在圖3.13中。(a)Mean-Shift(b)本文方法(g)本文方法局部1(h)本文方法局部2(i)本文方法局部3(j)本文方法局部4圖3.13實驗三結果圖圖3.13(a)是在設置帶寬h為7并且最小面積為50的Mean-Shift算法過程中產生的劃分結果的圖表。圖3.13(b)是用這種方法對圖像進行分割后所得的圖像,通過對試驗結果進行比較,可以得到如下的分析結論:(1)從總體上來說,Mean-Shift和我們的方法在分割對象的稠密區(qū)域時都會出現(xiàn)“過分割”的情況,特別是對居民區(qū)這兩種方法都不能保證提取出的區(qū)域有意義,而我們提出的方法所獲得的區(qū)域邊界比Mean-Shift方法更接近真實物體的邊界,并且保持了更精確的目標輪廓。(2)從局部分割結果上分析,Mean-Shift算法具有“錯分割”的特點,而我們的方法則具有更顯著的“過度切割”。結果表明,“錯分割”比“過分割”對圖像分割效果的影響更大,因此,本文提出的方法比傳統(tǒng)的MeanShift方法具有更好的分割效果。(3)Mean-Shift和我們提出的方法在局部處理中各有優(yōu)勢,Mean-Shift方法僅根據(jù)圖像的分辨率進行,具有更好的自適應能力。在第四個試驗中,我們使用Mean-Shift和我們提出的方法來劃分圖像3.10(D),并量化地評估兩種方法的分割準確度。研究區(qū)內地物類型較多,包括建筑物、道路、植被、蔭涼、裸地等。實驗中,我們使用了基于SPs的分割準確度評估標準來量化并評估Mean-Shift與我們的算法的性能。(a)Mean-Shift(b)本文方法(c)參考分割圖圖3.14實驗四結果圖圖3.14(a)是在設置了帶寬h為8并且最小面積為50的Mean-Shift算法處理后的劃分結果圖表。圖3.14(b)是本方法所獲得的分割結果圖表,圖3.14(c)是手工勾出的基準分割結果圖表,其中一共有45個基準分區(qū),利用分割準確度評估指數(shù)SP來量化Mean-Shift與本論文的分割準確度,試驗結果見表3.1。表3.1分割精度評價表Mean-Shift算法SP值是對圖像進行分割的一個重要指標,SP值越大,圖像的分割精度就越高,分割效果也就越好。從表中可以看出,用Mean-Shift方法與本文方法對試驗區(qū)圖像進行的分割效果基本相同,而我們的方法比Mean-Shift方法稍高一些。這兩種方法在分割效果上都有一定的“過分割”,且不能有效地提取出包含語義信息的整個區(qū)域。4結論本文提出了基于區(qū)域鄰接關系的遙感影像分割算法。針對高分辨率遙感影像海量數(shù)據(jù)的特性對分割方法如何兼顧精度和效率進行了創(chuàng)新,采用了第二章中所介紹的所有基礎理論作為分析思想,利用區(qū)域合并的分割方法充分采用面向對象分析思想的優(yōu)勢,建立優(yōu)良的數(shù)據(jù)結構網(wǎng)絡和合并策略,結合形態(tài)學濾波和標記分水嶺變換的預分割和基于城市建筑物相關關系合并方法各自的優(yōu)勢,利用局部尋優(yōu)的區(qū)域合并思路取得了很好的分割結果。參考文獻:[1]李國金.基于多尺度分割的高分遙感影像典型目標分類[J].測繪與空間地理信息,2024,47(01):92-95.[2]周斌,王嘉琳,李航,龔強.高分影像在遼寧防災減災救災中的應用[J].衛(wèi)星應用,2024,(01):33-36.[3]李仂,周孝明,張梅.基于高分影像特征優(yōu)選的黃土高原撂荒耕地遙感監(jiān)測方法[J].農業(yè)工程學報,2023,39(22):226-235.[4]王小芹,張世超,劉春強,張園園.基于高分一號遙感影像的茶園識別研究——以貴州省湄潭縣某區(qū)域為例[J].青島遠洋船員職業(yè)學院學報,2023,44(04):26-29.[5]陳廣成,余煌浩,李彬權,陳丞,許棟,孫金彥.基于高分一號遙感影像的廣州市南沙區(qū)土地利用變化特征分析[J].人民珠江,2023,44(12):54-63.[6]郭偉,陸婉蕓,鄧廷起,黃國棟,尤文瑜,楊榮欣,俞涵,董壽銀,江瑞.高分航空光學遙感影像的山體陰影去除方法[J].測繪通報,2023,(11):30-35+47.[7]楊文軍,張楊,王福生,瞿躍輝.基于高分光學遙感影像的湖南省油茶林地識別技術研究——以漢壽縣為例[J].中南林業(yè)調查規(guī)劃,2023,42(04):30-34+62.[8]胡春霞,聶翔宇,林聰,傅俊豪,儲征偉.利用多特征協(xié)同深度網(wǎng)絡的高分遙感影像分類[J].測繪通報,2023,(10):74-79+104.[9]許自昌.基于元學習和K均值聚類的高分遙感影像變化檢測[J].遙感信息,2023,38(05):31-38.[10]王佳玥,蔡志

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論