基于PU塊劃分模式與DCT系數(shù)共生矩陣的HEVC視頻重壓縮檢測算法研究_第1頁
基于PU塊劃分模式與DCT系數(shù)共生矩陣的HEVC視頻重壓縮檢測算法研究_第2頁
基于PU塊劃分模式與DCT系數(shù)共生矩陣的HEVC視頻重壓縮檢測算法研究_第3頁
基于PU塊劃分模式與DCT系數(shù)共生矩陣的HEVC視頻重壓縮檢測算法研究_第4頁
基于PU塊劃分模式與DCT系數(shù)共生矩陣的HEVC視頻重壓縮檢測算法研究_第5頁
已閱讀5頁,還剩25頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

基于PU塊劃分模式與DCT系數(shù)共生矩陣的HEVC視頻重壓縮檢測算法研究一、引言1.1研究背景與意義隨著信息技術(shù)的飛速發(fā)展,數(shù)字視頻已廣泛應(yīng)用于各個領(lǐng)域,如網(wǎng)絡(luò)視頻、廣播電視、視頻監(jiān)控等。數(shù)字視頻的發(fā)展歷程豐富多樣,從早期在臺式計算機上增加簡單視頻功能的初級階段,到數(shù)字視頻在計算機中廣泛應(yīng)用成為主流的階段,再到普通個人計算機進入成熟多媒體計算機時代的高級階段,其發(fā)展不斷突破。在這一過程中,視頻壓縮技術(shù)發(fā)揮著關(guān)鍵作用,其中高效視頻編碼(HEVC,HighEfficiencyVideoCoding),也被稱為H.265,是一種具有重要影響力的視頻壓縮標(biāo)準。它旨在提供比之前的H.264/AVC標(biāo)準更高的壓縮效率,設(shè)計目標(biāo)是減少大約50%的數(shù)據(jù)大小,同時保持相同的視頻質(zhì)量,或者提供更高的視頻質(zhì)量而數(shù)據(jù)大小不變。HEVC具有更高的壓縮率,能有效減少存儲和傳輸成本,并且支持高達8K分辨率甚至更高分辨率的視頻壓縮,在高動態(tài)范圍(HDR)內(nèi)容上也有更好的視頻質(zhì)量表現(xiàn)。然而,視頻的易編輯性也帶來了嚴重的安全隱患。惡意篡改者可以利用各種視頻編輯軟件對視頻內(nèi)容進行修改,如刪除關(guān)鍵人物、改變事件發(fā)生的順序等,而這些篡改后的視頻可能會被用于誤導(dǎo)公眾、傳播虛假信息甚至作為虛假證據(jù)。在社交媒體平臺上,一些經(jīng)過篡改的視頻被大量傳播,引發(fā)公眾的誤解和社會的不穩(wěn)定。在司法領(lǐng)域,若作為證據(jù)的視頻被篡改,將會對司法公正造成極大的損害。因此,確保視頻內(nèi)容的真實性和完整性至關(guān)重要,視頻重壓縮檢測技術(shù)應(yīng)運而生。視頻重壓縮檢測能夠判斷視頻是否經(jīng)過二次或多次壓縮,從而為視頻的真實性提供重要線索。目前,針對HEVC視頻重壓縮檢測的研究具有重要的現(xiàn)實意義。一方面,隨著HEVC標(biāo)準在視頻領(lǐng)域的廣泛應(yīng)用,基于該標(biāo)準的視頻數(shù)量急劇增加,對這些視頻進行重壓縮檢測的需求也日益迫切。例如,在視頻監(jiān)控領(lǐng)域,大量采用HEVC編碼的監(jiān)控視頻需要進行重壓縮檢測,以確保監(jiān)控數(shù)據(jù)的真實性,為后續(xù)的事件分析和處理提供可靠依據(jù)。另一方面,現(xiàn)有的視頻重壓縮檢測方法在面對HEVC視頻時,存在檢測準確率不高、魯棒性差等問題。傳統(tǒng)的基于特征統(tǒng)計的方法在HEVC視頻復(fù)雜的編碼特性下,難以準確提取有效的特征;而一些基于深度學(xué)習(xí)的方法雖然取得了一定的效果,但對訓(xùn)練數(shù)據(jù)的依賴性較強,泛化能力不足。因此,研究一種高效、準確的基于PU塊劃分模式和DCT系數(shù)共生矩陣的HEVC視頻重壓縮檢測算法具有重要的理論和實際應(yīng)用價值。通過深入挖掘HEVC視頻編碼過程中PU塊劃分模式和DCT系數(shù)的特性,能夠為視頻重壓縮檢測提供新的思路和方法,提高檢測的準確率和魯棒性,從而更好地保障視頻內(nèi)容的真實性和完整性,維護社會的公平正義和信息安全。1.2國內(nèi)外研究現(xiàn)狀在視頻重壓縮檢測領(lǐng)域,國內(nèi)外學(xué)者開展了大量的研究工作,隨著HEVC標(biāo)準的廣泛應(yīng)用,針對HEVC視頻重壓縮檢測的研究逐漸成為熱點。早期的視頻重壓縮檢測主要集中在JPEG圖像和H.264視頻上。對于JPEG圖像,一些經(jīng)典的檢測方法利用圖像DCT系數(shù)的統(tǒng)計特性,如DCT系數(shù)直方圖、共生矩陣等,通過分析這些特征在重壓縮前后的變化來判斷圖像是否經(jīng)過重壓縮。在H.264視頻重壓縮檢測方面,研究人員從視頻的幀間預(yù)測、幀內(nèi)預(yù)測、變換系數(shù)等多個角度提取特征。有的方法利用宏塊的預(yù)測模式分布特性,分析重壓縮對預(yù)測模式的影響,以此作為檢測依據(jù);還有的方法關(guān)注變換系數(shù)的統(tǒng)計特征,通過比較不同壓縮次數(shù)下變換系數(shù)的分布差異來實現(xiàn)重壓縮檢測。隨著HEVC視頻的普及,針對HEVC視頻重壓縮檢測的研究不斷涌現(xiàn)。國外一些研究團隊從HEVC編碼的基本原理出發(fā),深入分析編碼過程中產(chǎn)生的特征變化。有的研究利用HEVC中編碼單元(CU,CodingUnit)、預(yù)測單元(PU,PredictionUnit)和變換單元(TU,TransformUnit)的劃分模式特點,提取相關(guān)特征進行重壓縮檢測。通過建立數(shù)學(xué)模型,分析單次壓縮和重壓縮視頻中PU塊劃分模式的概率分布差異,發(fā)現(xiàn)重壓縮會導(dǎo)致PU塊劃分模式的某些統(tǒng)計量發(fā)生變化,從而利用這些變化作為檢測重壓縮的線索。在DCT系數(shù)方面,研究人員分析了HEVC視頻重壓縮過程中DCT系數(shù)量化誤差的累積效應(yīng),通過對DCT系數(shù)的共生矩陣進行分析,提取能夠表征重壓縮的特征。國內(nèi)的研究也取得了一定的成果。一些學(xué)者結(jié)合機器學(xué)習(xí)和深度學(xué)習(xí)方法,對HEVC視頻重壓縮檢測進行了深入研究。通過提取視頻的多種底層特征,如顏色特征、紋理特征、運動特征等,并將這些特征與PU塊劃分模式和DCT系數(shù)特征相結(jié)合,利用支持向量機(SVM,SupportVectorMachine)、隨機森林等機器學(xué)習(xí)算法進行分類,取得了較好的檢測效果。隨著深度學(xué)習(xí)的發(fā)展,一些研究采用卷積神經(jīng)網(wǎng)絡(luò)(CNN,ConvolutionalNeuralNetwork)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN,RecurrentNeuralNetwork)等深度學(xué)習(xí)模型,自動提取視頻的高層抽象特征,進一步提高了重壓縮檢測的準確率和效率。然而,現(xiàn)有的基于PU塊劃分模式和DCT系數(shù)共生矩陣的HEVC視頻重壓縮檢測方法仍存在一些不足之處。一方面,PU塊劃分模式和DCT系數(shù)特征在不同視頻內(nèi)容和編碼參數(shù)下的穩(wěn)定性有待提高。當(dāng)視頻內(nèi)容復(fù)雜多變,如包含大量運動場景、復(fù)雜紋理時,這些特征容易受到干擾,導(dǎo)致檢測準確率下降;不同的編碼參數(shù),如量化參數(shù)(QP,QuantizationParameter)的變化,也會對PU塊劃分模式和DCT系數(shù)特征產(chǎn)生較大影響,使得基于這些特征的檢測方法的泛化能力受限。另一方面,當(dāng)前的研究在特征提取和融合方面還不夠完善。大多數(shù)方法只單獨考慮PU塊劃分模式或DCT系數(shù)共生矩陣的某一種特征,未能充分挖掘兩者之間的內(nèi)在聯(lián)系和互補性;在特征融合過程中,也缺乏有效的融合策略,導(dǎo)致融合后的特征不能很好地反映視頻的重壓縮特性,從而影響檢測性能。此外,現(xiàn)有方法對于一些復(fù)雜的重壓縮場景,如多次重壓縮、不同編碼標(biāo)準之間的轉(zhuǎn)換重壓縮等,檢測效果仍不理想,難以滿足實際應(yīng)用中對視頻真實性和完整性檢測的高要求。1.3研究內(nèi)容與方法本研究主要圍繞基于PU塊劃分模式和DCT系數(shù)共生矩陣的HEVC視頻重壓縮檢測算法展開,具體研究內(nèi)容包括以下幾個方面:深入研究HEVC編碼標(biāo)準中的PU塊劃分模式,分析單次壓縮和重壓縮視頻中PU塊劃分模式的差異,建立PU塊劃分模式與重壓縮之間的數(shù)學(xué)關(guān)系模型,提取能夠有效表征重壓縮的PU塊劃分模式特征。例如,通過大量實驗統(tǒng)計不同視頻內(nèi)容在單次壓縮和重壓縮下PU塊劃分模式的概率分布,找出具有顯著差異的特征參數(shù)。對HEVC視頻重壓縮過程中的DCT系數(shù)量化誤差進行分析,研究DCT系數(shù)在重壓縮前后的變化規(guī)律。在此基礎(chǔ)上,構(gòu)建DCT系數(shù)共生矩陣,提取DCT系數(shù)共生矩陣的特征,如對比度、相關(guān)性、能量和熵等,以反映視頻的重壓縮特性。將PU塊劃分模式特征和DCT系數(shù)共生矩陣特征進行融合,設(shè)計合適的特征融合策略,如加權(quán)融合、串聯(lián)融合等。利用支持向量機、隨機森林等機器學(xué)習(xí)算法對融合后的特征進行訓(xùn)練和分類,建立高效的HEVC視頻重壓縮檢測模型,并對模型的性能進行評估和優(yōu)化。在研究方法上,本研究采用了多種方法相結(jié)合的方式:通過廣泛查閱國內(nèi)外相關(guān)文獻,了解視頻重壓縮檢測領(lǐng)域的研究現(xiàn)狀、發(fā)展趨勢以及存在的問題,為本研究提供理論基礎(chǔ)和研究思路。對HEVC編碼標(biāo)準的原理、PU塊劃分模式、DCT變換及量化等關(guān)鍵技術(shù)進行深入的理論分析,從數(shù)學(xué)和信號處理的角度探討重壓縮對這些技術(shù)產(chǎn)生的影響,為算法設(shè)計提供理論依據(jù)。收集大量不同內(nèi)容、不同分辨率、不同編碼參數(shù)的HEVC視頻,構(gòu)建實驗視頻庫。在實驗過程中,對視頻進行單次壓縮和重壓縮處理,提取PU塊劃分模式和DCT系數(shù)共生矩陣特征,并利用機器學(xué)習(xí)算法進行訓(xùn)練和測試,通過實驗結(jié)果分析算法的性能,驗證算法的有效性和優(yōu)越性。1.4創(chuàng)新點本研究在特征提取和算法融合等方面具有顯著的創(chuàng)新之處,有效提高了HEVC視頻重壓縮檢測的準確性和魯棒性。在特征提取方面,本研究創(chuàng)新性地結(jié)合了PU塊劃分模式和DCT系數(shù)共生矩陣的特征。以往的研究大多單獨考慮PU塊劃分模式或DCT系數(shù)的某一種特征,未能充分挖掘兩者之間的內(nèi)在聯(lián)系和互補性。本研究深入分析了HEVC編碼過程中PU塊劃分模式和DCT系數(shù)在重壓縮前后的變化規(guī)律,發(fā)現(xiàn)PU塊劃分模式能夠反映視頻編碼過程中的預(yù)測方式和塊劃分策略,而DCT系數(shù)共生矩陣則能體現(xiàn)視頻在頻率域的特征分布和相關(guān)性。通過將這兩種特征進行有機結(jié)合,能夠從多個角度全面地描述視頻的重壓縮特性,提高特征的表征能力,從而更準確地檢測視頻是否經(jīng)過重壓縮。例如,在復(fù)雜視頻內(nèi)容中,PU塊劃分模式特征能夠?qū)σ曨l的結(jié)構(gòu)變化進行有效捕捉,而DCT系數(shù)共生矩陣特征則能對視頻的紋理和細節(jié)變化進行補充描述,兩者相互補充,使得特征提取更加全面和準確。在特征融合策略上,本研究設(shè)計了一種基于加權(quán)融合和串聯(lián)融合相結(jié)合的方法。針對PU塊劃分模式特征和DCT系數(shù)共生矩陣特征的不同特點,為它們分配了不同的權(quán)重,使得對重壓縮檢測貢獻較大的特征能夠在融合過程中占據(jù)主導(dǎo)地位。通過實驗優(yōu)化權(quán)重分配,使得融合后的特征能夠更好地反映視頻的重壓縮特性。將加權(quán)融合后的特征進行串聯(lián),進一步豐富了特征信息,提高了特征的維度和表達能力,為后續(xù)的分類器提供了更全面、更有效的特征向量,從而提升了檢測的準確性。在算法選擇和優(yōu)化方面,本研究采用了支持向量機和隨機森林等多種機器學(xué)習(xí)算法,并對這些算法進行了參數(shù)優(yōu)化和性能比較。通過交叉驗證等方法,選擇了最優(yōu)的算法參數(shù),使得算法在訓(xùn)練和測試過程中能夠更好地擬合數(shù)據(jù),提高分類的準確性和穩(wěn)定性。還結(jié)合了集成學(xué)習(xí)的思想,將多個分類器的結(jié)果進行融合,進一步提高了檢測的魯棒性和泛化能力,使其能夠適應(yīng)不同視頻內(nèi)容、編碼參數(shù)和重壓縮場景的檢測需求。二、相關(guān)理論基礎(chǔ)2.1HEVC視頻編碼技術(shù)2.1.1HEVC編碼原理與框架HEVC作為新一代的視頻編碼標(biāo)準,其編碼原理基于混合編碼框架,主要包括幀內(nèi)預(yù)測、幀間預(yù)測、變換量化和熵編碼等核心過程。幀內(nèi)預(yù)測是利用當(dāng)前圖像幀內(nèi)已編碼的像素信息來預(yù)測當(dāng)前像素值,以此去除圖像的空間冗余。在HEVC中,對于亮度分量,提供了多達35種預(yù)測模式,包括平面模式、DC模式以及33種角度模式。平面模式適用于平坦區(qū)域,通過對相鄰像素的線性插值來預(yù)測當(dāng)前像素;DC模式則是用相鄰像素的平均值進行預(yù)測,常用于平滑區(qū)域;角度模式則根據(jù)不同的角度方向,利用相鄰像素的相關(guān)性進行預(yù)測,能夠更好地適應(yīng)圖像中的紋理和邊緣信息。對于色度分量,也有多種預(yù)測模式,如垂直模式、水平模式、DC模式等,這些模式充分考慮了色度信息與亮度信息之間的關(guān)系,提高了預(yù)測的準確性。幀間預(yù)測利用視頻序列中相鄰幀之間的時間相關(guān)性,通過在參考幀中尋找與當(dāng)前幀像素塊匹配的塊,來預(yù)測當(dāng)前幀的像素值,從而去除時間冗余。其核心步驟包括運動估計和運動補償。運動估計是在參考幀中搜索與當(dāng)前幀像素塊最匹配的塊,確定其運動向量,運動向量表示當(dāng)前塊相對于參考塊的位移。在搜索過程中,采用了多種搜索算法,如全搜索算法、快速搜索算法等,以提高搜索效率和準確性。運動補償則是根據(jù)運動估計得到的運動向量,從參考幀中獲取預(yù)測塊,用于預(yù)測當(dāng)前幀像素塊,通過這種方式可以有效減少時間冗余,提高編碼效率。變換量化是將幀內(nèi)預(yù)測或幀間預(yù)測后的殘差信號進行處理,以進一步壓縮數(shù)據(jù)。變換的目的是將殘差信號從空間域轉(zhuǎn)換到頻率域,使其能量更加集中。在HEVC中,主要采用整數(shù)離散余弦變換(DCT,DiscreteCosineTransform),這種變換能夠有效地將信號的能量集中在低頻部分,便于后續(xù)的量化處理。量化則是對變換后的系數(shù)進行量化,根據(jù)量化參數(shù)(QP)對系數(shù)進行取舍和縮放,去除人眼難以察覺的高頻細節(jié)信息,從而達到數(shù)據(jù)壓縮的目的。量化參數(shù)QP越大,量化步長越大,對高頻系數(shù)的壓縮程度越高,但同時也會導(dǎo)致圖像質(zhì)量下降;QP越小,量化步長越小,圖像質(zhì)量越高,但壓縮比會降低。熵編碼是對變換量化后的系數(shù)以及其他編碼信息進行編碼,以實現(xiàn)無損壓縮。HEVC采用了上下文自適應(yīng)二進制算術(shù)編碼(CABAC,Context-AdaptiveBinaryArithmeticCoding)算法,該算法根據(jù)符號的上下文信息,自適應(yīng)地調(diào)整編碼模型,對出現(xiàn)概率較高的符號分配較短的碼字,對出現(xiàn)概率較低的符號分配較長的碼字,從而提高編碼效率。CABAC算法能夠充分利用視頻數(shù)據(jù)的統(tǒng)計特性,有效地減少冗余信息,進一步提高視頻的壓縮比。HEVC的編碼框架如圖1所示,視頻序列首先被分割為編碼樹單元(CTU,CodingTreeUnit),每個CTU可以遞歸地劃分為多個編碼單元(CU,CodingUnit),CU是進行預(yù)測、變換、量化和熵編碼等處理的基本單元。每個CU又可以進一步劃分為預(yù)測單元(PU,PredictionUnit)和變換單元(TU,TransformUnit),PU用于進行幀內(nèi)或幀間預(yù)測,TU用于進行變換和量化。經(jīng)過上述處理后,得到的編碼數(shù)據(jù)通過熵編碼模塊進行編碼,最終輸出壓縮后的視頻碼流。[此處插入HEVC編碼框架圖1][此處插入HEVC編碼框架圖1]2.1.2HEVC編碼的關(guān)鍵技術(shù)HEVC編碼之所以能夠取得比H.264更高的壓縮效率,關(guān)鍵在于采用了一系列先進的技術(shù),這些技術(shù)在各個編碼環(huán)節(jié)發(fā)揮著重要作用,有效提升了編碼性能。四叉樹結(jié)構(gòu)的塊劃分是HEVC編碼的重要創(chuàng)新之一。在HEVC中,CTU可以通過四叉樹結(jié)構(gòu)遞歸地劃分為不同大小的CU,最大的CU尺寸可以達到64×64,最小可以達到8×8(在一些配置下最小可至4×4)。這種靈活的塊劃分方式能夠更好地適應(yīng)視頻內(nèi)容的局部特性,對于平坦區(qū)域可以使用較大的CU進行編碼,減少編碼開銷;對于紋理復(fù)雜或運動劇烈的區(qū)域,則可以使用較小的CU,提高預(yù)測精度和編碼效率。CU可以進一步劃分為不同大小和形狀的PU,幀內(nèi)編碼的CU可以使用2N×2N或N×N的平方劃分,幀間編碼的CU還可以使用非對稱的劃分方式,如2N×N、N×2N等。這種多層次、靈活的塊劃分結(jié)構(gòu),使得編碼器能夠根據(jù)視頻內(nèi)容的特點,動態(tài)地調(diào)整塊的大小和劃分方式,從而更有效地去除視頻中的冗余信息,提高編碼效率。多種預(yù)測模式的運用也是HEVC編碼的關(guān)鍵優(yōu)勢。如前文所述,在幀內(nèi)預(yù)測方面,亮度分量有35種預(yù)測模式,色度分量也有多種預(yù)測模式,這些豐富的預(yù)測模式能夠更精確地描述圖像中不同區(qū)域的空間相關(guān)性,提高預(yù)測的準確性。在幀間預(yù)測中,除了傳統(tǒng)的基于塊的運動補償技術(shù)外,HEVC還引入了一些新的技術(shù),如合并模式(MergeMode)和高級運動矢量預(yù)測(AMVP,AdvancedMotionVectorPrediction)。合并模式通過復(fù)用相鄰塊的運動信息,減少運動向量的傳輸,降低編碼比特數(shù);AMVP則通過對相鄰塊的運動向量進行預(yù)測,選擇最優(yōu)的運動向量預(yù)測值,提高運動向量的編碼效率,進一步提升幀間預(yù)測的性能。整數(shù)DCT變換在HEVC編碼中起到了重要作用。DCT變換能夠?qū)D像的空間域信號轉(zhuǎn)換為頻率域信號,使得圖像的能量主要集中在低頻部分,而高頻部分則包含了圖像的細節(jié)信息。通過對變換后的系數(shù)進行量化,可以有效地去除高頻部分的冗余信息,實現(xiàn)數(shù)據(jù)壓縮。在HEVC中,采用了整數(shù)DCT變換,避免了傳統(tǒng)DCT變換中的浮點運算,降低了計算復(fù)雜度,同時保證了變換的準確性和可逆性。整數(shù)DCT變換與量化過程緊密配合,根據(jù)量化參數(shù)對變換后的系數(shù)進行量化處理,在保證一定圖像質(zhì)量的前提下,最大限度地減少數(shù)據(jù)量,提高編碼效率。自適應(yīng)環(huán)路濾波技術(shù)是HEVC編碼的另一個關(guān)鍵技術(shù)。在視頻編碼過程中,由于量化等操作會引入噪聲和塊效應(yīng),影響圖像的主觀質(zhì)量。自適應(yīng)環(huán)路濾波技術(shù)通過對解碼后的圖像進行濾波處理,去除噪聲和塊效應(yīng),提高圖像的視覺質(zhì)量。HEVC采用了多種濾波方式,如去塊濾波(DeblockingFilter)、樣點自適應(yīng)補償(SAO,SampleAdaptiveOffset)和自適應(yīng)環(huán)路濾波(ALF,AdaptiveLoopFilter)。去塊濾波主要用于消除塊邊界處的不連續(xù)性,使圖像的塊邊界更加平滑;SAO則根據(jù)圖像的局部特征,對像素值進行自適應(yīng)調(diào)整,進一步提高圖像的質(zhì)量;ALF則是一種更加高級的濾波方式,它能夠根據(jù)圖像的內(nèi)容和編碼參數(shù),自適應(yīng)地調(diào)整濾波強度和方式,在去除噪聲和塊效應(yīng)的同時,保留圖像的細節(jié)信息,提升圖像的主觀和客觀質(zhì)量。這些濾波技術(shù)相互配合,根據(jù)視頻內(nèi)容和編碼參數(shù)的不同,自適應(yīng)地選擇合適的濾波方式和參數(shù),有效地提高了視頻的解碼圖像質(zhì)量。2.2PU塊劃分模式2.2.1PU塊劃分模式原理PU塊劃分模式在HEVC視頻編碼中起著至關(guān)重要的作用,它是實現(xiàn)高效預(yù)測和數(shù)據(jù)壓縮的關(guān)鍵環(huán)節(jié)。PU作為預(yù)測的基本單元,其劃分模式的選擇直接影響到預(yù)測的準確性和編碼效率。在HEVC編碼中,CU可以進一步劃分為不同大小和形狀的PU,這種靈活的劃分方式能夠更好地適應(yīng)視頻內(nèi)容的局部特性。在幀內(nèi)預(yù)測中,PU塊的劃分主要有兩種方式:2N×2N和N×N。2N×2N模式適用于圖像中較為平坦的區(qū)域,此時整個PU塊采用相同的預(yù)測模式進行預(yù)測。在一片藍色的天空區(qū)域,由于其像素值變化較為平緩,使用2N×2N的PU塊劃分模式,通過一種簡單的預(yù)測模式,如DC模式(用相鄰像素的平均值進行預(yù)測),就可以準確地預(yù)測當(dāng)前PU塊的像素值,從而有效地去除空間冗余。N×N模式則適用于紋理較為復(fù)雜的區(qū)域,將PU塊進一步劃分為更小的N×N子塊,每個子塊可以獨立選擇預(yù)測模式。在一幅包含樹葉紋理的圖像中,紋理細節(jié)豐富且變化復(fù)雜,使用N×N模式,每個小的子塊可以根據(jù)自身的紋理方向和特征,選擇最合適的角度模式進行預(yù)測,能夠更精確地描述圖像的局部特性,提高預(yù)測的準確性。在幀間預(yù)測中,PU塊的劃分方式更加多樣化,除了2N×2N和N×N的平方劃分外,還包括非對稱的劃分方式,如2N×N、N×2N等。2N×N模式適用于水平方向運動較為明顯的區(qū)域,通過將PU塊在水平方向上進行劃分,能夠更好地匹配參考幀中對應(yīng)區(qū)域的運動情況,提高運動估計和補償?shù)臏蚀_性。在一個視頻中,一輛汽車在水平方向上快速行駛,對于汽車所在的區(qū)域,采用2N×N的PU塊劃分模式,能夠更準確地捕捉汽車的運動信息,減少預(yù)測殘差。N×2N模式則適用于垂直方向運動較為突出的場景,通過垂直方向的劃分,能夠更好地適應(yīng)垂直方向的運動變化。對于視頻中上下運動的電梯場景,采用N×2N模式可以更有效地描述電梯的運動特征,提高幀間預(yù)測的精度。PU塊還可以采用跳過(Skip)模式和合并(Merge)模式。Skip模式適用于當(dāng)前PU塊與參考幀中的對應(yīng)塊具有相同的運動信息,此時無需傳輸預(yù)測殘差和運動向量,大大減少了編碼比特數(shù)。在一個視頻中,背景區(qū)域沒有明顯的運動變化,對于這些背景區(qū)域的PU塊,可以采用Skip模式,直接復(fù)用參考幀中對應(yīng)塊的信息,實現(xiàn)高效編碼。Merge模式則是通過復(fù)用相鄰塊的運動信息,減少運動向量的傳輸,降低編碼開銷。在一個人物行走的視頻中,人物周圍的PU塊在運動上具有一定的相關(guān)性,采用Merge模式,復(fù)用相鄰塊的運動向量,能夠有效地減少編碼數(shù)據(jù)量,提高編碼效率。2.2.2PU塊劃分模式在視頻重壓縮檢測中的應(yīng)用潛力PU塊劃分模式在視頻重壓縮檢測中具有巨大的應(yīng)用潛力,能夠為判斷視頻是否經(jīng)過重壓縮提供重要線索。在HEVC編碼過程中,PU塊劃分模式的選擇是基于視頻內(nèi)容的局部特性和編碼器的決策策略,而重壓縮會改變視頻的編碼歷史和統(tǒng)計特性,從而導(dǎo)致PU塊劃分模式發(fā)生變化。當(dāng)視頻進行單次壓縮時,編碼器會根據(jù)視頻的原始內(nèi)容,選擇最優(yōu)的PU塊劃分模式,以達到最佳的編碼效果。對于一個包含簡單背景和少量運動物體的視頻,在單次壓縮時,背景區(qū)域會傾向于選擇較大的PU塊劃分模式,如2N×2N,以減少編碼開銷;而運動物體區(qū)域則會根據(jù)其運動方向和速度,選擇合適的非對稱劃分模式或較小的PU塊劃分模式,以提高預(yù)測精度。當(dāng)視頻進行重壓縮時,由于重壓縮過程中使用的編碼器參數(shù)、預(yù)測模型等可能與單次壓縮不同,會導(dǎo)致PU塊劃分模式的分布發(fā)生改變。如果重壓縮時使用了不同的量化參數(shù),會使得視頻的殘差信號發(fā)生變化,進而影響編碼器對PU塊劃分模式的選擇。重壓縮后的視頻在一些原本平坦的區(qū)域,可能會因為量化誤差的累積,導(dǎo)致編碼器選擇更小的PU塊劃分模式,以更好地適應(yīng)信號的變化。通過分析PU塊劃分模式在單次壓縮和重壓縮視頻中的差異,可以提取出有效的特征來檢測視頻是否經(jīng)過重壓縮。可以統(tǒng)計不同PU塊劃分模式在視頻中的出現(xiàn)頻率,構(gòu)建PU塊劃分模式的概率分布特征。在單次壓縮視頻中,不同類型的PU塊劃分模式會呈現(xiàn)出一定的概率分布規(guī)律,而重壓縮會打破這種規(guī)律,使得某些PU塊劃分模式的出現(xiàn)頻率發(fā)生顯著變化。通過比較待檢測視頻與正常單次壓縮視頻的PU塊劃分模式概率分布,就可以判斷視頻是否經(jīng)過重壓縮。還可以分析PU塊劃分模式之間的轉(zhuǎn)換關(guān)系,即從一種PU塊劃分模式轉(zhuǎn)換到另一種模式的概率。在正常編碼過程中,PU塊劃分模式的轉(zhuǎn)換是有一定規(guī)律的,而重壓縮可能會導(dǎo)致這種轉(zhuǎn)換關(guān)系發(fā)生異常。通過研究這些異常的轉(zhuǎn)換關(guān)系,也能夠為視頻重壓縮檢測提供有力的依據(jù)。2.3DCT系數(shù)共生矩陣2.3.1DCT變換原理DCT變換,即離散余弦變換(DiscreteCosineTransform),是一種在數(shù)字信號處理和圖像處理領(lǐng)域廣泛應(yīng)用的正交變換。它的核心作用是將圖像從空間域轉(zhuǎn)換到頻率域,通過這種轉(zhuǎn)換,能夠揭示圖像中不同頻率成分的分布情況,從而為后續(xù)的信號處理和壓縮提供便利。從數(shù)學(xué)原理上看,對于一個大小為N\timesN的圖像塊f(x,y),其二維DCT變換定義為:F(u,v)=\alpha(u)\alpha(v)\sum_{x=0}^{N-1}\sum_{y=0}^{N-1}f(x,y)\cos\left[\frac{(2x+1)u\pi}{2N}\right]\cos\left[\frac{(2y+1)v\pi}{2N}\right]其中,x,y=0,1,\cdots,N-1;u,v=0,1,\cdots,N-1;當(dāng)u=0時,\alpha(u)=\frac{1}{\sqrt{N}},當(dāng)u\neq0時,\alpha(u)=\sqrt{\frac{2}{N}},\alpha(v)$????????????\(\alpha(u)$?±?????????¨è????a????????-???$F(u,v)$è?¨?¤o?????¢??????é¢?????3???°???$(u,v)$è?¨?¤oé¢????????

????é??è??è????a?????¢???????????¨??oé?′??????????′

???$f(x,y)$è¢?è????¢??oé¢???????????3???°$F(u,v)$????????????é¢???????é??$(u,v)$?ˉ1?o???????????????oé?′????????1?????????é¢????é?????è|??????

??????????13?????o???????¤§è?′è??????????

??o???é¢????é????¨?????¢???????3???°??-??

???è???¤§????ˉ?é?????????ˉ1?o?????????|?????°???????????¢???è???¤????è?°????????-?¤§é?¢?§ˉ???????????o??????é??é¢????é????????è|??????

????????????è??????o1??????è?1????????ˉ???é??é¢????é??????????|?????°?????????é?????è???¤?????????°????????-????′

?????????é????????????|??????????è?1???????o1?????????è???-??????¨è§?é¢?????????-???DCT?????¢?????¥???è?3??3é??è|?????????¨?????¥HEVC????

???o????????¨??§???é¢??μ??????§é?′é¢??μ??????°????·??????·??????????ˉ1????·??????·è??è??DCT?????¢????°?????·??????·?????oé?′???è????¢??°é¢?????????????????????·???è??é?????è|?é????-??¨???é¢?é?¨??????è??é??é¢?é?¨??????è??é??????ˉ1è???°????è???

·??¨?????-???é?????è???¨???-?????ˉ??¥?

1???é??????????°?ˉ1é??é¢??3???°è??è??è???¤§?¨??o|??????????????

??o?oo????ˉ1é??é¢????è???????ˉ??????????o|è???????????é?¤é?¨???é??é¢??????ˉ?ˉ1?????????è§?è§?è′¨é????±???è???°????é??è??DCT?????¢???é???????????????????ˉ??¥????????°????°?è§?é¢???°???é??????????°è§?é¢?????????????DCT?????¢è????·???è??é??é????-??1??§???????????3??§???è???¤??°???????????′

?1?é?′????????3??§è???????oé¢?????3???°?1?é?′???????ˉ1????????§???è??????-¥???é???o??????????????????¨?????a???????oo??????è????ˉ???è§?é¢???§??-????oo??????è?????????¤§é?¢?§ˉ???è????ˉ??o?????ˉ??¥??±???é¢??3???°????¥???°è?¨?¤o???è???oo??????é?¢é?¨???è?????è?£???????o1????-??????±é??é¢??3???°?????°???é??è??DCT?????¢????°?è???o??????ˉè????¢??oé¢?????3???°?????¨é??????????ˉ??¥?

1????oo??????è§?è§???1??§????ˉ1é??é¢??3???°è??è??é????????????????????è????¨???èˉ??????????è|??????1?????°????????????????????°??°?????????????????????\##\##2.3.2??±??????é?μ????????±??????é?μ?????¨?§°??o??°?o|??±??????é?μ???GrayLevelCo-occurrenceMatrix???GLCM????????ˉ????§???¨?o????è?°????????-????′

??°?o|??oé?′?????3??§??????????·¥??·?????¨???????o1??????????????1??????????????????????±??-?é¢???????????1??3?????o???¨????????o???????????ˉ??o?o?????????-????′

??°?o|??????è????????????????·?????¥èˉ′?????±??????é?μé??è?????è??????????-??·?????1?????oé?′????????3?3?????|?è·??|????è§??o|????????¤??a????′

?????°?o|?o§????????o??°???é¢?????????¥?????o?????a???é?μ????ˉ1?o?????1???°?o|????????????è???????°?o|?o§??±???$L$??a?????±??????é?μ$P$??ˉ?????a$L\timesL$??????é?μ??????é?μ??-???????′

$P(i,j,d,\theta)$è?¨?¤o??¨è·??|???o$d$???è§??o|??o$\theta$?????????????????°?o|?????o$i$???????′

?????°?o|?????o$j$???????′

????????o??°????????°??????è·??|?$d=1$???è§??o|$\theta=0^{\circ}$???????°±??ˉ???è???°′?13??1?????????é??????′

??°?o|?????o$i$???$j$????????o??°????????°??????è§??o|$\theta=90^{\circ}$???????????ˉ???è???????′??1?????????é??????′

??°?o|?????o$i$???$j$????????o??°????????°?????±??????é?μè???¤??????

??????????¤??§??o1?????1??????è????ˉ?????¨??????????????-??·???é??è|???·???????????

???è??é??????1??§°??oè§??o?é??????????ˉ??±??????é?μ????????aé??è|???1????????????è?????????????o???\[ASM=\sum_{i=0}^{L-1}\sum_{j=0}^{L-1}P^2(i,j,d,\theta)\]è??é???????

?o?????????°?o|????????????????¨??o|????o1???????2?????o|????????±??????é?μ??-???????′

??????è????oé????-?????3????o???°?o|?ˉ1??o??°???é¢????è??é????????è??é?????è???¤§???è??è?¨?¤o??????????o1???è????oè§??????????????????°?o|??????????ˉ1é????-?????¨????1??13??????è??è?2?¤???o????????-?????±?o?????′

??°?o|?????????è???°??????°?o|?ˉ1?????o??°è????oé????-?????±??????é?μ???è??é??????°±???è???¤§?????μ??ˉ??|?????aé??è|???1?????????è?????????????o???\[ENT=-\sum_{i=0}^{L-1}\sum_{j=0}^{L-1}P(i,j,d,\theta)\log_2P(i,j,d,\theta)\]??μè?¨?¤o????????-?o1??????é?????????¨??o|????¤?????¨??o|????????±??????é?μ??-???????′

??????è????o?????£?????3????§???°?o|?ˉ1??o??°???é¢????è????o??????????????μ???è???¤§???èˉ′?????????????o1???è????o?¤??????????è§?????????¨????1????????¤?????

?????o1??????????????-?????±?o??o1??????è????°?ˉ??????°?o|?ˉ1?????o??°è????oé????o?????±??????é?μ?????μ????°±???è???¤§????ˉ1?ˉ??o|?1???ˉ??±??????é?μ???é??è|???1????1??????????è?????????????o???\[CON=\sum_{i=0}^{L-1}\sum_{j=0}^{L-1}(i-j)^2P(i,j,d,\theta)\]?ˉ1?ˉ??o|?????

?o???????????????°?o|????o1????2??o1????·±?μ??¨??o|????o1????2??o1è???·±????ˉ1?ˉ??o|è???¤§???è§?è§???????è???????°???????1?????ˉ1?ˉ??o|?°????????2??o1?μ???????????¨??3??????¨????1???·?????????è?1??????????????-???è?1????¤??????°?o|?·????è???¤§?????±??????é?μ????ˉ1?ˉ??o|????°±???è???¤§????????3??§????o|é???o???oé?′??°?o|??±??????é?μ????′

??¨è??????????1????????????????¨??o|??????è?????????????o???\[COR=\frac{\sum_{i=0}^{L-1}\sum_{j=0}^{L-1}(i-\mu_i)(j-\mu_j)P(i,j,d,\theta)}{\sigma_i\sigma_j}\]?????-???\(\mu_i,\mu_j分別是灰度值i和j的均值,\sigma_i,\sigma_j分別是灰度值i和j的標(biāo)準差。相關(guān)性值大小反映了圖像中局部灰度的相關(guān)性,當(dāng)矩陣元素值均勻相等時,相關(guān)值就大;相反,如果矩陣像元值相差很大則相關(guān)值小。在一幅具有規(guī)則紋理的圖像中,由于紋理具有一定的重復(fù)性和相關(guān)性,共生矩陣的相關(guān)性值就會較大。2.3.3DCT系數(shù)共生矩陣構(gòu)建與特征提取DCT系數(shù)共生矩陣的構(gòu)建是基于DCT變換后的系數(shù),它能夠進一步挖掘視頻在頻率域的特征,為視頻重壓縮檢測提供有力的支持。在構(gòu)建DCT系數(shù)共生矩陣時,首先對視頻幀進行分塊處理,通常將視頻幀劃分為多個大小相同的塊,如8×8或16×16的塊。對每個塊進行DCT變換,得到對應(yīng)的DCT系數(shù)矩陣。以8×8的塊為例,經(jīng)過DCT變換后,會得到一個8×8的DCT系數(shù)矩陣,其中包含了不同頻率的系數(shù)。然后,針對這些DCT系數(shù),計算其共生矩陣。與傳統(tǒng)的灰度共生矩陣類似,DCT系數(shù)共生矩陣也是通過統(tǒng)計具有特定空間位置關(guān)系的DCT系數(shù)對的出現(xiàn)頻率來構(gòu)建??梢越y(tǒng)計相鄰DCT系數(shù)(如水平相鄰、垂直相鄰等)的共生情況,構(gòu)建一個共生矩陣。假設(shè)DCT系數(shù)的取值范圍被量化為K個級別,那么DCT系數(shù)共生矩陣Q就是一個K\timesK的矩陣,其中元素Q(m,n,d,\theta)表示在距離為d、角度為\theta的條件下,DCT系數(shù)級別為m和n的系數(shù)對同時出現(xiàn)的次數(shù)。當(dāng)距離d=1,角度\theta=0^{\circ}時,就是統(tǒng)計水平方向上相鄰DCT系數(shù)級別為m和n同時出現(xiàn)的次數(shù)。從DCT系數(shù)共生矩陣中提取特征是實現(xiàn)視頻重壓縮檢測的關(guān)鍵步驟。通過計算共生矩陣的一些統(tǒng)計特征,可以得到能夠有效表征視頻重壓縮特性的特征向量。對比度是一個重要的特征,它反映了DCT系數(shù)共生矩陣中元素的分布差異。在視頻重壓縮過程中,由于量化等操作的變化,DCT系數(shù)的分布會發(fā)生改變,從而導(dǎo)致共生矩陣的對比度發(fā)生變化。如果重壓縮時采用了不同的量化參數(shù),會使得DCT系數(shù)的量化誤差發(fā)生改變,進而影響系數(shù)對的出現(xiàn)頻率,使得對比度發(fā)生變化。相關(guān)性特征也具有重要意義,它反映了DCT系數(shù)之間的相關(guān)性。重壓縮可能會破壞DCT系數(shù)之間原有的相關(guān)性,導(dǎo)致共生矩陣的相關(guān)性特征發(fā)生變化。能量和熵等特征也能從不同角度反映視頻的重壓縮特性。能量反映了DCT系數(shù)共生矩陣中元素分布的集中程度,重壓縮可能會使系數(shù)分布更加分散或集中,從而改變能量值。熵則表示DCT系數(shù)分布的不確定性,重壓縮可能會增加或減少這種不確定性,導(dǎo)致熵值的變化。為了更直觀地說明,假設(shè)有一個視頻幀,在單次壓縮后,其DCT系數(shù)共生矩陣的對比度為C_1,相關(guān)性為R_1,能量為E_1,熵為S_1。當(dāng)該視頻幀進行重壓縮后,由于量化參數(shù)的改變,DCT系數(shù)的分布發(fā)生了變化,此時共生矩陣的對比度變?yōu)镃_2,相關(guān)性變?yōu)镽_2,能量變?yōu)镋_2,熵變?yōu)镾_2。通過比較C_1與C_2、R_1與R_2、E_1與E_2、S_1與S_2的差異,可以判斷視頻是否經(jīng)過重壓縮。如果差異較大,則說明視頻很可能經(jīng)過了重壓縮;如果差異較小,則視頻經(jīng)過重壓縮的可能性較小。在實際應(yīng)用中,可以將這些特征進行組合,形成一個多維的特征向量,作為后續(xù)分類器的輸入,以提高視頻重壓縮檢測的準確性。三、基于PU塊劃分模式的重壓縮檢測算法設(shè)計3.1算法思路本研究提出的基于PU塊劃分模式的HEVC視頻重壓縮檢測算法,核心思路是通過深入分析PU塊劃分模式在單次壓縮和重壓縮視頻中的變化規(guī)律,提取能夠有效表征重壓縮的特征,進而實現(xiàn)對視頻是否經(jīng)過重壓縮的準確判斷。在HEVC編碼過程中,PU塊劃分模式的選擇是基于視頻內(nèi)容的局部特性和編碼器的決策策略。對于不同的視頻內(nèi)容,編碼器會根據(jù)像素的空間相關(guān)性、運動信息等因素,選擇最合適的PU塊劃分模式,以達到最佳的編碼效果,實現(xiàn)高效的數(shù)據(jù)壓縮。在一個包含靜態(tài)場景的視頻中,如一幅風(fēng)景畫面,由于畫面中的物體相對靜止,像素之間的空間相關(guān)性較強,編碼器會傾向于選擇較大的PU塊劃分模式,如2N×2N,以減少編碼開銷,提高編碼效率。而在一個包含動態(tài)場景的視頻中,如一場體育比賽,畫面中物體的運動較為劇烈,像素之間的空間相關(guān)性較弱,編碼器會根據(jù)物體的運動方向和速度,選擇合適的非對稱劃分模式或較小的PU塊劃分模式,如2N×N、N×2N或N×N,以提高預(yù)測精度,更準確地描述視頻內(nèi)容。當(dāng)視頻進行重壓縮時,由于重壓縮過程中使用的編碼器參數(shù)、預(yù)測模型等可能與單次壓縮不同,會導(dǎo)致PU塊劃分模式發(fā)生變化。重壓縮時使用了不同的量化參數(shù),會使得視頻的殘差信號發(fā)生變化,進而影響編碼器對PU塊劃分模式的選擇。在單次壓縮時,某個區(qū)域可能因為像素變化較為平緩而選擇了2N×2N的PU塊劃分模式;但在重壓縮時,由于量化參數(shù)的改變,該區(qū)域的殘差信號發(fā)生了變化,編碼器可能會認為該區(qū)域的像素變化變得復(fù)雜,從而選擇N×N的PU塊劃分模式,以更好地適應(yīng)信號的變化。重壓縮過程中使用的預(yù)測模型不同,也會導(dǎo)致PU塊劃分模式的改變。不同的預(yù)測模型對視頻內(nèi)容的理解和處理方式不同,會根據(jù)自身的算法特點選擇不同的PU塊劃分模式?;谝陨显恚舅惴ㄊ紫葘σ曨l幀進行分塊處理,將視頻幀劃分為多個編碼單元(CU),然后對每個CU進一步劃分成不同的預(yù)測單元(PU)。在這個過程中,詳細記錄每個PU的劃分模式,包括其大小、形狀以及在幀內(nèi)或幀間預(yù)測中的具體模式。對于幀內(nèi)預(yù)測的PU,記錄其是采用2N×2N還是N×N的劃分模式,以及具體的預(yù)測模式(如平面模式、DC模式、角度模式等);對于幀間預(yù)測的PU,記錄其劃分模式(如2N×2N、2N×N、N×2N、N×N)、運動向量、合并模式或跳過模式等信息。通過大量的實驗和數(shù)據(jù)分析,統(tǒng)計不同類型視頻在單次壓縮和重壓縮下PU塊劃分模式的概率分布。對于包含不同場景(如室內(nèi)、室外、人物、風(fēng)景等)、不同運動程度(如靜止、緩慢運動、快速運動等)的視頻,分別統(tǒng)計其單次壓縮和重壓縮后的PU塊劃分模式概率分布。建立PU塊劃分模式概率分布模型,將待檢測視頻的PU塊劃分模式概率分布與該模型進行對比。如果待檢測視頻的PU塊劃分模式概率分布與單次壓縮視頻的模型差異較大,而與重壓縮視頻的模型更為接近,則判斷該視頻經(jīng)過了重壓縮。通過這種方式,能夠有效地利用PU塊劃分模式的變化特征,實現(xiàn)對HEVC視頻重壓縮的準確檢測。3.2特征提取在基于PU塊劃分模式的重壓縮檢測算法中,特征提取是關(guān)鍵環(huán)節(jié),其準確性直接影響到后續(xù)重壓縮檢測的效果。本算法主要從視頻幀的I幀和P幀中提取PU塊劃分模式特征,通過對這些特征的分析來判斷視頻是否經(jīng)過重壓縮。在視頻序列中,I幀是獨立編碼的幀,它包含了完整的圖像信息,不依賴于其他幀進行解碼,主要用于去除空間冗余。P幀則是基于前向預(yù)測的幀,它利用前面的I幀或P幀作為參考幀進行預(yù)測編碼,主要去除時間冗余。由于I幀和P幀在編碼方式和作用上的不同,它們的PU塊劃分模式也具有不同的特點,因此分別對I幀和P幀進行特征提取能夠更全面地反映視頻的重壓縮特性。對于I幀,首先將其劃分為多個編碼單元(CU),CU是HEVC編碼中的基本處理單元,其大小可以根據(jù)視頻內(nèi)容的復(fù)雜度進行自適應(yīng)調(diào)整,最大可以達到64×64,最小可以為8×8。對于每個CU,進一步劃分為不同的預(yù)測單元(PU),在I幀中,PU的劃分模式主要有2N×2N和N×N兩種。統(tǒng)計不同尺寸PU模式的變化情況,具體來說,計算2N×2N模式的PU在I幀中出現(xiàn)的頻率f_{2N\times2N}^I,以及N×N模式的PU出現(xiàn)的頻率f_{N\timesN}^I。還記錄每種模式下不同預(yù)測方向的使用頻率,在2N×2N模式下,預(yù)測方向包括平面模式、DC模式和33種角度模式。假設(shè)平面模式的使用次數(shù)為n_{plane}^{2N\times2N},DC模式的使用次數(shù)為n_{DC}^{2N\times2N},第k種角度模式的使用次數(shù)為n_{angle,k}^{2N\times2N}(k=1,2,\cdots,33),則平面模式的使用頻率為p_{plane}^{2N\times2N}=\frac{n_{plane}^{2N\times2N}}{n_{total}^{2N\times2N}},DC模式的使用頻率為p_{DC}^{2N\times2N}=\frac{n_{DC}^{2N\times2N}}{n_{total}^{2N\times2N}},第k種角度模式的使用頻率為p_{angle,k}^{2N\times2N}=\frac{n_{angle,k}^{2N\times2N}}{n_{total}^{2N\times2N}},其中n_{total}^{2N\times2N}為2N×2N模式的PU總數(shù)。在N×N模式下,同樣記錄各種預(yù)測方向的使用頻率。通過這些統(tǒng)計信息,可以構(gòu)建I幀的PU塊劃分模式特征向量\mathbf{F}_I=[f_{2N\times2N}^I,f_{N\timesN}^I,p_{plane}^{2N\times2N},p_{DC}^{2N\times2N},p_{angle,1}^{2N\times2N},\cdots,p_{angle,33}^{2N\times2N},\cdots]。對于P幀,其PU塊劃分模式除了2N×2N和N×N外,還包括2N×N、N×2N等非對稱劃分模式,以及跳過(Skip)模式和合并(Merge)模式。統(tǒng)計不同尺寸PU模式的出現(xiàn)頻率,如2N×2N模式的PU出現(xiàn)頻率f_{2N\times2N}^P,2N×N模式的PU出現(xiàn)頻率f_{2N\timesN}^P,N×2N模式的PU出現(xiàn)頻率f_{N\times2N}^P,N×N模式的PU出現(xiàn)頻率f_{N\timesN}^P,Skip模式的PU出現(xiàn)頻率f_{Skip}^P,Merge模式的PU出現(xiàn)頻率f_{Merge}^P。記錄每種模式下運動向量的統(tǒng)計信息,對于采用運動補償?shù)腜U(如2N×N、N×2N、N×N等模式),統(tǒng)計運動向量的水平分量mv_x和垂直分量mv_y的均值\overline{mv_x}、\overline{mv_y},以及它們的方差\sigma_{mv_x}^2、\sigma_{mv_y}^2。假設(shè)在2N×N模式下,有n_{2N\timesN}個PU,其運動向量的水平分量分別為mv_{x,1}^{2N\timesN},mv_{x,2}^{2N\timesN},\cdots,mv_{x,n_{2N\timesN}}^{2N\timesN},垂直分量分別為mv_{y,1}^{2N\timesN},mv_{y,2}^{2N\timesN},\cdots,mv_{y,n_{2N\timesN}}^{2N\timesN},則水平分量的均值為\overline{mv_x}^{2N\timesN}=\frac{1}{n_{2N\timesN}}\sum_{i=1}^{n_{2N\timesN}}mv_{x,i}^{2N\timesN},方差為\sigma_{mv_x}^{2,2N\timesN}=\frac{1}{n_{2N\timesN}}\sum_{i=1}^{n_{2N\timesN}}(mv_{x,i}^{2N\timesN}-\overline{mv_x}^{2N\timesN})^2,垂直分量同理。通過這些統(tǒng)計信息,構(gòu)建P幀的PU塊劃分模式特征向量\mathbf{F}_P=[f_{2N\times2N}^P,f_{2N\timesN}^P,f_{N\times2N}^P,f_{N\timesN}^P,f_{Skip}^P,f_{Merge}^P,\overline{mv_x}^{2N\timesN},\overline{mv_y}^{2N\timesN},\sigma_{mv_x}^{2,2N\timesN},\sigma_{mv_y}^{2,2N\timesN},\cdots]。將I幀和P幀的特征向量進行融合,得到最終的PU塊劃分模式特征向量\mathbf{F}=[\mathbf{F}_I,\mathbf{F}_P]。這個特征向量綜合了I幀和P幀的PU塊劃分模式信息,能夠更全面、準確地反映視頻的重壓縮特性,為后續(xù)的重壓縮檢測提供有力的數(shù)據(jù)支持。在一個包含人物運動的視頻中,I幀的PU塊劃分模式特征可以反映人物和背景的靜態(tài)結(jié)構(gòu)信息,而P幀的PU塊劃分模式特征可以體現(xiàn)人物運動的動態(tài)信息,通過融合兩者的特征,能夠更準確地判斷視頻是否經(jīng)過重壓縮。3.3特征選擇與優(yōu)化在基于PU塊劃分模式的HEVC視頻重壓縮檢測算法中,特征選擇與優(yōu)化是提升檢測性能的關(guān)鍵步驟,直接影響到算法的準確性和效率。通過合理的特征選擇與優(yōu)化,可以去除冗余特征,保留最具代表性和區(qū)分度的特征,從而提高檢測模型的性能。在提取PU塊劃分模式特征后,面對眾多的特征維度,需要進行特征選擇以去除冗余和不相關(guān)的特征。采用互信息分析方法來評估每個特征與重壓縮標(biāo)簽之間的相關(guān)性?;バ畔⒛軌蚝饬績蓚€隨機變量之間的依賴程度,在本算法中,用于衡量每個PU塊劃分模式特征與視頻是否經(jīng)過重壓縮這一標(biāo)簽之間的依賴關(guān)系。對于I幀的特征向量\mathbf{F}_I,計算每個特征分量與重壓縮標(biāo)簽之間的互信息。假設(shè)特征分量f_{2N\times2N}^I與重壓縮標(biāo)簽y之間的互信息為MI(f_{2N\times2N}^I,y),通過計算可以得到各個特征分量的互信息值。根據(jù)互信息值的大小,設(shè)定一個閾值T_{MI},去除互信息值小于閾值的特征。如果某個角度模式的使用頻率p_{angle,k}^{2N\times2N}與重壓縮標(biāo)簽的互信息值MI(p_{angle,k}^{2N\times2N},y)小于閾值T_{MI},則認為該特征與重壓縮的相關(guān)性較弱,將其從特征向量中去除。通過這種方式,能夠篩選出與重壓縮相關(guān)性較強的I幀特征,得到優(yōu)化后的I幀特征向量\mathbf{F}_I^{'}。對于P幀的特征向量\mathbf{F}_P,同樣采用互信息分析方法進行特征選擇。計算每個特征分量,如不同尺寸PU模式的出現(xiàn)頻率f_{2N\times2N}^P,f_{2N\timesN}^P,f_{N\times2N}^P,f_{N\timesN}^P,f_{Skip}^P,f_{Merge}^P,以及運動向量的統(tǒng)計信息\overline{mv_x}^{2N\timesN},\overline{mv_y}^{2N\timesN},\sigma_{mv_x}^{2,2N\timesN},\sigma_{mv_y}^{2,2N\timesN}等與重壓縮標(biāo)簽之間的互信息。根據(jù)互信息值與閾值T_{MI}的比較,去除相關(guān)性較弱的特征,得到優(yōu)化后的P幀特征向量\mathbf{F}_P^{'}。在特征選擇之后,還可以對保留的特征進行優(yōu)化處理,以進一步提高特征的質(zhì)量和檢測性能。對特征進行歸一化處理,使不同特征之間具有相同的尺度,避免某些特征因數(shù)值較大而對模型訓(xùn)練產(chǎn)生過大的影響。對于I幀特征向量\mathbf{F}_I^{'}中的頻率特征f_{2N\times2N}^I,f_{N\timesN}^I等,由于它們的取值范圍在[0,1]之間,無需進行歸一化處理。對于一些數(shù)值范圍較大的特征,如P幀中運動向量的方差\sigma_{mv_x}^{2,2N\timesN},\sigma_{mv_y}^{2,2N\timesN}等,可以采用最小-最大歸一化方法,將其歸一化到[0,1]范圍內(nèi)。具體公式為:x_{norm}=\frac{x-x_{min}}{x_{max}-x_{min}}其中,x為原始特征值,x_{min}和x_{max}分別為該特征在訓(xùn)練數(shù)據(jù)集中的最小值和最大值,x_{norm}為歸一化后的特征值。通過歸一化處理,能夠使特征在模型訓(xùn)練過程中具有更好的表現(xiàn),提高模型的收斂速度和準確性。還可以采用主成分分析(PCA,PrincipalComponentAnalysis)方法對特征進行降維處理。PCA是一種常用的線性變換方法,它能夠?qū)⒏呔S數(shù)據(jù)轉(zhuǎn)換為低維數(shù)據(jù),同時保留數(shù)據(jù)的主要特征。將優(yōu)化后的I幀特征向量\mathbf{F}_I^{'}和P幀特征向量\mathbf{F}_P^{'}合并為一個特征矩陣\mathbf{X},對\mathbf{X}進行PCA變換。PCA變換的核心步驟是計算特征矩陣\mathbf{X}的協(xié)方差矩陣,然后求解協(xié)方差矩陣的特征值和特征向量。根據(jù)特征值的大小,選擇前k個最大特征值對應(yīng)的特征向量,組成一個投影矩陣\mathbf{W}。將特征矩陣\mathbf{X}與投影矩陣\mathbf{W}相乘,得到降維后的特征矩陣\mathbf{X}_{PCA}。通過PCA降維,不僅可以減少特征的維度,降低計算復(fù)雜度,還可以去除特征之間的相關(guān)性,提高特征的獨立性和有效性。在實際應(yīng)用中,需要根據(jù)實驗結(jié)果和檢測性能要求,合理選擇降維后的維度k,以達到最佳的檢測效果。3.4分類器選擇與訓(xùn)練在基于PU塊劃分模式的HEVC視頻重壓縮檢測算法中,分類器的選擇與訓(xùn)練至關(guān)重要,它直接決定了檢測算法的準確性和可靠性。經(jīng)過綜合考慮和對比分析,本研究選擇支持向量機(SVM)作為分類器,其具有良好的分類性能和泛化能力,能夠有效地處理高維數(shù)據(jù)和非線性分類問題,在模式識別領(lǐng)域得到了廣泛應(yīng)用。SVM的基本原理是尋找一個最優(yōu)的超平面,將不同類別的數(shù)據(jù)分開,使得離超平面最近的點(即支持向量)到超平面的距離最大化。在二維空間中,假設(shè)存在兩類數(shù)據(jù)點,分別用不同的符號表示,SVM的目標(biāo)就是找到一條直線,將這兩類數(shù)據(jù)點盡可能準確地分開,并且使這條直線到最近的數(shù)據(jù)點的距離最大。對于線性可分的數(shù)據(jù),SVM可以通過求解一個二次規(guī)劃問題來得到最優(yōu)超平面的參數(shù)。假設(shè)數(shù)據(jù)集為\{(x_i,y_i)\}_{i=1}^n,其中x_i是特征向量,y_i\in\{-1,1\}是類別標(biāo)簽,最優(yōu)超平面的方程可以表示為w^Tx+b=0,其中w是超平面的法向量,b是偏移量。為了找到最優(yōu)的w和b,需要最大化支持向量到超平面的距離,即最大化\frac{1}{\|w\|},同時滿足約束條件y_i(w^Tx_i+b)\geq1,i=1,2,\cdots,n。通過拉格朗日乘子法將這個有約束的優(yōu)化問題轉(zhuǎn)化為無約束的對偶問題進行求解。然而,在實際應(yīng)用中,數(shù)據(jù)往往是線性不可分的,此時SVM通過引入核函數(shù)將低維空間中的數(shù)據(jù)映射到高維空間中,使得數(shù)據(jù)在高維空間中變得線性可分。常用的核函數(shù)有線性核函數(shù)K(x_i,x_j)=x_i^Tx_j、多項式核函數(shù)K(x_i,x_j)=(x_i^Tx_j+1)^d(其中d是多項式的次數(shù))、高斯核函數(shù)K(x_i,x_j)=\exp(-\frac{\|x_i-x_j\|^2}{2\sigma^2})(其中\(zhòng)sigma是高斯核的帶寬)等。不同的核函數(shù)適用于不同的數(shù)據(jù)分布和分類問題,需要根據(jù)具體情況進行選擇。在本研究中,使用經(jīng)過特征選擇與優(yōu)化后的PU塊劃分模式特征向量作為SVM的輸入數(shù)據(jù)。首先,將訓(xùn)練數(shù)據(jù)集劃分為訓(xùn)練集和驗證集,通常按照一定的比例,如70%的數(shù)據(jù)作為訓(xùn)練集,30%的數(shù)據(jù)作為驗證集。訓(xùn)練集用于訓(xùn)練SVM模型,驗證集用于評估模型的性能和調(diào)整模型的參數(shù)。在訓(xùn)練過程中,需要對SVM的參數(shù)進行調(diào)整,以獲得最佳的分類性能。主要調(diào)整的參數(shù)包括懲罰參數(shù)C和核函數(shù)參數(shù)。懲罰參數(shù)C用于控制模型對錯誤分類樣本的懲罰程度,C值越大,模型對錯誤分類的懲罰越重,模型的復(fù)雜度越高,容易出現(xiàn)過擬合;C值越小,模型對錯誤分類的容忍度越高,模型的復(fù)雜度越低,可能會出現(xiàn)欠擬合。對于高斯核函數(shù),需要調(diào)整的參數(shù)是帶寬\sigma,\sigma值越小,高斯核函數(shù)的作用范圍越小,模型的復(fù)雜度越高;\sigma值越大,高斯核函數(shù)的作用范圍越大,模型的復(fù)雜度越低。為了找到最優(yōu)的參數(shù)組合,采用交叉驗證的方法。將訓(xùn)練集進一步劃分為k個子集,如k=5或k=10。在每次迭代中,選擇其中一個子集作為驗證集,其余k-1個子集作為訓(xùn)練集,訓(xùn)練SVM模型并在驗證集上進行評估。通過多次迭代,得到不同參數(shù)組合下模型在驗證集上的性能指標(biāo),如準確率、精確率、召回率和F1得分等。選擇性能指標(biāo)最優(yōu)的參數(shù)組合作為最終的模型參數(shù)。在一個實驗中,對懲罰參數(shù)C在[0.1,1,10,100]范圍內(nèi)進行搜索,對高斯核函數(shù)的帶寬\sigma在[0.01,0.1,1,10]范圍內(nèi)進行搜索,通過5折交叉驗證,計算不同參數(shù)組合下模型在驗證集上的F1得分。經(jīng)過實驗,發(fā)現(xiàn)當(dāng)C=10,\sigma=0.1時,模型的F1得分最高,因此選擇這組參數(shù)作為最終的SVM模型參數(shù)。在確定最優(yōu)參數(shù)后,使用整個訓(xùn)練集對SVM模型進行訓(xùn)練,得到最終的HEVC視頻重壓縮檢測模型。這個模型將用于對待檢測視頻的重壓縮判斷,通過將待檢測視頻的PU塊劃分模式特征向量輸入到訓(xùn)練好的SVM模型中,模型根據(jù)學(xué)習(xí)到的分類規(guī)則,輸出視頻是否經(jīng)過重壓縮的判斷結(jié)果。四、基于DCT系數(shù)共生矩陣的重壓縮檢測算法設(shè)計4.1算法思路本研究提出的基于DCT系數(shù)共生矩陣的HEVC視頻重壓縮檢測算法,其核心思路是通過深入分析視頻重壓縮過程中DCT系數(shù)的變化規(guī)律,構(gòu)建DCT系數(shù)共生矩陣,并提取其中能夠有效表征重壓縮的特征,以此實現(xiàn)對HEVC視頻是否經(jīng)過重壓縮的準確判斷。在HEVC視頻編碼過程中,DCT變換是將預(yù)測后的殘差信號從空間域轉(zhuǎn)換到頻率域的關(guān)鍵步驟,其目的是使信號能量更加集中,便于后續(xù)的量化和編碼。在對一個視頻幀進行編碼時,首先進行幀內(nèi)或幀間預(yù)測,得到預(yù)測殘差。然后對殘差信號進行DCT變換,將其轉(zhuǎn)換為DCT系數(shù)。這些DCT系數(shù)包含了視頻幀的頻率信息,低頻系數(shù)主要反映視頻的大致輪廓和背景信息,高頻系數(shù)則主要體現(xiàn)視頻的細節(jié)和紋理信息。在一個包含人物和背景的視頻幀中,人物的輪廓和大面積的背景區(qū)域由低頻系數(shù)很好地表示,而人物的面部細節(jié)、衣服的紋理等則由高頻系數(shù)體現(xiàn)。在量化過程中,根據(jù)量化參數(shù)(QP)的大小,對DCT系數(shù)進行取舍和縮放,去除人眼難以察覺的高頻細節(jié)信息,從而達到數(shù)據(jù)壓縮的目的。當(dāng)視頻進行重壓縮時,由于量化等操作的變化,DCT系數(shù)會發(fā)生改變,這種改變會反映在DCT系數(shù)的共生矩陣中。如果重壓縮時采用了不同的量化參數(shù),會使得DCT系數(shù)的量化誤差發(fā)生改變,進而影響系數(shù)對的出現(xiàn)頻率。在單次壓縮時,某個DCT系數(shù)對(m,n)在共生矩陣中的出現(xiàn)次數(shù)為Q_1(m,n);而在重壓縮后,由于量化參數(shù)的改變,該系數(shù)對的出現(xiàn)次數(shù)可能變?yōu)镼_2(m,n),且Q_1(m,n)\neqQ_2(m,n)。通過分析這種變化,可以提取出能夠表征重壓縮的特征?;谝陨显?,本算法首先對視頻幀進行分塊處理,通常將視頻幀劃分為多個大小相同的塊,如8×8或16×16的塊。對每個塊進行DCT變換,得到對應(yīng)的DCT系數(shù)矩陣。以8×8的塊為例,經(jīng)過DCT變換后,會得到一個8×8的DCT系數(shù)矩陣。然后,針對這些DCT系數(shù),計算其共生矩陣。與傳統(tǒng)的灰度共生矩陣類似,DCT系數(shù)共生矩陣也是通過統(tǒng)計具有特定空間位置關(guān)系的DCT系數(shù)對的出現(xiàn)頻率來構(gòu)建。可以統(tǒng)計相鄰DCT系數(shù)(如水平相鄰、垂直相鄰等)的共生情況,構(gòu)建一個共生矩陣。假設(shè)DCT系數(shù)的取值范圍被量化為K個級別,那么DCT系數(shù)共生矩陣Q就是一個K\timesK的矩陣,其中元素Q(m,n,d,\theta)表示在距離為d、角度為\theta的條件下,DCT系數(shù)級別為m和n的系數(shù)對同時出現(xiàn)的次數(shù)。當(dāng)距離d=1,角度\theta=0^{\circ}時,就是統(tǒng)計水平方向上相鄰DCT系數(shù)級別為m和n同時出現(xiàn)的次數(shù)。從DCT系數(shù)共生矩陣中提取特征是實現(xiàn)視頻重壓縮檢測的關(guān)鍵步驟。通過計算共生矩陣的一些統(tǒng)計特征,如對比度、相關(guān)性、能量和熵等,可以得到能夠有效表征視頻重壓縮特性的特征向量。將這些特征向量作為分類器的輸入,利用支持向量機(SVM)等分類器進行訓(xùn)練和分類,從而判斷視頻是否經(jīng)過重壓縮。在一個實驗中,對大量單次壓縮和重壓縮的視頻進行分析,提取它們的DCT系數(shù)共生矩陣特征,然后使用SVM進行訓(xùn)練和分類。實驗結(jié)果表明,該算法能夠有效地檢測出視頻是否經(jīng)過重壓縮,具有較高的準確率和可靠性。4.2DCT變換與系數(shù)提取在基于DCT系數(shù)共生矩陣的HEVC視頻重壓縮檢測算法中,DCT變換與系數(shù)提取是構(gòu)建DCT系數(shù)共生矩陣并實現(xiàn)重壓縮檢測的基礎(chǔ)步驟,其準確性和有效性直接影響后續(xù)的檢測效果。對視頻幀進行DCT變換時,通常將視頻幀劃分為多個大小相同的塊,如8×8或16×16的塊,這是因為較小的塊尺寸能夠更好地適應(yīng)圖像局部特征的變化,同時在計算復(fù)雜度和變換效果之間取得較好的平衡。以8×8的塊為例,對每個塊進行DCT變換,其變換過程基于離散余弦變換的數(shù)學(xué)原理。二維DCT變換的公式為:F(u,v)=\alpha(u)\alpha(v)\sum_{x=0}^{N-1}\sum_{y=0}^{N-1}f(x,y)\cos\left[\frac{(2x+1)u\pi}{2N}\right]\cos\left[\frac{(2y+1)v\pi}{2N}\right]其中,x,y=0,1,\cdots,N-1;u,v=0,1,\cdots,N-1;當(dāng)u=0時,\alpha(u)=\frac{1}{\sqrt{N}},當(dāng)u\neq0時,\alpha(u)=\sqrt{\frac{2}{N}},\alpha(v)的取值與\alpha(u)類似。在實際計算中,對于一個8×8的圖像塊f(x,y),通過上述公式計算得到對應(yīng)的8×8的DCT系數(shù)矩陣F(u,v)。在對一個包含人物面部的視頻幀進行處理時,將其劃分為多個8×8的塊,對其中一個塊進行DCT變換,經(jīng)過復(fù)雜的數(shù)學(xué)運算,得到該塊的DCT系數(shù)矩陣。在這個矩陣中,低頻系數(shù)集中在左上角,如F(0,0)等,它們主要反映了人物面部的大致輪廓和亮度信息;高頻系數(shù)分布在右下角,如F(7,7)等,它們體現(xiàn)了人物面部的細節(jié)信息,如眉毛、眼睛的邊緣和紋理等。DCT變換的本質(zhì)是將圖像塊從空間域轉(zhuǎn)換到頻率域,通過這種轉(zhuǎn)換,能夠?qū)D像的能量集中在低頻部分,而高頻部分則包含了圖像的細節(jié)信息。這種能量集中特性使得在后續(xù)的量化和編碼過程中,可以根據(jù)人眼的視覺特性,對高頻系數(shù)進行較大程度的壓縮,從而實現(xiàn)數(shù)據(jù)的有效壓縮。在視頻編碼中,DCT變換是去除圖像冗余信息的重要手段,它為提高視頻壓縮效率奠定了基礎(chǔ)。完成DCT變換后,需要提取DCT系數(shù)。在實際應(yīng)用中,通常會對DCT系數(shù)進行量化處理,以進一步減少數(shù)據(jù)量。量化是根據(jù)量化參數(shù)(QP)對DCT系數(shù)進行取舍和縮放的過程。量化參數(shù)QP越大,量化步長越大,對高頻系數(shù)的壓縮程度越高,會導(dǎo)致圖像質(zhì)量下降;QP越小,量化步長越小,圖像質(zhì)量越高,但壓縮比會降低。在提取DCT系數(shù)時,需要考慮量化對系數(shù)的影響。對于經(jīng)過量化后的DCT系數(shù),直接提取其量化后的整數(shù)值。在一個視頻幀中,某個DCT系數(shù)經(jīng)過量化后的值為10,就將10作為提取的系數(shù)值。在一些情況下,為了更好地反映DCT系數(shù)的特性,還可以對量化后的系數(shù)進行反量化處理,恢復(fù)其在變換域中的近似值。反量化的過程是量化的逆過程,通過乘以相應(yīng)的量化步長,得到反量化后的DCT系數(shù)。在某些視頻分析任務(wù)中,反量化后的DCT系數(shù)能夠提供更準確的頻率信息,有助于分析視頻的內(nèi)容和特征。在本算法中,根據(jù)視頻重壓縮檢測的需求,綜合考慮量化和反量化的因素,提取能夠有效表征視頻重壓縮特性的DCT系數(shù)。通過對大量視頻的實驗分析,確定了合適的系數(shù)提取方法,以提高后續(xù)DCT系數(shù)共生矩陣構(gòu)建和重壓縮檢測的準確性。4.3共生矩陣構(gòu)建與特征提取在完成DCT變換與系數(shù)提取后,構(gòu)建DCT系數(shù)共生矩陣并從中提取特征是基于DCT系數(shù)共生矩陣的HEVC視頻重壓縮檢測算法的核心步驟之一,這些特征能夠有效表征視頻的重壓縮特性,為后續(xù)的分類和檢測提供關(guān)鍵依據(jù)。構(gòu)建DCT系數(shù)共生矩陣時,需考慮DCT系數(shù)的空間位置關(guān)系和出現(xiàn)頻率。首先,確定共生矩陣的參數(shù),包括距離d和角度\theta。距離d通常選擇1,表示統(tǒng)計相鄰DCT系數(shù)對的共生情況;角度\theta一般考慮0°、45°、90°和135°這四個方向,以全面捕捉DCT系數(shù)在不同方向上的相關(guān)性。假設(shè)DCT系數(shù)的取值范圍被量化為K個級別,對于每個視頻幀分塊后的DCT系數(shù)矩陣,統(tǒng)計在不同距離和角度下,DCT系數(shù)級別為m和n(m,n=0,1,\cdots,K-1)的系數(shù)對同時出現(xiàn)的次數(shù),從而構(gòu)建一個K\timesK的共生矩陣Q。對于一個8×8的DCT系數(shù)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論