opencv實踐項目之圖像拼接詳細步驟_第1頁
opencv實踐項目之圖像拼接詳細步驟_第2頁
opencv實踐項目之圖像拼接詳細步驟_第3頁
opencv實踐項目之圖像拼接詳細步驟_第4頁
opencv實踐項目之圖像拼接詳細步驟_第5頁
已閱讀5頁,還剩5頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

第opencv實踐項目之圖像拼接詳細步驟目錄1.簡介2.步驟2.1特征檢測與提取2.2關(guān)鍵點檢測2.3關(guān)鍵點和描述符2.4特征匹配2.5比率測試2.6估計單應(yīng)性3.完整代碼總結(jié)

1.簡介

圖像拼接是計算機視覺中最成功的應(yīng)用之一。如今,很難找到不包含此功能的手機或圖像處理API。在本文中,我們將討論如何使用OpenCV進行圖像拼接。也就是,給定兩張共享某些公共區(qū)域的圖像,目標是縫合它們并創(chuàng)建一個全景圖像場景。當然也可以是給定多張圖像,但是總會轉(zhuǎn)換成兩張共享某些公共區(qū)域圖像拼接的問題。

2.步驟

拼接的兩幅圖

2.1特征檢測與提取

給定上述一對圖像,我們希望將它們縫合以創(chuàng)建全景場景。重要的是要注意,兩個圖像都需要有一些公共區(qū)域。當然,我們上面給出的兩張圖像時比較理想的,有時候兩個圖像雖然具有公共區(qū)域,但是同樣還可能存在縮放、旋轉(zhuǎn)、來自不同相機等因素的影響。但是無論哪種情況,我們都需要檢測圖像中的特征點。

2.2關(guān)鍵點檢測

最初的并且可能是幼稚的方法是使用諸如HarrisCorners之類的算法來提取關(guān)鍵點。然后,我們可以嘗試基于某種相似性度量(例如歐幾里得距離)來匹配相應(yīng)的關(guān)鍵點。眾所周知,角點具有一個不錯的特性:角點不變。這意味著,一旦檢測到角點,即使旋轉(zhuǎn)圖像,該角點仍將存

在。

但是,如果我們旋轉(zhuǎn)然后縮放圖像怎么辦?在這種情況下,我們會很困難,因為角點的大小不變。也就是說,如果我們放大圖像,先前檢測到的角可能會變成一條線!

總而言之,我們需要旋轉(zhuǎn)和縮放不變的特征。那就是更強大的方法(如SIFT,SURF和ORB)。

2.3關(guān)鍵點和描述符

諸如SIFT和SURF之類的方法試圖解決角點檢測算法的局限性。通常,角點檢測器算法使用固定大小的內(nèi)核來檢測圖像上的感興趣區(qū)域(角)。不難看出,當我們縮放圖像時,該內(nèi)核可能變得太小或太大。為了解決此限制,諸如SIFT之類的方法使用高斯差分(DoD)。想法是將DoD應(yīng)用于同一圖像的不同縮放版本。它還使用相鄰像素信息來查找和完善關(guān)鍵點和相應(yīng)的描

述符。

首先,我們需要加載2個圖像,一個查詢圖像和一個訓練圖像。最初,我們首先從兩者中提取關(guān)鍵點和描述符。通過使用OpenCVdetectAndCompute()函數(shù),我們可以一步完成它。請注意,為了使用detectAndCompute(),我們需要一個關(guān)鍵點檢測器和描述符對象的實例。它可以是ORB,SIFT或SURF等。此外,在將圖像輸入給detectAndCompute()之前,我們將其轉(zhuǎn)換為灰度。

代碼:

voiddetectAndDescribe(constcv::Matimage,Extract_Features_Methodmethod,std::vectorKeyPointkeypoints,cv::Matdescriptor)

switch(method)

caseExtract_Features_Method::METHOD_SIFT:

Ptrcv::SIFTdetector=cv::SIFT::create(800);

detector-detectAndCompute(image,cv::Mat(),keypoints,descriptor);

break;

caseExtract_Features_Method::METHOD_SURF:

intminHessian=400;

Ptrcv::xfeatures2d::SURFdetector=cv::xfeatures2d::SURF::create(minHessian);

detector-detectAndCompute(image,cv::Mat(),keypoints,descriptor);

break;

caseExtract_Features_Method::METHOD_BRISK:

intminHessian=400;

PtrBRISKdetector=BRISK::create(minHessian);

detector-detectAndCompute(image,cv::Mat(),keypoints,descriptor);

break;

caseExtract_Features_Method::METHOD_ORB:

intminHessian=400;

PtrORBdetector=ORB::create(minHessian);

detector-detectAndCompute(image,cv::Mat(),keypoints,descriptor);

break;

default:

break;

我們?yōu)閮蓚€圖像都設(shè)置了一組關(guān)鍵點和描述符。如果我們使用SIFT作為特征提取器,它將為每個關(guān)鍵點返回一個128維特征向量。如果選擇SURF,我們將獲得64維特征向量。

2.4特征匹配

現(xiàn)在,我們想比較兩組特征,并盡可能顯示更多相似性的特征點對。使用OpenCV,特征點匹配需要Matcher對象。在這里,我們探索兩種方式:暴力匹配器(BruteForce)和KNN(k最近鄰)。

BruteForce(BF)Matcher的作用恰如其名。給定2組特征(來自圖像A和圖像B),將A組的每個特征與B組的所有特征進行比較。默認情況下,BFMatcher計算兩點之間的歐式距離。因此,對于集合A中的每個特征,它都會返回集合B中最接近的特征。對于SIFT和SURF,OpenCV建議使用歐幾里得距離。對于ORB和BRISK等其他特征提取器,建議使用漢明距離。我們要使用OpenCV創(chuàng)建BruteForceMatcher,一般情況下,我們只需要指定2個參數(shù)即可。第一個是距離度量。第二個是是否進行交叉檢測的布爾參數(shù)。

具體代碼如下:

autocreateMatcher(Extract_Features_Methodmethod,boolcrossCheck)

if(method==Extract_Features_Method::METHOD_SIFT||method==Extract_Features_Method::METHOD_SURF)

returncv::BFMatcher(cv::NORM_L2,crossCheck);

returncv::BFMatcher(cv::NORM_HAMMING,crossCheck);

}

交叉檢查布爾參數(shù)表示這兩個特征是否具有相互匹配才視為有效。換句話說,對于被認為有效的一對特征(f1,f2),f1需要匹配f2,f2也必須匹配f1作為最接近的匹配。此過程可確保提供更強大的匹配功能集,這在原始SIFT論文中進行了描述。

但是,對于要考慮多個候選匹配的情況,可以使用基于KNN的匹配過程。KNN不會返回給定特征的單個最佳匹配,而是返回k個最佳匹配。需要注意的是,k的值必須由用戶預(yù)先定義。如我們所料,KNN提供了更多的候選功能。但是,在進一步操作之前,我們需要確保所有這些匹配對都具有魯棒性。

2.5比率測試

為了確保KNN返回的特征具有很好的可比性,SIFT論文的作者提出了一種稱為比率測試的技術(shù)。一般情況下,我們遍歷KNN得到匹配對,之后再執(zhí)行距離測試。對于每對特征(f1,f2),如果f1和f2之間的距離在一定比例之內(nèi),則將其保留,否則將其丟棄。同樣,必須手動選擇比率值。

本質(zhì)上,比率測試與BruteForceMatcher的交叉檢查選項具有相同的作用。兩者都確保一對檢測到的特征確實足夠接近以至于被認為是相似的。下面2個圖顯示了BF和KNNMatcher在SIFT特征上的匹配結(jié)果。我們選擇僅顯示100個匹配點以清晰顯示。

需要注意的是,即使做了多種篩選來保證匹配的正確性,也無法完全保證特征點完全正確匹配。盡管如此,Matcher算法仍將為我們提供兩幅圖像中最佳(更相似)的特征集。接下來,我們利用這些點來計算將兩個圖像的匹配點拼接在一起的變換矩陣。

這種變換稱為單應(yīng)矩陣。簡而言之,單應(yīng)性是一個3x3矩陣,可用于許多應(yīng)用中,例如相機姿態(tài)估計,透視校正和圖像拼接。它將點從一個平面(圖像)映射到另一平面。

2.6估計單應(yīng)性

隨機采樣一致性(RANSAC)是用于擬合線性模型的迭代算法。與其他線性回歸器不同,RANSAC被設(shè)計為對異常值具有魯棒性。

像線性回歸這樣的模型使用最小二乘估計將最佳模型擬合到數(shù)據(jù)。但是,普通最小二乘法對異常值非常敏感。如果異常值數(shù)量很大,則可能會失敗。RANSAC通過僅使用數(shù)據(jù)中的一組數(shù)據(jù)估計參數(shù)來解決此問題。下圖顯示了線性回歸和RANSAC之間的比較。需要注意數(shù)據(jù)集包含相當多的離群值。

我們可以看到線性回歸模型很容易受到異常值的影響。那是因為它試圖減少平均誤差。因此,它傾向于支持使所有數(shù)據(jù)點到模型本身的總距離最小的模型。包括異常值。相反,RANSAC僅將模型擬合為被識別為點的點的子集。這個特性對我們的用例非常重要。在這里,我們將使用RANSAC來估計單應(yīng)矩陣。事實證明,單應(yīng)矩陣對我們傳遞給它的數(shù)據(jù)質(zhì)量非常敏感。因此,重要的是要有一種算法(RANSAC),該算法可以從不屬于數(shù)據(jù)分布的點中篩選出明顯屬于數(shù)據(jù)分布的點。

估計了單應(yīng)矩陣后,我們需要將其中一張圖像變換到一個公共平面上。在這里,我們將對其中一張圖像應(yīng)用透視變換。透視變換可以組合一個或多個操作,例如旋轉(zhuǎn),縮放,平移或剪切。我們可以使用OpenCVwarpPerspective()函數(shù)。它以圖像和單應(yīng)矩陣作為輸入。

3.完整代碼

typedefenum

METHOD_SIFT,

METHOD_SURF,

METHOD_BRISK,

METHOD_ORB

}Extract_Features_Method;

voiddetectAndDescribe(constcv::Matimage,Extract_Features_Methodmethod,std::vectorKeyPointkeypoints,cv::Matdescriptor)

switch(method)

caseExtract_Features_Method::METHOD_SIFT:

Ptrcv::SIFTdetector=cv::SIFT::create(800);

detector-detectAndCompute(image,cv::Mat(),keypoints,descriptor);

break;

caseExtract_Features_Method::METHOD_SURF:

intminHessian=400;

Ptrcv::xfeatures2d::SURFdetector=cv::xfeatures2d::SURF::create(minHessian);

detector-detectAndCompute(image,cv::Mat(),keypoints,descriptor);

break;

caseExtract_Features_Method::METHOD_BRISK:

intminHessian=400;

PtrBRISKdetector=BRISK::create(minHessian);

detector-detectAndCompute(image,cv::Mat(),keypoints,descriptor);

break;

caseExtract_Features_Method::METHOD_ORB:

intminHessian=400;

PtrORBdetector=ORB::create(minHessian);

detector-detectAndCompute(image,cv::Mat(),keypoints,descriptor);

break;

default:

break;

autocreateMatcher(Extract_Features_Methodmethod,boolcrossCheck)

if(method==Extract_Features_Method::METHOD_SIFT||method==Extract_Features_Method::METHOD_SURF)

returncv::BFMatcher(cv::NORM_L2,crossCheck);

returncv::BFMatcher(cv::NORM_HAMMING,crossCheck);

intmain()//stich_demo()

stringimgPath1="E:\\code\\Yolov5_Tensorrt_Win10-master\\pictures\\stich1.jpg";

stringimgPath2="E:\\code\\Yolov5_Tensorrt_Win10-master\\pictures\\stich2.jpg";

Matimg1=imread(imgPath1,IMREAD_GRAYSCALE);

Matimg2=imread(imgPath2,IMREAD_GRAYSCALE);

std::vectorcv::KeyPointkeypoint1;

cv::Matdescribe1;

detectAndDescribe(img1,Extract_Features_Method::METHOD_SIFT,keypoint1,describe1);

std::vectorcv::KeyPointkeypoint2;

cv::Matdescribe2;

detectAndDescribe(img2,Extract_Features_Method::METHOD_SIFT,keypoint2,describe2);

automatcher=createMatcher(Extract_Features_Method::METHOD_SIFT,false);

vectorDMatchfirstMatches;

matcher.match(describe1,describe2,firstMatches);

vectorcv::Point2fpoints1,points2;

for(vectorDMatch::const_iteratorit=firstMatches.begin();it!=firstMatches.end();++it)

points1.push_back(keypoint1.at(it-queryId

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論