基于機(jī)器學(xué)習(xí)的近色背景綠色果實(shí)識(shí)別方法研究_第1頁
基于機(jī)器學(xué)習(xí)的近色背景綠色果實(shí)識(shí)別方法研究_第2頁
基于機(jī)器學(xué)習(xí)的近色背景綠色果實(shí)識(shí)別方法研究_第3頁
基于機(jī)器學(xué)習(xí)的近色背景綠色果實(shí)識(shí)別方法研究_第4頁
基于機(jī)器學(xué)習(xí)的近色背景綠色果實(shí)識(shí)別方法研究_第5頁
已閱讀5頁,還剩36頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

目錄17437第一章引言 2305971.1研究背景與意義 283081.2國內(nèi)外研究現(xiàn)狀 2143721.2.1基于傳統(tǒng)方法的果實(shí)識(shí)別研究現(xiàn)狀 2260601.2.2基于深度學(xué)習(xí)的果實(shí)識(shí)別研究現(xiàn)狀 4148771.3近色背景水果果實(shí)識(shí)別存在的問題(待修改) 5130581.4主要研究內(nèi)容與技術(shù)路線 6321841.4.1研究內(nèi)容 6308711.4.2研究方法和技術(shù)路線 617766第二章機(jī)器學(xué)習(xí)和圖像處理的基本理論 8315872.1機(jī)器學(xué)習(xí)理論 8179562.1.1機(jī)器學(xué)習(xí)概述 866312.1.2機(jī)器學(xué)習(xí)算法分類 8215002.1.3機(jī)器學(xué)習(xí)的過程 9208172.2卷積神經(jīng)網(wǎng)絡(luò)算法(CNN算法)原理 9131942.2.1卷積神經(jīng)網(wǎng)絡(luò) 9100862.2.2卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) 10165592.3YOLO系列算法 1322842.4圖像數(shù)據(jù)增強(qiáng) 15235132.4.1圖像數(shù)據(jù)增強(qiáng)的作用 15267092.4.2圖像增強(qiáng)的方法分類 1523175第三章近色背景下綠水水果實(shí)驗(yàn)設(shè)計(jì)和識(shí)別算法建立 1717113.1數(shù)據(jù)集建立 17237943.1.1數(shù)據(jù)采集 17248703.1.2數(shù)據(jù)增強(qiáng) 18148533.1.3評價(jià)指標(biāo) 20203873.2改進(jìn)的YOLOv5算法的結(jié)構(gòu)和原理 21317533.2.1Conv-AT模塊 2213513.3實(shí)驗(yàn)配置與訓(xùn)練參數(shù)(待定) 2431660第四章近色背景下綠色水果精準(zhǔn)識(shí)別 26270904.1不同模型檢測準(zhǔn)確率的對比 26215824.2不同數(shù)據(jù)增強(qiáng)方式對模型準(zhǔn)確度的影響 28151644.3不同數(shù)據(jù)集數(shù)量對模型準(zhǔn)確率的影響 309604.4YOLOv5-AT模型在其他近色果園作物數(shù)據(jù)集上的表現(xiàn) 318447第五章結(jié)論 33227335.1主要結(jié)論 33263525.2展望 33121105.3經(jīng)濟(jì)與環(huán)境分析 34916參考文獻(xiàn) 36基于機(jī)器學(xué)習(xí)的近色背景綠色果實(shí)識(shí)別方法研究摘要:在農(nóng)業(yè)生產(chǎn)中,青果檢測作為實(shí)現(xiàn)果園早期估產(chǎn),優(yōu)化水肥資源分配的主要依據(jù),對于提高農(nóng)業(yè)生產(chǎn)效率具有重要意義。但是,由于青果與背景顏色相近,背景復(fù)雜以及青果數(shù)據(jù)集采集困難等問題,缺少一種準(zhǔn)確,便捷,普適性強(qiáng)的青果檢測方法。YOLO目標(biāo)檢測模型作為一種已經(jīng)衍生出許多版本的單階段檢測的代表性框架,其具有結(jié)構(gòu)靈活,推理速度快,普適性強(qiáng)等優(yōu)點(diǎn),在目標(biāo)檢測領(lǐng)域中取得了較好的應(yīng)用效果。因此,本文提出了一種基于改進(jìn)YOLOv5模型的青果檢測模型,通過設(shè)計(jì)Conv-AT模塊,SA,CB注意力模塊,同時(shí)結(jié)合SAM-Copy-Paste等數(shù)據(jù)增強(qiáng)方法,實(shí)現(xiàn)近色背景下小樣本青果檢測。該方法應(yīng)用于綠色柑橘、綠色番茄、綠色柿子,其準(zhǔn)確率高于其他類型目標(biāo)檢測模型,檢測精度分別達(dá)到了84.6%,98.0%,85.1%。進(jìn)一步地,以綠色柑橘為例,在保留原有數(shù)據(jù)集50%的基礎(chǔ)上得到82.2%準(zhǔn)確率,相較于使用100%數(shù)據(jù)集進(jìn)行訓(xùn)練,準(zhǔn)確率僅降低了2.4%。綜上,本文提出的YOLOv5-AT模型結(jié)合SAM-Copy-Paste等數(shù)據(jù)增強(qiáng)方法可以有效解決近色背景下小樣本青果的精確檢測,為果園早期估產(chǎn)和優(yōu)化水肥資源分配提高數(shù)據(jù)支撐。關(guān)鍵詞:果實(shí)識(shí)別、機(jī)器學(xué)習(xí)、YOLOv5算法Researchontherecognitionmethodofgreenfruitwithnear-colorbackgroundbasedonmachinelearning SchoolofEngineeringandTechnology,SouthwestUniversity,Chongqing400715,PRChinaAbstract:Greenfruitdetectionisofgreatsignificanceforestimatingorchardyieldandallocationofwaterandfertilizer.However,therewasalackofanaccurateandconvenientgreenfruitdetectionmethodforsmalldatasetduetothesimilarcolorofgreenfruitandbackground,thecomplexbackgroundandthedifficultyofcollectinggreenfruitdataset.YOLOobjectdetectionmodel,asarepresentativeframeworkofsingle-stagedetection,hadtheadvantagesofflexiblestructure,fastinferencespeedandexcellentversatility.Here,weproposedamodelbasedontheimprovedYOLOv5modelcombiningdataaugmentationmethodstorealizethegreenfruitdetectionofsmalldatasetundernearcolorbackground.IntheYOLOv5-ATmodel,theConv-ATblock,SA,CAattentionblockweredesignedtoconstructfeatureinformationfromdifferentperspectiveandconveylocalkeyinformationtodeeperlayersoastoimproveaccuracy.Theproposedmethodwasappliedtogreenorange,greentomatoandgreenpersimmonandthemAPswerehigherthanotherYOLOobjectdetectionmodels,reaching84.6%,98.0%and85.1%,respectively.Furthermore,takinggreenorangesasanexample,themAPof82.2%wasobtainedonthebasisofretaining50%oftheoriginaldataset(163images),whichwasonly2.4%lowerthanthatofusing100%dataset(326images)fortraining.Thus,theYOLOv5-ATmodelcombinedwithdataaugmentationmethodscaneffectivelysolvetheaccuratedetectionofsmalldatasetofgreenfruitsundernearcolorbackground.Theseresearchresultscouldprovidesupportivedataforimprovingtheefficiencyofagriculturalproduction.Keywords:第一章引言1.1研究背景與意義中國是農(nóng)業(yè)大國,農(nóng)業(yè)是國民經(jīng)濟(jì)中重要的組成部分。《中國農(nóng)業(yè)展望報(bào)告(2020-2029)》顯示,我國的水果種植面積、產(chǎn)量和消費(fèi)市場占全球總量的三分之一,2022年水果種植面積達(dá)到13148.55千公頃,消費(fèi)量達(dá)2.76億噸REF_Ref26179\r\h[1],預(yù)計(jì)未來幾年仍將保持穩(wěn)定的增長,種植產(chǎn)業(yè)將達(dá)到萬億級別,擁有巨大發(fā)展?jié)摿?。但?dāng)前我國的水果種植以果農(nóng)小規(guī)模分散生產(chǎn)為主,種植缺乏經(jīng)營組織化,水果種植也多以經(jīng)驗(yàn)為基礎(chǔ)采取傳統(tǒng)粗空的管理,施肥、噴藥、估產(chǎn)、采摘以及后續(xù)一系列生產(chǎn)加工過程,大部分是靠人工完成,不僅費(fèi)時(shí)費(fèi)工,效率低下,而且不夠精確,造成大量資源的浪費(fèi)REF_Ref25957\r\h[2]REF_Ref25963\r\h[3]REF_Ref25970\r\h[4]。隨著科技的發(fā)展,將信息技術(shù)和人工智能技術(shù)應(yīng)用于水果生產(chǎn),提高果品的產(chǎn)量和質(zhì)量的同時(shí),也使得生產(chǎn)成本下降、生產(chǎn)效率得到提高REF_Ref31916\r\h[5]。

早期估產(chǎn)可以幫助生產(chǎn)管理者了解后期的果品質(zhì)量和產(chǎn)量,并對施肥、噴藥的需求進(jìn)行預(yù)測,合理制定收獲和采摘方案,從而是生產(chǎn)資源的到最大化利用REF_Ref31952\r\h[6]REF_Ref31959\r\h[7]REF_Ref31988\r\h[8]。而早期估產(chǎn)的對象是未成熟的綠色果實(shí)。機(jī)器人采摘替代人力,可以縮短生產(chǎn)作業(yè)時(shí)間,大幅度提高采摘效率,同時(shí)也能應(yīng)對我國人口老齡化后續(xù)年輕勞動(dòng)力短缺的困局。機(jī)器人采摘的關(guān)鍵就是對果實(shí)進(jìn)行快速準(zhǔn)確的識(shí)別,其準(zhǔn)確性影響采摘機(jī)器人的工作效率最直接的因素之一REF_Ref1761\r\h[9]。在復(fù)雜的自然環(huán)境下,由于樹葉、光照、雜草等因素的影響,水果目標(biāo)的特征提取、種類的劃分以及果實(shí)的檢測等研究工作面臨巨大的挑戰(zhàn)REF_Ref1990\r\h[10]。綜上所述,對于近色背景下的綠色水果識(shí)別方法研究,對推進(jìn)農(nóng)業(yè)機(jī)器化和智能化有重要有意義。1.2國內(nèi)外研究現(xiàn)狀目前水果目標(biāo)識(shí)別方法主要包括兩大類:基于傳統(tǒng)方法的水果識(shí)別和基于深度學(xué)習(xí)的水果識(shí)別。1.2.1基于傳統(tǒng)方法的果實(shí)識(shí)別研究現(xiàn)狀傳統(tǒng)的水果圖像檢測方法大致分為兩類:傳統(tǒng)的特征觀察分析法和基于機(jī)器視覺的淺層模型算法。它們主要是通過對水果的顏色、形狀大小、邊緣紋理等特征進(jìn)行觀察,或是采用特征增強(qiáng)技術(shù)使水果具有區(qū)別于背景的顯著特征。(1)傳統(tǒng)的特征觀察分析法2015年賈偉強(qiáng)等使用了一種基于小波變換(WaveletTransform,WT)和獨(dú)立成分分析(IndependentComponentAnalysis,ICA)的融合降噪方法,稱為WT-ICA。該方法用于夜市蘋果檢測,有效降低了夜視圖像的噪聲干擾。2017年廖崴等提出一種隨機(jī)森林識(shí)別模型,該模型在自然光照環(huán)境下對青蘋果識(shí)別正確率為90%。2018年熊俊濤等采用超像素分割與支持向量機(jī)(SupportVectorMachine,SVM)結(jié)合的方法對果實(shí)圖像的表面陰影進(jìn)行處理,平均檢測識(shí)別準(zhǔn)確率為83.16%。2019年陳雪鑫等提出一種基于改進(jìn)的最大類間法Otsu對水果圖像進(jìn)行分割,有效解決了水果檢測過程中特征信息丟失的問題,使得圖像分割運(yùn)行時(shí)間明顯縮短,平均正確識(shí)別率提高15%左右。2019年Liu等根據(jù)綠色或淡黃色成熟蘋果果實(shí)提出了一種基于特征融合的檢測方法。這種方法在將拍攝的圖像分割成超像素塊確定候選區(qū)域的基礎(chǔ)上,利用定向梯度直方圖(HistogramofOrientedGradients,HOG)對水果的形狀進(jìn)行描述。通過對不同光照下拍攝的圖像進(jìn)行測試,該方法的精度平均值達(dá)95.12%。2022年Lv等提出一種基于壓縮感知和離散小波變化—非下采樣輪廓波變換多源圖像融合的識(shí)別方法用于真實(shí)果園環(huán)境下綠色葡萄識(shí)別,平均識(shí)別率達(dá)到了92.1%。傳統(tǒng)特征觀察分析法有效解決了某類水果在限定環(huán)境下的檢測問題,它需要根據(jù)某類水果的顏色或形態(tài)額外設(shè)計(jì)圖像特征,并且存在模型檢測速度慢,通用性不強(qiáng)的缺點(diǎn)。(2)基于機(jī)器視覺的淺層模型算法2016年Maldonado等在柑橘檢測過程中,利用HSV(Hue色相、Saturation飽和度、Value亮度)模型的H、S分量,并結(jié)合Laplace及Sobel算子與Gaussian模型提取柑橘特征,輸入SVM模型中檢測果實(shí)取得了良好的檢測效果。2018年初廣麗等針對球狀類水果識(shí)別,提出了一種先分離后識(shí)別的算法,即利用圖像分割算法和邊緣跟蹤算法將完整目標(biāo)從圖像中分離出來,再利用最小二乘法識(shí)別分離出來的完整目標(biāo)。該算法識(shí)別準(zhǔn)確率達(dá)95%以上。2020年雷歡等人提出一種基于顏色紋理特征與SVM的識(shí)別方法,用于蘋果識(shí)別,在測試集上平均準(zhǔn)確率為94.0%。2020年Tang等針對水果識(shí)別,提出了一種基于顏色特征和形狀特征的算法。首先對圖像預(yù)處理提取得到目標(biāo)區(qū)域,并分別利用利用HSV顏色、輪廓方法獲得水果的顏色和形態(tài)特征,然后利用反向傳播神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)進(jìn)行訓(xùn)練和分類。實(shí)驗(yàn)表明算法識(shí)別率在95%以上。2021年Chen等針對簡單背景下的水果識(shí)別,提出一種基于機(jī)器視覺的成熟水果檢測算法,該算法包括圖像灰度化背景去除、二值圖像優(yōu)化、真實(shí)輪廓片段提取和水果擬合四個(gè)步驟。在光照不均勻和無遮擋的條件下對番茄和柑橘進(jìn)行了試驗(yàn),該算法對成熟果實(shí)識(shí)別率達(dá)97.44%,平均耗時(shí)0.2966s。目前該算法沒有在遮擋、重疊等復(fù)雜背景進(jìn)行過試驗(yàn)。綜上所述基于傳統(tǒng)方法的水果識(shí)別方法,主要是通過對水果的顏色、形狀大小、邊緣紋理等特征進(jìn)行觀察,或是采用特征增強(qiáng)技術(shù)使水果具有區(qū)別于背景的顯著特征。多數(shù)學(xué)者提供的基于傳統(tǒng)方法的識(shí)別解決方案都僅適用于某一特定種類的水果,同時(shí)還需要人工額外設(shè)計(jì)圖像特征,存在無法適應(yīng)復(fù)雜環(huán)境條件,識(shí)別速度慢和通用性差等缺點(diǎn)。1.2.2基于深度學(xué)習(xí)的果實(shí)識(shí)別研究現(xiàn)狀目前主流的深度學(xué)習(xí)目標(biāo)檢測算法主要有兩種:一種是基于Regionalproposal(區(qū)域建議)的Two-stage(雙階段)方法,它需要先產(chǎn)生目標(biāo)候選框(即目標(biāo)位置),然后對候選框做分類與回歸,其代表算法為包括FastRCNN[8]和Faster-RCNN[9]等的區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(RegionCNN,RCNN)系列算法。另一種是無區(qū)域建議的One-stage(單階段)方法,它主要通過使用一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN)直接預(yù)測不同目標(biāo)的類別與位置,其代表算法有YOLO系列算法和SSD算法。當(dāng)前已有國內(nèi)外眾多學(xué)者提出了基于上訴主流算法的水果識(shí)別方法。 2016年,Bargoti等采用FasterR-CNN對芒果、蘋果、杏子圖像進(jìn)行檢測通過遷移學(xué)習(xí)和數(shù)據(jù)擴(kuò)增等技術(shù),獲得了比傳統(tǒng)方法更高的正確識(shí)別率。2016年,Sa等同時(shí)采集了水果的RGB圖像和近紅外光圖像,通過前期、后期融合的方法訓(xùn)練多模態(tài)FasterR-CNN模型,并對柑橘、牛油果等多種水果進(jìn)行識(shí)別,證明了FasterR-CNN模型的強(qiáng)的移植能力。2018年,Gan等提出用Faster-RCNN算法檢測彩色RGB圖像中果實(shí)的位置,并與熱圖像信息融合,進(jìn)行未成熟綠色柑橘的檢測,召回率達(dá)到90.4%。2018年,彭紅星等采用SSD模型,通過將SSD模型中的VGG16模型替換為ResNet-101模型,并運(yùn)用遷移學(xué)習(xí)方法和隨機(jī)梯度下降算法進(jìn)行優(yōu)化,對4種水果的平均檢測精度達(dá)到89.53%。2018年,薛月菊等將深度卷積神經(jīng)網(wǎng)絡(luò)(DeepConvolutionalNeuralNetworks,DCNN)用于檢測綠色芒果,結(jié)合基于回歸的YOLOv2算法和密集連接卷積網(wǎng)絡(luò)(denselyconnectedconvolutionalnetworks,DenseNet),設(shè)計(jì)了Tiny-yolo-dense網(wǎng)絡(luò)結(jié)構(gòu)。通過對訓(xùn)練集中遮擋或重疊芒果的前景區(qū)域進(jìn)行手工標(biāo)注,該方法在測試集上的準(zhǔn)確率高達(dá)97.02%,召回率達(dá)到95.1%。相較基于傳統(tǒng)方法的水果識(shí)別方法基于深度學(xué)習(xí)的水果識(shí)別方法的識(shí)別速度更快、識(shí)別準(zhǔn)確率更高,且能實(shí)現(xiàn)在近色背景的復(fù)雜條件的果實(shí)識(shí)別,但是需要大量的圖像數(shù)據(jù)進(jìn)行模型訓(xùn)練,且對處理設(shè)備的計(jì)算能力和存儲(chǔ)性能提出更高的要求。1.3近色背景水果果實(shí)識(shí)別存在的問題(1)絕大多數(shù)實(shí)驗(yàn)都是基于彩色RGB圖像的純視覺方案,純視覺獲取二維平面的集合和紋理信息量有限,而在復(fù)雜遮擋的情況下難以有效識(shí)別或根本就不準(zhǔn)確,同時(shí)在野外自然環(huán)境下易受天氣、光照等因素的影響,很難達(dá)到實(shí)驗(yàn)室理論條件下的實(shí)驗(yàn)結(jié)果,因此往往不能滿足農(nóng)業(yè)工程的實(shí)際應(yīng)用;(2)當(dāng)前針對于RGB果實(shí)數(shù)據(jù)的研究,基本上很少有公共的標(biāo)注好的開源RGB數(shù)據(jù)集,且數(shù)據(jù)集缺少惡劣環(huán)境下的樣本,導(dǎo)致訓(xùn)練的模型泛化能力和魯棒性不高;(3)現(xiàn)有基于RGB數(shù)據(jù)進(jìn)行果實(shí)識(shí)別與檢測的沒有對檢測算法的精度和速度的平衡進(jìn)行相關(guān)研究,且未進(jìn)行多樣化的測試,復(fù)雜野外自然環(huán)境下檢測穩(wěn)定性有待考量,缺少實(shí)際推廣應(yīng)用的前提條件。1.4主要研究內(nèi)容與技術(shù)路線1.4.1研究內(nèi)容(1)完成水果識(shí)別的國內(nèi)外研究現(xiàn)狀調(diào)研與整理,撰寫國內(nèi)外研究現(xiàn)狀綜述;(2)采集近色背景下綠色柑橘、西紅柿、柿子等水果的圖像數(shù)據(jù);(3)利用數(shù)據(jù)3種以上增強(qiáng)方法對數(shù)據(jù)集進(jìn)行擴(kuò)充,增加數(shù)據(jù)集樣本量;(4)利用機(jī)器學(xué)習(xí)算法實(shí)現(xiàn)近色背景下綠色水果的快速精準(zhǔn)識(shí)別,正確識(shí)別率在80%以上;(5)開展課題研究的環(huán)境和經(jīng)濟(jì)技術(shù)分析,總結(jié)研究結(jié)論。1.4.2研究方法和技術(shù)路線(1)查閱文獻(xiàn):通過查閱期刊、研究生論文等相關(guān)文獻(xiàn)和資料,了解和掌握現(xiàn)有的圖像處理的原理和技術(shù),分析現(xiàn)階段近色背景綠色水果識(shí)別研究的難點(diǎn)和重點(diǎn),規(guī)劃出可行方案。(2)水果數(shù)據(jù)集的采集:在已有的通過網(wǎng)絡(luò)手段獲得的相關(guān)數(shù)據(jù)集體基礎(chǔ)上,通過果園實(shí)地拍攝獲得綠色柑橘、西紅柿、柿子等水果的圖像數(shù)據(jù),采集時(shí)要注意分不同天氣條件,光照條件和背景(遮擋,重疊等)進(jìn)行,豐富數(shù)據(jù)集的多樣性。(3)水果圖像的增強(qiáng):利用算法對已獲得的部分水果圖像進(jìn)行鏡像翻轉(zhuǎn)、旋轉(zhuǎn)隨機(jī)角度、亮度和對比度增強(qiáng)等操作,拓展數(shù)據(jù)集,方便能更好提取水果圖像的特征。(4)模型搭建:利用現(xiàn)有主流的YOLO系列模型進(jìn)行訓(xùn)練,對不同網(wǎng)絡(luò)模型的識(shí)別率和識(shí)別速度進(jìn)行對比,將訓(xùn)練和識(shí)別效果最佳的網(wǎng)絡(luò)模型作為近色背景綠色水果識(shí)別的網(wǎng)絡(luò)模型。(5)實(shí)驗(yàn)結(jié)果分析與對比:利用訓(xùn)練好的最佳模型進(jìn)行各種條件下的實(shí)驗(yàn),利用統(tǒng)計(jì)學(xué)等的方法對模型的效果進(jìn)行對比和評價(jià)分析。圖1.1技術(shù)路線圖Figure1.1TechnologyRoadmap第二章機(jī)器學(xué)習(xí)和圖像處理的基本理論2.1機(jī)器學(xué)習(xí)理論2.1.1機(jī)器學(xué)習(xí)概述機(jī)器學(xué)習(xí)(MachineLearning,ML)是人工智能和計(jì)算機(jī)系統(tǒng)的一個(gè)重要分支,專門研究計(jì)算機(jī)如何模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,以獲取新的知識(shí)或技能,重新組織已有的知識(shí)架構(gòu),從而不斷改善自身的性能REF_Ref26391\r\h[11]。隨著機(jī)器學(xué)習(xí)相關(guān)領(lǐng)域的研究不斷發(fā)展和突破,深度學(xué)習(xí)的概念被進(jìn)一步提出,成為現(xiàn)如今機(jī)器學(xué)習(xí)最熱門的一個(gè)研究分支。如圖2.1是人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)三者的關(guān)系。圖2.1人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的關(guān)系Figure2.1Relationshipbetweenartificialintelligence,machinelearninganddeeplearning2.1.2機(jī)器學(xué)習(xí)算法分類按照學(xué)習(xí)方式的差異,機(jī)器學(xué)習(xí)算法主要分為有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)三類。監(jiān)督學(xué)習(xí):通過對大量帶標(biāo)簽的數(shù)據(jù)建立一種預(yù)期模型,之后進(jìn)行不斷修正和訓(xùn)練,直到模擬的預(yù)測結(jié)果達(dá)到所預(yù)期的精度的過程REF_Ref11415\w\h[12]。無監(jiān)督學(xué)習(xí):用沒有帶標(biāo)簽的數(shù)據(jù)建立預(yù)期模型并進(jìn)行修正和訓(xùn)練。它可以直接將一組信息建模,而不需要與已識(shí)別的信息進(jìn)行比較,只需要根據(jù)待測數(shù)據(jù)的相似性或差異性來進(jìn)行數(shù)據(jù)分析REF_Ref11474\w\h[13]。半監(jiān)督學(xué)習(xí):融合了監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí),使用少量的已標(biāo)注數(shù)據(jù)和大量的不標(biāo)注數(shù)據(jù)對預(yù)期模型加以訓(xùn)練和分析,使學(xué)習(xí)過程不依靠外部交互,并且使用大量未標(biāo)注的數(shù)據(jù)可以改善學(xué)習(xí)過程REF_Ref11510\w\h[14]。2.1.3機(jī)器學(xué)習(xí)的過程學(xué)習(xí)“經(jīng)驗(yàn)”以數(shù)據(jù)的形式儲(chǔ)存在計(jì)算機(jī)系統(tǒng)中,機(jī)器學(xué)習(xí)算法模型通過分析這些數(shù)據(jù)來獲得相應(yīng)的學(xué)習(xí)“經(jīng)驗(yàn)”,其學(xué)習(xí)過程如圖2.2所示。圖2.2機(jī)器學(xué)習(xí)的過程Figure2.2.TheProcessofmachinelearning2.2卷積神經(jīng)網(wǎng)絡(luò)算法(CNN算法)原理2.2.1卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)(CNN)是機(jī)器學(xué)習(xí)領(lǐng)域最著名和最常用的算法之一REF_Ref11739\w\h[15]REF_Ref11748\w\h[16]REF_Ref11755\w\h[17]REF_Ref11758\w\h[18]REF_Ref11765\w\h[19]REF_Ref11768\w\h[20]。CNN是網(wǎng)絡(luò)中含有卷積操作并具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)REF_Ref13071\w\h[21],本質(zhì)上是多層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),具有輸入層、中間層和輸出層REF_Ref13143\w\h[22]。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,CNN的主要優(yōu)點(diǎn)是它可以不需要任何人工監(jiān)督的情況下自動(dòng)識(shí)別相關(guān)特征REF_Ref13192\w\h[23]。CNN尤其擅長圖像處理,它的多層網(wǎng)絡(luò)結(jié)構(gòu)通過卷積操作把圖像的低級特征逐漸轉(zhuǎn)換和組合形成高層特征,由局部信息抽取出高級的語義信息,形成一個(gè)多層傳遞、逐步融合的過程,將特征提取與分類識(shí)別連聯(lián)在一起,從而實(shí)現(xiàn)圖像的識(shí)別任務(wù)REF_Ref13251\w\h[24]。2.2.2卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)1998年,LeCun利用卷積層和池化層(下采樣層結(jié)構(gòu)),提出一種7層卷積神經(jīng)網(wǎng)絡(luò)LeNet-5模型,標(biāo)志著CNN的正式面世。LeNet-5模型包含3個(gè)卷積層、2個(gè)池化層、1個(gè)全連接層和1個(gè)輸出層REF_Ref25100\r\h[25],如圖2.3所示。圖2.3LeNet-5卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)Figure2.3StructureoftheLeNet-5convolutionalneuralnetworks輸入層:負(fù)責(zé)接收輸入的圖像信息,對圖像數(shù)據(jù)進(jìn)行時(shí)間維度和空間維度的處歸一化處理,隨后生成一個(gè)三維像素矩陣。卷積層:是CNN的核心層,大多數(shù)的計(jì)算都在卷積層進(jìn)行。在接收目標(biāo)圖像后,進(jìn)行卷積操作提取出圖像的特征信息,并傳輸至后續(xù)網(wǎng)絡(luò)。圖2.4卷積層的結(jié)構(gòu)Figure2.4Structureoftheconvolutionallayer計(jì)算卷積層輸出大小的公式如式(2-1)所示: (2-1) 其中:W*表示輸出矩陣的大小W—表示輸入矩陣的大小K—表示卷積核的大小PQUOTEP—表示補(bǔ)零層數(shù)SQUOTES—表示步長假設(shè)第層為卷積層,第QUOTEl-1層為輸入層,則卷積層的計(jì)算公式如式(2-2)所示: (2-2)其中:fjl——表示第層的第個(gè)特征圖σ——表示激活函數(shù)Mj?——表示卷積wijl——表示第層的第個(gè)卷積層bj池化層:本質(zhì)上是一種自上而下的采樣。把圖像進(jìn)行區(qū)域劃分,然后計(jì)算區(qū)域的特定值,使其空間大小和參數(shù)量降低,避免過擬合。池化操作后,模型可以提取更大范圍內(nèi)的特征,增大單個(gè)輸出像素所對應(yīng)原始圖像的面積,減少模型運(yùn)算所需的參數(shù)量,提升模型的運(yùn)算速度,避免過擬合,使模型對目標(biāo)特征是否存在以及目標(biāo)特征之間的位置關(guān)系更加敏感,池化層的結(jié)構(gòu)如圖2.5所示。圖2.5池化層結(jié)構(gòu)Figure2.5Poolinglayerstructure 全連接層:圖像數(shù)據(jù)在經(jīng)過卷積層和池化層后,到達(dá)全連接層,這是神經(jīng)網(wǎng)絡(luò)的末端。結(jié)合并輸出接收到的特征,就是全連接層的作用。激活函數(shù):如果卷積神經(jīng)網(wǎng)絡(luò)僅有線性映射,那無論隱含層的數(shù)量是多少,該網(wǎng)絡(luò)都是單層的,即QUOTEf(x)=x。在深度學(xué)習(xí)中需要使用大量的非線性函數(shù),僅使用線性函數(shù)不能實(shí)現(xiàn)網(wǎng)絡(luò)訓(xùn)練,因此使用激活函數(shù),有助于網(wǎng)絡(luò)功能的實(shí)現(xiàn),提高模型運(yùn)算的效果。如圖2.6所示,ReuleQUOTEReLU、QUOTETanhtanh、Sigmoid以及Softmax函數(shù)等都是常用的激活函數(shù)。圖2.6ReLU、Tanh、Sigmoid和Softmax激活函數(shù)Figure2.6ReLu,Tanh,SigmoidandSoftmaxactivationfunctions輸出層:進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練的目的不同,輸出層的作用也不相同:在進(jìn)行目標(biāo)物體的識(shí)別時(shí),輸出檢測到的目標(biāo)物體的大小、位置坐標(biāo)以及網(wǎng)絡(luò)對該物體的識(shí)別分類結(jié)果;在進(jìn)行圖像分割時(shí),輸出各個(gè)像素的分類識(shí)別結(jié)果。2.3YOLO系列算法YOLOv1REF_Ref6302\r\h[27]在2016年被Redmon提出,它借鑒GoogleNetREF_Ref10814\r\h[28]的網(wǎng)絡(luò)設(shè)計(jì),但用1×1和3×3卷積層替代了GoogleNet中的24個(gè)卷積層和兩個(gè)全連接層REF_Ref23652\r\h[33]其網(wǎng)絡(luò)結(jié)構(gòu)如圖2.7所示。圖2.7YOLOv1網(wǎng)絡(luò)結(jié)構(gòu)圖Figure2.7StructurediagramoftheYOLOv1networkYOLOv1算法的核心就是將整個(gè)圖片看成網(wǎng)絡(luò)的輸入,直接在輸出層回歸邊界框(BoundingBox)的位置和邊界框所屬的類別。具體實(shí)現(xiàn)方法是將一幅圖像分割成N×N個(gè)網(wǎng)格,每個(gè)網(wǎng)格預(yù)測2個(gè)邊界框,如果某個(gè)物體的中心落在這個(gè)網(wǎng)格中,那么這個(gè)網(wǎng)格就負(fù)責(zé)判斷這個(gè)物體。各個(gè)邊界框除去要回歸自身的位置外,還要額外估計(jì)置信度。YOLOv1算法簡化了整個(gè)目標(biāo)檢測過程,在速度方面有極大提升,背景誤檢率低,通用性強(qiáng),但是由于一個(gè)網(wǎng)格中只能預(yù)測兩個(gè)邊界框,包含一個(gè)類別,導(dǎo)致在對成群的小目標(biāo)檢測時(shí)容易出現(xiàn)漏檢情況。與其他目標(biāo)檢測模型相比,YOLO系列算法模型具有更靈活的結(jié)構(gòu),更快的推理速度,普適性更強(qiáng)等優(yōu)勢REF_Ref30428\r\h[30],已經(jīng)衍YOLOv1-YOLOv8的系列目標(biāo)檢測模型REF_Ref29817\r\h[29]。其中YOLOv3通過引入多尺度預(yù)測、核心網(wǎng)絡(luò)優(yōu)化和損失函數(shù)改進(jìn),加速了目標(biāo)檢測的實(shí)現(xiàn)REF_Ref30745\r\h[31]。YOLOv5在YOLOv4的基礎(chǔ)上,進(jìn)一步地簡化了結(jié)構(gòu),使得模型結(jié)構(gòu)更小更靈活,圖像推理速度更快,更貼近自然生產(chǎn)生活。YOLOv7設(shè)計(jì)了E-ELAN模塊與一種基于級聯(lián)的架構(gòu),在不影響推理速度的情況下,提高了精度REF_Ref30813\r\h[32]。2.4圖像數(shù)據(jù)增強(qiáng)圖像增強(qiáng)是一種在模型訓(xùn)練過程中通過對原始圖像進(jìn)行變換或者合成來產(chǎn)生新的訓(xùn)練數(shù)據(jù)的技術(shù),其主要目的是擴(kuò)充數(shù)據(jù)集,使模型能夠?qū)W習(xí)到更多的不變性,增加模型的泛化能力,同時(shí)減少過擬合的風(fēng)險(xiǎn)REF_Ref13391\w\h[34]。研究中為了克服圖像數(shù)據(jù)的數(shù)量有限的缺點(diǎn),人們將圖像增強(qiáng)技術(shù)引入到模型中作為一種訓(xùn)練策略。通過加入到模型中的各類圖像增強(qiáng)模塊,在不需要額外的原始圖像樣本的情況下,獲得更豐富的訓(xùn)練數(shù)據(jù)集。這在目標(biāo)檢測、圖像分割等機(jī)器學(xué)習(xí)領(lǐng)域取得了很好的效果。2.4.1圖像數(shù)據(jù)增強(qiáng)的作用(1)避免過擬合。當(dāng)數(shù)據(jù)集具有某種明顯的特征,例如數(shù)據(jù)集中圖片基本在同一個(gè)場景中拍攝,使用Cutout方法和風(fēng)格遷移變化等相關(guān)方法可避免模型學(xué)到跟目標(biāo)無關(guān)的信息。(2)提升模型魯棒性,降低模型對圖像的敏感度。當(dāng)訓(xùn)練數(shù)據(jù)都屬于比較理想的狀態(tài),碰到一些特殊情況,如遮擋,亮度,模糊等情況容易識(shí)別錯(cuò)誤,對訓(xùn)練數(shù)據(jù)加上噪聲,掩碼等方法可提升模型魯棒性。(3)增加訓(xùn)練數(shù)據(jù),提高模型泛化能力。(4)避免樣本不均衡。在工業(yè)缺陷檢測方面,醫(yī)療疾病識(shí)別方面,容易出現(xiàn)正負(fù)樣本極度不平衡的情況,通過對少樣本進(jìn)行一些數(shù)據(jù)增強(qiáng)方法,降低樣本不均衡比例。2.4.2圖像增強(qiáng)的方法分類數(shù)據(jù)增強(qiáng)是圖像處理中一種常見的方法,可以利用幾何變換和像素操作等方法來改變圖像的外觀和內(nèi)容。其方法可大致分為三類:無模型、基于模型和基于優(yōu)化策略的方法(見表2-1)表2-1數(shù)據(jù)增強(qiáng)策略匯總Table2-1Summaryofdataaugmentationstrategies技術(shù)方案相關(guān)策略無模型單圖像幾何變換平移、旋轉(zhuǎn)、翻轉(zhuǎn)、縮放、彈性變形、剪切、仿射變換色彩變換抖動(dòng)、Colorshift、Contrastenhancement、Brightnessadjustment、Histogramequalization、Colorenhancement、Colorspacetransformation圖像遮擋模糊和添加噪聲、Hide-and-Seek、Cutout、RandomErasing、GridMask多圖像非實(shí)例級SamplePairing、Mixup、BCLearning,CutMix、Mosaic、AugMix、PuzzleMix、Co-Mixup、SuperMixup、GridMix實(shí)例級CutPas、ScaleandBend、ContextDA、SimpleCutPas、ContinuousCutPas基于模型無條件DCGAN、Autoencoder、VAE、CPC、DBN標(biāo)簽條件BDA、ImbCGAN、BAGAN、DAGAN、MFC-GAN、IDA-GAN保留標(biāo)簽S+ULearning、AugGAN、Plant-CGAN、StyleAug、Shapebias圖像條件改變標(biāo)簽EmoGAN、δ-encoder、DebiasedNN、StyleMix、GAN-MDB、SCIT基于優(yōu)化策略基于強(qiáng)化學(xué)習(xí)AutoAugment、FastAA、PBA、FasterAA、MADAO、LDA、LSSP基于對抗學(xué)習(xí)ADA、CDST-DA、AdaTransformer、AdversarialAA、IF-DA、SPA第三章近色背景下綠水水果實(shí)驗(yàn)設(shè)計(jì)和識(shí)別算法建立3.1數(shù)據(jù)集建立3.1.1數(shù)據(jù)采集圖像數(shù)據(jù)采集于中國重慶市各果園,采集時(shí)段為9:00-17:00,圖像采集設(shè)備為PanasonicDMC_LX5GK數(shù)碼相機(jī),分辨率為2560×1920。共采集綠色柑橘圖像468張,綠色柿子圖像281張,綠色番茄圖像313張(如圖3.1)。建模時(shí)按照7:3比例劃分訓(xùn)練集與驗(yàn)證集,如表3-1所示。圖3.1(a)綠色柑橘圖像(b)綠色番茄圖像(c)綠色柿子圖像Figure3.1(a)Greencitrusimage(b)greentomatoimage(c)greenpersimmonimage表3-1樣本數(shù)據(jù)集信息Table3-1Informationonthesampledataset數(shù)據(jù)集分辨率訓(xùn)練集數(shù)量測試集數(shù)量目標(biāo)個(gè)數(shù)綠色柑橘2560×19203261424417綠色柿子綠色番茄2560×19202560×1920198219839412127513.1.2數(shù)據(jù)增強(qiáng)(1)SAM-Copy-PasteCopy-Paste是2021年由GGhiasetc首先提出來被用于語義分割類模型的數(shù)據(jù)增強(qiáng)方法。它的核心思想是從原始圖像中復(fù)制實(shí)例,根據(jù)實(shí)例的標(biāo)注輪廓將其粘貼到另一張圖像中。該方法可以有效提高數(shù)據(jù)集的多樣性,擴(kuò)充訓(xùn)練集的數(shù)量REF_Ref13450\w\h[35]。但是原始的Copy-Paste數(shù)據(jù)增強(qiáng)方法存在輪廓標(biāo)注困難,標(biāo)注成本高,耗費(fèi)時(shí)間長(10min/張)等問題。圖像分割模型SAM(SegmentAnythingModel)可以準(zhǔn)確獲取圖片中所有輪廓信息,代替人工標(biāo)注,提高效率,完成單張圖像的分割僅需要10s。因此,在本研究首次提出將Copy-Paste與SAM結(jié)合,首先利用SAM模型精準(zhǔn)獲取水果和樹葉輪廓,然后將所獲得的輪廓信息進(jìn)行幾何變換后,隨機(jī)挑選部分輪廓信息結(jié)合Copy-Paste對樣本進(jìn)行擴(kuò)充,經(jīng)過上述處理在擴(kuò)充原有數(shù)據(jù)集的同時(shí),通過粘貼樹葉,可更好地模擬真實(shí)情況中青果各種復(fù)雜情況,增加了數(shù)據(jù)集的多樣性,其處理流程如圖3.2所示。圖3.2SAM-Copy-Paste處理過程Figure3.2SAM-Copy-Pasteprocessingprocess(2)MosaicMosaic數(shù)據(jù)增強(qiáng)方法是將隨機(jī)數(shù)量的圖片(通常為4張)的寬度和高度縮放到預(yù)設(shè)的尺寸。同時(shí)根據(jù)設(shè)置的圖片中心點(diǎn),按照隨機(jī)順序拼接生成mosaic圖像,再針對mosaic圖像進(jìn)行基礎(chǔ)的幾何圖像變換(旋轉(zhuǎn),翻轉(zhuǎn),裁剪),然后刪除或者填充邊界,形成一張新的圖像。通過mosaic操作可以顯著的增加原有數(shù)據(jù)的多樣性,同時(shí)增強(qiáng)模型的魯棒性,其處理流程如圖3.3所示。圖3.3Mosaic處理過程FigureFigure3.3TheMosaicProcessingProcess(3)MixupMixup是隨機(jī)選擇兩個(gè)訓(xùn)練樣本,使用線性插值的方法生成一個(gè)新的訓(xùn)練樣本以及對應(yīng)的label。其原理公式如下: (3-1) (3-2)其中xi與xj分別為兩隨機(jī)輸入圖像,λ∈[0,1]是概率值λ~Beta(α,α),λ服從參數(shù)α都為Beta的分布,yi和yj分別是xi其處理流程如圖3.4所示圖3.4Mixup流程(a)為原始圖像(b)λ=0.35時(shí)的Mixup圖像(c)λ=0.45時(shí)的Mixup圖像Figure3.4MixupFlow(a)istheoriginalimage(b)Mixupimageatλ=0.35(c)Mixupimageatλ=0.453.1.3評價(jià)指標(biāo)精確率(P)、召回率(R)、mAP和F1-score四個(gè)指標(biāo)被用于評價(jià)模型的性能。Precision用來衡量模型檢測的性能,recall用來評估檢測的全面性,Precision和recall的集成就是averagePrecision(AP)。mAP是AP的平均值,用于衡量整個(gè)模型的性能。由于P和R是相互矛盾的性能指標(biāo),因此F1-score是P和R的調(diào)和平均值,取值范圍為(0,1),它同時(shí)使用P和R來評價(jià)模型的質(zhì)量。公式如下所示 (3-3) (3-4) (3-5) (3-6) (3-7)其中,TP為正確識(shí)別的樣本數(shù)量,F(xiàn)N為漏檢的正樣本數(shù)量,F(xiàn)P為錯(cuò)誤識(shí)別的負(fù)樣本數(shù)量,n是類別的數(shù)量。3.2改進(jìn)的YOLOv5算法的結(jié)構(gòu)和原理在本文中,基于YOLOv5模型提出了YOLOv5-AT模型,其結(jié)構(gòu)如圖3.5所示。圖3.5(a)YOLOv5主干網(wǎng)絡(luò)Figure3.5(a)TheYOLOv5backbonenetwork圖3.5(b)改進(jìn)的YOLOv5-AT主干網(wǎng)絡(luò)Figure3.5(b)TheYOLOv5-ATbackbonenetwork圖3.5(c)各個(gè)模塊結(jié)構(gòu)Figure3.5(c)Structureofeachmodule圖3.5YOLO-AT模型結(jié)構(gòu)圖輸入模塊按照不同的概率隨機(jī)實(shí)現(xiàn)SAM-Copy-Paste,Mosaic,Mixup以及其他的基本圖像數(shù)據(jù)增強(qiáng),包括隨機(jī)模糊,隨機(jī)曝光,旋轉(zhuǎn),裁剪等操作實(shí)現(xiàn)對原有少樣本數(shù)據(jù)集數(shù)據(jù)的擴(kuò)充。同時(shí)在輸入模塊實(shí)現(xiàn)自適應(yīng)錨盒模塊計(jì)算以及圖像的自適應(yīng)縮放,得出適應(yīng)圖像目標(biāo)大小的最佳錨盒大小與圖像尺寸。主干部分主要由CBS模塊,Conv-AT模塊,C3模塊以及SPPF模塊組成。CBS模塊用于對輸入特征進(jìn)行重新整合以及特征提取。Conv-AT模塊基于注意力機(jī)制與concat操作的注意力整合提取特征,它的引入是為了增強(qiáng)CNN的學(xué)習(xí)能力,消除計(jì)算瓶頸,降低內(nèi)存開銷。C3模塊將輸入特征圖分成兩部分,并通過跨階段的層次結(jié)構(gòu)進(jìn)行合并,以降低計(jì)算成本并保證檢測精度。SPPF使用不同大小的內(nèi)核執(zhí)行最大池化,然后,通過執(zhí)行拼接操作(Concat塊)來融合不同尺度的特征圖。頸部網(wǎng)絡(luò)利用特征金字塔網(wǎng)絡(luò)(FPN)和像素聚合網(wǎng)絡(luò)(PAN)實(shí)現(xiàn)多尺度特征融合。FPN通過卷積層對上層特征圖進(jìn)行下采樣操作,融合下層特征圖,傳遞深層語義信息。PAN結(jié)構(gòu)通過上采樣操作將定位特征從底層特征圖傳遞到頂層特征圖。FPN和PAN充分融合了從骨干網(wǎng)中提取的多尺度特征,共同增強(qiáng)了頸部網(wǎng)絡(luò)的特征融合能力。預(yù)測頭部分利用來自于頸部網(wǎng)絡(luò)的特征信息進(jìn)行多尺度目標(biāo)檢測,并輸出三個(gè)不同大小的特征映射,分別用于檢測小、中、大目標(biāo)。每一輸出生成一個(gè)矢量信息,包括目標(biāo)物體的概率、目標(biāo)物體的得分和目標(biāo)物體的邊界框位置。3.2.1Conv-AT模塊在YOLO-AT的主干部分,為了能夠更好地提取經(jīng)由CSP模塊獲得的特征信息,本文提出了一種基于注意力機(jī)制的Conv-AT模塊。在該模塊中,放棄了傳統(tǒng)的Add操作,而是采用了concat操作傳遞特征信息,其可以更好地保留輸入特征的結(jié)構(gòu)信息。適當(dāng)?shù)谋A艨臻g、通道信息對提高YOLO系列的目標(biāo)檢測模型準(zhǔn)確性有一定的作用。此外,CBR模塊被選擇作為Conv-AT模塊提取特征的基本組件,相比于CBS模塊,CBR模塊選擇ReLU激活函數(shù)對輸入特征進(jìn)行非線性化操作,相較于SiLU激活函數(shù),ReLU激活函數(shù)可以加快模型的收斂速度,防止梯度消失或者梯度爆炸。進(jìn)一步地,為了更好的提取輸入特征中的重點(diǎn)信息,分別設(shè)計(jì)了ChannelAttentionModule(CA)與SpatialAttentionModule(SA)注意力機(jī)制,分別從通道和空間兩個(gè)角度獲取特征信息,實(shí)現(xiàn)模型檢測精度的提高。最后,為了防止因concat操作引起的梯度爆炸,在CONV-AT模塊底部再次添加了BN操作,加快模型的收斂速度。Conv-AT模塊的計(jì)算過程如下所示:傳入一個(gè)特征圖XC×H×WQUOTE(C,H,W分別代表著輸入特征的通道數(shù),高度和寬度),經(jīng)處理后得到第一個(gè)被并聯(lián)的特征圖P(X),P(X)可以表示為 (3-8)其中FCBR(X)表示對輸入特征進(jìn)行CBR類型卷積操作,F(xiàn)CA(X)表示對輸入特征進(jìn)行CA注意力機(jī)制操作,concat表示對輸入的特征在通道角度上進(jìn)行并聯(lián)操作。接下來,P(X)與對輸入特征進(jìn)行SA注意力機(jī)制操作后的特征圖進(jìn)行并聯(lián)得到第二個(gè)被并聯(lián)的特征圖H(X),H(X)可以表示為: (3-9)其中FSA(X)表示對輸入特征進(jìn)行SA注意力機(jī)制操作。而后,H(X)和經(jīng)過CBR特征提取的特征圖進(jìn)行并聯(lián)得到第三個(gè)被并聯(lián)的特征圖W(X),W(X)可以表示為: (3-10)最后得到輸出Y(X),Y(X)表示為 (3-11) 其中BN操作為批歸一化操作。3.2.2Conv-AT模塊的CA和SA注意力機(jī)制為了更好的從空間和通道角度提取特征信息,在Conv-AT模塊中設(shè)計(jì)了CA與SA注意力機(jī)制,其結(jié)構(gòu)如圖3.6所示。圖3.6(a)CA結(jié)構(gòu)圖(b)SA結(jié)構(gòu)圖Figure3.6(a)StructuraldiagramofCA(b)StructuraldiagramofSA從圖3.6(a)可見,CA是一種輕量級的注意機(jī)制,不僅可以捕獲跨信道信息,還可以捕獲方向感知和位置敏感信息(Houetal.,2021)。它通過坐標(biāo)信息嵌入和坐標(biāo)注意力生成來實(shí)現(xiàn)。其計(jì)算公式如下: (3-12)其中F(X)為對輸入特征進(jìn)行通道注意力操作,AvgPool、MaxPool是平均池化和最大池化操作,σ為Sigmoid激活函數(shù)。從圖3.6(b)可見,SA是在維度上應(yīng)用平均池化和最大池化聚合通道信息,并將獲得的特征信息輸入到共享的多層感知機(jī)網(wǎng)絡(luò)處理,再經(jīng)由sigmoid激活函數(shù)得到空間角度特征信息權(quán)重。其計(jì)算公式如下: (3-13)其中FSA(X)為對輸入特征X進(jìn)行通道和空間注意力操作;AvgPool、MaxPool是平均池化和最大池化操作;MLP代表多層感知層;σ為Sigmoid激活函數(shù)。第四章近色背景下綠色水果精準(zhǔn)識(shí)別4.1不同模型檢測準(zhǔn)確率的對比為了評估YOLOv5-AT模型的性能,本文使用了包括YOLOv3,YOLOv5和YOLOv7,YOLOv3-AT,YOLOv7-AT在內(nèi)的5種模型,以綠色柑橘為例,在相同數(shù)據(jù)集上對數(shù)據(jù)進(jìn)行了分析,并同時(shí)應(yīng)用三種數(shù)據(jù)增強(qiáng)方法,得到了如表4-1所示的不同模型對綠色柑橘的檢測結(jié)果。表4-1不同模型對綠色柑橘的檢測結(jié)果對比Table4-1Comparisonofthedetectionresultsofthedifferentmodelsforthegreencitrus模型名稱PRF1mAPYOLOv5-AT86.376.381.084.6YOLOv58672.978.982.9YOLOv3-AT84.3YOLOv383.875.279.383.6YOLOv7-AT8174.577.679.1YOLOv780.771.375.776.7從表4-2可見,從本文提出的Conv-AT模塊對于提高不同系列的YOLO目標(biāo)檢測模型檢測精度均具有一定提升作用。針對YOLOv3,YOLOv5,YOLOv7模型分別應(yīng)用Conv-AT模塊之后,其mAP分別提高了0.7%,1.7%,2.4%,其P、R、F1值均有所提高,以此可見Conv-AT模塊對于提高模型的檢測、定位精度具有提高作用。同時(shí),對比YOLOv3-AT(84.3%),YOLOv7-AT(79.1%)算法的mAP值,YOLOv5-AT模型具有最優(yōu)秀的檢測能力,mAP穩(wěn)定在84.6%。且YOLOv5-AT模型在精確率、召回率以及F1得分方面均有提升,相較于YOLOv7-AT算法提高了5.3%,1.8%,3.4%,相較于YOLOv3-AT算法提高了1.2%,1.1%,0.7%。不同模型實(shí)際效果如圖7所示圖4.1不同YOLO模型實(shí)際效果圖(a)YOLOv3(b)YOLOv3-AT(c)YOLOv5(d)YOLOv5-AT(e)YOLOv7(f)YOLOv7-ATFigure4.1ActualeffectdiagramofdifferentYOLOmodels從圖4.1可以看出,相較于基準(zhǔn)模型,在加入Conv-AT模塊之后,YOLOv3-AT,YOLOv5-AT模型檢測出了基準(zhǔn)模型未能檢測到的目標(biāo),其準(zhǔn)確率獲得了進(jìn)一步的提升,針對YOLOv7模型,再加入Conv-AT模塊之后,其檢測綠色柑橘獲得的置信度也獲得了一定程度的提升。同時(shí),對比YOLOv3-AT,YOLOv5-AT,YOLOv7-AT模型,其中YOLOv5-AT模型獲得了最好的檢測效果,綜上試驗(yàn)結(jié)果表明,YOLOv5-AT模型針對近色背景下綠色柑橘檢測準(zhǔn)確率最高。4.2不同數(shù)據(jù)增強(qiáng)方式對模型準(zhǔn)確度的影響為了驗(yàn)證不同和數(shù)據(jù)增強(qiáng)方法的效果,以綠色柑橘為例,采用了YOLOv5-AT模型結(jié)合不同的數(shù)據(jù)增強(qiáng)方法對綠色柑橘進(jìn)行檢測。All-Augment表示應(yīng)用包括SAM-Copy-Paste、Mosaic、Mixup在內(nèi)的數(shù)據(jù)增強(qiáng)方法,No-Augment代表不應(yīng)用數(shù)據(jù)增強(qiáng)方法,Mosaic、SAM-Copy-Paste、Mixup等表示單獨(dú)應(yīng)用此種數(shù)據(jù)增強(qiáng)方法。如圖4.2展示了三種數(shù)據(jù)增強(qiáng)方法迭代100次訓(xùn)練集模型準(zhǔn)確率的變化。圖4.2(a)不同數(shù)據(jù)增強(qiáng)方法下YOLOv5-AT模型準(zhǔn)確率變化(b)不同數(shù)據(jù)增強(qiáng)方法下YOLOv5-AT模型PR曲線Figure4.2(a)ChangeinaccuracyofYOLOv5-ATmodelunderdifferentdataenhancementmethods(B)PRcurvesoftheYOLOv5-ATmodelunderdifferentdataaugmentationmethods首先從圖4.2(a)中可見,YOLOv5-AT模型中在20-40次迭代時(shí),模型已經(jīng)到達(dá)收斂階段,同時(shí)不同的數(shù)據(jù)增強(qiáng)方法對模型的影響效果存在差異。其中在單獨(dú)使用數(shù)據(jù)增強(qiáng)方式時(shí),Mosaic方法可以使YOLO模型在收斂階段達(dá)到更高的mAP。SAM-Copy-Paste方法對于減少模型準(zhǔn)確率上下波動(dòng)效果最好。Mixup方法對模型準(zhǔn)確率有提高作用,但是Mixup可能會(huì)引起模型準(zhǔn)確率的波動(dòng)。當(dāng)三種數(shù)據(jù)增強(qiáng)方式同時(shí)應(yīng)用于模型時(shí),SAM-Copy-Paste可以抑制Mixup引起的波動(dòng),因此三者結(jié)合時(shí)對于模型準(zhǔn)確率的提高效果最明顯。圖(b)的結(jié)果同樣可以證明,當(dāng)同時(shí)應(yīng)用三種數(shù)據(jù)增強(qiáng)方式時(shí)模型的F1值高于其他模型。上述4種模型在三種數(shù)據(jù)增強(qiáng)方式作用下在測試集上的準(zhǔn)確率如表4-2所示。表4-24種模型在不同數(shù)據(jù)增強(qiáng)方法下在測試集上的mAP值Table4-2mAPvaluesofthe4modelsonthetestsetunderdifferentdataaugmentationmethodsPRF1mAPAll-Augment86.376.381.084.6Mosaic85.272.578.382.7Mixup89.063.073.878.0SAM-Copy-Paste85.566.774.978.6No-Augment84.963.972.977.3從表4-2可見,相比于不用數(shù)據(jù)增強(qiáng)方法,分別使用Mosaic,Mixup,SAM-Copy-Paste時(shí),4種模型mAP具有明顯提高。其中,Mosaic方式對于模型的提升最為明顯,平均約5.4%,Mixup方式約為0.7%,SAM-Copy-Paste方式約為1.3%。相比于單獨(dú)使用各增強(qiáng)方法,在聯(lián)合3種數(shù)據(jù)增強(qiáng)方法時(shí),4種模型的準(zhǔn)確率均為最高,準(zhǔn)確率平均提高了7.3%。實(shí)驗(yàn)證明,通過使用數(shù)據(jù)增強(qiáng)方法可以在一定程度上彌補(bǔ)因數(shù)據(jù)量不足所造成的神經(jīng)網(wǎng)絡(luò)模型準(zhǔn)確率低的問題。不同數(shù)據(jù)增強(qiáng)方法實(shí)際效果圖如圖4.3所示注:藍(lán)色框?yàn)槲礃?biāo)注的目標(biāo)圖4.3不同數(shù)據(jù)增強(qiáng)方法實(shí)際效果圖(a)應(yīng)用全部數(shù)據(jù)增強(qiáng)方法(b)單獨(dú)應(yīng)用三種數(shù)據(jù)增強(qiáng)方法(c)不使用數(shù)據(jù)增強(qiáng)方法Figure4.3Actualeffectdiagramofdifferentdataenhancementmethods(a)Alldataenhancementmethodsareapplied(B)Applythethreedataaugmentationmethodsseparately(c)anddonotusethedataaugmentationmethod4.3不同數(shù)據(jù)集數(shù)量對模型準(zhǔn)確率的影響為了更好地模擬少樣本的情況下,本文提出的方法對模型準(zhǔn)確率的提升效果,在原有的訓(xùn)練集中,分別使用了不同比例(20%,30%,50%,70%)的訓(xùn)練集重新對YOLOv5-AT模型進(jìn)行訓(xùn)練,并使用相同的測試集對模型的準(zhǔn)確率進(jìn)行了評估,其結(jié)果如表4-3所示表4-3不同樣本數(shù)量中YOLOv5-AT模型準(zhǔn)確率Table4-3AccuracyoftheYOLOv5-ATmodelindifferentsamplenumbers訓(xùn)練集保留比例是否使用數(shù)據(jù)增強(qiáng)PRF1mAP20%√81.063.571.272.8×72.750.859.856.330%√84.268.875.778.0×78.354.264.160.550%√86.672.779.082.2×85.156.567.965.570%√86.374.880.182.9×79.659.368.068.2100%√86.376.381.084.6×84.963.972.977.3從表4-3中不難看出,模型的準(zhǔn)確率與訓(xùn)練集的數(shù)量存在正相關(guān)關(guān)系,隨著訓(xùn)練集數(shù)量的降低,模型的準(zhǔn)確率也會(huì)不斷降低。但是當(dāng)樣本數(shù)量降低30%時(shí),mAP僅降低了1.6%。當(dāng)樣本數(shù)量降低50%時(shí),mAP僅降低了2.3%。當(dāng)樣本數(shù)量僅保留20%時(shí),mAP仍然可達(dá)到72.8%。同時(shí)可見應(yīng)用數(shù)據(jù)增強(qiáng)方法,在相同的訓(xùn)練集數(shù)量的條件下,模型的mAP最大可提高17.5%??梢?,YOLOv5-AT與數(shù)據(jù)增強(qiáng)方法相結(jié)合,較好地解決了小樣本模型精度低的問題。4.4YOLOv5-AT模型在其他近色果園作物數(shù)據(jù)集上的表現(xiàn)為了驗(yàn)證YOLOv5-AT模型在其他近色果園作物數(shù)據(jù)集上的準(zhǔn)確率,選擇綠色番茄和綠色柿子作為研究對象,通過YOLOv5-AT模型進(jìn)行訓(xùn)練和測試得到如表4-4所示的結(jié)果。表4-4YOLOv5-AT模型對其他青果檢測的準(zhǔn)確率Table4-4AccuracyoftheYOLOv5-ATmodelforothergreenfruitdetection數(shù)據(jù)集PRF1mAP綠色番茄數(shù)據(jù)集95.193.494.298.0綠色柿子數(shù)據(jù)集85.176.080.385.1從表4-4中可見,同一模型在不同檢測對象上的表現(xiàn)效果并不相同,這與檢測對象的檢測難度,數(shù)據(jù)集圖像的質(zhì)量有直接關(guān)系。相較于綠色柑橘數(shù)據(jù)集,綠色番茄數(shù)據(jù)集的目標(biāo)檢測任務(wù)相較簡單,其單張圖片目標(biāo)個(gè)數(shù)少,背景簡單,遮擋程度低,因此,YOLOv5-AT模型在此數(shù)據(jù)集上均有較好效果。在綠色柿子數(shù)據(jù)集中,目標(biāo)檢測的難度與綠色柑橘數(shù)據(jù)集難度相似,并且訓(xùn)練集數(shù)量較少,因此,YOLOv5-AT模型準(zhǔn)確率均較低??傮w來看,YOLOv5-AT模型在近色背景果園作物檢測任務(wù)中,具有較好的優(yōu)勢,其具體效果圖如圖10所示。圖4.4YOLOv5-AT模型在其他近色背景果園作物實(shí)際效果圖綠色柿子實(shí)際效果圖(b)綠色番茄實(shí)際效果圖Figure4.4ActualeffectsoftheYOLOv5-ATmodelinothernear-coloredbackgroundorchardcrops(A)Actualeffectofgreenpersimmon(b)Actualeffectofgreentomato從圖4.4中可見,本文提出的方法在近色背景下可以準(zhǔn)確地識(shí)別出目標(biāo)青果,且準(zhǔn)確率都較高。經(jīng)分析是由于YOLOv5-AT模型通過引入Conv-AT模塊,借由CA和SA注意力機(jī)制,從空間和通道角度重新構(gòu)建特征信息,同時(shí)通過Concat操作,盡可能多的保留了足夠的特征信息,因此增強(qiáng)模型的檢測精度。但是,當(dāng)面對檢測目標(biāo)被過度遮擋,曝光嚴(yán)重,目標(biāo)較小時(shí),模型可能會(huì)出現(xiàn)漏檢、錯(cuò)檢問題。第五章結(jié)論5.1主要結(jié)論本文提出了一種基于Conv-AT注意力機(jī)制的YOLO目標(biāo)檢測模型——YOLOv5-AT,用于實(shí)現(xiàn)近色背景下青果檢測,并結(jié)合Mosaic,Mixup,SAM-Copy-Paste等數(shù)據(jù)增強(qiáng)方法針對少樣本的綠色柑橘數(shù)據(jù)集進(jìn)行擴(kuò)充,實(shí)現(xiàn)了樣本數(shù)據(jù)量的擴(kuò)充從而提高模型準(zhǔn)確率。YOLOv5-AT模型在原有YOLOv5模型的基礎(chǔ)上增加CBR模塊與Conv-AT模塊,其中,CBR模塊用于提取特征信息中的局部重點(diǎn)信息,Conv-AT模塊用于獲取特征信息中的不同角度的重點(diǎn)信息,兩個(gè)模塊共同作用,進(jìn)而提高神經(jīng)網(wǎng)絡(luò)的檢測精度。試驗(yàn)結(jié)果表明,提出的Conv-AT模型對于不同系列的YOLO檢測模型檢測效果均有提高效果,其中YOLOv3-AT,YOLOv5-AT,YOLOv7-AT模型在綠色柑橘數(shù)據(jù)集測試集上mAP分別達(dá)到了84.3%,84.6%,79.1%,相較于原始模型提高了0.7%,1.7%,2.4%;提出的YOLOv5-AT模型在測試集上的精確率、召回率、F1得分以及mAP方面分別為86.3%,76.3%,81.0%,84.6%,相較于YOLOv5模型分別提高了0.3%,3.4%,2.1%,1.7%;同時(shí)采用Mosaic,Mixup,SAM-Copy-Paste等數(shù)據(jù)增強(qiáng)方法針對原有數(shù)據(jù)進(jìn)行增強(qiáng),試驗(yàn)結(jié)果表明,三種數(shù)據(jù)增強(qiáng)方法聯(lián)合使用時(shí)可以達(dá)到最高的準(zhǔn)確率。在保留不同比例的數(shù)據(jù)集的情況下,相較于不使用數(shù)據(jù)增強(qiáng)方法最高提升17.5%。因此,YOLOv5-AT模型結(jié)合數(shù)據(jù)增強(qiáng)方法有效解決了近色背景下少樣本數(shù)據(jù)集青果目標(biāo)的高精度檢測。5.2展望在本文中,我們提出了一種基于改進(jìn)的YOLOv5模型的青果檢測方法,該方法通過設(shè)計(jì)Conv-AT模塊、SA、CB注意力模塊,并結(jié)合SAM-Copy-Paste等數(shù)據(jù)增強(qiáng)技術(shù),有效地提高了在近色背景條件下小樣本青果的檢測精度。實(shí)驗(yàn)結(jié)果表明,我們的模型在綠色柑橘、綠色番茄和綠色柿子的檢測上均達(dá)到了較高的準(zhǔn)確率,并且在減少訓(xùn)練數(shù)據(jù)量的情況下仍能保持較高的檢測性能,證明了模型的有效性和魯棒性。展望未來,我們認(rèn)為有以下幾個(gè)方向可以進(jìn)一步探索和研究:(1)數(shù)據(jù)集擴(kuò)充和多樣性:雖然SAM-Copy-Paste等數(shù)據(jù)增強(qiáng)方法已經(jīng)在一定程度上提高了模型的泛化能力,但更多樣化和豐富的數(shù)據(jù)集可能會(huì)進(jìn)一步提升模型的性能。未來的工作中可以考慮采集更多種類和環(huán)境下的綠色果圖像,以增強(qiáng)模型對不同場景的適應(yīng)性。(2)模型優(yōu)化和壓縮:為了適應(yīng)邊緣計(jì)算和移動(dòng)設(shè)備上的實(shí)時(shí)檢測需求,對模型進(jìn)行優(yōu)化和壓縮是必要的。未來的工作可以探索更輕量級的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì),以及模型剪枝、量化等技術(shù),以減少模型的計(jì)算復(fù)雜度和存儲(chǔ)需求。(3)多模態(tài)融合:除了傳統(tǒng)的RGB圖像外,其他類型的數(shù)據(jù),如紅外圖像、深度圖像或者光譜信息,也可以為青果檢測提供有價(jià)值的線索。未來的研究可以探索如何有效地融合這些多模態(tài)信息,以提高檢測的準(zhǔn)確性和魯棒性。(4)實(shí)時(shí)監(jiān)測和自適應(yīng)調(diào)整:在實(shí)際應(yīng)用中,環(huán)境條件(如光照、天氣)可能會(huì)發(fā)生變化,影響檢測性能。因此,開發(fā)能夠?qū)崟r(shí)監(jiān)測環(huán)境變化并自適應(yīng)調(diào)整參數(shù)的智能檢測系統(tǒng)將具有重要的應(yīng)用價(jià)值。(5)與其他農(nóng)業(yè)技術(shù)的結(jié)合:青果檢測技術(shù)可以與無人機(jī)巡檢、智能灌溉、精準(zhǔn)施肥等現(xiàn)代農(nóng)業(yè)技術(shù)相結(jié)合,實(shí)現(xiàn)更全面的果園管理和優(yōu)化。未來的研究可以探索這些技術(shù)之間的協(xié)同效應(yīng),以進(jìn)一步提高農(nóng)業(yè)生產(chǎn)效率。5.3經(jīng)濟(jì)與環(huán)境分析在農(nóng)業(yè)生產(chǎn)中,實(shí)現(xiàn)高效的果園管理和資源優(yōu)化是提高生產(chǎn)效率和降低成本的關(guān)鍵。青果檢測技術(shù)作為早期估產(chǎn)和資源分配的重要工具,其準(zhǔn)確性直接影響到果園的經(jīng)濟(jì)效益和環(huán)境可持續(xù)性。然而,傳統(tǒng)的青果檢測方法面臨著諸多挑戰(zhàn),如青果與背景的相似性、復(fù)雜背景的干擾以及數(shù)據(jù)集采集的困難等。這些因素限制了青果檢測技術(shù)的廣泛應(yīng)用和發(fā)展。本文提出的基于改進(jìn)YOLOv5模型的青果檢測方法,通過引入Conv-AT模塊、SA、CB注意力模塊以及SAM-Copy-Paste等數(shù)據(jù)增強(qiáng)技術(shù),顯著提高了在近色背景條件下小樣本青果的檢測精度。這一技術(shù)進(jìn)步不僅提高了檢測的準(zhǔn)確性,還降低了對大量標(biāo)注數(shù)據(jù)的依賴,從而減少了數(shù)據(jù)采集和標(biāo)注的成本。從經(jīng)濟(jì)角度來看,準(zhǔn)確的青果檢測能夠?yàn)檗r(nóng)業(yè)生產(chǎn)者提供更為精確的產(chǎn)量預(yù)測,幫助他們更好地規(guī)劃市場供應(yīng)和銷售策略,從而增加收益。同時(shí),通過優(yōu)化水肥資源分配,可以減少資源浪費(fèi),降低生產(chǎn)成本,提高農(nóng)業(yè)資源的使用效率。此外,減少化肥和農(nóng)藥的過量使用,還有助于保護(hù)生態(tài)環(huán)境,實(shí)現(xiàn)農(nóng)業(yè)生產(chǎn)的可持續(xù)發(fā)展。環(huán)境方面,本文提出的綠色果實(shí)檢測模型能夠支持精準(zhǔn)農(nóng)業(yè)實(shí)踐,通過精確控制水肥使用量,減少對環(huán)境的負(fù)面影響。例如,避免過度施肥導(dǎo)致的土壤退化和水體污染,以及減少農(nóng)藥使用對生態(tài)系統(tǒng)的破壞。這些做法有助于維護(hù)生物多樣性,保護(hù)水源和土壤健康,促進(jìn)生態(tài)平衡。綜上所述,本文提出的YOLOv5-AT模型結(jié)合SAM-Copy-Paste數(shù)據(jù)增強(qiáng)方法,不僅在技術(shù)上提升了青果檢測的性能,還具有顯著的經(jīng)濟(jì)效益和環(huán)境價(jià)值。通過實(shí)現(xiàn)更高效、準(zhǔn)確和環(huán)保的農(nóng)業(yè)生產(chǎn),該方法為農(nóng)業(yè)產(chǎn)業(yè)的可持續(xù)發(fā)展提供了有力的技術(shù)支持,同時(shí)也為農(nóng)業(yè)生產(chǎn)者和環(huán)境保護(hù)者帶來了新的機(jī)遇。參考文獻(xiàn)《中國農(nóng)業(yè)展望報(bào)告(2020-2029)》[EB/OL].中華人民共和國中央人民政府網(wǎng)/xinwen/2022-04/21/content_5504574.htm,2022-4-21.NuskeS,AcharS,BatesT,etal.Yieldestimationinvineyardsbyvisualgrapedetection[J].IEEE,2011.DOI:10.1109/IROS.2011.6095069.程洪,Lutz,Damerow,等.基于圖像處理與支持向量機(jī)的樹上蘋果早期估產(chǎn)研究[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2015.RahnemoonfarM,SheppardC.DeepCount:FruitCountingBasedonDeepSimulatedLearning[J].Sensors,2017,17(4):905-.DOI:10.3390/s17040905.胡秀文.基于視覺的樹上綠色柑橘檢測[D].華中農(nóng)業(yè)大學(xué)[2024-04-29].DOI:CNKI:CDMD:2.1018.182330.LiH,LeeWS,WangK.Immaturegreencitrusfruitdetectionandcountingbasedonfastnormalizedcrosscorrelation(FNCC)usingnaturaloutdoorcolourimages[J].PrecisionAgriculture,2016,17(6):678-697.DOI:10.1007/s11119-016-9443-z.LiH,LeeWS,WangK.Identifyingblueberryfruitofdifferentgrowthstagesusingnaturaloutdoorcolorimages[J].Computers&ElectronicsinAgriculture,2014,106:91-101.DOI:10.1016/pag.2014.05.015.KesturR,MeduriA,NarasipuraO.MangoNet:Adeepsemanticsegmentationarchitectureforamethodtodetectandcountmangoesinanopenorchard[J].EngineeringApplicationsofArtificialIntelligence,2018,77(JAN.):59-69.DOI:10.1016/j.engappai.2018.09.011.劉長林,張鐵中,楊麗.茄子收獲機(jī)器人視覺系統(tǒng)圖像識(shí)別方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2008,39(11):4.DOI:10.3901/JME.2008.09.177.傅隆生,孫世鵬,Vázquez-ArellanoManuel,etal.基于果萼圖像的獼猴桃果實(shí)夜間識(shí)別方法[J].農(nóng)業(yè)工程學(xué)報(bào),2017,33(2):6.DOI:10.11975/j.issn.1002-6819.2017.02.027.畢然等.零基礎(chǔ)實(shí)踐深度學(xué)習(xí)[M].北京:清華大學(xué)出版社,2004:1-2.梁宏濤,劉紅菊,李靜,等.基干機(jī)器學(xué)習(xí)的短期負(fù)荷預(yù)側(cè)算法綜述[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2022,31(10):25-35.田世杰,張一名.機(jī)器學(xué)習(xí)算法及其應(yīng)用綜述[J].軟件,2023,44(07):70-75.周文豪,牛英滔,施育鑫.無線通信中的機(jī)器學(xué)習(xí)算法綜述[J].無線電通信技術(shù),2022,48(6):1049-1057.KrizhevskyA,SutskeverI,Hin

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論