基于深度學(xué)習(xí)的駕駛行為檢測(cè)研究與應(yīng)用_第1頁(yè)
基于深度學(xué)習(xí)的駕駛行為檢測(cè)研究與應(yīng)用_第2頁(yè)
基于深度學(xué)習(xí)的駕駛行為檢測(cè)研究與應(yīng)用_第3頁(yè)
基于深度學(xué)習(xí)的駕駛行為檢測(cè)研究與應(yīng)用_第4頁(yè)
基于深度學(xué)習(xí)的駕駛行為檢測(cè)研究與應(yīng)用_第5頁(yè)
已閱讀5頁(yè),還剩23頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

基于深度學(xué)習(xí)的駕駛行為檢測(cè)研究與應(yīng)用摘要深度學(xué)習(xí)技術(shù)在各領(lǐng)域的應(yīng)用已經(jīng)引發(fā)了廣泛的關(guān)注,通過(guò)深度學(xué)習(xí)模型,可以對(duì)駕駛員的行為進(jìn)行實(shí)時(shí)監(jiān)測(cè),通過(guò)對(duì)圖片或視頻檢測(cè)標(biāo)記,以判斷出存在的駕駛行為,如疲勞駕駛、分心駕駛等。針對(duì)駕駛安全的實(shí)際場(chǎng)景,本文結(jié)合圖像處理技術(shù)和計(jì)算機(jī)視覺(jué)等多種技術(shù),使用通過(guò)在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練的YOLOv5模型,并制作大規(guī)模駕駛數(shù)據(jù)集,以及對(duì)模型進(jìn)行調(diào)用,以提高檢測(cè)的準(zhǔn)確性和魯棒性。通過(guò)模型對(duì)駕駛員的面部、肢體動(dòng)作等特征進(jìn)行檢測(cè),判斷駕駛員的危險(xiǎn)駕駛行為。此外,通過(guò)搭建駕駛行為檢測(cè)系統(tǒng),將訓(xùn)練好的模型嵌入其中,以實(shí)現(xiàn)實(shí)時(shí)檢測(cè)標(biāo)記行為,從而改善駕駛行為。關(guān)鍵詞深度學(xué)習(xí);駕駛行為檢測(cè);駕駛數(shù)據(jù)集;YOLOv5算法

ResearchandapplicationofdrivingbehaviordetectionbasedondeeplearningXiAbstractTheapplicationofdeeplearningXitechnologyinvariousfieldshasattractedextensiveattention,throughthedeeplearningXimodel,thedriver'sbehaviorcanbemonitoredinrealtime,andtheexistingdrivingbehaviorscanbejudgedbydetectingandmarkingpicturesorvideos,suchasfatiguedriving,distracteddriving,etc.Inviewoftheactualscenarioofdrivingsafety,thispapercombinesimageprocessingtechnologyandcomputervisionandothertechnologies,usestheYOLOv5modelpre-trainedontheImageNetdataset,andmakesalarge-scaledrivingdataset,andcallsthemodeltoimprovetheaccuracyandrobustnessofdetection.Themodeldetectsthedriver'sface,bodymovementsandotherfeaturestojudgethedriver'sdangerousdrivingbehavior.Inaddition,bybuildingadrivingbehaviordetectionsystem,thetrainedmodelisembeddedinittorealizereal-timedetectionoflabelingbehavior,soastoimprovedrivingbehavior.KeywordsDeeplearning;Driverbehaviordetection;Drivingdataset;YOLOv5algorithm

目錄TOC\o"1-3"\h\u310161緒論 緒論研究背景和意義隨著交通工具的普及和道路網(wǎng)絡(luò)的不斷擴(kuò)展,駕駛行為的質(zhì)量對(duì)道路安全和交通效率產(chǎn)生了深遠(yuǎn)的影響。不合適的駕駛行為,如疲勞駕駛、分心駕駛、超速和違規(guī)變道,不僅導(dǎo)致了數(shù)以千計(jì)的交通事故,還造成了巨大的人員傷亡和財(cái)產(chǎn)損失。根據(jù)公安部2022年發(fā)布的數(shù)據(jù),我國(guó)眾多交通事故中大約有10%~20%的事故是由分心駕駛誘發(fā)的。國(guó)內(nèi)外研究現(xiàn)狀在國(guó)內(nèi)外,相關(guān)領(lǐng)域?qū)W者們?cè)缫堰M(jìn)行了更深入的探索。隨著大型數(shù)據(jù)集的開(kāi)發(fā)和發(fā)布以及計(jì)算機(jī)設(shè)備運(yùn)算能力的逐漸增強(qiáng),尤其是GPU在解決大量計(jì)算問(wèn)題且并行計(jì)算時(shí)的廣泛使用,深度學(xué)習(xí)技術(shù)在計(jì)算機(jī)視覺(jué)應(yīng)用領(lǐng)域的不同任務(wù)中獲得了接連成功。此外,深度學(xué)習(xí)的更新和技術(shù)突破,推動(dòng)了基于深度學(xué)習(xí)的目標(biāo)行為檢測(cè)的研究。目標(biāo)行為檢測(cè)在特定行為識(shí)別中常被直接使用和作為參考,明顯地改善了行為檢測(cè)和識(shí)別時(shí)的性能。在文獻(xiàn)[1]中,設(shè)計(jì)了一個(gè)基于深度學(xué)習(xí)技術(shù)的駕駛行為檢測(cè)系統(tǒng),包括駕駛行為檢測(cè)系統(tǒng)的方案設(shè)計(jì)與技術(shù)分析、駕駛員疲勞檢測(cè)算法研究與設(shè)計(jì)、駕駛員分心檢測(cè)算法研究與設(shè)計(jì),以及實(shí)現(xiàn)和可視化展示界面設(shè)計(jì)。在文獻(xiàn)[2]中,設(shè)計(jì)了一個(gè)人臉識(shí)別技術(shù)與監(jiān)控系統(tǒng)的關(guān)聯(lián)控制體系,通過(guò)人臉辨別技術(shù)來(lái)監(jiān)測(cè)駕駛員的面部特征以檢測(cè)他們的疲勞狀態(tài)。在文獻(xiàn)[3]中,通過(guò)采集腦電信號(hào)、面部圖像和車(chē)輛行駛車(chē)道圖像,然后使用卷積神經(jīng)網(wǎng)絡(luò)來(lái)預(yù)測(cè)駕駛員是否處于疲勞狀態(tài)。通過(guò)多模態(tài)數(shù)據(jù)的融合顯著提高疲勞狀態(tài)檢測(cè)的準(zhǔn)確性。在文獻(xiàn)[4]中,構(gòu)建了一個(gè)基于OpenCV和Keras框架實(shí)現(xiàn)的疲勞檢測(cè)系統(tǒng)。系統(tǒng)使用dlib進(jìn)行人臉檢測(cè),有效地提高系統(tǒng)識(shí)別后結(jié)果的準(zhǔn)確率,通過(guò)分析與計(jì)算目標(biāo)駕駛員眼睛的縱橫比,判斷駕駛?cè)说拿娌刻卣?,得出目?biāo)駕駛員是否疲憊,在確定檢測(cè)到疲勞駕駛后,能給出語(yǔ)音提示和報(bào)警。在文獻(xiàn)[5]中,使用OpenCV實(shí)現(xiàn)了一個(gè)疲勞駕駛系統(tǒng),該系統(tǒng)使用二元線性支持向量機(jī)分類器進(jìn)行分類,以簡(jiǎn)單而快速方式識(shí)別駕駛員是否在疲勞駕駛。這些研究和系統(tǒng)的發(fā)展表明了深度學(xué)習(xí)和計(jì)算機(jī)視覺(jué)技術(shù)在駕駛行為檢測(cè)和疲勞檢測(cè)領(lǐng)域的應(yīng)用潛力,有望提高道路交通的安全性。研究?jī)r(jià)值與內(nèi)容在駕駛安全的實(shí)際場(chǎng)景中,結(jié)合了圖像處理技術(shù)和計(jì)算機(jī)視覺(jué)等技術(shù)。使用在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練的YOLOv5模型,并制作了大規(guī)模的駕駛行為數(shù)據(jù)集來(lái)微調(diào)模型,以提高檢測(cè)的準(zhǔn)確性和魯棒性。通過(guò)模型,可以檢測(cè)駕駛員的面部、肢體動(dòng)作等特征行為,從而判斷他們當(dāng)時(shí)的駕駛行為。此外,還搭建了一個(gè)駕駛行為檢測(cè)系統(tǒng),將訓(xùn)練好的模型嵌入其中,實(shí)現(xiàn)圖片預(yù)測(cè)和視頻實(shí)時(shí)預(yù)測(cè),從而改善駕駛行為。本文研究?jī)?nèi)容為了更好地保障駕駛員的生命財(cái)產(chǎn)安全,本文設(shè)計(jì)一種基于圖片、視頻分析和卷積神經(jīng)網(wǎng)絡(luò)YOLOv5的駕駛行為檢測(cè)算法的駕駛行為檢測(cè)系統(tǒng)。研究過(guò)程中,通過(guò)使用包含4235張圖片的大規(guī)模駕駛行為數(shù)據(jù)集,其中包含2000張駕駛面部圖、1136張抽煙行為圖、888張打電話行為圖以及211張駕駛過(guò)程中轉(zhuǎn)身圖。為提高數(shù)據(jù)處理效率,采用了Cache文件存放臨時(shí)的數(shù)據(jù)集標(biāo)記點(diǎn),加快讀寫(xiě)數(shù)據(jù),以及利用英偉達(dá)提供的針對(duì)英偉達(dá)顯卡的CUDA和cuDNN加速庫(kù),使之能夠在GPU下對(duì)本次駕駛行為深度學(xué)習(xí)任務(wù)大幅度提高模型的訓(xùn)練和推理過(guò)程。結(jié)果顯示,模型檢測(cè)準(zhǔn)確率可達(dá)96.1%,系統(tǒng)在實(shí)際應(yīng)用中具有較好的效果和推廣前景。可行性研究及需求分析嘗試?yán)蒙疃葘W(xué)習(xí)技術(shù)來(lái)分析駕駛員的行為,包括面部表情、手部動(dòng)作和車(chē)輛操作等研究為我們提供了寶貴的見(jiàn)解,但也面臨著挑戰(zhàn),如精確性、實(shí)時(shí)性和數(shù)據(jù)集的獲取。因此,本論文旨在綜合國(guó)內(nèi)外研究現(xiàn)狀,分析已有研究的優(yōu)點(diǎn)和不足,進(jìn)一步深化駕駛行為檢測(cè)領(lǐng)域的研究,以克服現(xiàn)有問(wèn)題,并提出創(chuàng)新性的解決方案。通過(guò)探討駕駛行為檢測(cè)的關(guān)鍵問(wèn)題,主要研究基于深度學(xué)習(xí)的駕駛行為識(shí)別方法研究與應(yīng)用。本項(xiàng)目擬采用深度學(xué)習(xí)網(wǎng)絡(luò)與機(jī)器視覺(jué)相結(jié)合的方法,實(shí)現(xiàn)對(duì)駕駛?cè)诵袨榈木_快速識(shí)別,提升駕駛?cè)说陌踩c駕駛體驗(yàn)。本項(xiàng)目的研究成果將對(duì)我國(guó)未來(lái)智能交通的發(fā)展起到積極的促進(jìn)作用,從而促進(jìn)我國(guó)道路運(yùn)輸領(lǐng)域的創(chuàng)新與發(fā)展??尚行匝芯浚?)技術(shù)可行性。①數(shù)據(jù)獲取與處理基于深度學(xué)習(xí)的駕駛行為檢測(cè)需要大量的駕駛數(shù)據(jù),包括視頻、傳感器數(shù)據(jù)等。技術(shù)上,我們可以采用現(xiàn)有的攝像頭和傳感器設(shè)備來(lái)獲取這些數(shù)據(jù)。深度學(xué)習(xí)模型需要大量的訓(xùn)練數(shù)據(jù),但隨著數(shù)據(jù)集的不斷積累和數(shù)據(jù)增強(qiáng)技術(shù)的發(fā)展,數(shù)據(jù)獲取不再是不可逾越的障礙。②算法與模型深度學(xué)習(xí)算法如卷積神經(jīng)網(wǎng)絡(luò)(CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和深度強(qiáng)化學(xué)習(xí)(DRL)等技術(shù)多使用在圖像識(shí)別和動(dòng)作檢測(cè)。這些技術(shù)的成熟和開(kāi)源框架的可用性使得開(kāi)發(fā)和調(diào)整駕駛行為檢測(cè)模型變得可行。③實(shí)時(shí)性需求駕駛行為檢測(cè)需要快速的實(shí)時(shí)處理,以及對(duì)不安全行為的即時(shí)響應(yīng)。深度學(xué)習(xí)模型可以在高性能計(jì)算硬件上進(jìn)行加速,以滿足實(shí)時(shí)性需求。此外,模型的輕量化和優(yōu)化可以進(jìn)一步提高實(shí)時(shí)性能。綜合考慮,從技術(shù)可行性的角度來(lái)看,基于深度學(xué)習(xí)的駕駛行為檢測(cè)具備良好的前景。技術(shù)方面已經(jīng)有了充分的支持,可以實(shí)現(xiàn)高效、實(shí)時(shí)、準(zhǔn)確的檢測(cè)。(2)經(jīng)濟(jì)可行性。經(jīng)濟(jì)可行性主要部分有:成本與效益。其中,成本有硬件采購(gòu)、軟件開(kāi)發(fā)、數(shù)據(jù)收集和分析、人力資源和設(shè)備維護(hù)等方面。同時(shí),還需要考慮到潛在的額外支出,如數(shù)據(jù)隱私合規(guī)的成本。經(jīng)濟(jì)可行性的另一方面是預(yù)期的收益。駕駛行為檢測(cè)技術(shù)可以在多個(gè)領(lǐng)域應(yīng)用,包括車(chē)輛保險(xiǎn)、駕駛員培訓(xùn)和自動(dòng)駕駛汽車(chē)等。預(yù)期的收益將根據(jù)具體應(yīng)用場(chǎng)景而異。考慮項(xiàng)目的長(zhǎng)期可持續(xù)性也是經(jīng)濟(jì)可行性的一部分。這包括項(xiàng)目的運(yùn)營(yíng)和維護(hù)成本,以及未來(lái)收益的預(yù)測(cè)。目標(biāo)檢測(cè)系統(tǒng)的成本主要涵蓋硬件和軟件兩個(gè)方面。硬件方面包括計(jì)算機(jī)設(shè)備等,而軟件方面包括算法開(kāi)發(fā)、數(shù)據(jù)集采集和模型訓(xùn)練等方面的費(fèi)用。隨著技術(shù)的進(jìn)步,硬件設(shè)備的價(jià)格越來(lái)越低廉。同時(shí),由于已有很多成熟的算法和數(shù)據(jù)集,可以減少算法開(kāi)發(fā)和數(shù)據(jù)采集的成本。該系統(tǒng)的應(yīng)用場(chǎng)景主要是針對(duì)駕駛行為檢測(cè)領(lǐng)域。因此,需要檢測(cè)的目標(biāo)主要是人的動(dòng)作,需要具備較高的檢測(cè)精度和準(zhǔn)確度,以便進(jìn)行駕駛行為分析等應(yīng)用。在實(shí)際應(yīng)用中可以帶來(lái)實(shí)際的經(jīng)濟(jì)效益,因此,從經(jīng)濟(jì)可行性角度考慮,目標(biāo)檢測(cè)系統(tǒng)也是可行的。(3)社會(huì)可行性分析目標(biāo)檢測(cè)系統(tǒng)在各行各業(yè)都有廣泛的應(yīng)用,如智能交通、安防監(jiān)控、工業(yè)檢測(cè)等領(lǐng)域。隨著人工智能技術(shù)的不斷發(fā)展,目標(biāo)檢測(cè)系統(tǒng)的需求將會(huì)越來(lái)越大。因此,從社會(huì)可行性角度考慮,目標(biāo)檢測(cè)系統(tǒng)也是可行的。需求分析(1)功能性需求該系統(tǒng)的應(yīng)用場(chǎng)景主要是針對(duì)駕駛行為檢測(cè)領(lǐng)域。因此,需要檢測(cè)的主要對(duì)象是駕駛員,需要具備高度的檢測(cè)精度和準(zhǔn)確度,以便進(jìn)行駕駛行為分析和安全監(jiān)控等應(yīng)用。需要采集車(chē)輛內(nèi)部攝像頭的視頻、圖像數(shù)據(jù),并通過(guò)數(shù)據(jù)清洗和標(biāo)注來(lái)預(yù)處理這些圖像數(shù)據(jù)。為了提高檢測(cè)精度和準(zhǔn)確度,需要使用深度學(xué)習(xí)算法,如卷積神經(jīng)網(wǎng)絡(luò)(CNN)來(lái)進(jìn)行駕駛行為的檢測(cè)和分析。該系統(tǒng)需要實(shí)時(shí)進(jìn)行駕駛行為檢測(cè),因此需要具備較高的檢測(cè)速度和精度。為了確保系統(tǒng)的實(shí)時(shí)性,可以采用一些輕量級(jí)的深度學(xué)習(xí)模型,例如MobileNet和YOLO等。應(yīng)用場(chǎng)景分析:疲勞駕駛檢測(cè):駕駛員狀態(tài)監(jiān)控:經(jīng)過(guò)訓(xùn)練后的深度學(xué)習(xí)算法能夠自動(dòng)的檢測(cè)到視頻流中每一幀圖像的眨眼動(dòng)作頻率以及頭部姿勢(shì),從而分析出來(lái)駕駛員是否為疲勞駕駛。如果駕駛員的眼睛頻繁閉合或頭部姿勢(shì)異于預(yù)先設(shè)置的閾值,系統(tǒng)會(huì)發(fā)出聲音或視覺(jué)警告?;诿娌勘砬榈臋z測(cè):系統(tǒng)還可以使用計(jì)算機(jī)視覺(jué)技術(shù)來(lái)分析駕駛員的面部表情,檢測(cè)出疲勞跡象,例如閉眼、頻繁打哈欠等。分心駕駛檢測(cè):對(duì)象識(shí)別:與疲勞檢測(cè)類似,使用標(biāo)記后的手機(jī)、平板電腦、吸煙等圖像數(shù)據(jù)訓(xùn)練深度學(xué)習(xí)模型,訓(xùn)練后的模型就能夠自動(dòng)進(jìn)行視頻分析,從而檢測(cè)視頻流中每幀圖像中是否包含手機(jī)、平板電腦、吸煙等物體,從而判斷出為分心駕駛行為。警告和記錄:系統(tǒng)會(huì)記錄分心駕駛行為的時(shí)間和位置,并發(fā)出警告以提醒駕駛員專注于駕駛?cè)蝿?wù)。圖2.1用例圖超速檢測(cè):車(chē)速監(jiān)測(cè):通過(guò)分析車(chē)輛前部攝像頭的視頻,系統(tǒng)可以測(cè)量車(chē)輛的實(shí)際速度。此數(shù)據(jù)會(huì)與道路上的限速標(biāo)志進(jìn)行比較。速度超限警報(bào):如果車(chē)輛超出道路的限速,系統(tǒng)將發(fā)出警報(bào)以提醒駕駛員。同時(shí),數(shù)據(jù)也被記錄下來(lái),以供后續(xù)使用。疲勞駕駛預(yù)防:實(shí)時(shí)警報(bào):當(dāng)系統(tǒng)檢測(cè)到疲勞駕駛行為時(shí),它會(huì)向駕駛員發(fā)出警報(bào),如聲音或振動(dòng),以提醒他們采取措施,如休息。駕駛?cè)罩荆厚{駛?cè)罩究捎涗涶{駛時(shí)間和非駕駛時(shí)間。以確保他們遵守法規(guī)。安全駕駛培訓(xùn):實(shí)時(shí)反饋:駕駛員可以在駕駛過(guò)程中收到實(shí)時(shí)反饋,包括不良行為的警告和建議。這有助于他們改進(jìn)駕駛技能。分析和改進(jìn):駕駛員和培訓(xùn)員可以在后期分析駕駛行為數(shù)據(jù),了解弱點(diǎn),制定改進(jìn)計(jì)劃。車(chē)隊(duì)管理和監(jiān)控:駕駛員評(píng)分:系統(tǒng)可為每個(gè)駕駛員分配評(píng)分,以反映其駕駛行為的表現(xiàn)。這有助于車(chē)隊(duì)管理人員識(shí)別高風(fēng)險(xiǎn)駕駛員并提供培訓(xùn)。實(shí)時(shí)監(jiān)控:系統(tǒng)提供實(shí)時(shí)監(jiān)控功能,車(chē)隊(duì)管理人員可以追蹤車(chē)隊(duì)中每輛車(chē)的位置和行為。(2)非功能性需求系統(tǒng)必須具備高度穩(wěn)定性和可靠性,同時(shí)易用且可擴(kuò)展。例如,要能夠長(zhǎng)時(shí)間運(yùn)行,保持低故障率,且容易維護(hù);同時(shí)需要易于使用和擴(kuò)展,以滿足不同用戶的需求。為了控制系統(tǒng)的成本,可以選擇一些開(kāi)源的深度學(xué)習(xí)算法和軟件工具,例如TensorFlow和OpenCV等。同時(shí),可以通過(guò)合理的硬件配置和軟件優(yōu)化等方式,以降低系統(tǒng)的成本和復(fù)雜度。系統(tǒng)設(shè)計(jì)軟件系統(tǒng)結(jié)構(gòu)駕駛行為檢測(cè)系統(tǒng)具備以下核心功能:1、用戶登錄;2、人員管理(包括添加和導(dǎo)出);3、圖片上傳與檢測(cè);4、視頻上傳與檢測(cè)。通過(guò)登錄界面訪問(wèn)系統(tǒng),管理員可在人員管理界面添加用戶并導(dǎo)出用戶名單。系統(tǒng)支持用戶上傳圖片和視頻信息,然后自動(dòng)進(jìn)行相關(guān)檢測(cè),提供檢測(cè)結(jié)果信息。這些功能使系統(tǒng)具備了用戶管理、圖像和視頻處理的能力,適用于駕駛行為檢測(cè)的應(yīng)用場(chǎng)景。系統(tǒng)整體架構(gòu)設(shè)計(jì)在整個(gè)駕駛行為檢測(cè)系統(tǒng)中,數(shù)據(jù)采集與預(yù)處理、特征提取與行為檢測(cè)、模型訓(xùn)練與評(píng)估、模型優(yōu)化都是至關(guān)重要的環(huán)節(jié),每個(gè)環(huán)節(jié)都需要經(jīng)過(guò)精心設(shè)計(jì)和調(diào)整,以確保系統(tǒng)能夠高效而準(zhǔn)確地識(shí)別駕駛行為。圖3.1整體架構(gòu)圖以下是較關(guān)鍵的幾個(gè)步驟:①實(shí)驗(yàn)環(huán)境搭建:搭建適當(dāng)?shù)挠布蛙浖h(huán)境,以確保系統(tǒng)能夠有效運(yùn)行,包括python開(kāi)發(fā)環(huán)境、Django框架、MySQL數(shù)據(jù)庫(kù)軟件、GPU加速、以及深度學(xué)習(xí)框架。②數(shù)據(jù)采集與預(yù)處理:搜集跟駕駛行為相關(guān)的數(shù)據(jù),如圖像或視頻。這些數(shù)據(jù)需要進(jìn)行預(yù)處理,包括去噪、圖像校正等步驟來(lái)方便分析。③數(shù)據(jù)存儲(chǔ)和管理:保存采集到的駕駛行為數(shù)據(jù),這些數(shù)據(jù)需要按照不同的類別進(jìn)行管理。④特征提取與行為檢測(cè):用卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)方法,從圖像和視頻中抽取特征。卷積層與池化層共同組成卷積神經(jīng)網(wǎng)絡(luò)的特征抽取模塊。卷積神經(jīng)網(wǎng)絡(luò)中的卷積核心與局部鄰近的卷積核心相連,并且在相同的層次上共享權(quán)重,各卷積層卷積計(jì)算后的特征可以進(jìn)一步編碼,以捕獲駕駛行為的關(guān)鍵信息。卷積后的特征經(jīng)過(guò)線性層的計(jì)算后,可以分類得到不同的駕駛行為,如基于眨眼等疲勞駕駛行為;轉(zhuǎn)身、吸煙和打電話等分心駕駛行為。⑤數(shù)據(jù)上傳及結(jié)果可視化:利用Django架構(gòu)建立應(yīng)用程序,通過(guò)web界面呈現(xiàn)模型的檢測(cè)結(jié)果,以便用戶直觀查看和分析,達(dá)到可視化效果。系統(tǒng)工作流程設(shè)計(jì)首先,從互聯(lián)網(wǎng)中獲取各類別駕駛行為的圖片及數(shù)據(jù)集;其次,去除臟數(shù)據(jù),并采用LabelImg工具對(duì)數(shù)據(jù)進(jìn)行標(biāo)注;緊接著使用標(biāo)記后的數(shù)據(jù)集訓(xùn)練YOLOv5算法,并對(duì)駕駛行為圖像進(jìn)行檢測(cè)。若識(shí)別準(zhǔn)確度未達(dá)到90%以上,則對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行調(diào)整,重新訓(xùn)練網(wǎng)絡(luò),直至準(zhǔn)確率達(dá)標(biāo)。準(zhǔn)確率合格后,構(gòu)建應(yīng)用程序,將YOLOv5模型嵌入到后臺(tái)中,通過(guò)web界面提交數(shù)據(jù)并返回預(yù)測(cè)結(jié)果,最終在界面內(nèi)呈現(xiàn)標(biāo)記的結(jié)果行為。圖3.2總體流程圖數(shù)據(jù)庫(kù)設(shè)計(jì)數(shù)據(jù)庫(kù)建設(shè)實(shí)現(xiàn)根據(jù)每個(gè)用戶需求關(guān)系,運(yùn)用綜合分析和抽象的分析方法,將其中的關(guān)系和需要變成能反應(yīng)當(dāng)前項(xiàng)目的DBMS概念模型。在建立數(shù)據(jù)庫(kù)的過(guò)程中,首先要按照需求畫(huà)出一個(gè)E-R圖表,這個(gè)E-R圖表能夠顯示出各個(gè)應(yīng)用或系統(tǒng)要實(shí)現(xiàn)的功能與需求。在此基礎(chǔ)上,對(duì)原始E-R圖作一系列的調(diào)整與優(yōu)化,以消除可能存在的缺陷與沖突。由于概念模式旨在達(dá)到使用者的要求,所以在此流程中并沒(méi)有具體的軟硬件細(xì)節(jié)。因此,我們?cè)鯓硬拍芨咝У乇硎境鲇脩舻男枰惋@得尤為重要了。規(guī)劃的實(shí)體包括:管理員、用戶、圖片、視頻、圖像檢測(cè)結(jié)果和視頻檢測(cè)結(jié)果。主要實(shí)體的實(shí)體屬性如下所述:1、管理員實(shí)體:3.3管理員實(shí)體屬性圖2、用戶實(shí)體:3.4用戶實(shí)體屬性圖3、圖片實(shí)體:3.5圖片實(shí)體屬性圖4、圖像檢測(cè)結(jié)果實(shí)體:3.6圖像檢測(cè)結(jié)果實(shí)體屬性圖5、視頻實(shí)體:3.7視頻實(shí)體屬性圖6、視頻檢測(cè)結(jié)果實(shí)體:3.8視頻檢測(cè)結(jié)果實(shí)體屬性圖7、表結(jié)構(gòu)設(shè)計(jì)表3.1人員信息表字段名字段類型字段說(shuō)明idbigint主鍵typeint用戶or管理員namebigint用戶名psdvarchar密碼telvarchar電話號(hào)碼create_timedatetime用戶創(chuàng)建時(shí)間表3.2視頻圖像信息表字段名字段類型字段說(shuō)明idbigint主鍵file_namevarchar文件名稱file_typeint文件上傳的屬于視頻,還是圖像file_suffixvarchar文件后綴名字file_urlvarchar文件路徑creatorbigint上傳人create_timedatetime上傳時(shí)間detect_resultbigint檢測(cè)結(jié)果id表3.3檢測(cè)結(jié)果表字段名字段類型字段說(shuō)明idbigint主鍵detect_resultvarchar檢測(cè)結(jié)果系統(tǒng)實(shí)現(xiàn)系統(tǒng)開(kāi)發(fā)工具介紹YOLO系列目標(biāo)檢測(cè)算法簡(jiǎn)介YOLO(YouLookOnlyOnce)[6]目標(biāo)檢測(cè)算法是最先出現(xiàn)的一階段目標(biāo)檢測(cè)算法,骨干網(wǎng)絡(luò)采用類似于GoogLeNet的結(jié)構(gòu),使用單元格的概念,首先將整幅圖像劃分成S×S的網(wǎng)格,若存在目標(biāo)中心點(diǎn)落在網(wǎng)格上,則此網(wǎng)格負(fù)責(zé)對(duì)該目標(biāo)的檢測(cè),當(dāng)網(wǎng)格對(duì)目標(biāo)預(yù)測(cè)出B個(gè)邊界框時(shí),每一個(gè)邊界框帶有參數(shù)(x,y,w,h)和置信度c,如果數(shù)據(jù)集的類別個(gè)數(shù)C,那么該算法的輸出通道維度就是(B×5+C)。通過(guò)劃分網(wǎng)格可以將圖像一次性送入網(wǎng)絡(luò)中,從而由特征圖進(jìn)行多個(gè)網(wǎng)格的檢測(cè),減少了網(wǎng)絡(luò)的計(jì)算量,提升了網(wǎng)絡(luò)的運(yùn)算速度,但是該算法仍然存在一些缺點(diǎn),第一,兩階段目標(biāo)檢測(cè)算法高于算法的檢測(cè)精度。第二,當(dāng)圖像中出現(xiàn)多個(gè)重疊的小目標(biāo)時(shí),檢測(cè)的效果相對(duì)來(lái)說(shuō)比較差,YOLO目標(biāo)檢測(cè)算法的流程如圖2.2所示。圖4.1YOLO檢測(cè)算法流程圖YOLOv5[7]算法進(jìn)行了很多創(chuàng)新,主要包括兩個(gè)方面,第一:不增加原有網(wǎng)絡(luò)復(fù)雜度的前提下,使模型準(zhǔn)確度提升的方法,例如Mosaic數(shù)據(jù)增強(qiáng),對(duì)輸入圖片幾何變換,改進(jìn)損失函數(shù)等。第二:增加少許模型復(fù)雜度,但能顯著提升模型準(zhǔn)確度的方法,例如改進(jìn)激活函數(shù),使用SPP增大模型的感受野等。設(shè)計(jì)了C3骨干特征網(wǎng)絡(luò),每個(gè)block都按照特征圖的Channel維度被分成了兩個(gè)部分,一個(gè)部分是用堆疊殘差層來(lái)提取深層特征,另一個(gè)部分則是用concat來(lái)將特征信息拼接到這個(gè)block的輸出上,這樣就可以從網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)的角度來(lái)解決計(jì)算量過(guò)大的問(wèn)題。YOLOv5算法Neck結(jié)構(gòu)開(kāi)始將FPN和PAN兩種特征融合方式都被整合到網(wǎng)絡(luò)結(jié)構(gòu)中,F(xiàn)PN以自頂向下的方式,通過(guò)上采樣逐步獲取更高層信息,而PAN則采用自底向上的方式,添加了一條下采樣的分支,提升了網(wǎng)絡(luò)的特征融合能力,最終將他們的結(jié)果拼接起來(lái)繼續(xù)操作。數(shù)據(jù)標(biāo)注工具簡(jiǎn)介數(shù)據(jù)標(biāo)注工具能夠幫助對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行標(biāo)注,并在標(biāo)簽中標(biāo)注出目標(biāo)物體的位置和類別信息。比較常用的數(shù)據(jù)標(biāo)注工具包括LabelImg、RectLabel、CVAT等。LabelImg在Python中是一款開(kāi)源的數(shù)據(jù)標(biāo)注工具,多用于圖像標(biāo)注,標(biāo)注格式多樣化。它簡(jiǎn)單、易用和功能強(qiáng)大。在標(biāo)注數(shù)據(jù)方面具有很高的準(zhǔn)確性和很快的速度。Python編程語(yǔ)言簡(jiǎn)介Python因其簡(jiǎn)單、易學(xué)、功能強(qiáng)大且生態(tài)豐富的特性,常用于目標(biāo)檢測(cè)的任務(wù)。GPU加速簡(jiǎn)介由于目標(biāo)檢測(cè)模型訓(xùn)練和推理需要大量的計(jì)算資源,在GPU進(jìn)行深度學(xué)習(xí)的計(jì)算,可以大幅提升訓(xùn)練和推理的速度。本文使用NVIDIA提供的CUDA編程模型和cuDNN加速庫(kù),來(lái)達(dá)到使用GPU進(jìn)行深度學(xué)習(xí)任務(wù),用來(lái)提升神經(jīng)網(wǎng)絡(luò)的運(yùn)行效率,進(jìn)行模型推理加速。深度學(xué)習(xí)框架簡(jiǎn)介深度學(xué)習(xí)框架是用于開(kāi)發(fā)、訓(xùn)練和部署深度學(xué)習(xí)模型的軟件庫(kù)。目前的深度學(xué)習(xí)框架常用的有:PyTorch、Caffe、TensorFlow等,而本此選擇了PyTorch框架用于構(gòu)建網(wǎng)絡(luò)模型。算法模型實(shí)現(xiàn)駕駛行為檢測(cè)系統(tǒng)YOLOv5目標(biāo)檢測(cè)模型如下圖所示:圖4.2YOLOv5網(wǎng)絡(luò)中結(jié)構(gòu)圖其中卷積計(jì)算如公式(4.3)所示:f圖4.3卷積計(jì)算圖目標(biāo)檢測(cè)具體流程如下:1)預(yù)處理:對(duì)輸入圖像進(jìn)行預(yù)處理以及數(shù)據(jù)增強(qiáng),需要設(shè)置各種圖像增強(qiáng)的參數(shù)。圖4.4數(shù)據(jù)預(yù)處理參數(shù)設(shè)置2)特征提取:將預(yù)處理后的圖像送入卷積神經(jīng)網(wǎng)絡(luò)中,提取淺層的細(xì)節(jié)紋理特征和深層的語(yǔ)義特征。其中,卷積操作檢測(cè)圖像中的邊緣和紋理之類的低級(jí)特征,而池化操作去提取圖像的平移不變性。兩者交替出現(xiàn),構(gòu)成卷積神經(jīng)網(wǎng)絡(luò)的特征提取。如上圖中Backbone部分所示。通過(guò)步長(zhǎng)為2的Conv層實(shí)現(xiàn)下采樣,增大網(wǎng)絡(luò)感受野;通過(guò)多個(gè)C3層的堆疊,提取各種感受野下的潛在特征。圖4.5C3模塊3)特征融合:如上圖的Neck部分所示,通過(guò)特征金字塔網(wǎng)絡(luò)PAN和路徑聚合網(wǎng)絡(luò)PAN對(duì)特征圖進(jìn)行融合。其中,F(xiàn)PN通過(guò)將Backbone網(wǎng)絡(luò)學(xué)到的深層語(yǔ)義信息傳遞到淺層細(xì)節(jié)紋理特征中;PAN則可以將特征再次融合,提取更多的圖像潛在特征。PAN和FPN可以更好的去整合高層和底層的特征信息,通過(guò)將特征信息送入后續(xù)的頭部網(wǎng)絡(luò)(HeadNetwork),從而生成目標(biāo)框與類別。圖4.6YOLOv5中特征融合網(wǎng)絡(luò)結(jié)構(gòu)4)目標(biāo)預(yù)測(cè):如上圖Head部分所示,三個(gè)檢測(cè)頭會(huì)根據(jù)融合后的特征圖分辨率把原圖劃分為S×S的網(wǎng)格,每個(gè)網(wǎng)格設(shè)置三個(gè)尺寸的預(yù)設(shè)框,分別預(yù)測(cè)目標(biāo)的類別和位置信息。此步驟會(huì)檢測(cè)出大量的目標(biāo)。通過(guò)該步驟,讓模型能在輸入圖像中的不同區(qū)域預(yù)測(cè)目標(biāo)信息。圖4.7邊界框預(yù)測(cè)5)非極大值抑制:非極大值抑制(NMS)用于防止三個(gè)檢測(cè)頭對(duì)同一目標(biāo)進(jìn)行重復(fù)檢測(cè)。在Head部分檢測(cè)到大量目標(biāo)會(huì),進(jìn)行非極大值抑制(NMS),即刪除置信度較低的檢測(cè)框,僅保留具有最高置信度的檢測(cè)框。#ApplyNMSpred=non_max_suppression(pred,opt.conf_thres,opt.iou_thres,classes=opt.classes,agnostic=opt.agnostic_nms)6)輸出結(jié)果:使用OpenCV圖像處理庫(kù),把最后的檢測(cè)結(jié)果,檢測(cè)框的位置和類別信息體現(xiàn)在圖像上。#ApplyClassifierifclassify:pred=apply_classifier(pred,modelc,img,im0s)fori,detinenumerate(pred):#detectionsperimageifwebcam:#batch_size>=1p,s,im0,frame=path[i],'%g:'%i,im0s[i].copy(),dataset.countelse:p,s,im0,frame=path,'',im0s,getattr(dataset,'frame',0)p=Path(p)#toPathsave_path=str(save_dir/)#img.jpgtxt_path=str(save_dir/'labels73'/p.stem)+(''ifdataset.mode=='image'elsef'_{frame}')#img.txts+='%gx%g'%img.shape[2:]#printstringgn=torch.tensor(im0.shape)[[1,0,1,0]]#normalizationgainwhwhiflen(det):#Rescaleboxesfromimg_sizetoim0sizedet[:,:4]=scale_coords(img.shape[2:],det[:,:4],im0.shape).round()forcindet[:,-1].unique():n=(det[:,-1]==c).sum()#detectionsperclasss+=f"{n}{names[int(c)]}{'s'*(n>1)},"#addtostringifsave_imgorview_img:#Addbboxtoimagelabel=f'{names[int(cls)]}{conf:.2f}'plot_one_box(xyxy,im0,label=label,color=colors[int(cls)],line_thickness=3)font=cv2.FONT_HERSHEY_SIMPLEXcv2.putText(im0,str(len(det)),(50,300),font,10,(0,0,0),10)print(len(det))應(yīng)用程序?qū)崿F(xiàn)用戶登錄界面:圖4.8用戶登錄界面圖圖片與視頻上傳檢測(cè)界面:圖4.9圖片與視頻上傳檢測(cè)界面圖圖片與視頻上傳檢測(cè)結(jié)果界面:圖4.10圖片上傳預(yù)測(cè)結(jié)果界面圖系統(tǒng)評(píng)測(cè)指標(biāo)分析本次系統(tǒng)設(shè)計(jì)分為兩階段,一階段為訓(xùn)練一個(gè)能準(zhǔn)確檢測(cè)張口、閉口、睜眼、閉眼、吸煙與轉(zhuǎn)頭的目標(biāo)檢測(cè)模型,二階段為使用Django框架完成Web網(wǎng)頁(yè)制作,通過(guò)接口調(diào)用的方式將檢測(cè)模型嵌入進(jìn)去。首先,從互聯(lián)網(wǎng)中獲取各類別駕駛行為的圖片及數(shù)據(jù)集;其次,去除臟數(shù)據(jù),并采用LabelImg工具對(duì)數(shù)據(jù)進(jìn)行標(biāo)注;緊接著使用標(biāo)記后的數(shù)據(jù)集訓(xùn)練YOLOv5算法,經(jīng)過(guò)訓(xùn)練后檢測(cè)準(zhǔn)確率可達(dá)96.1。開(kāi)始構(gòu)建應(yīng)用程序,將YOLOv5模型嵌入到后臺(tái)中,通過(guò)web界面提交數(shù)據(jù)并返回檢測(cè)的標(biāo)記結(jié)果。代碼調(diào)試1)硬件環(huán)境:使用NVIDIA提供的CUDA編程模型和cuDNN加速庫(kù),來(lái)達(dá)到在GPU上實(shí)現(xiàn)深度學(xué)習(xí)的計(jì)算加速,從而加速深度學(xué)習(xí)模型的訓(xùn)練和推理。2)軟件環(huán)境:對(duì)PyTorch深度學(xué)習(xí)框架以及Django框架進(jìn)行安裝和配置,并對(duì)常用的Python第三方庫(kù),如Numpy、Pandas、Matplotlib等安裝和配置,如此以來(lái)更容易對(duì)數(shù)據(jù)進(jìn)行處理和可視化。3)數(shù)據(jù)集:網(wǎng)上搜集相關(guān)圖片,其中總數(shù)據(jù)量有4235張圖片,包含了2000張駕駛面部圖,1136抽煙行為圖,888張打電話行為圖和211張駕駛過(guò)程中轉(zhuǎn)身圖。經(jīng)過(guò)LabelImg工具后,得到的是VOC格式的數(shù)據(jù)集,并不能直接使用,所以需要寫(xiě)腳本,將VOC格式數(shù)據(jù)集標(biāo)注信息轉(zhuǎn)為YOLO格式標(biāo)注信息。4)模型文件:直接使用自己建的數(shù)據(jù)集訓(xùn)練模型,在測(cè)試集上的最終檢測(cè)始終無(wú)法達(dá)到90%以上,所以查閱資料發(fā)現(xiàn)經(jīng)過(guò)大數(shù)據(jù)集與訓(xùn)練后的檢測(cè)網(wǎng)絡(luò)更易達(dá)到更好的檢測(cè)結(jié)果,所使用的backbone網(wǎng)絡(luò)是從網(wǎng)上下載且在ImageNet數(shù)據(jù)集上經(jīng)過(guò)預(yù)訓(xùn)練處理。隨后,加載了預(yù)訓(xùn)練的權(quán)重,并凍結(jié)網(wǎng)絡(luò)的所有層,除了最后一層。這樣做是為了保留在ImageNet上學(xué)到的通用特征。最后一層再使用自己制作的數(shù)據(jù)集進(jìn)行微調(diào),從而使得深度學(xué)習(xí)模型最終檢測(cè)結(jié)果達(dá)到90%以上。測(cè)試軟件測(cè)試就是要找出軟件產(chǎn)品中最多的缺陷問(wèn)題。由于現(xiàn)實(shí)中有很多不確定的意見(jiàn)或意見(jiàn),這些意見(jiàn)都會(huì)對(duì)測(cè)試的有效性產(chǎn)生很大的影響。因此,必須對(duì)所有可能的輸入數(shù)據(jù)進(jìn)行檢查,以確保產(chǎn)生正確的結(jié)果測(cè)試環(huán)境1)硬件環(huán)境:一臺(tái)性能較好的計(jì)算機(jī)或服務(wù)器,配備有GPU加速器,能夠支持深度學(xué)習(xí)模型的運(yùn)行和測(cè)試。GPU加速器的顯存滿足模型訓(xùn)練和測(cè)試的需求,同時(shí)具有足夠的存儲(chǔ)空間用于存儲(chǔ)數(shù)據(jù)集和模型文件。2)軟件環(huán)境:軟件環(huán)境的搭建包括對(duì)PyTorch深度學(xué)習(xí)框架和Django框架進(jìn)行安裝配置,以及安裝配置常用的Python第三方庫(kù),如Numpy、Pandas、Matplotlib等。如此以來(lái)更容易對(duì)數(shù)據(jù)進(jìn)行處理和可視化。3)數(shù)據(jù)集:在測(cè)試環(huán)境中,為測(cè)試和校驗(yàn)組準(zhǔn)備相對(duì)應(yīng)的數(shù)據(jù)集。測(cè)試集更夠評(píng)估訓(xùn)練完成后保存的最優(yōu)模型,驗(yàn)證集則能夠在訓(xùn)練過(guò)程中對(duì)模型當(dāng)前效果進(jìn)行驗(yàn)證。4)模型文件:測(cè)試環(huán)境保存已經(jīng)訓(xùn)練好的模型文件,以便在測(cè)試中加載模型文件并進(jìn)行測(cè)試。5)評(píng)估指標(biāo):在測(cè)試環(huán)境中,通過(guò)選擇準(zhǔn)確率、召回率和mAP值來(lái)評(píng)估模型性能,并根據(jù)網(wǎng)頁(yè)端各頁(yè)面調(diào)用情況判斷系統(tǒng)有無(wú)缺陷。本文選擇的模型評(píng)價(jià)指標(biāo)目標(biāo)行為檢測(cè)是指對(duì)視頻序列中的目標(biāo)對(duì)象的動(dòng)作進(jìn)行識(shí)別和檢測(cè)。評(píng)價(jià)目標(biāo)行為檢測(cè)任務(wù)的指標(biāo)通常需要考慮到動(dòng)作的類別、時(shí)序信息以及目標(biāo)檢測(cè)的準(zhǔn)確性。在駕駛行為檢測(cè)對(duì)動(dòng)作進(jìn)行類別劃分。計(jì)算公式為:Precision=其中,TP是真正例的數(shù)量,F(xiàn)P是假正例的數(shù)量。召回率是所有真正的正例中,被預(yù)測(cè)為正例的比例,計(jì)算公式為:Recall=其中,F(xiàn)N是假反例的數(shù)量。這兩個(gè)指標(biāo)可以幫助理解模型的性能,并對(duì)模型進(jìn)行優(yōu)化。在駕駛行為檢測(cè)研究與應(yīng)用中,精度衡量了在預(yù)測(cè)的行為中有多少是正確的,高精度代表模型較少將非識(shí)別類別錯(cuò)誤分類為系統(tǒng)識(shí)別駕駛行為。高召回代表模型能更好的捕捉到真實(shí)的駕駛行為。平均精確度均值幫助評(píng)估模型在不同類別上的性能,并對(duì)檢測(cè)準(zhǔn)確度進(jìn)行綜合比較。性能測(cè)試1)處理速度測(cè)試:通過(guò)對(duì)系統(tǒng)使用不同分辨率和大小的駕駛行為圖像進(jìn)行測(cè)試,記錄系統(tǒng)處理時(shí)間,以評(píng)估其處理速度。本次實(shí)驗(yàn)硬件配置如下:CPU為Intel(R)_Core(TM)_i5-8300H_CPU_@_2.30GHz,顯卡為NVIDIAGeForceGTX1050Ti,操作系統(tǒng)為Windows10。在上述實(shí)驗(yàn)平臺(tái)下,系統(tǒng)的FPS達(dá)到30,驗(yàn)證了系統(tǒng)具有一定的實(shí)時(shí)檢測(cè)的能力。2)模型精度測(cè)試:測(cè)試系統(tǒng)的目標(biāo)檢測(cè)模型精度,通過(guò)模型評(píng)價(jià)指標(biāo)中包含的精確度和召回率等指標(biāo)。以評(píng)估系統(tǒng)的模型精度。圖4.12檢測(cè)結(jié)果分析圖本系統(tǒng)在評(píng)價(jià)Precision(精確度)和Recall(召回率)兩方面分別取得了95.7%和94.2%。在能綜合評(píng)價(jià)系統(tǒng)性能的mAP(平均精確度均值)指標(biāo)上,系統(tǒng)達(dá)到了96.1%,說(shuō)明其性能符合預(yù)期的標(biāo)準(zhǔn)。部分檢測(cè)結(jié)果展示如下圖。圖4.13部分檢測(cè)結(jié)果圖3)系統(tǒng)整體測(cè)試:通過(guò)幾次試驗(yàn),該系統(tǒng)運(yùn)行穩(wěn)定,基本達(dá)到了

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論