




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
.4任務(wù)實(shí)施1.4.1任務(wù)書(shū)學(xué)會(huì)自主檢索相關(guān)案例和內(nèi)容,理清人工智能中機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的發(fā)展和關(guān)系,理解深度學(xué)習(xí)的應(yīng)用,掌握神經(jīng)元、感知器和神經(jīng)網(wǎng)絡(luò)的架構(gòu),梳理要點(diǎn)并繪制思維導(dǎo)圖,錄制小組匯報(bào)視頻并上交,同時(shí)根據(jù)教學(xué)內(nèi)容制定本書(shū)小組學(xué)習(xí)計(jì)劃。1.4.2任務(wù)分組表1-4學(xué)生任務(wù)分配表班級(jí)組號(hào)指導(dǎo)老師組長(zhǎng)學(xué)號(hào)成員數(shù)量組長(zhǎng)任務(wù)組員姓名學(xué)號(hào)任務(wù)分工1.4.3獲取信息引導(dǎo)問(wèn)題1:自主學(xué)習(xí)人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)的關(guān)系人工智能:機(jī)器展現(xiàn)的人類智能。機(jī)器學(xué)習(xí):計(jì)算機(jī)利用已有的數(shù)據(jù)(經(jīng)驗(yàn)),得出了某種模型,并利用此模型預(yù)測(cè)未來(lái)的一種方法。機(jī)器學(xué)習(xí)是人工智能的一個(gè)分支,被大量地應(yīng)用于解決人工智能的問(wèn)題。深度學(xué)習(xí):實(shí)現(xiàn)機(jī)器學(xué)習(xí)的一種技術(shù)。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,由人工神經(jīng)網(wǎng)絡(luò)算法衍生,形式通常為多層神經(jīng)網(wǎng)絡(luò)。引導(dǎo)問(wèn)題2:上網(wǎng)查閱人工智能技術(shù)的主要應(yīng)用領(lǐng)域,至少寫(xiě)出15個(gè)領(lǐng)域人工智能技術(shù)的主要應(yīng)用領(lǐng)域:企業(yè)技術(shù)集成與方案、智慧商業(yè)和零售、智能機(jī)器人、智能硬件、科技金融、智慧醫(yī)療、智能制造、新媒體和數(shù)字內(nèi)容、智慧教育、關(guān)鍵技術(shù)研發(fā)和應(yīng)用平臺(tái)、智能網(wǎng)聯(lián)汽車(chē)、智能家居、智慧城市、智慧交通、智慧物流、智能安防、智慧政務(wù)、網(wǎng)絡(luò)安全、智慧農(nóng)業(yè)、智慧能源等。引導(dǎo)問(wèn)題3:上網(wǎng)查閱國(guó)內(nèi)外知名人工智能企業(yè),并請(qǐng)寫(xiě)出5個(gè)國(guó)外企業(yè)和5個(gè)國(guó)內(nèi)企業(yè)的應(yīng)用領(lǐng)域、涉及的人工智能技術(shù)、所屬國(guó)家和成立時(shí)間。企業(yè)名稱應(yīng)用領(lǐng)域涉及的人工智能技術(shù)所屬國(guó)家成立時(shí)間Microsoft(微軟)辦公計(jì)算機(jī)視覺(jué)技術(shù)、自然語(yǔ)言處理技術(shù)等美國(guó)1975年Google(谷歌)綜合計(jì)算機(jī)視覺(jué)技術(shù)、自然語(yǔ)言處理技術(shù)等美國(guó)1998年Facebook(臉書(shū))社交人臉識(shí)別、深度學(xué)習(xí)等美國(guó)2004年百度綜合 計(jì)算機(jī)視覺(jué)技術(shù)、自然語(yǔ)言處理技術(shù)、知識(shí)圖譜等中國(guó)2001年大疆無(wú)人機(jī)創(chuàng)新 圖像識(shí)別技術(shù)、智能引擎技術(shù)等中國(guó) 2006年商湯科技 安防計(jì)算機(jī)視覺(jué)技術(shù)、深度學(xué)習(xí)中國(guó)2014年曠視科技安防計(jì)算機(jī)視覺(jué)技術(shù)等中國(guó)2011年科大訊飛 綜合智能語(yǔ)音技術(shù)中國(guó) 1999年AutomationAnywhere企業(yè)管理 自然語(yǔ)言處理技術(shù)、非結(jié)構(gòu)化數(shù)據(jù)認(rèn)知美國(guó)2003年IBMWatson(IBM沃森)計(jì)算機(jī) 深度學(xué)習(xí)、智適應(yīng)學(xué)習(xí)技術(shù) 美國(guó)1911年松鼠AI1對(duì)1教育 智適應(yīng)學(xué)習(xí)技術(shù)、機(jī)器學(xué)習(xí)中國(guó)2015年字節(jié)跳動(dòng) 資訊跨媒體分析推理技術(shù)、深度學(xué)習(xí)、自然語(yǔ)言處理、圖像識(shí)別中國(guó)2012年Netflix(網(wǎng)飛)媒體及內(nèi)容視頻圖像優(yōu)化、劇集封面圖片個(gè)性化、視頻個(gè)性化推薦美國(guó)1997年Graphcore芯片智能芯片技術(shù)、機(jī)器學(xué)習(xí)英國(guó)2016年NVIDIA(英偉達(dá))芯片 智能芯片技術(shù)美國(guó)1993年Brainco教育、醫(yī)療、智能硬件腦機(jī)接口 美國(guó)2015年Waymo交通自動(dòng)駕駛美國(guó)2016年ABBRobotics機(jī)器人機(jī)器人及自動(dòng)化技術(shù)瑞士1988年Fanuc(發(fā)那科)制造 機(jī)器人技術(shù)日本1956年P(guān)referredNetworks 物聯(lián)網(wǎng)深度學(xué)習(xí)、機(jī)器學(xué)習(xí)技術(shù)日本2016年引導(dǎo)問(wèn)題4:查閱相關(guān)資料,繪制深度學(xué)習(xí)發(fā)展時(shí)間簡(jiǎn)圖發(fā)展簡(jiǎn)圖:1950年,AlanTuring發(fā)表關(guān)于人工智能的文章,提出了“圖靈測(cè)試”的概念。1957年,F(xiàn)rankRosenblatt發(fā)明了最早的人工神經(jīng)網(wǎng)絡(luò)——感知機(jī)。1986年,Hinton等人發(fā)明了反向傳播算法,深度學(xué)習(xí)的訓(xùn)練變得更加高效。1997年,Hinton等人在圖像識(shí)別方面取得突破性進(jìn)展,深度學(xué)習(xí)成為當(dāng)時(shí)最有前途的人工智能技術(shù)之一。2006年,Hinton等人發(fā)明了深度信念網(wǎng)絡(luò)(DBN),深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理領(lǐng)域取得巨大進(jìn)步。2012年,AndrewNg在谷歌工作時(shí)使用了深度學(xué)習(xí)技術(shù),在ImageNet圖像識(shí)別比賽中取得巨大成功,深度學(xué)習(xí)成為當(dāng)今人工智能的領(lǐng)先技術(shù)。2016年,GoogleDeepMind的AlphaGoAI擊敗世界圍棋冠軍,掀起人工智能和深度學(xué)習(xí)的熱潮。2016年,谷歌推出開(kāi)源的機(jī)器學(xué)習(xí)框架TensorFlow。2017年,英偉達(dá)推出最強(qiáng)大的人工智能芯片Volta,深度學(xué)習(xí)訓(xùn)練變得更快、更高效。2018年,谷歌推出預(yù)訓(xùn)練語(yǔ)言模型BERT,在自然語(yǔ)言處理領(lǐng)域取得了巨大成功。2019年,OpenAI推出了自然語(yǔ)言生成模型GPT-2,性能超過(guò)了人類水平。2020年,OpenAI推出了預(yù)訓(xùn)練語(yǔ)言模型GPT-3,性能比前一代模型有了巨大提升。2022年,人工智能研究實(shí)驗(yàn)室OpenAI發(fā)布的全新聊天機(jī)器人模型ChatGPT。引導(dǎo)問(wèn)題5:查閱相關(guān)資料,舉例機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的應(yīng)用場(chǎng)景舉例機(jī)器學(xué)習(xí)的應(yīng)用場(chǎng)景:機(jī)器學(xué)習(xí)在指紋識(shí)別、特征物體檢測(cè)等領(lǐng)域的應(yīng)用基本達(dá)到了商業(yè)化的要求。舉例深度學(xué)習(xí)的應(yīng)用場(chǎng)景:深度學(xué)習(xí)主要應(yīng)用于文字識(shí)別、人臉技術(shù)、語(yǔ)義分析、智能監(jiān)控等領(lǐng)域。目前在智能硬件、教育、醫(yī)療等行業(yè)也在快速布局。引導(dǎo)問(wèn)題6:上網(wǎng)查閱卷積神經(jīng)網(wǎng)絡(luò)LeNet、AlexNet、VGG16網(wǎng)絡(luò),完成簡(jiǎn)介和模型理解網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)介模型理解LeNet最早發(fā)布的卷積神經(jīng)網(wǎng)絡(luò),推動(dòng)了深度學(xué)習(xí)領(lǐng)域的發(fā)展。1989年,AT&T貝爾實(shí)驗(yàn)室的研究員YannLeCun提出,目的是用來(lái)做手寫(xiě)數(shù)字識(shí)別,知名度最高的就是MNIST數(shù)據(jù)集。處理復(fù)雜數(shù)據(jù)的能力有限,目前很少使用在實(shí)際應(yīng)用上。在計(jì)算機(jī)視覺(jué)任務(wù)中的性能高效。先用卷積層來(lái)學(xué)習(xí)圖片的空間信息,通過(guò)池化層降低圖片的敏感度;然后使用全連接層來(lái)轉(zhuǎn)換到類別空間;兩個(gè)卷積層再加一個(gè)多層感知機(jī),最終得到從圖片到類別的映射。AlexNet2012年ImageNet競(jìng)賽冠軍獲得者Hinton和他的學(xué)生設(shè)計(jì)的,首次在大規(guī)模圖像數(shù)據(jù)集實(shí)現(xiàn)了深層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),在CNN中成功應(yīng)用了ReLU、Dropout和LRN等,同時(shí)使用GPU進(jìn)行運(yùn)算加速。使得計(jì)算機(jī)視覺(jué)從業(yè)者從繁重的特征工程中解脫出來(lái),轉(zhuǎn)向思考從數(shù)據(jù)中自動(dòng)提取需要的特征,做到數(shù)據(jù)驅(qū)動(dòng)。AlexNet有5層卷積層,3個(gè)全連接層。卷積層C1處理流程:卷積->ReLU->池化->歸一化。卷積層C2處理流程是:卷積->ReLU->池化->歸一化。卷積層C3處理流程是:卷積->ReLU。卷積層C4處理流程是:卷積->ReLU。卷積層C5處理流程為:卷積->ReLU->池化。全連接層FC6流程為:(卷積)全連接->ReLU->Dropout。全連接層FC7流程為:全連接->ReLU->Dropout。VGG162014年,牛津大學(xué)在ImageNet挑戰(zhàn)賽本地和分類追蹤采用VGG獲獎(jiǎng),模型適用于分類和定位任務(wù)。解決了Alexnet容易忽略小部分的特征。通過(guò)增加深度能有效地提升性能;VGG16是最佳的模型,從頭到尾只有3x3卷積與2x2池化,簡(jiǎn)潔優(yōu)美;卷積可代替全連接,可適應(yīng)各種尺寸的圖片。隨著層數(shù)的不斷提高,準(zhǔn)確率卻不斷下降,通過(guò)殘差網(wǎng)絡(luò)解決。VGG16共有16層(不包括池化層),13個(gè)卷積層和3個(gè)全連接層,第一次經(jīng)過(guò)64個(gè)卷積核的兩次卷積后,采用一次pooling,第二次經(jīng)過(guò)兩次128個(gè)卷積核卷積后,采用pooling;再經(jīng)過(guò)3次256個(gè)卷積核卷積后,采用pooling;再經(jīng)過(guò)3次512個(gè)卷積核卷積,采用pooling;再經(jīng)過(guò)3次512個(gè)卷積核卷積,采用pooling,最后經(jīng)過(guò)三次全連接。引導(dǎo)問(wèn)題7:查閱相關(guān)資料,簡(jiǎn)述并分析遷移學(xué)習(xí)、多任務(wù)學(xué)習(xí)、端到端學(xué)習(xí)及其特點(diǎn)。學(xué)習(xí)方式簡(jiǎn)述遷移學(xué)習(xí)遷移學(xué)習(xí)(TransferLearning)是一種機(jī)器學(xué)習(xí)技術(shù),旨在利用已有的機(jī)器學(xué)習(xí)模型來(lái)解決新的問(wèn)題。遷移學(xué)習(xí)的核心思想是利用預(yù)先訓(xùn)練的模型的知識(shí),以減少解決新問(wèn)題所需的訓(xùn)練數(shù)據(jù)和時(shí)間。遷移學(xué)習(xí)通常用于解決數(shù)據(jù)規(guī)模較小的問(wèn)題,因?yàn)檫@些問(wèn)題很難收集到足夠的訓(xùn)練數(shù)據(jù)。通過(guò)使用已有的機(jī)器學(xué)習(xí)模型,可以減少訓(xùn)練數(shù)據(jù)的需求,并加快模型的訓(xùn)練速度。遷移學(xué)習(xí)可以通過(guò)以下幾種方式實(shí)現(xiàn):(1)固定特征提?。汗潭ㄒ延心P偷奶卣魈崛樱⑹褂眯碌姆诸惼鱽?lái)解決新問(wèn)題。(2)微調(diào)預(yù)訓(xùn)練模型:通過(guò)調(diào)整預(yù)訓(xùn)練模型的參數(shù),使其適應(yīng)新問(wèn)題。(3)訓(xùn)練一個(gè)新模型:使用已有模型的權(quán)重作為初始化,并訓(xùn)練新模型以解決新問(wèn)題。遷移學(xué)習(xí)在計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理等領(lǐng)域得到了廣泛的應(yīng)用,并取得了許多令人矚目的成果。多任務(wù)學(xué)習(xí)多任務(wù)學(xué)習(xí)(Multi-TaskLearning)是一種機(jī)器學(xué)習(xí)技術(shù),旨在同時(shí)解決多個(gè)相關(guān)任務(wù)。多任務(wù)學(xué)習(xí)的核心思想是在解決一個(gè)任務(wù)時(shí),利用其他相關(guān)任務(wù)的信息,以提高模型的性能。多任務(wù)常見(jiàn)的方法包括:(1)共享模型:在多個(gè)任務(wù)中共享一個(gè)模型,以利用其他任務(wù)的信息。(2)分支模型:為每個(gè)任務(wù)設(shè)計(jì)一個(gè)獨(dú)立的模型,并從公共特征中分支出獨(dú)特的特征。(3)共享特征:在多個(gè)任務(wù)中共享相同的特征提取層,以利用其他任務(wù)的信息。多任務(wù)學(xué)習(xí)在許多領(lǐng)域,如計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理、生物信息學(xué)等,得到了廣泛的應(yīng)用,并取得了很多令人矚目的成果。多任務(wù)學(xué)習(xí)的好處在于,它可以利用其他相關(guān)任務(wù)的信息,以提高模型的性能,并且通常需要更少的訓(xùn)練數(shù)據(jù),更快地訓(xùn)練模型。端到端學(xué)習(xí)端到端學(xué)習(xí)(End-to-EndLearning)是一種機(jī)器學(xué)習(xí)方法,它將從數(shù)據(jù)輸入到輸出的完整過(guò)程封裝在一個(gè)單一的模型中。端到端學(xué)習(xí)省去了手動(dòng)構(gòu)建特征的需要,因此是一種自動(dòng)特征提取的方法。端到端學(xué)習(xí)的一個(gè)典型應(yīng)用是神經(jīng)網(wǎng)絡(luò),例如卷積神經(jīng)網(wǎng)絡(luò)CNN和循環(huán)神經(jīng)網(wǎng)絡(luò)RNN。這些網(wǎng)絡(luò)可以學(xué)習(xí)到輸入數(shù)據(jù)中的特征,并使用這些特征進(jìn)行預(yù)測(cè)。端到端學(xué)習(xí)的優(yōu)點(diǎn)在于:簡(jiǎn)化了模型的構(gòu)建和訓(xùn)練過(guò)程,減少了手動(dòng)特征提取的需要;提高了模型的魯棒性和靈活性,可以應(yīng)對(duì)多種不同的數(shù)據(jù)和任務(wù);可以充分利用數(shù)據(jù)中的信息,以提高模型的性能。但是,端到端學(xué)習(xí)也存在一些缺點(diǎn):訓(xùn)練數(shù)據(jù)需求較高,需要大量的標(biāo)記數(shù)據(jù);模型往往更復(fù)雜,難以解釋和理解;如果模型的訓(xùn)練不當(dāng),很容易出現(xiàn)過(guò)擬合問(wèn)題。1.4.4工作實(shí)施引導(dǎo)問(wèn)題8:查閱相關(guān)資料,小組討論分析深度學(xué)習(xí)的特點(diǎn)深度學(xué)習(xí)的特點(diǎn):區(qū)別于傳統(tǒng)的淺層學(xué)習(xí),強(qiáng)調(diào)了模型結(jié)構(gòu)的深度,通常有5層、6層,甚至10多層的隱層節(jié)點(diǎn);明確了特征學(xué)習(xí)的重要性,通過(guò)逐層特征變換,將樣本在原空間的特征表示變換到一個(gè)新特征空間,從而使分類或預(yù)測(cè)更容易,與人工規(guī)則構(gòu)造特征的方法相比,利用大數(shù)據(jù)來(lái)學(xué)習(xí)特征,更能夠刻畫(huà)數(shù)據(jù)豐富的內(nèi)在信息。引導(dǎo)問(wèn)題9:查閱相關(guān)資料,匯總組內(nèi)資料,討論并梳理主流的神經(jīng)網(wǎng)絡(luò)模型,繪制思維導(dǎo)圖,以小組為單位展示匯報(bào)。主流的神經(jīng)網(wǎng)絡(luò)模型思維導(dǎo)圖:引導(dǎo)問(wèn)題10:為了應(yīng)對(duì)日益復(fù)雜的應(yīng)用,半導(dǎo)體公司不斷開(kāi)發(fā)處理器和加速器,包括CPU、GPU和TPU,請(qǐng)?jiān)斒鏊麄兊墓δ芘c特性。處理器加速器功能特性CPU中央處理器(CPU)是存在于所有智能設(shè)備中的核心處理器,作為計(jì)算機(jī)大腦工作的處理單元,設(shè)計(jì)用于通用編程的理想選擇。CPU是一種通用處理器,設(shè)計(jì)有幾個(gè)強(qiáng)大的內(nèi)核和大容量緩存,使其能夠同時(shí)運(yùn)行幾個(gè)軟件線程。有幾個(gè)核心;低延遲;專門(mén)從事串行處理;能夠一次執(zhí)行少數(shù)操作;,RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))的FLOPS利用率最高;內(nèi)存容量大,支持最大機(jī)型;對(duì)于不規(guī)則計(jì)算(例如,小批量非MatMul計(jì)算)更加靈活和可編程。GPUGPU(圖形處理單元)是一種專用處理器,與CPU一起用作性能加速器,可增強(qiáng)計(jì)算機(jī)圖形和AI工作負(fù)載。GPU有數(shù)千個(gè)內(nèi)核,可以將復(fù)雜的問(wèn)題分解為數(shù)千或數(shù)百萬(wàn)個(gè)單獨(dú)的任務(wù),實(shí)現(xiàn)并行處理。GPU已成為深度學(xué)習(xí)開(kāi)發(fā)的關(guān)鍵,通過(guò)在單個(gè)操作中加速大型矩陣運(yùn)算和執(zhí)行混合精度矩陣計(jì)算的能力,實(shí)現(xiàn)高速加速深度學(xué)習(xí)。擁有數(shù)千個(gè)內(nèi)核;高吞吐量;專用于并行處理;能夠同時(shí)執(zhí)行數(shù)千個(gè)操作。TPUTPU代表張量處理單元,它是專用集成電路(ASIC)。TPU由Google定制開(kāi)發(fā)的處理器,可使用(特定機(jī)器學(xué)習(xí)框架)TensorFlow加速機(jī)器學(xué)習(xí)工作負(fù)載。TPU可作為云或較小版本的芯片使用。CloudTPU在執(zhí)行密集向量和矩陣計(jì)算以加速TensorFlow軟件上的神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)方面的速度非???。TPU最大限度地縮短了訓(xùn)練大型復(fù)雜神經(jīng)網(wǎng)絡(luò)模型的準(zhǔn)確時(shí)間。使用TPU,以前在GPU上訓(xùn)練需要數(shù)周時(shí)間的深度學(xué)習(xí)模型現(xiàn)在在TPU上只需數(shù)小時(shí)。矩陣處理專用硬件;高延遲(與CPU相比);非常高的吞吐量;極端并行計(jì)算。引導(dǎo)問(wèn)題12:查閱以下希臘字母的中文讀音。大寫(xiě)小寫(xiě)中文讀音大寫(xiě)小寫(xiě)中文讀音Αα阿耳法Νν紐Ββ貝塔Ξξ可塞Γγ伽馬Οο奧密可戎Δδ德耳塔∏π派Εε艾普西隆Ρρ柔Ζζ截塔∑σ西格馬Ηη艾塔Ττ套Θθ西塔Υυ衣普西隆Ιι約塔Φφ斐Κκ卡帕Χχ喜∧λ蘭姆達(dá)Ψψ普西Μμ繆Ωω歐米引導(dǎo)問(wèn)題13:請(qǐng)?jiān)L問(wèn)GeoGebra圖形計(jì)算器網(wǎng)站,嘗試在線繪制簡(jiǎn)單圖形和搜索函數(shù)。1、繪制:y=x+1,y=x+3,y=x-1,y=x2+x+1,y=-x2+x-22、搜索Sigmoid函數(shù),并嘗試拖動(dòng)參數(shù)和觀察圖形引導(dǎo)問(wèn)題14:查閱本書(shū)目錄及內(nèi)容,編寫(xiě)小組學(xué)期學(xué)習(xí)計(jì)劃及學(xué)習(xí)形式小組學(xué)期學(xué)習(xí)計(jì)劃:教師根據(jù)授課需求自行引導(dǎo)學(xué)生編寫(xiě)。1.4.5評(píng)價(jià)反饋全面考核學(xué)生的專業(yè)能力和關(guān)鍵能力,采用過(guò)程性評(píng)價(jià)和結(jié)果評(píng)價(jià)相結(jié)合,定性評(píng)價(jià)與定量評(píng)價(jià)相結(jié)合的考核方法。注重學(xué)生動(dòng)手能力和在實(shí)踐中分析問(wèn)題、解決問(wèn)題能力的考核,在學(xué)習(xí)和應(yīng)用上有創(chuàng)新的學(xué)生給予特別鼓勵(lì)。表1-4考核評(píng)價(jià)表內(nèi)容目標(biāo)方
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 人體解剖學(xué)靜脈課件
- 心源性卒死科普課件
- 2025-2030大數(shù)據(jù)中心基礎(chǔ)設(shè)施產(chǎn)業(yè)現(xiàn)狀及未來(lái)趨勢(shì)與投融資分析報(bào)告
- 2025-2030基于機(jī)器學(xué)習(xí)的脫硫系統(tǒng)運(yùn)行參數(shù)優(yōu)化控制模型
- 2025年葡萄酒產(chǎn)區(qū)特色與品牌國(guó)際化品牌國(guó)際化品牌推廣報(bào)告
- 人體解剖學(xué)端腦課件
- 心律失常護(hù)理查房教學(xué)課件
- 新零售背景下實(shí)體書(shū)店如何拓展多元收入來(lái)源策略報(bào)告
- 傳熱病防治法課件
- 今年小學(xué)生的數(shù)學(xué)試卷
- 電信網(wǎng)絡(luò)維護(hù)保障方案
- 智能健康監(jiān)測(cè)技術(shù)
- 酒店前廳簡(jiǎn)介課件
- 2024-2030年光傳輸行業(yè)市場(chǎng)深度調(diào)研及發(fā)展趨勢(shì)與投資前景研究報(bào)告
- 《河道疏浚砂石綜合利用方案編制導(dǎo)則》
- 【淺談中式面點(diǎn)的造型與制作規(guī)范4500字(論文)】
- 汽車(chē)技師3000論文范文(篇一)
- 外科主治醫(yī)師考試-外科學(xué)基礎(chǔ)知識(shí)講義03外科休克
- ISO9001、ISO14001及ISO45001質(zhì)量環(huán)境及職業(yè)健康安全三體系內(nèi)審及管審資料
- 土壤學(xué)-土壤礦物質(zhì)
- DL-T-5161.17-2018電氣裝置安裝工程質(zhì)量檢驗(yàn)及評(píng)定規(guī)程第17部分:電氣照明裝置施工質(zhì)量檢驗(yàn)
評(píng)論
0/150
提交評(píng)論