人工智能測(cè)試題及答案_第1頁
人工智能測(cè)試題及答案_第2頁
人工智能測(cè)試題及答案_第3頁
人工智能測(cè)試題及答案_第4頁
人工智能測(cè)試題及答案_第5頁
已閱讀5頁,還剩14頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

人工智能測(cè)試題及答案1、循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB三通道,卷積核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核產(chǎn)生一個(gè)featuremap,則輸出的featuremap矩陣的結(jié)構(gòu)是()。A、27*27*3B、28*28*3C、27*27*6D、28*28*6答案:D2、數(shù)組與列表的區(qū)別在于()A、數(shù)組元素可變,列表元素不可變B、以上都不對(duì)C、列表元素類型必須一致,數(shù)組可以不一致D、數(shù)組元素類型必須一致,列表可以不一致答案:D3、下列語句輸出正確的是i=['a','b']l=[1,2]print(dict([l,i]))A、{‘b’:2,'a':1}&B、&{‘a(chǎn)’:2,‘b':1}&C、&{1:2,'a':'b'}&D、&{2:1,'b':'a'}答案:C4、查看Atlas300(3000)加速卡驅(qū)動(dòng)是否安裝成功應(yīng)該使用哪條命令?A、npusiminfoB、npuinfoC、atlas-DriverinfoD、atlasinfo答案:A5、支持向量機(jī)(SVM)中的代價(jià)參數(shù)C表示什么?()A、交叉驗(yàn)證的次數(shù)B、用到的核函數(shù)C、在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡D、以上都不對(duì)答案:C6、下列核函數(shù)特性描述錯(cuò)誤的是A、只要一個(gè)對(duì)稱函數(shù)所對(duì)應(yīng)的核矩陣半正定,就能稱為核函數(shù)B、核函數(shù)選擇作為支持向量機(jī)的最大變數(shù)C、核函數(shù)將影響支持向量機(jī)的性能D、核函數(shù)是一種降維模型答案:D7、大數(shù)據(jù)的最顯著特征是()A、數(shù)據(jù)規(guī)模大B、數(shù)據(jù)類型多樣C、數(shù)據(jù)處理速度快D、數(shù)據(jù)價(jià)值密度高答案:A8、二分搜索算法是利用()實(shí)現(xiàn)的算法。A、分治策略B、動(dòng)態(tài)規(guī)劃法C、貪心法D、回溯法答案:A9、在華為云EI中,以下哪項(xiàng)可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場(chǎng)景中,發(fā)揮AI技術(shù)的優(yōu)勢(shì),從而提高效率,提升體驗(yàn)。A、EI智能體B、OBS對(duì)象存儲(chǔ)服務(wù)C、云數(shù)據(jù)庫D、EI大數(shù)據(jù)服務(wù)答案:A10、多義現(xiàn)象可以被定義為在文本對(duì)象中一個(gè)單詞或短語的多種含義共存。下列哪一種方法可能是解決此問題的最好選擇?A、隨機(jī)森林分類器B、卷積神經(jīng)網(wǎng)絡(luò)C、梯度爆炸D、上述所有方法答案:B11、獨(dú)熱編碼的英文是:A、onehotB、twohotC、onecoldD、twocold答案:A12、圖像數(shù)字化分為兩個(gè)步驟:一為取樣,二為()。A、數(shù)字化B、量化C、去噪聲D、清洗答案:B13、環(huán)境在接受到個(gè)體的行動(dòng)之后,會(huì)反饋給個(gè)體環(huán)境目前的狀態(tài)(state)以及由于上一個(gè)行動(dòng)而產(chǎn)生的()。A、actionB、rewardC、stateD、agent答案:B14、緩解過擬合的一個(gè)辦法是允許支持向量機(jī)在一些樣本上出錯(cuò),以下哪種形式適合這種方法。()A、硬間隔支持向量機(jī)B、軟間隔支持向量機(jī)C、線性核函數(shù)支持向量機(jī)D、多項(xiàng)式核函數(shù)支持向量機(jī)答案:B15、某人回到家說了一聲“燈光”,房間的燈就亮了,這主要應(yīng)用了人工智能中的()A、文字識(shí)別技術(shù)B、指紋識(shí)別技術(shù)C、語音識(shí)別技術(shù)D、光學(xué)字符識(shí)別答案:C16、淺拷貝的含義是A、拷貝父對(duì)象,不拷貝父對(duì)象的內(nèi)部對(duì)象B、完全拷貝父對(duì)象和子對(duì)象C、僅是引用父對(duì)象D、僅是引用子對(duì)象答案:A17、在K-mean或Knn中,是采用哪種距離計(jì)算方法?A、曼哈頓距離B、切比雪夫距離C、歐式距離D、閔氏距離答案:C18、列算法,哪項(xiàng)不屬于深度學(xué)習(xí)模型?()A、支持向量機(jī)SVMB、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN答案:A19、神經(jīng)網(wǎng)絡(luò)中Dropout的作用()A、防止過擬合B、減小誤差C、增加網(wǎng)絡(luò)復(fù)雜度答案:A20、關(guān)于bagging下列說法錯(cuò)誤的是:()A、各基分類器之間有較強(qiáng)依賴,不可以進(jìn)行并行訓(xùn)練。B、最著名的算法之一是基于決策樹基分類器的隨機(jī)森林。C、當(dāng)訓(xùn)練樣本數(shù)量較少時(shí),子集之間可能有重疊。D、為了讓基分類器之間互相獨(dú)立,需要將訓(xùn)練集分為若干子集。答案:A21、關(guān)于“與/或”圖表示法的敘述中,正確的是:。A、“與/或”圖就是用“AND”和“OR”連續(xù)各個(gè)部分的圖形,用來描述各部分的因果關(guān)系。B、“與/或”圖就是用“AND”和“OR”連續(xù)各個(gè)部分的圖形,用來描述各部分之間的不確定關(guān)系。C、“與/或”圖就是用“與”節(jié)點(diǎn)和“或”節(jié)點(diǎn)組合起來的樹形圖,用來描述某類問題的層次關(guān)系。D、“與/或”圖就是用“與”節(jié)點(diǎn)和“或”節(jié)點(diǎn)組合起來的樹形圖,用來描述某類問題的求解過程。答案:D22、神將網(wǎng)絡(luò)訓(xùn)練時(shí),常會(huì)遇到很多問題,對(duì)于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?A、Relu函數(shù)B、Sigmoid函數(shù)C、tanh函數(shù)D、Softsign函數(shù)答案:A23、E.A.Feigenbaum等人在著名的《人工智能手冊(cè)》(第三卷,把機(jī)器學(xué)習(xí)劃分為:機(jī)械學(xué)習(xí)、示教學(xué)習(xí)、類比學(xué)習(xí)和()A、符號(hào)主義學(xué)習(xí)B、監(jiān)督學(xué)習(xí)C、無監(jiān)督學(xué)習(xí)D、歸納學(xué)習(xí)答案:D24、當(dāng)訓(xùn)練數(shù)據(jù)較少時(shí)更()發(fā)生過擬合。A、不容易B、容易C、不會(huì)答案:B25、概率模型的訓(xùn)練過程就是()過程。A、參數(shù)估計(jì)B、概率估計(jì)C、極大似然估計(jì)D、分布估計(jì)答案:A26、若X服從泊松分布P(10),則EX=()A、10B、1C、100D、1212122022年1月10日答案:A27、MapReduce默認(rèn)的分區(qū)函數(shù)是()。A、hashB、diskC、reduceD、map答案:A28、按照類別比例分組的k折用的是哪個(gè)函數(shù)()A、RepeatedKFoldB、StratifiedKFoldC、LeavePOutD、GroupKFold答案:B29、scipy中()是空間數(shù)據(jù)結(jié)構(gòu)和算法模塊。A、clusterB、constantsC、integrateD、spatial答案:D30、下面對(duì)前饋神經(jīng)網(wǎng)絡(luò)描述不正確的是A、各個(gè)神經(jīng)元接受前一級(jí)神經(jīng)元的輸入,并輸出到下一級(jí)B、層與層之間通過“全連接”進(jìn)行連接,即兩個(gè)相鄰層之間神經(jīng)元完全成對(duì)連接C、同一層內(nèi)的神經(jīng)元相互不連接D、同一層內(nèi)神經(jīng)元之間存在全連接答案:D31、對(duì)于線性可分的數(shù)據(jù),支持向量機(jī)的解決方式是()A、軟間隔B、硬間隔C、核函數(shù)D、以上選項(xiàng)均不正確答案:B32、批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學(xué)習(xí)率D、使用樣本數(shù)答案:D33、LINUX中,用戶編寫了一個(gè)文本文件a.txt,想將該文件名稱改為txt.a,下列命令()可以實(shí)現(xiàn)。A、cda.txttxt.aB、echoa.txt>txt.aC、rma.txttxt.aD、cata.txt>txt.a答案:D34、獨(dú)熱編碼的缺點(diǎn)是:①.過于稀疏②.詞與詞的相關(guān)性比較小③.易于編碼④.容易存儲(chǔ)A、③④B、①②C、①③D、②④答案:B35、袋中有50個(gè)乒乓球,其中20個(gè)黃的,30個(gè)白的,現(xiàn)在兩個(gè)人不放回地依次從袋中隨機(jī)各取一球。則第二人取到黃球的概率是A、1212122022年1月5日B、1212122022年2月5日C、1212122022年3月5日D、1212122022年4月5日答案:B36、訓(xùn)練芯片與推理芯片主要應(yīng)用于()。A、機(jī)器學(xué)習(xí)B、強(qiáng)化學(xué)習(xí)C、深度學(xué)習(xí)D、監(jiān)督學(xué)習(xí)答案:C37、Python語句list(range(1,10,3))執(zhí)行結(jié)果為____。A、1,10,30]B、1,3,6,9]C、1,4,7]D、2,5,8]答案:C38、Skip-gram在實(shí)際操作中,使用一個(gè)()(一般情況下,長度是奇數(shù)),從左到右開始掃描當(dāng)前句子。A、過濾器B、滑動(dòng)窗口C、篩選器D、掃描器答案:B39、遺傳算法借鑒的生物進(jìn)化的三個(gè)基本原則是A、兩性繁衍突變進(jìn)化B、適者生存突變進(jìn)化C、適者生存兩性繁衍進(jìn)化D、適者生存兩性繁衍突變答案:D40、DSSM模型總的來說可以分成哪幾層結(jié)構(gòu),分別是()A、表示層、匹配層B、輸入層、匹配層C、輸入層、表示層D、輸入層、表示層和匹配層。答案:D41、使用一組槽來描述事件的發(fā)生序列,這種知識(shí)表示法叫做()A、語義網(wǎng)絡(luò)法B、過程表示法C、劇本表示法D、框架表示法答案:C42、決策樹所形成的分類邊界有一個(gè)明顯特點(diǎn),它的分類邊界由若干個(gè)(___)分段組成。A、與坐標(biāo)軸平行B、與坐標(biāo)軸垂直C、與坐標(biāo)軸重合D、過坐標(biāo)原點(diǎn)答案:A43、[[[1.3688,1.0125]],[[0.1747,-0.022463]]]張量的維度為()。A、2,2B、1,2,2C、4,1D、2,1,2答案:D44、Python中,以下哪個(gè)賦值操作符是錯(cuò)誤的?A、+=B、-=C、*=D、X=答案:D45、圖計(jì)算中圖數(shù)據(jù)往往是()和不規(guī)則的,在利用分布式框架進(jìn)行圖計(jì)算時(shí),首先需要對(duì)圖進(jìn)行劃分,將負(fù)載分配到各個(gè)節(jié)點(diǎn)上A、結(jié)構(gòu)化B、非結(jié)構(gòu)化C、對(duì)稱化D、規(guī)則化答案:B46、()網(wǎng)絡(luò)是一種競(jìng)爭學(xué)習(xí)型的無監(jiān)督神經(jīng)網(wǎng)絡(luò),它能將高維輸入數(shù)據(jù)映射到低維空間,同時(shí)保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu),即將高維空間中相似的樣本點(diǎn)映射到網(wǎng)絡(luò)輸出層中的臨近神經(jīng)元。A、SOM網(wǎng)絡(luò)B、RBF網(wǎng)絡(luò)C、ART網(wǎng)絡(luò)D、ELman網(wǎng)絡(luò)答案:A47、在pytorch中,如果主機(jī)有1塊TitanX顯卡,以下哪個(gè)選項(xiàng)中的代碼都可以將變量名為var的tensor放在GPU上運(yùn)行()A%、var=var.to"cuda:0"、var=var.to"cuda:1"B、var=var.to"cuda:1"C、var=var.cuda、var=var.to"cuda:0"D、var=var.cuda、var=var.to"cuda:1""答案:C48、下列哪個(gè)模型屬于監(jiān)督學(xué)習(xí)的方法()A、K-meansB、SVRC、DBSCAND、以上都是答案:B49、()是一個(gè)具有大量的專門知識(shí)與經(jīng)驗(yàn)的程序系統(tǒng),它應(yīng)用人工智能技術(shù)和計(jì)算機(jī)技術(shù),根據(jù)某領(lǐng)域一個(gè)或多個(gè)專家提供的知識(shí)和經(jīng)驗(yàn),進(jìn)行推理和判斷,模擬人類專家的決策過程,以便解決那些需要人類專家處理的復(fù)雜問題。A、專家系統(tǒng)B、機(jī)器系統(tǒng)C、智能芯片D、人機(jī)交互答案:A50、()是建立在numpy基礎(chǔ)上的高效數(shù)據(jù)分析處理庫,是Python的重要數(shù)據(jù)分析庫。A、numpyB、pandasC、MatplotlibD、PIL答案:B51、大數(shù)據(jù)技術(shù)為輸入數(shù)據(jù)在()方面做出了貢獻(xiàn),幫助提升了深度學(xué)習(xí)算法的性能。A、存儲(chǔ)集合清除B、存儲(chǔ)整合清除C、儲(chǔ)蓄集合清洗D、存儲(chǔ)清洗整合答案:D52、()的思想是給定訓(xùn)練樣例集將樣例投影到一條直線上,使得同樣例的投影點(diǎn)盡可能接近、異類樣例投影點(diǎn)盡可能遠(yuǎn)離;在對(duì)新樣本進(jìn)行分類時(shí),將其投影到同樣的這條直線上,再根據(jù)投影點(diǎn)的位置來確定樣本的類別.A、多分類學(xué)習(xí)B、對(duì)數(shù)幾率回歸C、線性判別分析D、多分類學(xué)習(xí)答案:C53、關(guān)于python類說法錯(cuò)誤的是()。A、類的實(shí)例方法必須創(chuàng)建對(duì)象后才可以調(diào)用B、類的實(shí)例方法必須創(chuàng)建對(duì)象前才可以調(diào)用C、類的類方法可以用對(duì)象和類名來調(diào)用D、類的靜態(tài)屬性可以用類名和對(duì)象來調(diào)用答案:B54、python包安裝命令正確的是A、pipinstallxxxB、condainstallxxxC、pythoninstallxxxD、ipythoninstallxxx答案:A55、關(guān)于線性回歸的描述,以下正確的有()A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項(xiàng)答案:B56、負(fù)荷預(yù)測(cè)分為四類()A、(1)按小時(shí)負(fù)荷預(yù)測(cè)(2)日負(fù)荷預(yù)測(cè)(3)周負(fù)荷預(yù)測(cè)(4)月負(fù)荷預(yù)測(cè)B、(1)日負(fù)荷預(yù)測(cè)(2)周負(fù)荷預(yù)測(cè)(3)月負(fù)荷預(yù)測(cè)(4)年負(fù)荷預(yù)測(cè)C、(1)超短期負(fù)荷預(yù)測(cè)(2)短期負(fù)荷預(yù)測(cè)(3)中期負(fù)荷預(yù)測(cè)(4)長期負(fù)荷預(yù)測(cè)D、(1)日負(fù)荷預(yù)測(cè)(2)周負(fù)荷預(yù)測(cè)(3)月負(fù)荷預(yù)測(cè)(4)季負(fù)荷預(yù)測(cè)答案:C57、下列核函數(shù)特性描述錯(cuò)誤的是(___)A、只要一個(gè)對(duì)稱函數(shù)所對(duì)應(yīng)的核矩陣半正定,就能稱為核函數(shù);B、核函數(shù)選擇作為支持向量機(jī)的最大變數(shù);C、核函數(shù)將影響支持向量機(jī)的性能;D、核函數(shù)是一種降維模型;答案:D58、關(guān)于遞歸函數(shù)基例的說明,以下選項(xiàng)中錯(cuò)誤的是A、遞歸函數(shù)必須有基例B、遞歸函數(shù)的基例不再進(jìn)行遞歸C、每個(gè)遞歸函數(shù)都只能有一個(gè)基例D、遞歸函數(shù)的基例決定遞歸的深度答案:C59、智能機(jī)器人可以根據(jù)()得到信息。A、思維能力B、行為能力C、感知能力D、學(xué)習(xí)能力答案:C60、下列哪一項(xiàng)不是常見的機(jī)器學(xué)習(xí)模型正則化方法。A、數(shù)據(jù)優(yōu)化B、數(shù)據(jù)增強(qiáng)C、模型集成D、引入?yún)?shù)范數(shù)懲罰項(xiàng)答案:A61、蒙特卡羅強(qiáng)化學(xué)習(xí)算法的本質(zhì),是通過多次嘗試后求平均來作為期望累計(jì)獎(jiǎng)賞的金絲,但它在求平均時(shí)是采用哪種方式進(jìn)行?A、逐一式B、循環(huán)式C、分組式D、批處理答案:D62、傳統(tǒng)的機(jī)器學(xué)習(xí)方法包括監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí),其中監(jiān)督學(xué)習(xí)是學(xué)習(xí)給定標(biāo)簽的數(shù)據(jù)集。請(qǐng)問標(biāo)簽為離散的類型,稱為分類,標(biāo)簽為連續(xù)的類型,稱為什么?A、給定標(biāo)簽B、離散C、分類D、回歸答案:D63、對(duì)一次數(shù)據(jù)進(jìn)行深度處理或分析(如脫敏、歸約、標(biāo)注、分析、挖掘等)之后得到的“增值數(shù)據(jù)”稱為()A、零次數(shù)據(jù)B、一次數(shù)據(jù)C、二次數(shù)據(jù)D、三次數(shù)據(jù)答案:C64、一般來講,下列語言屬于人工智能語言的是()。A、VJB、C#C、FoxproD、LISP答案:D65、下列哪個(gè)模型屬于無監(jiān)督學(xué)習(xí)()A、KNN分類B、邏輯回歸C、DBSCAND、決策樹答案:C66、剪枝分為前剪枝和后剪枝,前剪枝本質(zhì)就是早停止,后剪枝通常是通過衡量剪枝后()變化來決定是否剪枝。A、信息增益B、損失函數(shù)C、準(zhǔn)確率D、召回率答案:B67、Iou表示的是()A、兩個(gè)框之間的重疊程度B、兩個(gè)框的總面積C、兩個(gè)框的相對(duì)大小D、一個(gè)框面積與周長比值答案:A68、下列哪項(xiàng)不是知識(shí)圖譜構(gòu)建的主要技術(shù)()A、命名實(shí)體識(shí)別B、實(shí)體鏈接C、關(guān)系抽取D、詞性標(biāo)注答案:D69、當(dāng)在內(nèi)存網(wǎng)絡(luò)中獲得某個(gè)內(nèi)存空間時(shí),通常選擇讀取矢量形式數(shù)據(jù)而不是標(biāo)量,這里需要的哪種類型的尋址來完成A、基于內(nèi)容的尋址B、基于位置的尋址C、都不行D、都可以答案:A70、半監(jiān)督學(xué)習(xí)包括(___)。A、純半監(jiān)督學(xué)習(xí)B、主動(dòng)學(xué)習(xí)C、回歸學(xué)習(xí)D、分類學(xué)習(xí)、答案:A71、無監(jiān)督學(xué)習(xí)需要()A、學(xué)習(xí)程序自己形成和評(píng)價(jià)概念,沒有教師B、學(xué)習(xí)程序在教師監(jiān)督下形成和評(píng)價(jià)概念C、學(xué)習(xí)程序有時(shí)需要教師,有時(shí)不需要教師,以形成和評(píng)價(jià)概念D、以上說法都不對(duì)答案:A72、下列應(yīng)用了人工智能技術(shù)的是()①用手寫板輸入漢字②視頻聊天③與計(jì)算機(jī)對(duì)弈④OCR文字識(shí)別A、①②③B、①②④C、①③④D、②③④答案:C73、Dropout是一種在深度學(xué)習(xí)環(huán)境中應(yīng)用的正規(guī)化手段。它是這樣運(yùn)作的:在一次循環(huán)中我們先隨機(jī)選擇神經(jīng)層中的一些單元并將其臨時(shí)隱藏,然后再進(jìn)行該次循環(huán)中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化過程。在下一次循環(huán)中,我們又將隱藏另外一些神經(jīng)元,如此直至訓(xùn)練結(jié)束。根據(jù)以上描述,Dropout技術(shù)在下列哪種神經(jīng)層中將無法發(fā)揮顯著優(yōu)勢(shì)?A、仿射層B、卷積層C、RNN層D、均不對(duì)答案:C74、機(jī)器學(xué)習(xí)算法的一般流程是()。A、1)收集數(shù)據(jù),2)準(zhǔn)備數(shù)據(jù),3)分析數(shù)據(jù),4)訓(xùn)練算法,5)測(cè)試算法,6)使用算法B、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準(zhǔn)備數(shù)據(jù),4)訓(xùn)練算法,5)測(cè)試算法,6)使用算法C、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準(zhǔn)備數(shù)據(jù),4)測(cè)試算法,5)訓(xùn)練算法,6)使用算法D、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)測(cè)試算法,4)訓(xùn)練算法,5)準(zhǔn)備數(shù)據(jù),6)使用算法答案:A75、訓(xùn)練圖像分類模型時(shí),對(duì)于圖像的預(yù)處理,下列技術(shù)哪項(xiàng)經(jīng)常要用?()A、圖像增強(qiáng)B、圖像灰度化C、圖片二值化D、圖片RGB通道轉(zhuǎn)換答案:A76、Python內(nèi)置函數(shù)______用來返回序列中的最小元素。A、leastB、minC、miniD、max答案:B77、子空間樣本密度大幅提高,距離計(jì)算變得更為容易的是()A、低維嵌入B、核化線性降維C、主成分分析D、k近鄰學(xué)習(xí)答案:A78、兩步聚類的兩個(gè)主要步驟為()和聚類A、建模B、測(cè)試C、分析D、預(yù)聚類答案:D79、如果處理以下形狀的數(shù)據(jù)時(shí),適宜采用DBSCAN的是A、球形B、SS形C、橢球形D、方形答案:B80、在強(qiáng)化學(xué)習(xí)中,哪個(gè)機(jī)制的引入使得強(qiáng)化學(xué)習(xí)具備了在利用與探索中尋求平衡的能力A、貪心策略B、蒙特卡洛采樣C、動(dòng)態(tài)規(guī)劃D、Bellman方程答案:A81、人工智能產(chǎn)業(yè)三大要素是技術(shù)產(chǎn)品、改造提升行業(yè)融合和()。A、算法運(yùn)算B、云計(jì)算C、深度學(xué)習(xí)D、集成應(yīng)用答案:D82、關(guān)于GoogLeNet描述正確的有:A、GoogLeNet僅僅是在寬度上進(jìn)行了探索,所以它是一個(gè)很淺的網(wǎng)絡(luò)B、GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計(jì)更加復(fù)雜的網(wǎng)絡(luò)打開了思路C、GoogLeNet使用了Inception結(jié)構(gòu),Inception結(jié)構(gòu)只有V1這一個(gè)版本D、GoogLeNet結(jié)合多種網(wǎng)絡(luò)設(shè)計(jì)結(jié)構(gòu)所以是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)答案:B83、根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無環(huán)圖表示變量間的依賴關(guān)系,稱為有向圖模型或貝葉斯網(wǎng)(Bayesiannetwork);第二類是使用無向圖表示變量間的相關(guān)關(guān)系,稱為(___)。A、赫布網(wǎng)B、拉普拉斯網(wǎng)C、馬爾科夫網(wǎng)D、塞繆爾網(wǎng)答案:C84、()的基本出發(fā)點(diǎn),是認(rèn)為低維流形嵌入到高維空間之后,直接在高維空間中計(jì)算直線距離具有誤導(dǎo)性,因?yàn)楦呔S空間中的直線距離在低維嵌入流形上是不可達(dá)的。A、等度量映射B、等距離映射C、等空間映射D、等范圍映射答案:A85、以下()屬于數(shù)據(jù)可視化方法體系中的基礎(chǔ)方法。A、視覺編碼方法論B、視覺隱喻C、地理信息可視化D、時(shí)變數(shù)據(jù)可視化答案:B86、下列哪項(xiàng)不屬于知識(shí)圖譜的分布式表示方法()A、word2vecB、TransDC、TransHD、TransE答案:A87、以下選項(xiàng)不是聚類算法的是()A、分層聚類B、K平均值聚類C、兩步聚類D、離散聚類答案:D88、下列代碼執(zhí)行結(jié)果是?[i**iforiinxrange(3)]A、1,1,4]B、0,1,4]C、1,2,3]D、1,1,4答案:A89、隨機(jī)森林是一

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論