




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
人工智能復(fù)習(xí)題與參考答案一、單選題(共103題,每題1分,共103分)1.讀取文件時(shí)并指定文件以空格分隔,則應(yīng)該添加A、sep="\t”B、sep=""C、sep="\r”D、sep="”正確答案:B2.以下不是點(diǎn)估計(jì)中統(tǒng)計(jì)量標(biāo)準(zhǔn)的是()A、一致的B、隨機(jī)性C、有效的D、無(wú)偏性正確答案:B3.下列哪部分不是專家系統(tǒng)的組成部分A、用戶B、推理機(jī)C、綜合數(shù)據(jù)庫(kù)D、知識(shí)庫(kù)正確答案:A4.下列哪個(gè)不是專門用于可視化時(shí)間空間數(shù)據(jù)的技術(shù)()A、矢量場(chǎng)圖B、等高線圖C、餅圖D、曲面圖正確答案:C5.關(guān)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法中,正確的是()A、增加網(wǎng)絡(luò)層數(shù),可能增加測(cè)試集錯(cuò)誤率B、減小網(wǎng)絡(luò)層數(shù),總能減小測(cè)試集錯(cuò)誤率C、增加網(wǎng)絡(luò)層數(shù),總能減小訓(xùn)練集錯(cuò)誤率正確答案:A6.人工智能中通常把()作為衡量機(jī)器智能的準(zhǔn)則。A、圖靈機(jī)B、人類智能C、圖靈測(cè)試D、中文屋實(shí)驗(yàn)正確答案:C7.智能語(yǔ)音應(yīng)用中具備辨別聲音來(lái)源方向的硬件設(shè)備/技術(shù)是()A、麥克風(fēng)陣列B、說(shuō)話人識(shí)別C、語(yǔ)音識(shí)別D、語(yǔ)種識(shí)別正確答案:A8.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的權(quán)重和偏移呢?A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C、隨機(jī)賦值,聽(tīng)天由命D、以上都不正確的正確答案:B9.傳統(tǒng)科學(xué)計(jì)算中的建模方法可分為從()出發(fā)的建模和從數(shù)據(jù)出發(fā)的建模兩類A、存儲(chǔ)B、機(jī)理C、檢索D、設(shè)計(jì)正確答案:B10.使用交叉驗(yàn)證最簡(jiǎn)單的方法是在估計(jì)器和數(shù)據(jù)集上調(diào)用什么輔助函數(shù)?A、cross_val%B、cross_scoreC、val_scoreD、cross_val_score正確答案:D11.以下不屬于AI機(jī)器決策優(yōu)點(diǎn)的是()?A、具有一致性和邏輯性B、獲取和處理投研信息范圍廣、內(nèi)容全C、可減少人為疏漏和失誤D、可以進(jìn)行簡(jiǎn)單問(wèn)題的直接回復(fù)、復(fù)雜問(wèn)題轉(zhuǎn)人工支持正確答案:D12.使用一個(gè)滑動(dòng)窗口對(duì)語(yǔ)料()掃描,在每個(gè)窗口內(nèi),中心詞需要預(yù)測(cè)它的上下文,并形成訓(xùn)練數(shù)據(jù)A、從右到左B、從下到上C、從上到下D、從左到右正確答案:D13.在人工智能當(dāng)中,圖像、語(yǔ)音、手勢(shì)等識(shí)別被認(rèn)為是()的層次;而問(wèn)題求解、創(chuàng)作、推理預(yù)測(cè)被認(rèn)為是()的層次。A、感知智能B、感知智能C、感知智能D、感知智能E、認(rèn)知智能F、認(rèn)知智能正確答案:D14.下列選項(xiàng)中屬于感知技術(shù)的是()。A、機(jī)器視覺(jué)和機(jī)器學(xué)習(xí)技術(shù)B、計(jì)算實(shí)施技術(shù)和語(yǔ)音識(shí)別技術(shù)C、語(yǔ)音識(shí)別技術(shù)和機(jī)器視覺(jué)D、機(jī)器學(xué)習(xí)技術(shù)和計(jì)算實(shí)施技術(shù)正確答案:C15.以下不屬于數(shù)據(jù)處理包含五個(gè)部分的是:A、數(shù)據(jù)形狀變換&B、&數(shù)據(jù)歸一化處理C、&數(shù)據(jù)集劃分&D、&模型篩選&正確答案:D16.EM算法通過(guò)迭代求L(theta)=logP(Y|theta)的(),每次迭代交替進(jìn)行求期望和求極大化。A、區(qū)間估計(jì)B、極大似然估計(jì)C、無(wú)偏估計(jì)D、有偏估計(jì)正確答案:B17.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無(wú)環(huán)圖表示變量間的依賴關(guān)系,稱為(___);第二類是使用無(wú)向圖表示變量間的相關(guān)關(guān)系,稱為無(wú)向圖模型或馬爾可夫網(wǎng)(Markovnetwork)。A、帕斯卡網(wǎng)B、貝葉斯網(wǎng)C、塞繆爾網(wǎng)D、拉普拉斯網(wǎng)正確答案:B18.梯度下降算法的正確步驟是什么?a.計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差b.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值c.把輸入傳入網(wǎng)絡(luò),得到輸出值d.用隨機(jī)值初始化權(quán)重和偏差e.對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差()A、abcdeB、edcbaC、dcaebD、cbaed正確答案:C19.下列哪些不是“子集搜索”中的搜索方式(___)A、雙向搜索B、前向搜索C、單向搜索D、后向搜索正確答案:C20.輸入32*32的圖像,用大小5*5的卷積核做步長(zhǎng)為1的卷積計(jì)算,輸出圖像的大小是A、28*28B、29*29C、28*23D、23*23正確答案:A21.避免由于過(guò)擬合造成貌似線性可分的結(jié)果,一個(gè)解決的辦法是允許支持向量機(jī)在一些樣本上出錯(cuò),為此引入()的概念。A、核函數(shù)B、正則化C、軟間隔D、硬間隔正確答案:C22.2019年,DeepMind開發(fā)出一種()來(lái)近似計(jì)算薛定諤方程,在精度和準(zhǔn)確性上都滿足科研標(biāo)準(zhǔn),為深度學(xué)習(xí)在量子化學(xué)領(lǐng)域的發(fā)展奠定了基礎(chǔ),A、深度神經(jīng)網(wǎng)絡(luò)B、費(fèi)米神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)正確答案:B23.隨著()在計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別以及自然語(yǔ)言處理領(lǐng)域取得的成功,近幾年來(lái),無(wú)論是在消費(fèi)者端還是在企業(yè)端,已經(jīng)有許多依賴人工智能技術(shù)的應(yīng)用臻于成熟,并開始滲透到我們生活的方方面面A、監(jiān)督學(xué)習(xí)B、強(qiáng)化學(xué)習(xí)C、深度學(xué)習(xí)D、無(wú)監(jiān)督學(xué)習(xí)正確答案:C24.()是人以自然語(yǔ)言同計(jì)算機(jī)進(jìn)行交互的綜合性技術(shù),結(jié)合了語(yǔ)言學(xué)、心理學(xué)、工程、計(jì)算機(jī)技術(shù)等領(lǐng)域的知識(shí)。A、語(yǔ)音交互B、情感交互C、體感交互D、腦機(jī)交互正確答案:A25.決策樹中,同一路徑上的所有屬性之間是()關(guān)系A(chǔ)、因果B、邏輯與C、相關(guān)D、邏輯或正確答案:B26.下列哪種情況是圖靈測(cè)試的內(nèi)容?()A、當(dāng)機(jī)器與人對(duì)話,兩者相互詢問(wèn),人分不清機(jī)器是人還是機(jī)器,說(shuō)明它通過(guò)了圖靈測(cè)試B、當(dāng)機(jī)器騙過(guò)測(cè)試者,使得詢問(wèn)者分不清是人還是機(jī)器時(shí),說(shuō)明它通過(guò)了圖靈測(cè)試C、當(dāng)人與人對(duì)話,其中一人的智力超過(guò)另一人時(shí),說(shuō)明智者通過(guò)了圖靈測(cè)試D、兩機(jī)對(duì)話,其中一機(jī)的智力超過(guò)另一機(jī)時(shí),說(shuō)明智者機(jī)器通過(guò)了圖靈測(cè)試正確答案:B27.機(jī)器學(xué)習(xí)在()正式被視為“解決知識(shí)工程瓶頸問(wèn)題的關(guān)鍵”而走上人工智能主舞臺(tái)的。A、二十世紀(jì)八十年代B、二十世紀(jì)六十年代C、二十世紀(jì)七十年代D、二十世紀(jì)九十年代正確答案:A28.模型有效的基本條件是能夠()已知的樣本A、結(jié)合B、聯(lián)合C、擬合D、聚集正確答案:C29.如果問(wèn)題存在最優(yōu)解,則下面幾種搜索算法中,()必然可以得到該最優(yōu)解。A、深度優(yōu)先搜索B、有界深度優(yōu)先搜索C、啟發(fā)式搜索D、廣度優(yōu)先搜索正確答案:D30.關(guān)于Python中的復(fù)數(shù),下列說(shuō)法錯(cuò)誤的是()A、實(shí)部和虛部都是浮點(diǎn)數(shù)B、虛部必須后綴j,且必須小寫C、方法conjugate返回復(fù)數(shù)的共軛復(fù)數(shù)D、表是復(fù)數(shù)的語(yǔ)法是real+imagej正確答案:B31.關(guān)于學(xué)習(xí)率初始值設(shè)定描述正確的是()A、學(xué)習(xí)率是根據(jù)不同場(chǎng)景,人為設(shè)定的B、學(xué)習(xí)率是網(wǎng)絡(luò)自己學(xué)習(xí)得到的C、學(xué)習(xí)率不是人為設(shè)定的D、學(xué)習(xí)率不同場(chǎng)景是相同的正確答案:A32.Linux系統(tǒng)中,將加密過(guò)的密碼放到()文件中A、otherB、/etc/passwordC、/etc/passwdD、/etc/shadow正確答案:D33.下面()不是Python合法的標(biāo)識(shí)符。A、_name_B、int32C、selfD、40XL正確答案:D34.Python使用()符號(hào)標(biāo)示注釋。A、&B、#C、*D、//正確答案:B35.Numpy中采用下列哪種方法進(jìn)行所有元素的累積計(jì)算?A、stdB、argminC、cumsumD、cumprod正確答案:D36.剪枝分為前剪枝和后剪枝,前剪枝本質(zhì)就是早停止,后剪枝通常是通過(guò)衡量剪枝后()變化來(lái)決定是否剪枝。A、損失函數(shù)B、準(zhǔn)確率C、召回率D、信息增益正確答案:A37.關(guān)于bagging下列說(shuō)法錯(cuò)誤的是:()A、為了讓基分類器之間互相獨(dú)立,需要將訓(xùn)練集分為若干子集。B、各基分類器之間有較強(qiáng)依賴,不可以進(jìn)行并行訓(xùn)練。C、當(dāng)訓(xùn)練樣本數(shù)量較少時(shí),子集之間可能有重疊。D、最著名的算法之一是基于決策樹基分類器的隨機(jī)森林。正確答案:B38.()的層結(jié)構(gòu)主要有:輸入層、卷積層、池化層(匯聚層、下采樣層)、輸出層等,其他的還可以有全連接層,歸一化層之類的層結(jié)構(gòu)。A、識(shí)別神經(jīng)B、圖像神經(jīng)C、網(wǎng)絡(luò)神經(jīng)D、卷積神經(jīng)網(wǎng)絡(luò)正確答案:D39.在數(shù)據(jù)挖掘中,()可以從大量數(shù)據(jù)中挖掘出有價(jià)值的數(shù)據(jù)項(xiàng)之間的相關(guān)生關(guān)系。A、關(guān)聯(lián)規(guī)則B、分布規(guī)則C、相關(guān)分析D、線性分析正確答案:A40.邊緣分布(MarginalDistribution)指在概率論和統(tǒng)計(jì)學(xué)的多維隨機(jī)變量中,只包含其中()的概率分布。A、單一變量B、部分變量C、全部變量D、邊緣變量正確答案:B41.在圖靈獎(jiǎng)獲得者JimGray看來(lái),人類科學(xué)研究活動(dòng)已經(jīng)經(jīng)歷過(guò)三種不同范式的演變過(guò)程,目前正在從()轉(zhuǎn)向A、理論科學(xué)范式計(jì)算科學(xué)范式B、計(jì)算科學(xué)范式數(shù)據(jù)密集型科學(xué)發(fā)現(xiàn)范式C、理論科學(xué)范式數(shù)據(jù)密集型科學(xué)發(fā)現(xiàn)范式D、實(shí)驗(yàn)科學(xué)范式理論科學(xué)范式正確答案:B42.在python中Series想要預(yù)覽部分?jǐn)?shù)據(jù),可以使用A、data.view()B、data.head()C、data.descripe()D、data.show()正確答案:B43.下面對(duì)前饋神經(jīng)網(wǎng)絡(luò)描述不正確的是A、層與層之間通過(guò)“全連接”進(jìn)行連接,即兩個(gè)相鄰層之間神經(jīng)元完全成對(duì)連接B、同一層內(nèi)的神經(jīng)元相互不連接C、同一層內(nèi)神經(jīng)元之間存在全連接D、各個(gè)神經(jīng)元接受前一級(jí)神經(jīng)元的輸入,并輸出到下一級(jí)正確答案:C44.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒(méi)有關(guān)系D、以上都不對(duì)正確答案:A45.數(shù)據(jù)的存儲(chǔ)結(jié)構(gòu)分為兩種,它們是()A、順序存儲(chǔ)和鏈?zhǔn)酱鎯?chǔ)B、線性存儲(chǔ)和數(shù)組存儲(chǔ)C、數(shù)組存儲(chǔ)和指針存儲(chǔ)D、線性存儲(chǔ)和樹型存儲(chǔ)正確答案:A46.下列不屬于人工智能學(xué)派的是A、符號(hào)主義B、連接主義C、行為主義D、機(jī)會(huì)主義正確答案:D47.以下哪一個(gè)不屬于分類算法A、XGBoostB、RandomForestC、SVMD、Fp-Growth正確答案:D48.在訓(xùn)練集上每學(xué)到一條規(guī)則,就將該規(guī)則覆蓋的訓(xùn)練樣例去除,然后以剩下的訓(xùn)練樣例組成訓(xùn)練集重復(fù)上述過(guò)程的方法稱為(___)A、不放回學(xué)習(xí)B、一階規(guī)則C、缺省規(guī)則D、序貫覆蓋正確答案:D49.下屬模型是一階段網(wǎng)絡(luò)的是()A、faster-rcnnB、rcnnC、YOLOv2D、fast-rcnn正確答案:C50.什么是KDD?()A、數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)B、領(lǐng)域知識(shí)發(fā)現(xiàn)C、文檔知識(shí)發(fā)現(xiàn)D、動(dòng)態(tài)知識(shí)發(fā)現(xiàn)正確答案:A51.目標(biāo)檢測(cè)常用性能指標(biāo)的是()A、信噪比B、平方誤差C、mAPD、分辨率正確答案:C52.知識(shí)圖譜中的邊稱為?A、屬性B、連接邊C、特征D、關(guān)系正確答案:D53.Relu在零點(diǎn)不可導(dǎo),那么在反向傳播中怎么處理()A、設(shè)為任意值B、不定義C、設(shè)為0D、設(shè)為無(wú)窮大正確答案:C54.Linux中,提供TCP/IP包過(guò)濾功能的軟件叫什么?A、rarpB、routeC、iptablesD、filter正確答案:C55.下列樸素貝葉斯估計(jì)描述錯(cuò)誤的是(___)A、假設(shè)屬性之間相互獨(dú)立;B、假設(shè)屬性之間是相關(guān)的;C、為了避免條件概率是所以屬性上的聯(lián)合概率;D、采用屬性條件獨(dú)立性假設(shè);正確答案:B56.下列關(guān)于半樸素貝葉斯描述錯(cuò)誤的為(___)A、獨(dú)依賴估計(jì)為半樸素貝葉斯最常用的策略;B、假設(shè)屬性之間完全獨(dú)立;C、假設(shè)屬性之間部分相關(guān);D、假設(shè)所以屬性都依賴于同一個(gè)屬性;正確答案:B57.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無(wú)環(huán)圖表示變量間的依賴關(guān)系,稱為有向圖模型或貝葉斯網(wǎng)(Bayesiannetwork);第二類是使用無(wú)向圖表示變量間的相關(guān)關(guān)系,稱為(___)。A、赫布網(wǎng)B、拉普拉斯網(wǎng)C、馬爾科夫網(wǎng)D、塞繆爾網(wǎng)正確答案:C58.Matplotlib庫(kù)中,用來(lái)繪制等值圖的pyplot的基礎(chǔ)圖標(biāo)函數(shù)是()。A、plt.specgram(x,NFFT=256,pad_to,F)B、plt.vlines()C、plt.contour(X,Y,Z,N)D、plt.plot_date()正確答案:C59.下面哪一項(xiàng)不屬于卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)A、VGGNetB、ResNetC、RNND、LeNet正確答案:C60.為了解決如何模擬人類的感性思維,例如視覺(jué)理解、直覺(jué)思維、悟性等,研究者找到一個(gè)重要的信息處理的機(jī)制是()A、專家系統(tǒng)B、智能代理C、人工神經(jīng)網(wǎng)絡(luò)D、模式識(shí)別正確答案:C61.()是數(shù)據(jù)庫(kù)管理系統(tǒng)運(yùn)行的基本工作單位。A、事務(wù)B、數(shù)據(jù)倉(cāng)庫(kù)C、數(shù)據(jù)單元D、D數(shù)據(jù)分析正確答案:A62.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過(guò)擬合問(wèn)題()A、增加訓(xùn)練集量B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C、刪除稀疏的特征D、SVM算法中使用高斯核/RBF核代替線性核正確答案:D63.下列關(guān)于python基本元素說(shuō)法錯(cuò)誤的是()A、python程序有時(shí)也稱腳本,是一系列定義和命令B、python解釋器有時(shí)也稱shell,用來(lái)求值定義并執(zhí)行命令C、若python對(duì)象屬于布爾類別(bool),那它也屬于非標(biāo)量對(duì)象D、float表示實(shí)數(shù),其字面量總是包括一個(gè)小數(shù)點(diǎn),屬于標(biāo)量對(duì)象正確答案:C64.a=np.arange(2),b=np.arange(3,5),print(np.lexsort([a,b]))的輸出結(jié)果是()。A、[0,1]B、[a,b]C、[0,1,2,3]D、[0,1,3,4]正確答案:A65.以下哪項(xiàng)是主要用于自然語(yǔ)言處理的網(wǎng)絡(luò)結(jié)構(gòu)()A、AlexNetB、ResNetC、BertD、LeNet正確答案:C66.()是指能夠按照人的要求,在某一個(gè)領(lǐng)域完成一項(xiàng)工作或者一類工作的人工智能。A、強(qiáng)人工智能B、人工智能C、超人工智能D、弱人工智能正確答案:D67.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)()將向量投影到低維空間。A、線性變換B、拉布拉斯變換C、非線性變換D、z變換正確答案:A68.清華大學(xué)首次提出“類腦計(jì)算完備性”概念以及軟硬件去耦合的類腦計(jì)算系統(tǒng)層次結(jié)構(gòu),通過(guò)()與()證明該類系統(tǒng)的硬件完備性與編譯可行性。A、理論論證、原型實(shí)踐B、模式識(shí)別、在線驗(yàn)證C、假設(shè)檢驗(yàn)、邏輯推理D、行為校驗(yàn)、合理分析正確答案:A69.關(guān)于貝葉斯網(wǎng)描述錯(cuò)誤的是(___)A、也稱為信念網(wǎng);B、借助有向無(wú)環(huán)圖刻畫屬性之間的關(guān)系;C、用條件概率表來(lái)描述屬性的聯(lián)合概率分布;D、借助無(wú)向無(wú)環(huán)圖刻畫屬性之間的關(guān)系;正確答案:D70.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是:()A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率B、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率C、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率正確答案:A71.機(jī)器學(xué)習(xí)訓(xùn)練時(shí),Mini-Batch的大小優(yōu)選為2的冪,如256或512。它背后的原因是什么?()A、Mini-Batch為偶數(shù)的時(shí)候,梯度下降算法訓(xùn)練的更快B、Mini-Batch設(shè)為2的冪,是為了符合CPU、GPU的內(nèi)存要求,利于并行化處理C、不使用偶數(shù)時(shí),損失函數(shù)是不穩(wěn)定的D、以上說(shuō)法都不對(duì)正確答案:B72.Dropout是一種在深度學(xué)習(xí)環(huán)境中應(yīng)用的正規(guī)化手段。它是這樣運(yùn)作的:在一次循環(huán)中我們先隨機(jī)選擇神經(jīng)層中的一些單元并將其臨時(shí)隱藏,然后再進(jìn)行該次循環(huán)中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化過(guò)程。在下一次循環(huán)中,我們又將隱藏另外一些神經(jīng)元,如此直至訓(xùn)練結(jié)束。根據(jù)以上描述,Dropout技術(shù)在下列哪種神經(jīng)層中將無(wú)法發(fā)揮顯著優(yōu)勢(shì)?A、仿射層B、卷積層C、RNN層D、均不對(duì)正確答案:C73.以下不屬于人工智能軟件的是()。A、語(yǔ)音漢字輸入軟件B、百度翻譯C、在網(wǎng)上與網(wǎng)友下棋D、使用OCR漢字識(shí)別軟件正確答案:C74.數(shù)據(jù)產(chǎn)品開發(fā)中,需要綜合考慮三個(gè)不同的指標(biāo),下列哪項(xiàng)不是三項(xiàng)指標(biāo)之一A、查全率B、查準(zhǔn)率C、響應(yīng)速度D、響應(yīng)時(shí)間正確答案:A75.Bagging是一個(gè)低效的集成學(xué)習(xí)算法A、正確B、錯(cuò)誤C、nanD、nan正確答案:B76.以下哪一種分布是二維隨機(jī)變量的分布()。A、指數(shù)分布B、邊緣分布C、正態(tài)分布D、二項(xiàng)分布正確答案:B77.下面算法中哪個(gè)不是分類算法A、隨機(jī)森林B、XgboostC、高斯混合模型GMMD、決策樹正確答案:C78.以下說(shuō)法正確的是()A、監(jiān)督學(xué)習(xí)與無(wú)監(jiān)督學(xué)習(xí)的主要區(qū)別是,監(jiān)督學(xué)習(xí)的訓(xùn)練樣本無(wú)標(biāo)簽B、決策樹只能用于二分類問(wèn)題C、神經(jīng)網(wǎng)絡(luò)可以用于多分類問(wèn)題D、分類任務(wù)的評(píng)價(jià)指標(biāo)精確率和準(zhǔn)確率是同一個(gè)概念正確答案:C79.如何從當(dāng)前系統(tǒng)中卸載一個(gè)已裝載的文件系統(tǒng)A、mount-uB、umountC、從/etc/fstab中刪除這個(gè)文件系統(tǒng)項(xiàng)D、dismount正確答案:B80.線性回歸方法是假定條件屬性和決策屬性之間存在線性關(guān)系,然后通過(guò)訓(xùn)練數(shù)據(jù)擬合出一個(gè)()方程,并使用該方程去預(yù)測(cè)未知的新實(shí)例。A、多元B、線性C、二元一次D、一元一次正確答案:B81.()采用多種樂(lè)器的音頻數(shù)據(jù),可融合多種國(guó)家、樂(lè)曲風(fēng)格和樂(lè)器音色的特征,創(chuàng)作音樂(lè)作品。A、XLNetB、GoogleNetC、MuseNetD、AlexNet正確答案:C82.K-means算法采用了哪些策略?()A、自底向上B、貪心策略C、自頂向下D、以上都是正確答案:B83.以下兩種描述分別對(duì)應(yīng)哪兩種對(duì)分類算法的評(píng)價(jià)標(biāo)準(zhǔn)?(a)警察抓小偷,描述警察抓的人中有多少個(gè)是小偷的標(biāo)準(zhǔn)。(b)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。A、Precision,RecallB、Recall,PrecisionC、Precision,ROCD、Recall,ROC正確答案:A84.機(jī)器學(xué)習(xí)的算法中,以下哪個(gè)不是無(wú)監(jiān)督學(xué)習(xí)?A、XgboostB、GMMC、聚類D、關(guān)聯(lián)規(guī)則正確答案:A85.以下卷積神經(jīng)網(wǎng)絡(luò)模型中,最早用于手寫數(shù)字識(shí)別的是()A、LeNet-5B、AlexNetC、ResNet50D、ResNet152正確答案:A86.()主要提供內(nèi)存計(jì)算框架A、Spark核心層B、服務(wù)核心層C、Spark層D、資源計(jì)算層正確答案:A87.下述while循環(huán)執(zhí)行的次數(shù)是()k=1000whilek>1:print(k)k=k/2A、9B、10C、$10,000D、11正確答案:B88.下列哪項(xiàng)不是知識(shí)圖譜構(gòu)建的主要技術(shù)()A、命名實(shí)體識(shí)別B、詞性標(biāo)注C、關(guān)系抽取D、實(shí)體鏈接正確答案:B89.下列核函數(shù)特性描述錯(cuò)誤的是(___)A、核函數(shù)將影響支持向量機(jī)的性能;B、核函數(shù)是一種降維模型;C、只要一個(gè)對(duì)稱函數(shù)所對(duì)應(yīng)的核矩陣半正定,就能稱為核函數(shù);D、核函數(shù)選擇作為支持向量機(jī)的最大變數(shù);正確答案:B90.基于神經(jīng)網(wǎng)絡(luò)的分類模型是?A、生成模型B、判別模型C、兩者都屬于D、兩者都不屬于正確答案:B91.正則化是為了什么?()A、防止過(guò)擬合B、最大化過(guò)擬合C、正規(guī)化D、最小化錯(cuò)誤率正確答案:A92.ImageNet數(shù)據(jù)集包含了()幅圖片。A、14000多萬(wàn)B、1400多C、1400多萬(wàn)D、14000多正確答案:C93.模型訓(xùn)練的目的是確定預(yù)測(cè)變量
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025貴州師范學(xué)院高層次人才引進(jìn)考前自測(cè)高頻考點(diǎn)模擬試題及答案詳解(各地真題)
- 會(huì)議活動(dòng)活動(dòng)策劃方案
- 植物營(yíng)養(yǎng)考研真題及答案
- 二襯打孔注漿施工方案
- 2025河南南陽(yáng)市消防救援支隊(duì)招聘政府專職消防員59人模擬試卷及答案詳解(易錯(cuò)題)
- 企業(yè)管理咨詢展會(huì)方案
- 山東高校面試真題及答案
- 答辯需要發(fā)言稿嗎
- 員工感恩企業(yè)的演講稿
- 電大刑法考試試題及答案
- 人教版九年級(jí)物理上-各單元綜合測(cè)試卷含答案共五套
- 有機(jī)場(chǎng)效應(yīng)晶體管
- 心臟病患者非心臟手術(shù)麻醉管理
- 網(wǎng)絡(luò)安全產(chǎn)品匯總介紹
- 高中日語(yǔ)學(xué)習(xí)宣講+課件
- 公路交通安全設(shè)施工高級(jí)工培訓(xùn)內(nèi)容
- GB/T 3141-1994工業(yè)液體潤(rùn)滑劑ISO粘度分類
- 癌癥病人三階梯止痛治療原則標(biāo)準(zhǔn)課件
- 顱腦損傷患者護(hù)理查房課件
- 少先隊(duì)大隊(duì)委候選人推薦表
- 重要環(huán)境污染物及環(huán)境疾病課件
評(píng)論
0/150
提交評(píng)論