人工智能模擬練習題與答案_第1頁
人工智能模擬練習題與答案_第2頁
人工智能模擬練習題與答案_第3頁
人工智能模擬練習題與答案_第4頁
人工智能模擬練習題與答案_第5頁
已閱讀5頁,還剩14頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

人工智能模擬練習題與答案1、基于()的搜索是使用最為廣泛的參數(shù)尋優(yōu)方法A、梯度B、維度C、縱向D、橫向答案:A2、“文檔”是待處理的數(shù)據(jù)對象,它由一組詞組成,這些詞在文檔中不計順序的額,例如一篇論文、一個網(wǎng)頁都可以看做一個文檔;這樣的表示方式稱為(___)?A、語句B、詞袋C、詞海D、詞塘答案:B3、從一個初始策略出發(fā),不斷迭代進行策略評估和改進,直到策略收斂、不再改變?yōu)橹?,這樣的作法稱為(___)A、策略迭代B、值迭代C、策略改進D、最優(yōu)值函數(shù)答案:A4、代碼arr3=np.array([[1,2,3],[4,5,6]]).transpose();print(arr3[1,1])的輸出結(jié)果是()?A、5B、4C、3D、$2答案:A5、知識圖譜中的實體統(tǒng)一主要的目的是?A、從文本中提取實體B、從實體間提取關(guān)系C、不同寫法的實體統(tǒng)一為一個實體D、明確代詞指向哪個實體答案:C6、人工智能的分類()A、AGN和AGIB、ANI和ANGC、ANG和AGID、ANI和AGI答案:D7、設(shè)X是隨機變量,且EX=DX,則X服從()分布A、二項B、泊松C、正態(tài)D、指數(shù)答案:B8、從產(chǎn)品形態(tài)看,以下()屬于數(shù)據(jù)產(chǎn)品中的知識類產(chǎn)品。A、規(guī)約數(shù)據(jù)B、摘錄C、規(guī)則庫D、數(shù)據(jù)業(yè)務(wù)化答案:C9、數(shù)據(jù)可視化技術(shù)可以將所有數(shù)據(jù)的特性通過()的方式展現(xiàn)出來A、文字B、圖C、表格D、樹答案:B10、根據(jù)numpy數(shù)組中ndim屬性的含義確定程序的輸出()。array=np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array.ndim)A、(3,4)B、2C、(4,3)D、$4答案:B11、貝葉斯網(wǎng)結(jié)構(gòu)有效地表達了屬性間的條件()A、獨立性B、一致性C、有效性D、相關(guān)性答案:A12、假設(shè)12個銷售價格記錄組已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,204,215使用如下每種方法將它們劃分成四個箱。等頻(等深)劃分時,15在第幾個箱子內(nèi)?A、第一個B、第二個C、第三個D、第四個答案:B13、在方差分析中,()反映的是樣本數(shù)據(jù)與其組平均值的差異。A、總離差B、組間誤差C、抽樣誤差D、組內(nèi)誤差答案:D14、下列極大似然估計描述錯誤的是(___)A、極大似然估計先假定其具有某種確定的概率分布形式;B、極大似然估計沒有確定的概率分布形式;C、概率模型的訓練過程就是參數(shù)估計;D、貝葉斯學派認為參數(shù)本身也有分布,是未觀察的隨機變量;答案:B15、NaveBayes(樸素貝葉斯)是一種特殊的Bayes分類器,特征變量是X,類別標簽是C,它的一個假定是()A、各類別的先驗概率PC是相等的B、以0為均值,sqr2/2為標準差的正態(tài)分布C、特征變量X的各個維度是類別條件獨立隨機變量D、PX|C是高斯分布答案:C16、話題模型的典型代表是(___)。A、貝葉斯模型B、拉普拉模型C、隱狄利克雷模型D、馬爾可夫模型答案:C17、某超市研究銷售紀錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B、聚類C、分類D、自然語言處理答案:A18、對于一個分類任務(wù),如果開始時神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機賦值的,而是都設(shè)成0,下面哪個敘述是正確的?A、其他選項都不對B、沒啥問題,神經(jīng)網(wǎng)絡(luò)會正常開始訓練C、神經(jīng)網(wǎng)絡(luò)可以訓練,但是所有的神經(jīng)元最后都會變成識別同樣的東西D、神經(jīng)網(wǎng)絡(luò)不會開始訓練,因為沒有梯度改變答案:C19、卷積的擴展方式是加():一個卷積核可以提取圖像的一種特征,多個卷積核提取多種特征。A、濾波器B、卷積層C、卷積核D、通道答案:C20、以下哪一個不屬于分類算法A、XGBoostB、RandomForestC、SVMD、Fp-Growth答案:D21、以下屬于生成式模型的是:()A、SVMB、隨機森林C、隱馬爾可夫模型HMMD、邏輯回歸答案:C22、感知機描述錯誤的是:(___)A、感知機根據(jù)正確的程度進行權(quán)重調(diào)整;B、輸入層接收外界輸入信號傳遞給輸出層;C、輸出層是M-P神經(jīng)元;D、感知機能容易實現(xiàn)邏輯與、或、非運算;答案:A23、一次數(shù)據(jù)清洗操作得到的僅僅是“中間數(shù)據(jù)”,而不一定是“干凈數(shù)據(jù)”。因此我們需要對這些可能含有“臟數(shù)據(jù)”的“中間數(shù)據(jù)”進行再次(),進而判斷是否需要再次清洗。A、轉(zhuǎn)換工作B、審計工作C、集成工作D、標注工作答案:B24、計算numpy中元素個數(shù)的方法()A、np.sqrtB、np.sizeC、np.identityD、np.sum答案:B25、下列關(guān)于XGboost算法描述中錯誤的是A、由于其特殊原因,無法分布式化B、xgboost在代價函數(shù)里加入了正則項,用于控制模型的復(fù)雜度;C、可以處理帶有缺失值的樣本D、允許使用列抽樣來減少過擬合答案:A26、目標檢測常用性能指標的是()A、信噪比B、平方誤差C、mAPD、分辨率答案:C27、一組數(shù)據(jù)的最大值與最小值之差叫做()。A、標準差B、極差C、方差D、極小值答案:B28、特征選擇是一個重要的()過程,在現(xiàn)實機器學習任務(wù)中,獲得數(shù)據(jù)之后通常先進行特征選擇,此后再訓練學習器。A、數(shù)據(jù)預(yù)處理B、數(shù)據(jù)清洗C、數(shù)據(jù)選擇D、數(shù)據(jù)分析答案:A29、在Matplotlib庫中,plt.savefig()將輸出圖形存儲為文件,默認為()格式,可以通過dpi修改輸出質(zhì)量。A、PNGB、JPEGC、JPGD、PS答案:A30、假如我們建立一個60000個特征,1000萬數(shù)據(jù)集的機器學習模型,我們怎么有效的應(yīng)對這樣的大規(guī)模數(shù)據(jù)的訓練A、對樣本進行抽樣,在經(jīng)過抽樣的樣本上訓練B、應(yīng)用PCA算法降維,減少特征數(shù)量C、根據(jù)重要性對特征進行篩選D、以上所有答案:D31、根據(jù)(),目前的集成學習方法大致可分為兩大類,即個體學習器間存在強依賴關(guān)系、必須串行生成的序列化方法,以及個體學習器間不存在強依賴關(guān)系、可同時生成的并行化方法。A、個體學習器的數(shù)量B、個體學習器的生成方式C、個體學習器的的類型D、個體學習器的的強弱答案:B32、人工智能的概念最早是由哪一位科學家提出來的A、約翰·麥卡錫B、圖林C、馮·諾依曼D、明斯基答案:A33、如果問題存在最優(yōu)解,則下面幾種搜索算法中,()可以認為在這幾種算法中是“智能程度相對比較高”的算法。A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索答案:D34、如何解釋下面的執(zhí)行結(jié)果?print1.2-1.0==0.2FalseA、Python的實現(xiàn)有錯誤B、浮點數(shù)無法精確表示C、布爾運算不能用于浮點數(shù)比較D、Python將非0數(shù)視為False答案:B35、循環(huán)神經(jīng)網(wǎng)在工業(yè)上最常用的兩種實現(xiàn)是:①.LSTM②.GRU③.CNN④.DNNA、①③B、①②C、①③D、①④答案:B36、在一個神經(jīng)網(wǎng)絡(luò)中,知道每一個神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個神經(jīng)的權(quán)重和偏移呢?()A、搜索每個可能的權(quán)重和偏差組合,直到得到最佳值B、賦予一個初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C、隨機賦值,聽天由命D、以上都不正確的答案:B37、()是一個主要用于繪制二維圖形的Python庫。用途:繪圖、可視化.A、numpyB、pandasC、MatplotlibD、PIL答案:C38、下列哪個函數(shù)不可以做非線性激活函數(shù)?()A、y=tanhxB、y=sinxC、y=maxx,0D、y=2x答案:D39、以下哪類算法是分類算法()。A、K-MeanB、DBSCANC、EMD、C4.5答案:D40、AI是()的英文縮寫。A、AutomaticIntelligenceB、ArtificalIntelligenceC、AutomaticeInformationD、ArtificalInformation答案:B41、fromsklearnimportlinear_modelreg=linear_model.Lasso,其中Lasso是用來擬合什么樣的線性模型的?A、稀疏數(shù)據(jù)B、稀疏系數(shù)C、稀疏標簽答案:B42、下列代碼運行結(jié)果是?a='a'printa>'b'or'c'A、aB、bC、cD、TRUE答案:C43、在自動定理證明研究方面在國際上有影響的我國知名科學家是:A、錢學森B、華羅庚C、宋健D、吳文俊答案:D44、以下關(guān)于Python循環(huán)結(jié)構(gòu)的描述中,錯誤的是()。A、while循環(huán)使用關(guān)鍵字continue結(jié)束本次循環(huán)B、while循環(huán)可以使用保留字break和continueC、while循環(huán)也叫遍歷循環(huán),用來遍歷序列中的元素,默認提取每個元素并執(zhí)行一次循環(huán)體D、while循環(huán)使用pass語句,則什么事也不做,只是空占位語句答案:C45、線性降維方法假設(shè)從高維空間到低維空間的函數(shù)映射是()。A、一元B、線性C、多元D、非線性答案:B46、在安裝Linux操作系統(tǒng)時,必須創(chuàng)建的兩個分區(qū)?A、/和/bootB、/和/swapC、/home和/usrD、/var和/trap答案:B47、用于終止某一進程執(zhí)行的命令是()A、endB、stopC、killD、free答案:C48、線性判別分析設(shè)法將樣例投影到(___)直線上,使得同類樣例的投影點盡可能(___)。A、一條;接近B、兩條;接近C、一條;遠離D、兩條;原理答案:A49、下列哪項關(guān)于模型能力的描述是正確的(指模型能近似復(fù)雜函數(shù)的能力)A、隱層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學習率增加,模型能力增加D、都不正確答案:A50、考慮值集{12243324556826},其四分位數(shù)極差是:()A、31B、24C、55D、$3答案:A51、下列哪種類型是Python的映射類型A、strB、listC、tupleD、dict答案:D52、下列哪項關(guān)于模型能力(modelcapacity)的描述是正確的?(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)A、隱藏層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學習率增加,模型能力增加D、都不正確答案:A53、列表a=[1,2,[3,4]],以下的運算結(jié)果為True的是()。A、lena==3B、lena==4C、lengtha==3D、lengtha==4答案:A54、在圖靈測試中,如果有超過()的測試者不能分清屏幕后的對話者是人還是機器,就可以說這臺計算機通過了測試并具備人工智能.A、30%B、40%C、50%D、60%答案:A55、K-Means算法無法聚以下哪種形狀的樣本A、圓形分布B、螺旋分布C、帶狀分布D、凸多邊形分布答案:B56、在Python中,函數(shù)()。A、不可以嵌套定義B、不可以嵌套調(diào)用C、不可以遞歸調(diào)用D、以上都不對答案:D57、()的輸入為對弈的線路或歷史記錄,而其輸出為目標函數(shù)的一系列訓練樣本。A、執(zhí)行器B、評價器C、泛化器D、實驗生成器答案:B58、根據(jù)機器智能水平由低到高,正確的是()A、計算智能、感知智能、認知智能B、計算智能、感應(yīng)智能、認知智能C、機器智能、感知智能、認知智能D、機器智能、感應(yīng)智能、認知智能答案:A59、在目標檢測中,以下能產(chǎn)生候選框的算法是()a)SelectiveSearchb)ROIpoolingc)RegionproposallayerA、b、cB、a、bC、aD、a、c答案:D60、ILP系統(tǒng)通常采用(___)的規(guī)則生成策略A、自底而上B、自頂而下C、自大而小D、自小而大答案:A61、()是一種單隱層前饋神經(jīng)網(wǎng)絡(luò),它使用徑向基函數(shù)作為隱層神經(jīng)元激活函數(shù),而輸出層則是對隱層神經(jīng)元輸出的線性組合A、SOM網(wǎng)絡(luò)B、RBF網(wǎng)絡(luò)C、ART網(wǎng)絡(luò)D、ELman網(wǎng)絡(luò)答案:B62、數(shù)據(jù)的存儲結(jié)構(gòu)分為兩種,它們是()A、線性存儲和數(shù)組存儲B、順序存儲和鏈式存儲C、線性存儲和樹型存儲D、數(shù)組存儲和指針存儲答案:B63、()的數(shù)目通常也被稱作卷積核的個數(shù)A、通道B、輸入通道C、輸入維度D、輸出通道答案:D64、2019年,DeepMind開發(fā)出一種()來近似計算薛定諤方程,在精度和準確性上都滿足科研標準,為深度學習在量子化學領(lǐng)域的發(fā)展奠定了基礎(chǔ),A、深度神經(jīng)網(wǎng)絡(luò)B、費米神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)答案:B65、以下關(guān)于Bagging(裝袋法)的說法不正確的是A、能提升機器學習算法的穩(wěn)定性和準確性,但難以避免overfittingB、Bagging(裝袋法)是一個統(tǒng)計重采樣的技術(shù),它的基礎(chǔ)是BootstrapC、主要通過有放回抽樣)來生成多個版本的預(yù)測分類器,然后把這些分類器進行組合D、進行重復(fù)的隨機采樣所獲得的樣本可以得到?jīng)]有或者含有較少的噪聲數(shù)據(jù)答案:A66、決策樹模型剛建立時,有很多分支都是根據(jù)訓練樣本集合中的異常數(shù)據(jù)(由于噪聲等原因)構(gòu)造出來的。樹枝修剪正是針對這類數(shù)據(jù)()問題而提出來的。A、近似B、相同C、不同D、差距答案:A67、下列哪項不是目前深度學習的必備技術(shù)?A、卷積可視化解釋B、反向傳播算法C、非線性激活函數(shù)D、深度神經(jīng)網(wǎng)絡(luò)答案:A68、下面的問題,哪一個屬于分類問題的是()A、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工下一季度的銷售額B、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工下一季度的績效考核分數(shù)C、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工在接下來一段時間內(nèi)的工資漲幅D、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測員工是否可能會在接下來的一段時間內(nèi)離職答案:D69、以下()不屬于廣義上的數(shù)據(jù)可視化技術(shù)。A、類別可視化B、科學可視化C、信息可視化D、可視分析學答案:A70、EM算法是()A、有監(jiān)督B、無監(jiān)督C、半監(jiān)督D、都不是答案:B71、FOIL是(___)的學習算法A、命題規(guī)則B、剪枝優(yōu)化C、一階規(guī)則D、序貫覆蓋答案:C72、()通過構(gòu)建并結(jié)合多個學習器來完成學習任務(wù),有時也被稱為多分類器系統(tǒng)(multi-classifiersystem)、基于委員會的學習(committee-basedlearning)等A、集成學習B、歸納學習C、分類學習D、整理學習答案:A73、定義bash環(huán)境的用戶文件是:A、bash&.bashrcB、bashrc&.bash_confC、bashrc&bash_profileD、bashrc&.bash_profile答案:D74、如果我使用數(shù)據(jù)集的全部特征并且能夠達到100%的準確率,但在測試集上僅能達到70%左右,這說明:()。A、欠擬合B、模型很棒C、過擬合答案:C75、語義網(wǎng)絡(luò)表達知識時,有向弧AKO鏈、ISA鏈表達節(jié)點知識的()A、無悖性B、可擴充性C、繼承性D、完整性答案:C76、下列哪部分不是專家系統(tǒng)的組成部分()。A、用戶B、綜合數(shù)據(jù)庫C、推理機D、知識庫答案:A77、哪個范數(shù)指向量中各個元素平方和的1/2次方A、p范數(shù)B、0范數(shù)C、1范數(shù)D、2范數(shù)答案:D78、函數(shù)f(x)=x^3-3x^2-9x+k在區(qū)間[-4,4]上的最大值為10,則其最小值為()A、-10B、-71C、-15答案:B79、根據(jù)機器智能水平由低到高,正確的排序是()。A、計算智能、感知智能、認知智能B、感知智能、認知智能、計算智能C、計算智能、認知智能、感知智能D、認知智能、計算智能、感知智能答案:A80、Boosting的本質(zhì)實際上是一個加法模型,通過改變訓練樣本()學習多個分類器并進行一些線性組合A、權(quán)重B、分布C、概率D、數(shù)量答案:A81、對比學習的核心訓練信號是圖片的“()”。A、可預(yù)見性B、可移植性C、可區(qū)分性D、可推理性答案:C82、搜索可以分為盲從搜索與A、啟發(fā)式搜索B、模糊搜索C、精確搜索D、關(guān)鍵詞搜索答案:A83、EM算法通過迭代求L(theta)=logP(Y|theta)的(),每次迭代交替進行求期望和求極大化。A、無偏估計B、極大似然估計C、區(qū)間估計D、有偏估計答案:B84、對零次數(shù)據(jù)進行初步加工,不包括()A、清洗B、變換C、集成D、脫敏答案:D85、下列貝葉斯描述錯誤的是A、貝葉斯是概率框架下實施決策的基本方法B、貝葉斯基于概率和誤判損失來選擇最優(yōu)的類別標記C、貝葉斯中期望損失定義為風險D、貝葉斯判定準則為最大化總體風險答案:D86、信息熵是度量樣本集合(___)最常用的一種指標。A、精確度B、準確率C、召回率D、純度答案:D87、嶺回歸和最小二乘法的算法復(fù)雜度是相同的。A、正確B、錯誤答案:A88、(A->B)∧A=>B是A、附加律B、拒收律C、假言推理D、US答案:C89、下列關(guān)于回歸分析中的殘差表述正確的是()A、殘差的平均值總為零B、殘差的平均值總小于零C、殘差的平均值總大于零D、殘差沒有此類規(guī)律答案:A90、概念分層圖是()圖A、無向無環(huán)B、有向無環(huán)C、有向有環(huán)D、無向有環(huán)答

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論