




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
PAGEPAGE12025年高級人工智能訓(xùn)練師(三級)理論考試題庫_含答案一、單選題1.()工具可以將Caffe/TensorFlow等模型轉(zhuǎn)化為華為NPU芯片支持的模型,供開發(fā)者直接使用。A、流程編排B、模型轉(zhuǎn)換C、圖引擎優(yōu)化D、算子開發(fā)答案:B2.優(yōu)化器的選擇可能受到模型()的影響。A、復(fù)雜度B、形狀C、色彩D、明亮度答案:A3.在團(tuán)結(jié)協(xié)作中,對他人提供幫助是一種()。A、負(fù)面行為B、積極貢獻(xiàn)C、無關(guān)緊要D、個體主義答案:B4.()填充缺失值費(fèi)時費(fèi)力,不適用數(shù)據(jù)集大的情況。A、人工B、回歸分析C、全局常量D、均值填充答案:A5.關(guān)于支持向量機(jī)算法,以下說法錯誤的是?()A、可以解決線性可分問題B、可以解決線性不可分問題C、不能解決線性不可分問題D、將樣本映射于高維空間答案:C6.()是人與計算機(jī)進(jìn)行信息交互的接口界面。A、WiFi接口B、插件接口C、人機(jī)交互接口D、數(shù)據(jù)庫接口答案:C7.敏感數(shù)據(jù)的()和去標(biāo)識化處理、系統(tǒng)抵抗黑客攻擊的能力等問題很突出。A、刪除B、脫敏C、強(qiáng)化D、拋棄答案:D8.以下選項(xiàng)中,常用于分詞的工具有()。A、jiebaB、gensimC、TF-IDFD、HMM答案:A9.當(dāng)事人訂立、履行合同,應(yīng)當(dāng)遵守()、行政法規(guī),尊重社會公德,不得擾亂社會經(jīng)濟(jì)秩序,損害社會公共利益。A、法律B、道德C、義務(wù)D、意志答案:A10.ResNet通過()來增加卷積層數(shù)學(xué)習(xí)更深層次的特征。A、利用多個不同的kernel_size的卷積核B、加入殘差塊C、正則化D、加入RNN答案:B11.分布式文件系統(tǒng)能夠方便不同用戶使用,這表現(xiàn)了系統(tǒng)的()。A、可擴(kuò)展性B、可靠性C、易用性D、高效性答案:C12.ASCII碼表中的特殊字符NUL表示()?A、承認(rèn)B、警告C、回車D、空白答案:D13.良好的文本標(biāo)注是項(xiàng)目成功的()。A、過程B、基礎(chǔ)C、結(jié)果D、無關(guān)因素答案:B14.()語音標(biāo)注中檢驗(yàn)每個的標(biāo)注是否與語音數(shù)據(jù)發(fā)音的時間軸保持一致。A、字B、字母C、詞語D、句子答案:A15.在Tensorflow2.0中,用于保存和加載模型權(quán)重的函數(shù)是()。A、tf.save_weightsB、tf.load_modelC、tf.save_modelD、tf.load_weights答案:C16.正則表達(dá)式一般進(jìn)行()操作,進(jìn)行文本匹配。A、圖片B、字符串C、視頻D、動畫答案:A17.關(guān)于LSTM與RNN說法正確的是()。A、RNN比LSTM能記住更長的上下文信息B、雙向的RNN比單向RNN更能捕捉上下文信息C、LSTM比RNN更容易發(fā)生梯度消失D、LSTM比RNN簡單,而且模型效果好答案:B18.進(jìn)行主成分分析要對數(shù)據(jù)進(jìn)行()。A、去中心化B、中心化C、集成化D、去集成化答案:B19.以下不能用于評估模型的是()。A、準(zhǔn)確率B、召回率C、漢明損失D、均值答案:D20.召回率(recall)的計算方法為()。A、(TP+TN)/(P+N)B、(FP+FN)/(P+N)C、TP/(TP+FP)D、TP/P答案:D21.文本語料的來源可能是()。A、報紙B、鼠標(biāo)C、鍵盤D、耳機(jī)答案:A22.數(shù)據(jù)清洗的目的是()。A、過濾或修改不符合要求的數(shù)據(jù)B、節(jié)省數(shù)據(jù)存儲空間C、提高數(shù)據(jù)使用效率D、去除內(nèi)容復(fù)雜的數(shù)據(jù)答案:C23.HSV中V表示()。A、色相B、飽和度C、亮度D、紅色答案:C24.()指的是在分布式數(shù)據(jù)庫能方便地通過水平或垂直擴(kuò)展提高系統(tǒng)的整體性能,且不需要改變系統(tǒng)程序。A、數(shù)據(jù)冗余性B、易擴(kuò)展性C、透明性D、自治性答案:B25.以下不屬于TensorFlow2.0中查看是否是tensor的方法的是()。A、is_tensorB、isinstanceC、deviceD、type答案:C26.PyTorch的主要特點(diǎn)之一是其()。A、高效率B、易學(xué)易用C、100%準(zhǔn)確D、低計算要求答案:B27.結(jié)巴分詞的安裝包括全自動安裝、()和手工安裝。A、半自動安裝B、電動安裝C、水力安裝D、機(jī)械安裝答案:A28.以下()不屬于linux系統(tǒng)。A、windowsB、centosC、ubuntuD、redhat答案:A29.反向傳播算法包含以下哪個階段?()A、部署上線B、權(quán)重更新C、初始化D、數(shù)據(jù)預(yù)處理答案:B30.對于臉部截斷或者戴口罩的人臉圖片,選擇()標(biāo)注,合理推斷每個點(diǎn)位。A、普遍性B、大多數(shù)C、隨機(jī)性D、推測性答案:D31.深度學(xué)習(xí)和機(jī)器學(xué)習(xí)算法說法正確的是()。A、機(jī)器學(xué)習(xí)就是深度學(xué)習(xí)B、機(jī)器學(xué)習(xí)包含深度學(xué)習(xí)C、深度學(xué)習(xí)包含了機(jī)器學(xué)習(xí)D、以上都是答案:B32.關(guān)于概率圖模型的描述,下列說法正確的是()。A、HMM屬于有向圖模型B、馬爾可夫網(wǎng)絡(luò)屬于有向圖模型C、貝葉斯網(wǎng)絡(luò)屬于無向圖模型D、CRF屬于有向圖模型答案:A33.模型中的正則化項(xiàng)用于()。A、提高模型復(fù)雜度B、降低模型復(fù)雜度C、增加數(shù)據(jù)維度D、減少數(shù)據(jù)維度答案:B34.()以下哪個是文本分類的步驟?A、圖片分類B、文本分類模型建立C、語義分割D、人臉識別答案:B35.以下屬于集成學(xué)習(xí)算法的是()。A、DecisiontreeB、LogisticC、BoostingD、SVM答案:C36.MoXing的主要功能是()。A、華為自研的深度學(xué)習(xí)工具庫B、華為自研的深度學(xué)習(xí)引擎C、TensorFlow等深度學(xué)習(xí)引擎的分布式訓(xùn)練加速框架、API接口的封裝和加速D、TensorFlow等深度學(xué)習(xí)引擎API接口的簡單封裝答案:C37.在昇騰芯片硬件架構(gòu)中,優(yōu)化的重點(diǎn)是提高()。A、訓(xùn)練速度B、推理性能C、存儲效率D、所有以上答案:B38.根據(jù)數(shù)據(jù)標(biāo)注對象不同,可以分為()標(biāo)注、語言標(biāo)注、圖像標(biāo)注和視頻標(biāo)注。A、文本B、地點(diǎn)C、圖形D、時間答案:A39.關(guān)于職業(yè)道德對企業(yè)發(fā)展的積極作用,你認(rèn)為正確的論述是()。A、職業(yè)道德是協(xié)調(diào)同事之間關(guān)系的法寶B、職業(yè)道德只能維系職工與領(lǐng)導(dǎo)之間的表面關(guān)系C、與物質(zhì)激勵相比,職業(yè)道德的作用較弱D、遵守職業(yè)道德有助于提高服務(wù)水平,但對提高產(chǎn)品質(zhì)量的作用不明顯答案:A40.()是數(shù)據(jù)的基本單位。A、數(shù)據(jù)項(xiàng)B、集合C、數(shù)組D、組合項(xiàng)答案:B41.集成學(xué)習(xí)中的Voting方法是基于()進(jìn)行的。A、平均B、投票C、加權(quán)求和D、選擇最優(yōu)模型答案:B42.圖像類標(biāo)注任務(wù)的數(shù)據(jù)結(jié)果為帶有()的信息?A、格式B、特征C、標(biāo)簽D、數(shù)量答案:C43.以下關(guān)于圖像濾波說法不正確的是()。A、圖像處理中濾波將信號中特定的波段頻率濾除,從而保留所需要的波段頻率信號。B、中值濾波器將鄰域內(nèi)像素排序后的中位數(shù)值輸出以代替原像素值。它能實(shí)現(xiàn)降噪,但無法保留了原始圖像的銳度。C、圖像濾波分為線性濾波和非線性濾波D、圖像濾波是圖像預(yù)處理的主要流程之一,在盡量保留圖像細(xì)節(jié)特征的條件下對目標(biāo)圖像的噪聲進(jìn)行抑制。答案:B44.下列哪一個不是語音預(yù)處理的操作?()A、預(yù)加重B、分幀C、加窗D、加權(quán)答案:B45.linux中ps-f命令中表示“進(jìn)程ID”信息的是()。A、UIDB、PIDC、PPIDD、CMD答案:B46.下面屬于多媒體素材編輯軟件的是()。A、電腦管家B、數(shù)據(jù)庫軟件C、文件管理D、視頻編輯工具答案:D47.深度學(xué)習(xí)中常見的優(yōu)化算法包括()。A、支持向量機(jī)B、AdaBoostC、遺傳算法D、梯度下降答案:D48.()是由人和計算機(jī)共同組成的一個系統(tǒng)。A、蘋果系統(tǒng)B、人機(jī)協(xié)同系統(tǒng)C、操作系統(tǒng)D、鴻蒙系統(tǒng)答案:B49.手部的21個關(guān)鍵點(diǎn)包括()、各指尖以及各指節(jié)骨連接處。A、腳腕B、手腕C、腳尖D、腳踝答案:B50.MindSpore框架提供了豐富的()功能,適用于不同應(yīng)用場景。A、部署B(yǎng)、訓(xùn)練C、推理D、所有以上答案:D51.優(yōu)化器的學(xué)習(xí)率是一個()參數(shù)。A、固定的B、動態(tài)的C、隨機(jī)的D、不相關(guān)的答案:B52.分布式存儲系統(tǒng)的可伸縮性指的是其能夠()。A、限制存儲容量B、支持大規(guī)模擴(kuò)展C、降低帶寬需求D、簡化管理任務(wù)答案:B53.在最優(yōu)策略求解中,動態(tài)規(guī)劃和貪婪算法的主要區(qū)別在于()。A、時間復(fù)雜度B、是否考慮全局最優(yōu)解C、是否適用于連續(xù)問題D、是否適用于離散問題答案:B54.Python中,文本數(shù)據(jù)是使用()。A、intB、floatC、stringD、ouble答案:C55.模型的準(zhǔn)確度是指模型在()方面的表現(xiàn)。A、數(shù)據(jù)規(guī)模B、特定任務(wù)C、時間復(fù)雜度D、空間復(fù)雜度答案:B56.下列不屬于HMM模型問題的是()。A、解碼B、學(xué)習(xí)C、評估D、測試答案:D57.HSV中V取值范圍為()。A、0-360B、0-1C、0-180D、-2答案:B58.linux中l(wèi)s是什么操作。()A、以最基本的形式顯示當(dāng)前目錄下的文件和目錄B、切換目錄C、修改D、查詢答案:A59.以下哪個是常用的損失函數(shù)()?A、ReLUB、SoftmaxC、交叉熵D、感知器答案:C60.計算機(jī)病毒是編制者在計算機(jī)()中插入的破壞計算機(jī)功能或者數(shù)據(jù)的代碼。A、程序B、文件C、系統(tǒng)D、網(wǎng)絡(luò)答案:A61.在模型中使用正則化項(xiàng)的目的是()。A、提高模型復(fù)雜度B、防止過擬合C、增加數(shù)據(jù)維度D、減少數(shù)據(jù)噪聲答案:B62.人臉3D朝向工具涉及的()、輔助調(diào)整的操作很多。A、更新B、旋轉(zhuǎn)C、裁剪D、刪除答案:B63.TPOT是賓夕法尼亞大學(xué)遺傳算法實(shí)驗(yàn)室開發(fā)的一個()框架。A、蘋果系統(tǒng)B、鴻蒙系統(tǒng)C、自動機(jī)器學(xué)習(xí)D、元學(xué)習(xí)答案:C64.要解決數(shù)據(jù)的()、敏感數(shù)據(jù)的脫敏和去標(biāo)識化處理等問題。A、標(biāo)注B、來源合法性C、清洗D、收集答案:D65.模型的有效性通常通過()來評估。A、復(fù)雜度B、準(zhǔn)確度C、速度D、精確度答案:B66.()中的人身權(quán)是與智力活動成果創(chuàng)造人的人身不可分離的專屬權(quán)。A、知識產(chǎn)權(quán)B、私有產(chǎn)權(quán)C、勞動產(chǎn)權(quán)D、共有產(chǎn)權(quán)答案:A67.以下不是大數(shù)據(jù)存儲需要注意的是()。A、延時B、數(shù)據(jù)吞吐速度C、能源的消耗D、存儲模型設(shè)計答案:C68.CART算法選擇()作為屬性選擇標(biāo)準(zhǔn)。A、信息增益B、信息增益率C、基尼系數(shù)D、經(jīng)驗(yàn)答案:C69.()為使用者提供一個分配、流轉(zhuǎn)和協(xié)作處理問題的工作平臺。A、產(chǎn)品開發(fā)工具B、信息交流工具C、問題管理工具D、備忘錄工具答案:C70.以下不是特征選擇方法的是()。A、伸縮聚類B、過濾法C、遞歸消除法D、嵌入法答案:A71.KNN的K值選擇方法不包括()。A、取訓(xùn)練集中樣本總數(shù)的平方根B、根據(jù)驗(yàn)證集,通過交叉驗(yàn)證確定K值C、基于經(jīng)驗(yàn)D、設(shè)為樣本總個數(shù)答案:D72.以下屬于人臉識別步驟的是()。A、文本標(biāo)注B、語音標(biāo)注C、視頻標(biāo)注D、人臉表情分類答案:D73.下面屬于數(shù)據(jù)預(yù)處理的是()。A、數(shù)據(jù)缺失值處理B、文本分析C、分類預(yù)測D、模式識別答案:A74.當(dāng)事人應(yīng)當(dāng)()公平原則確定各方的權(quán)利和義務(wù)。A、遵循B、學(xué)習(xí)C、效仿D、違背答案:A75.強(qiáng)化學(xué)習(xí)中,獎勵信號的作用是()。A、懲罰智能體B、提供學(xué)習(xí)方向C、限制動作空間D、減小探索率答案:B76.以下哪個選項(xiàng)不屬于自然語言處理技術(shù)的三個層面()。A、詞法分析B、句法分析C、語音分析D、語義分析答案:C77.linux中more是什么操作。()A、查看文本內(nèi)容B、切換目錄C、修改D、查詢答案:A78.手勢識別可以被視為()理解人體語言的方式,從而在機(jī)器和人之間搭建比原始文本用戶界面或甚至圖形用戶界面更豐富的橋梁。A、計算機(jī)B、機(jī)械C、動物D、機(jī)器人答案:A79.神經(jīng)網(wǎng)絡(luò)深度過深容易出現(xiàn)()問題。A、梯度消失B、梯度爆炸C、模型欠擬合D、訓(xùn)練數(shù)據(jù)丟失答案:A80.假如你在訓(xùn)練一個線性回歸模型,有下面兩句話:1.如果數(shù)據(jù)量較少,容易發(fā)生過擬合。2.如果假設(shè)空間較小,容易發(fā)生過擬合。關(guān)于這兩句話,下列說法正確的是()。A、1和2都錯誤B、1正確,2錯誤C、1錯誤,2正確D、1和2都正確答案:B81.以下不屬于愛崗敬業(yè)的表現(xiàn)的是()。A、樹立理想B、強(qiáng)化責(zé)任C、提高技能D、玩忽職守答案:D82.在梯度下降算法中,有各種不同的改進(jìn)版本。在面向?qū)ο蟮恼Z言實(shí)現(xiàn)中,往往把不同的梯度下降算法封裝成一個對象,稱為()。A、迭代器B、裝飾器C、優(yōu)化器D、加速器答案:C83.ModelArts目前支持的預(yù)置模型不包括()。A、圖像分類B、物體檢測C、基因測序D、圖像分割答案:C84.以下根據(jù)鄰近值決定其類別的監(jiān)督算法是()。A、knnB、kmeansC、SVMD、決策樹答案:A85.人工神經(jīng)網(wǎng)絡(luò)包括輸入層、()和輸出層。A、卷積層B、池化層C、隱藏層D、Softmax層答案:C86.以下?lián)p失函數(shù)可以用于回歸任務(wù)的是()。A、Hinge損失函數(shù)B、L2損失函數(shù)(MSE:均方誤差)C、0-1損失函數(shù)D、交叉熵?fù)p失函數(shù)答案:B87.最基本的超參數(shù)優(yōu)化算法之一是()。A、鴻蒙系統(tǒng)B、網(wǎng)格搜索C、蘋果系統(tǒng)D、安卓系統(tǒng)答案:B88.()用于較復(fù)雜和耗時的數(shù)據(jù)分析和處理,一般通常構(gòu)建在云計算平臺之上。A、機(jī)械挖掘B、離線數(shù)據(jù)分析C、手動挖掘D、物理挖掘答案:B89.()數(shù)據(jù)標(biāo)注中,負(fù)責(zé)標(biāo)記數(shù)據(jù)的是哪個角色?A、標(biāo)注員B、審核員C、管理員D、檢查員答案:A90.在()境內(nèi)的企業(yè)、個體經(jīng)濟(jì)組織(以下統(tǒng)稱用人單位)和與之形成勞動關(guān)系的勞動者,適用《中華人民共和國勞動法》。A、中國B、美國C、俄羅斯D、法國答案:A91.以下哪個不是華為一站式AI開發(fā)平臺ModelArts目前支持的預(yù)置模型?()A、基因測序B、物體檢測C、圖像分類D、圖像分割答案:A92.以下哪個不是深度學(xué)習(xí)的優(yōu)化器?()A、MomentumB、AdaboostC、AdagradD、Adam答案:B93.在算法的特點(diǎn)中,復(fù)雜性通常與算法的()相關(guān)。A、時間復(fù)雜度B、空間復(fù)雜度C、算法優(yōu)勢D、數(shù)據(jù)規(guī)模答案:A94.()泛指將收集到的原始信息按照一定程序和方法進(jìn)行處理。A、食品加工B、流程加工C、信息加工D、機(jī)械加工答案:C95.Tensorflow2.0中的KerasSequential模型適用于()。A、多輸入多輸出模型B、復(fù)雜的非線性拓?fù)浣Y(jié)構(gòu)C、簡單的線性堆疊模型D、循環(huán)神經(jīng)網(wǎng)絡(luò)答案:C96.()通過在文本文件最后一行后放置文件來指明文件的結(jié)束。A、截止標(biāo)志B、開始標(biāo)志C、結(jié)束標(biāo)志D、轉(zhuǎn)折標(biāo)志答案:A97.以下不屬于常見的強(qiáng)化學(xué)習(xí)應(yīng)用場景的是()。A、商品推薦系統(tǒng)B、新聞推薦系統(tǒng)C、人臉識別D、圍棋游戲答案:C98.下面屬于數(shù)據(jù)預(yù)處理過程的是()。A、數(shù)據(jù)挖掘B、模型構(gòu)建C、數(shù)據(jù)清理D、回歸預(yù)測答案:B99.團(tuán)結(jié)協(xié)作能夠提高團(tuán)隊的()。A、競爭性B、創(chuàng)造力C、分歧D、緊張氛圍答案:B100.以下哪個屬于機(jī)器學(xué)習(xí)的主要分類任務(wù)?()A、圖像生成B、文本分類C、語音合成D、數(shù)據(jù)聚類答案:B101.正則化在深度學(xué)習(xí)中可以通過以下哪種方式實(shí)現(xiàn)?()A、減小學(xué)習(xí)率B、DropoutC、增加網(wǎng)絡(luò)深度D、使用梯度下降答案:B102.文件系統(tǒng)的作用是()。A、處理圖形處理B、硬件管理C、存儲管理D、網(wǎng)絡(luò)管理答案:C103.以下不屬于訓(xùn)練詞向量的算法的是()。A、Word2VecB、FasttextC、GloveD、Negativesling答案:D104.下面屬于定序等級的數(shù)據(jù)的是()。A、成績等級B、血型C、工作種類D、人名答案:A105.隱馬爾科夫鏈解碼問題使用的經(jīng)典算法是()。A、EM算法B、前向算法C、Viterbi算法D、后向算法答案:C106.最優(yōu)策略求解中,回溯算法常用于解決()問題。A、最短路徑B、圖像處理C、搜索D、數(shù)據(jù)挖掘答案:C107.ModelArts預(yù)置模型的本質(zhì)是()。A、強(qiáng)化學(xué)習(xí)B、GANC、遷移學(xué)習(xí)D、增強(qiáng)學(xué)習(xí)答案:C108.在多媒體應(yīng)用中,音頻信號處理常用于()。A、圖像分析B、語音識別C、視頻編碼D、文本處理答案:B109.大部分?jǐn)?shù)據(jù)文件以()格式存儲。A、二進(jìn)制B、八進(jìn)制C、十進(jìn)制D、十六進(jìn)制答案:A110.()公民、法人或者非法人單位的作品,不論是否發(fā)表,依照《中華人民共和國知識產(chǎn)權(quán)法》享有著作權(quán)。A、中國B、日本C、法國D、德國答案:A111.以下哪種神經(jīng)網(wǎng)絡(luò)解決了網(wǎng)絡(luò)退化問題?()A、CNNB、RNNC、FasterR-CNND、ResNet答案:D112.TensorFlow2.0不支持以下哪個運(yùn)算符()。A、//B、C、powD、^答案:D113.linux中mkdir是()操作。A、顯示文件最后幾行內(nèi)容B、創(chuàng)建目錄C、修改D、查詢答案:B114.團(tuán)結(jié)協(xié)作在解決復(fù)雜問題時的作用類似于()。A、放棄B、單打獨(dú)斗C、求助他人D、逃避責(zé)任答案:C115.通常使用以下哪個模型對強(qiáng)化學(xué)習(xí)問題建模?()A、隱馬爾科夫模型B、高斯混合模型C、動態(tài)規(guī)劃D、馬爾科夫決策過程答案:D116.計算機(jī)病毒具有()特點(diǎn),通常是指在其它正常程序或數(shù)據(jù)中寄生。A、隱蔽性B、寄生性C、可觸發(fā)性D、傳染性答案:B117.算法的特點(diǎn)通常包括()。A、易實(shí)現(xiàn)B、高效率C、無偏差D、100%準(zhǔn)確答案:B118.最優(yōu)策略求解中,貪婪算法的特點(diǎn)是()。A、綜合考慮長遠(yuǎn)利益B、只考慮當(dāng)前局部最優(yōu)解C、適用于所有問題D、不受時間復(fù)雜度限制答案:B119.循環(huán)神經(jīng)網(wǎng)絡(luò)中的隱藏層具有記憶功能,可以()過去的信息。A、重構(gòu)B、保留C、遺忘D、替換答案:C120.CNN用參數(shù)相同的kernel去掃描整副圖像。實(shí)現(xiàn)了同一圖像在不同位置、不同角度的旋轉(zhuǎn)、不同大小、不同光照等條件下,都會被識別為同一物體,這一特點(diǎn)體現(xiàn)了CNN哪方面的核心思想()。A、局部感知B、全局共享C、尺度不變D、降維答案:B121.GAN屬于以下哪種神經(jīng)網(wǎng)絡(luò)()。A、反饋神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、生成對抗網(wǎng)絡(luò)答案:D122.分布式文件系統(tǒng)有相應(yīng)的容錯機(jī)制,這表現(xiàn)了系統(tǒng)的()。A、可擴(kuò)展性B、可靠性C、易用性D、高效性答案:B123.()在下列節(jié)日期間應(yīng)當(dāng)依法安排勞動者休假。A、情人節(jié)B、父親節(jié)C、母親節(jié)D、清明節(jié)答案:D124.下面在神經(jīng)網(wǎng)絡(luò)中引入了非線性的是()。A、隨機(jī)梯度下降B、ReLUC、卷積函數(shù)D、以上都不正確答案:B125.字詞的重要性隨著它在文件出現(xiàn)的次數(shù)()。A、反比下降B、正比增加C、保持不變D、無法評價答案:B126.單鏈表中,我們對于每個節(jié)點(diǎn)除了需要定義數(shù)據(jù)之外還必須定義()。A、鏈表的終止符B、鏈表的頭節(jié)點(diǎn)C、鏈表的指針域D、鏈表的尺寸答案:C127.在AI服務(wù)中,語音識別的主要應(yīng)用場景包括()。A、語音助手B、語音翻譯C、語音搜索D、所有以上答案:D128.優(yōu)化器的選擇對模型的訓(xùn)練過程和結(jié)果有著重要的()。A、影響B(tài)、作用C、需求D、必要性答案:A129.linux中head操作默認(rèn)顯示()行。A、10B、5C、20D、2答案:A130.MindSpore框架支持的硬件加速是()。A、CUDAB、OpenCLC、AscendD、ROCm答案:C131.()下列哪一項(xiàng)是在數(shù)據(jù)庫選取硬件配置時不是主要的考慮因素。A、硬件的品牌B、日常訪問用戶數(shù)量C、高峰期每個用戶的訪問頻率D、系統(tǒng)冗余比例答案:A132.昇騰芯片硬件架構(gòu)的性能特點(diǎn)使其適用于()。A、移動設(shè)備B、云計算C、嵌入式系統(tǒng)D、所有以上答案:D133.將人的推理能力和智力不斷向人工智能系統(tǒng)遷移和放大,這是一個()的過程。A、一般遷移B、常見遷移C、普通遷移D、智能遷移答案:D134.文本情感分類是()對于文本中表達(dá)的情感進(jìn)行分類的計算。A、計算機(jī)B、控制器C、翻譯器D、分析器答案:A135.計算機(jī)病毒的自我復(fù)制是指()。A、病毒能夠自動修復(fù)文件B、病毒傳播到新的文件或系統(tǒng)C、病毒自動刪除文件D、病毒能夠修改文件屬性答案:B136.在圖像識別流程設(shè)計中,什么是數(shù)據(jù)預(yù)處理的作用?()A、增加數(shù)據(jù)噪聲B、提高模型復(fù)雜度C、改善數(shù)據(jù)質(zhì)量D、減小數(shù)據(jù)規(guī)模答案:C137.關(guān)于孤立詞識別說法錯誤的是()。A、孤立詞識別需要提前指定候選詞集B、孤立詞識別輸入的是一個詞的語音文件C、孤立詞識別的難度大于連續(xù)詞識別D、孤立詞識別常用的算法是HMM-GMM答案:C138.在Tensorflow2.0中,用于保存整個模型的函數(shù)是()。A、tf.save_modelB、tf.saveC、tf.save_graphD、tf.export_model答案:A139.自主無人系統(tǒng)的()是一種智能控制器。A、風(fēng)扇B、控制器C、內(nèi)存D、磁盤答案:A140.正則化在深度學(xué)習(xí)中的主要目的是()。A、提高模型復(fù)雜度B、減小模型容量C、避免過擬合D、加速訓(xùn)練過程答案:C141.中文分詞主要針對()。A、英文B、法文C、德文D、中文答案:D142.在強(qiáng)化學(xué)習(xí)中,貝爾曼方程用于()。A、衡量動作的價值B、預(yù)測狀態(tài)轉(zhuǎn)移概率C、限制智能體的行為D、計算累積獎勵答案:D143.Atlas人工智能計算平臺支持哪些AI服務(wù)?()A、人臉識別B、語音合成C、自然語言處理D、所有以上答案:D144.訓(xùn)練CNN時,可以對圖像進(jìn)行平移、縮放等預(yù)處理來提高模型()能力。A、模仿B、適應(yīng)C、泛化D、編碼答案:C145.()是基于自然選擇理論的宏啟發(fā)式算法。A、加法B、減法C、遺傳算法D、乘法答案:C146.昇騰芯片軟件架構(gòu)的設(shè)計理念注重()。A、開放性B、封閉性C、單一性D、所有以上答案:A147.以下選項(xiàng)不屬于華為云EI自然語言處理服務(wù)提供的意圖理解API所支持的領(lǐng)域的是()。A、運(yùn)動類B、天氣類C、新聞類D、鬧鐘類答案:A148.關(guān)于詞向量用One-hot編碼方式的描述,不正確的是()。A、容易產(chǎn)生維度災(zāi)難B、每個詞都處于同等的重要程度C、實(shí)現(xiàn)了文本向量化D、語義相近的詞,其詞向量距離也越近答案:D149.文件的操作類別中,復(fù)制文件屬于()。A、創(chuàng)建B、修改C、移動D、刪除答案:A150.在隱馬爾科夫問題中,通過觀測數(shù)據(jù)推斷模型參數(shù)的問題屬于()問題。A、學(xué)習(xí)B、評價C、解碼D、編碼答案:A151.()是受生物免疫系統(tǒng)啟發(fā)而推出的智能搜索算法。A、加法B、減法C、乘法D、免疫算法答案:D152.機(jī)器學(xué)習(xí)中的樸素貝葉斯算法主要用于()。A、分類B、回歸C、聚類D、強(qiáng)化學(xué)習(xí)答案:A153.下列屬于正則化的有()。A、dropoutB、SigmoidC、tanhD、LeakyReLU答案:A154.機(jī)器學(xué)習(xí)中的決策樹算法可用于()。A、聚類B、分類C、回歸D、降維答案:B155.()是指發(fā)現(xiàn)并糾正數(shù)據(jù)文件中可識別的錯誤的一道程序。A、刪除B、數(shù)據(jù)清洗C、查詢D、增加答案:B156.文件的操作類別中,查找文件屬于()。A、創(chuàng)建B、修改C、移動D、刪除答案:D157.以下算法不可以用于文本分類的是()。A、樸素貝葉斯B、奇異值分解C、卷積神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)答案:B158.在深度學(xué)習(xí)中,激活函數(shù)用于()。A、增強(qiáng)模型的表達(dá)能力B、減小模型的復(fù)雜度C、優(yōu)化模型參數(shù)D、數(shù)據(jù)標(biāo)準(zhǔn)化答案:A159.深度學(xué)習(xí)開發(fā)中,常用的優(yōu)化器包括()。A、SGDB、RMSpropC、AdamD、所有選項(xiàng)都正確答案:D160.文件的操作應(yīng)用中,重命名文件通常用于()。A、創(chuàng)建新文件B、修改文件內(nèi)容C、更改文件名稱D、刪除文件答案:C161.以下不屬于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的是()。A、CNNB、RNNC、LogisticD、LSTM答案:C162.以下哪個任務(wù)屬于多媒體應(yīng)用中的圖像處理?()A、語音合成B、圖像分割C、文本分類D、數(shù)據(jù)聚類答案:B163.循環(huán)神經(jīng)網(wǎng)絡(luò)中的時間步表示模型對輸入數(shù)據(jù)的()。A、順序關(guān)系B、隨機(jī)性C、特征提取D、變化答案:A164.下列是Linux系統(tǒng)的優(yōu)點(diǎn)的是()。A、時效性B、一致性C、安全性好D、波動性強(qiáng)答案:C165.MindSpore框架中的計算圖構(gòu)建方式是()。A、靜態(tài)圖B、動態(tài)圖C、靜態(tài)動態(tài)都支持D、無法確定答案:B166.以下()是降維算法。A、PCAB、網(wǎng)格搜索C、LassoD、k-means答案:A167.服務(wù)器進(jìn)行軟件升級時應(yīng)該()。A、最小化影響范圍及人群B、采用最快的升級策略C、采用工作量最小的升級策略D、隨意選取時間段進(jìn)行升級答案:A168.ModelArts自動學(xué)習(xí)服務(wù)可以使用戶零代碼實(shí)現(xiàn)的不包含以下哪一項(xiàng)()。A、數(shù)據(jù)標(biāo)注B、模型訓(xùn)練C、部署上線D、數(shù)據(jù)分離答案:D169.基于區(qū)域建議的算法,也被歸納為Two-Stage算法,該類算法進(jìn)行目標(biāo)檢測時分兩步,首先進(jìn)行候選區(qū)域提取,再進(jìn)行最終的分類和定位。以下不屬于Two-Stage算法的是()。A、R-CNNB、FastR-CNNC、FasterR-CNND、SSD答案:D170.()是一種近似逼近的方法,屬于基于序列模型優(yōu)化的算法。A、界面優(yōu)化B、顯示優(yōu)化C、貝葉斯優(yōu)化D、聲音優(yōu)化答案:C171.數(shù)據(jù)分類的基本原則不包括()。A、穩(wěn)定性B、綜合實(shí)用性C、兼容性D、隨機(jī)性答案:D172.GRU屬于以下哪種神經(jīng)網(wǎng)絡(luò)()。A、前饋神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、生成對抗網(wǎng)絡(luò)答案:C173.專家系統(tǒng)的知識表示通常采用()。A、數(shù)據(jù)庫存儲B、圖形處理C、人工規(guī)則D、隨機(jī)算法答案:C174.下列關(guān)于表格型數(shù)據(jù)處理說法不正確的是()。A、Pandas以及Numpy提供多種數(shù)據(jù)類型以及相應(yīng)處理方法。B、Sklearn中機(jī)器學(xué)習(xí)方法一般直接將模型訓(xùn)練在整個數(shù)據(jù)集上。C、進(jìn)行表格型數(shù)據(jù)之前一般要進(jìn)行很長時間的預(yù)處理。D、對于分類回歸聚類等不同的數(shù)據(jù)挖掘方法,將有不同的模型評估指標(biāo)答案:B175.以下不屬于系統(tǒng)維護(hù)內(nèi)容的是()。A、系統(tǒng)應(yīng)用程序維護(hù)B、數(shù)據(jù)維護(hù)C、代碼維護(hù)D、數(shù)備查詢答案:A176.以下不屬于語音信號特征提取的方法的是()。A、LPCB、MFCCC、LPCCD、LPCCC答案:D177.詞頻統(tǒng)計可以統(tǒng)計單詞的次數(shù)和()。A、詞性B、筆畫C、出現(xiàn)頻率D、大小答案:C178.()以下哪個操作屬于數(shù)據(jù)增強(qiáng)?A、數(shù)據(jù)標(biāo)準(zhǔn)化B、分類C、聚類D、有監(jiān)督學(xué)習(xí)答案:A179.linux中rmdir是()操作。A、顯示文件最后幾行內(nèi)容B、刪除目錄C、修改D、查詢答案:B180.數(shù)據(jù)處理中的異常值處理常采用的方法是()。A、刪除包含異常值的樣本B、用中位數(shù)替代異常值C、使用均值平滑異常值D、忽略異常值答案:A181.模型中的參數(shù)調(diào)優(yōu)通常使用的方法是()。A、交叉驗(yàn)證B、特征選擇C、數(shù)據(jù)標(biāo)準(zhǔn)化D、集成學(xué)習(xí)答案:A182.下面是機(jī)器學(xué)習(xí)的應(yīng)用領(lǐng)域的是()。A、物理領(lǐng)域B、建筑學(xué)分析C、力學(xué)分析D、模式識別答案:D183.linux中cd是什么操作。()A、新建B、切換目錄C、修改D、查詢答案:B184.下列哪個工具不屬于文本處理工具()。A、NotePadB、NotdPad++C、Wise開放標(biāo)注平臺D、畫圖答案:D185.深度學(xué)習(xí)中的權(quán)重共享是指()。A、不同層之間共享權(quán)重B、不同模型之間共享權(quán)重C、不同任務(wù)之間共享權(quán)重D、不同樣本之間共享權(quán)重答案:C186.以下不屬于常用容災(zāi)技術(shù)中網(wǎng)絡(luò)層鏡像的優(yōu)點(diǎn)的是()。A、屏蔽主從站點(diǎn)之間的存儲陣列的異構(gòu)性B、對鏡像卷的處理能力要求低C、降低本地數(shù)據(jù)保護(hù)的成本D、鏡像卷能提供連續(xù)的數(shù)據(jù)訪問答案:D187.可以通過()清洗網(wǎng)頁數(shù)據(jù),匹配有效的數(shù)據(jù)。A、正則表達(dá)式B、文本編輯C、圖片裁剪D、網(wǎng)頁裁剪答案:C188.下面是結(jié)巴分詞的功能的是()。A、數(shù)據(jù)挖掘B、表格分析C、詞性標(biāo)注D、圖片剪輯答案:C189.根據(jù)數(shù)據(jù)標(biāo)注對象不同,可以分為文本標(biāo)注、語言標(biāo)注、()標(biāo)注和視頻標(biāo)注。A、時間B、圖像C、地點(diǎn)D、工程師答案:B190.公司服務(wù)器每天會產(chǎn)生大量數(shù)據(jù),為能方便保存并在需要時快速調(diào)取記錄,需要進(jìn)行()。A、文檔管理B、日志管理C、問題管理D、變更管理答案:B191.分類算法預(yù)測的標(biāo)簽是()。A、離散型B、連續(xù)型C、自變型D、因變型答案:A192.隱馬爾科夫鏈解碼問題常常使用的算法是()。A、前向后向算法B、前向算法C、維特比算法D、后向算法答案:C193.如果一個前饋神經(jīng)網(wǎng)絡(luò)具有線性輸出層和至少一層隱藏層,只要給予網(wǎng)絡(luò)足夠數(shù)量的神經(jīng)元,便可以實(shí)現(xiàn)以足夠高精度來逼近任意一個在n維實(shí)數(shù)空間的緊子集上的連續(xù)函數(shù)。這個定理是()。A、萬能函數(shù)定理B、萬能逼近定理C、萬能網(wǎng)絡(luò)定理D、萬能連續(xù)定理答案:B194.一般說,Numpy-Matplotlib-Pandas是數(shù)據(jù)分析和展示的一條學(xué)習(xí)路徑,以下對這三個庫不正確的說明是()。A、Pandas僅支持一維和二維數(shù)據(jù)分析,多維數(shù)據(jù)分析要用NumpyB、Matplotlib支持多種數(shù)據(jù)展示,使用Pyplot子庫即可C、Numpy底層采用C實(shí)現(xiàn),因此,運(yùn)行速度很快D、Pandas也包含一些數(shù)據(jù)展示函數(shù),可不用Matplotlib答案:A195.算法分類的應(yīng)用可以幫助選擇適用于不同任務(wù)的()。A、硬件設(shè)備B、編程語言C、算法模型D、操作系統(tǒng)答案:C196.數(shù)據(jù)處理是數(shù)據(jù)挖掘之前必不可少的()。A、最終目的B、最低目標(biāo)C、理想目標(biāo)D、準(zhǔn)備工作答案:D197.以下哪個是用于回歸問題的常見損失函數(shù)()?A、交叉熵B、均方誤差C、SoftmaxD、Sigmoid答案:B198.()需要對文本內(nèi)容進(jìn)行文字識別和標(biāo)注。A、圖像標(biāo)注B、語言標(biāo)注C、視頻標(biāo)注D、文本標(biāo)注答案:D199.主成分分析屬于()。A、有監(jiān)督學(xué)習(xí)B、半監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、無監(jiān)督學(xué)習(xí)答案:D200.linux中l(wèi)n是什么操作。()A、給文件或目錄創(chuàng)建連接B、切換目錄C、修改D、查詢答案:A201.關(guān)于智能體的策略描述正確的是()。A、策略是指在給定環(huán)境下智能體的期望回報B、策略是指在給定環(huán)境下智能體的動作概率分布C、策略越隨機(jī)越好D、對于已給給定的環(huán)境最優(yōu)策略只有一個答案:B202.將word文檔轉(zhuǎn)換成pdf格式可能會出現(xiàn)()問題。A、文字準(zhǔn)確B、段落分明C、文字亂碼D、結(jié)構(gòu)清晰答案:C203.小批量梯度下降中的小批量體現(xiàn)在()。A、每次參數(shù)迭代時都使用從數(shù)據(jù)集抽出一部分進(jìn)行訓(xùn)練B、每次參數(shù)迭代時都使用從特征中抽出一部分進(jìn)行訓(xùn)練C、每次參數(shù)迭代時都使用從誤差中抽出一部分進(jìn)行訓(xùn)練D、每次參數(shù)迭代時都使用從超參數(shù)中抽出一部分進(jìn)行訓(xùn)練答案:A204.下面哪些數(shù)據(jù)可以需要進(jìn)行處理()。A、正確的數(shù)據(jù)B、可信的數(shù)據(jù)C、缺失值數(shù)據(jù)D、有效的數(shù)據(jù)答案:C205.以下哪個選項(xiàng)不屬于自然語言處理技術(shù)的三個層面?()A、詞法分析B、句法分析C、語音分析D、語義分析答案:C206.下列關(guān)于Word2vec的說法不正確的是()。A、不易產(chǎn)生維度災(zāi)難B、語義相近的詞,其詞向量距離也越近C、訓(xùn)練完之后,每個詞的詞向量可以根據(jù)上下文進(jìn)行動態(tài)調(diào)整D、實(shí)現(xiàn)了文本向量化答案:C207.根據(jù)數(shù)據(jù)標(biāo)注()不同,可以分為文本標(biāo)注、語言標(biāo)注、圖像標(biāo)注和視頻標(biāo)注。A、時間B、地點(diǎn)C、標(biāo)注師D、對象答案:D208.Atlas人工智能計算平臺主要用于()。A、數(shù)據(jù)挖掘B、圖像識別C、語音識別D、文本分析答案:B209.以下不屬于邏輯服務(wù)器的是()。A、數(shù)據(jù)庫系統(tǒng)B、網(wǎng)頁,客戶端C、文件存儲系統(tǒng)D、數(shù)據(jù)交換系統(tǒng)答案:B210.Sigmoid激活函數(shù)的輸出范圍是()。A、0到1B、-1到1C、任意實(shí)數(shù)D、0到正無窮答案:A211.以下不屬于模型的超參數(shù)的是()。A、池化層中的步長B、神經(jīng)網(wǎng)絡(luò)的權(quán)重C、學(xué)習(xí)率D、卷積層中卷積核的大小答案:B212.文本情感分析研究涵蓋了包括自然語言處理、()挖掘、信息檢索、信息抽取、機(jī)器學(xué)習(xí)和本體學(xué)等多個領(lǐng)域。A、信息B、數(shù)字C、文本D、語句答案:A213.以下哪項(xiàng)是數(shù)據(jù)交付的步驟()。A、特征規(guī)約B、郵件通知C、樣本集成D、屬性構(gòu)造答案:B214.()是分析網(wǎng)頁數(shù)據(jù)之前的重要步驟。A、數(shù)據(jù)分類B、數(shù)據(jù)分析C、數(shù)據(jù)挖掘D、清洗數(shù)據(jù)答案:D215.下面關(guān)于Series和DataFrame的理解,哪個是不正確的?()A、DataFrame表示帶索引的二維數(shù)據(jù)B、Series和DataFrame之間不能進(jìn)行運(yùn)算C、Series表示帶索引的一維數(shù)據(jù)D、可以像對待單一數(shù)據(jù)一樣對待Series和DataFrame對象答案:B216.()標(biāo)注需要對文本內(nèi)容進(jìn)行文字識別和標(biāo)注。A、文本B、語言C、視頻D、圖像答案:A217.統(tǒng)計一個詞在不同文件中的出現(xiàn)次數(shù)的變化趨勢可以用()展示。A、箱線圖B、草圖C、餅圖D、折線圖答案:D218.在數(shù)據(jù)處理中,One-Hot編碼常用于處理()。A、連續(xù)型數(shù)據(jù)B、缺失值C、文本數(shù)據(jù)D、分類變量答案:D219.linux中tail操作默認(rèn)顯示()行。A、10B、5C、20D、2答案:A220.要搜索“口味蝦的做法”,可以用()。A、瀏覽器B、電腦管家C、畫圖軟件D、辦公軟件答案:A221.HMM可以做的所有事情,CRF()。A、都能做B、都不能做C、部分能做D、以上都不是答案:A222.計算機(jī)病毒的防范措施包括()。A、定期更新操作系統(tǒng)和防病毒軟件B、隨意點(diǎn)擊未知鏈接C、共享病毒樣本D、不使用防火墻答案:A223.數(shù)據(jù)采集和()行業(yè)的鏈條長。A、標(biāo)注B、清洗C、刪除D、收集答案:A224.()語音類型的數(shù)據(jù)結(jié)果包含哪些內(nèi)容?A、標(biāo)簽信息B、特征C、數(shù)量D、圖片答案:A225.AI服務(wù)中的自然語言處理任務(wù)涵蓋了哪些方面?()A、文本分類B、文本生成C、語音識別D、所有以上答案:D226.分布式存儲的特點(diǎn)不包括()。A、可擴(kuò)展B、高性能C、高容錯D、高成本答案:D227.ModelArts訓(xùn)練作業(yè)支持用戶自定義算法,用戶的代碼()上傳。A、通過云硬盤上傳B、通過OBS上傳C、通過網(wǎng)絡(luò)存儲服務(wù)上傳D、通過網(wǎng)頁上傳答案:B228.線性回歸模型的預(yù)測結(jié)果是()。A、離散值B、分類標(biāo)簽C、連續(xù)值D、類別概率答案:C229.常用的數(shù)據(jù)類型是()。A、數(shù)值型B、機(jī)械硬盤C、固態(tài)硬盤D、字節(jié)答案:D230.以下關(guān)于sklearn說法錯誤的是()。A、fit(x,y):傳入數(shù)據(jù)以及標(biāo)簽即可訓(xùn)練模型。但是每個方法訓(xùn)練的時間和參數(shù)設(shè)置,數(shù)據(jù)集大小以及數(shù)據(jù)本身的特點(diǎn)有關(guān)B、sklearn中包含了大量的優(yōu)質(zhì)的數(shù)據(jù)集,在你學(xué)習(xí)機(jī)器學(xué)習(xí)的過程中,你可以通過使用這些數(shù)據(jù)集C、sklearn提供多種數(shù)據(jù)預(yù)處理方法如數(shù)據(jù)歸一化以及正則化D、通常我們經(jīng)常會把訓(xùn)練數(shù)據(jù)集進(jìn)一步拆分成訓(xùn)練集和驗(yàn)證集,這個劃分比例是規(guī)定的答案:D231.以下不屬于隱馬爾科夫模型的三大問題的是()。A、學(xué)習(xí)B、解碼C、預(yù)測D、確定隱藏狀態(tài)集合答案:D232.模型的有效性評估可以包括對其在不同數(shù)據(jù)集上的()。A、泛化能力B、精度C、訓(xùn)練速度D、參數(shù)數(shù)量答案:A233.深度學(xué)習(xí)中常用的損失函數(shù)MSE代表()。A、MaximumB、MeanC、MinimumD、Median答案:B234.專家系統(tǒng)的推理引擎負(fù)責(zé)()。A、數(shù)據(jù)挖掘B、邏輯推理C、文件系統(tǒng)設(shè)計D、并行計算答案:B235.ID3算法選擇()作為屬性選擇標(biāo)準(zhǔn)。A、信息增益B、信息增益率C、基尼系數(shù)D、經(jīng)驗(yàn)答案:A236.計算機(jī)存儲單位中,1KB等于多少字節(jié)()?A、1024B、1000C、1048D、1002答案:A237.下面屬于數(shù)據(jù)清洗的是()。A、物理分析B、文本分析C、刪除缺失值D、化學(xué)分析答案:C238.損失函數(shù)在神經(jīng)網(wǎng)絡(luò)中的重要性主要體現(xiàn)在()。A、加速數(shù)據(jù)輸入B、提高計算速度C、評估模型性能D、增加層的數(shù)量答案:C239.多層次智能不包括()。A、感知智能B、分布智能C、思維智能D、行為智能答案:C240.下列哪一個是家用智能設(shè)備()。A、桶裝水B、鉛筆C、電吹風(fēng)D、自動掃地機(jī)器人答案:D241.集成學(xué)習(xí)中的Bagging方法主要用于()。A、特征選擇B、數(shù)據(jù)降維C、模型集成D、參數(shù)優(yōu)化答案:C242.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是()。A、BaggingB、oostingC、StackingD、Marking答案:D243.下面是python的數(shù)據(jù)類型的是()。A、整型B、表格C、指針D、文檔答案:A244.()需要想數(shù)據(jù)標(biāo)注公司明確表達(dá)自己的需求。A、數(shù)據(jù)標(biāo)注員B、需求公司C、網(wǎng)絡(luò)工程師D、程序員答案:B245.根據(jù)其判斷,如果一個項(xiàng)目有可能失敗,或者費(fèi)用過高,違反知識產(chǎn)權(quán)法規(guī),或者存在問題,應(yīng)()。A、忽略無視B、隱瞞不報C、及時上報D、虛假上報答案:C246.計算機(jī)存儲單位中,硬盤容量一般以()表示。A、GBB、MBC、TBD、KB答案:C247.MindSpore框架的開發(fā)環(huán)境可以支持()。A、PythonB、JavaC、++D、所有以上答案:A248.定類等級的數(shù)據(jù)只按()分類。A、數(shù)據(jù)大小B、文件大小C、句子長度D、類別名稱答案:A249.在算法的特點(diǎn)中,高效率通常指的是算法在()方面的表現(xiàn)。A、時間和空間B、算法復(fù)雜度C、模型準(zhǔn)確度D、數(shù)據(jù)規(guī)模答案:A250.以下選項(xiàng)不屬于語音聲學(xué)特征的是()。A、語義B、頻率C、時長D、振幅答案:A251.圖像分類網(wǎng)絡(luò)中常用的網(wǎng)絡(luò)不包括()。A、VGGB、RNNC、ResNetD、SENet答案:B252.語音識別的難點(diǎn)是()。A、地域性差異B、場景性差異C、個體性差異D、以上都是答案:D253.計算機(jī)存儲單位中,最小的存儲單元是()。A、字節(jié)B、位C、千字節(jié)D、兆字節(jié)答案:B254.將數(shù)據(jù)分散存儲在多臺獨(dú)立的設(shè)備上屬于()。A、分布式存儲B、集中存儲C、存儲備份D、結(jié)構(gòu)化存儲答案:A255.用戶通過ModelArts的AI市場分享的內(nèi)容不包括()。A、模型B、數(shù)據(jù)集C、API應(yīng)用D、代碼答案:D256.需求公司是數(shù)據(jù)標(biāo)注規(guī)則的()。A、終結(jié)者B、橋梁C、起始者D、定制者答案:A257.運(yùn)用()方法最大限度地減少對用戶反饋信息的詢問次數(shù)。A、被動學(xué)習(xí)B、主動學(xué)習(xí)C、物理學(xué)習(xí)D、簡單學(xué)習(xí)答案:B258.LSTM屬于以下哪種神經(jīng)網(wǎng)絡(luò)()。A、前饋神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、生成對抗網(wǎng)絡(luò)答案:C259.在計算機(jī)硬件技術(shù)指標(biāo)中,度量存儲空間大小的基本單位是()。A、字B、二進(jìn)位C、字節(jié)D、雙字答案:C260.()是指數(shù)據(jù)記錄的信息是否存在異?;蝈e誤。A、完整性B、一致性C、準(zhǔn)確性D、及時性答案:C261.卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)包括卷積層,()和全連接層。A、隱藏層B、輸出層C、池化層D、輸入層答案:C262.下列說法中,符合雇員交流時語言規(guī)范的是()。A、多說俏皮話B、語速要快C、充滿幽默感D、用尊稱,不用忌語答案:D263.ModelArts數(shù)據(jù)管理中的數(shù)據(jù)集來源不包括()。A、從OBS上傳本地文件創(chuàng)建B、從ModelArts市場導(dǎo)入C、數(shù)據(jù)標(biāo)注好之后發(fā)布成數(shù)據(jù)集D、從網(wǎng)頁上傳本地文件創(chuàng)建答案:D264.()指的是個節(jié)點(diǎn)上的數(shù)據(jù)由本地數(shù)據(jù)庫管理系統(tǒng)自治管理。A、數(shù)據(jù)冗余性B、易擴(kuò)展性C、透明性D、自治性答案:D265.在循環(huán)神經(jīng)網(wǎng)絡(luò)中,長短時記憶網(wǎng)絡(luò)(LSTM)是一種用于解決()問題的結(jié)構(gòu)。A、圖像處理B、自然語言處理C、語音識別D、所有以上答案:D266.Tensorflow2.0中用于模型訓(xùn)練的主要循環(huán)函數(shù)是()。A、tf.train_loopB、tf.fitC、tf.trainingD、tf.train答案:B267.神經(jīng)網(wǎng)絡(luò)中的反向傳播算法用于()。A、訓(xùn)練模型B、特征選擇C、數(shù)據(jù)預(yù)處理D、可視化數(shù)據(jù)答案:A268.Atlas人工智能計算平臺提供的計算資源主要用于()。A、計算機(jī)視覺B、自然語言處理C、機(jī)器學(xué)習(xí)D、所有以上答案:D269.數(shù)據(jù)合并的目的是()。A、處理異常數(shù)據(jù)B、將有關(guān)聯(lián)的數(shù)據(jù)放在同一表中C、對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化D、對數(shù)據(jù)進(jìn)行離散化答案:B270.深度學(xué)習(xí)中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)常用于()。A、自然語言處理B、圖像識別C、強(qiáng)化學(xué)習(xí)D、聚類分析答案:B271.模型中的學(xué)習(xí)率是用于()。A、控制模型復(fù)雜度B、加速訓(xùn)練過程C、調(diào)整參數(shù)權(quán)重D、防止過擬合答案:C272.查看文件內(nèi)容的命令不包括()。A、catB、echoC、moreD、less答案:B273.TensorFlow2默認(rèn)的即時執(zhí)行模式(EagerExecution)帶來了靈活及易調(diào)試的特性,但在特定的場合,例如追求高性能或部署模型時,我們依然希望使用TensorFlow1.X中默認(rèn)的圖執(zhí)行模式(GraphExecution),以下哪個選項(xiàng)可以將TensorFlow的執(zhí)行模式轉(zhuǎn)換成圖執(zhí)行模式?()A、tf.sessionB、tf.function修飾符C、tf.trainD、tf.convert_to_tensor答案:B274.下列不屬于智能系統(tǒng)業(yè)務(wù)的是()。A、推薦系統(tǒng)B、智能識別C、網(wǎng)絡(luò)游戲D、智能問答答案:A275.Tensorflow2.0中的KerasAPI用于()。A、創(chuàng)建神經(jīng)網(wǎng)絡(luò)模型B、數(shù)據(jù)預(yù)處理C、損失函數(shù)計算D、所有選項(xiàng)都正確答案:D276.循環(huán)神經(jīng)網(wǎng)絡(luò)中的短時記憶效應(yīng)有助于處理數(shù)據(jù)中的()關(guān)系。A、長期B、時序C、靜態(tài)D、時域答案:B277.在數(shù)據(jù)處理中,缺失值處理常采用的方法是()。A、刪除包含缺失值的樣本B、用均值填充缺失值C、使用中位數(shù)替代缺失值D、忽略缺失值答案:B278.()技術(shù)的發(fā)展一直與計算機(jī)技術(shù)、信息論、語言學(xué)等學(xué)科的發(fā)展緊密相隨。A、翻譯B、數(shù)字C、識別D、智能答案:A279.數(shù)據(jù)是組成數(shù)據(jù)庫的基本單元,構(gòu)建高質(zhì)量的數(shù)據(jù)庫,必須對原始數(shù)據(jù)進(jìn)行()。A、數(shù)據(jù)刪除B、數(shù)據(jù)查詢C、數(shù)據(jù)修改D、數(shù)據(jù)優(yōu)化答案:D280.在強(qiáng)化學(xué)習(xí)中,環(huán)境模型的作用是()。A、衡量動作的價值B、預(yù)測狀態(tài)轉(zhuǎn)移概率C、限制智能體的行為D、提供獎勵信號答案:B281.在神經(jīng)網(wǎng)絡(luò)中,隱藏層的目的是()。A、直接與輸入層交互B、提取特征和模式C、輸出預(yù)測結(jié)果D、存儲數(shù)據(jù)答案:B282.分布式存儲的特點(diǎn)主要包括()。A、高可靠性B、單點(diǎn)故障C、低帶寬需求D、中心化管理答案:A283.數(shù)據(jù)分布自適應(yīng)是一類最常用的()方法。A、單位B、數(shù)據(jù)C、元素D、遷移學(xué)習(xí)答案:D284.將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個步驟的任務(wù)?()A、頻繁挖掘B、分類和預(yù)測C、數(shù)據(jù)預(yù)處理D、數(shù)據(jù)流挖掘答案:C285.CNN用參數(shù)相同的kernel去掃描整副圖像。實(shí)現(xiàn)了同一圖像在不同位置、不同角度的旋轉(zhuǎn)、不同大小、不同光照等條件下,都會被識別為同一物體,這一特點(diǎn)體現(xiàn)了CNN哪方面的核心思想?()A、局部感知B、全局共享C、尺度不變D、降維答案:B286.下面關(guān)于數(shù)字圖像量化等級的描述,錯誤的是()。A、量化等級越高,圖像層次越豐富B、量化等級越高,圖像灰度分辨率越低C、量化等級越高,圖像質(zhì)量越好D、量化等級越高,圖像數(shù)據(jù)量越大答案:B287.團(tuán)結(jié)協(xié)作可以幫助團(tuán)隊更好地()。A、避免挑戰(zhàn)B、應(yīng)對挑戰(zhàn)C、忽視挑戰(zhàn)D、降低目標(biāo)答案:B288.優(yōu)化器的學(xué)習(xí)率設(shè)置對訓(xùn)練過程中的()具有重要影響。A、收斂速度B、訓(xùn)練集大小C、隨機(jī)性D、參數(shù)數(shù)量答案:A多選題1.決策樹的構(gòu)建過程一般包含以下哪些選項(xiàng)?A、特征選擇B、聚類C、剪枝D、決策樹生成E、停止條件答案:ACDE2.問診機(jī)器人可能涉及以下哪些技術(shù)A、語音識別B、圖像識別C、專家系統(tǒng)D、知識圖譜E、遙感衛(wèi)星圖像分析答案:ACD3.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是:A、L1正則化B、L2正則化C、DropoutD、動量優(yōu)化器E、tanh答案:ABC4.發(fā)展出圖像識別成功率超越人類的人工智能的主要因素有A、計算力的提升B、大量數(shù)據(jù)驅(qū)動C、社會關(guān)注度提升D、人類專家規(guī)則的完善E、機(jī)器智能已超越人類答案:AB5.以下關(guān)于模型中參數(shù)與超參數(shù)的描述中,哪些選項(xiàng)是正確的?A、模型超參數(shù)通常由實(shí)踐者直接指定B、模型超參數(shù)只能通過人工直接設(shè)定C、模型超參數(shù)通常根據(jù)給定的預(yù)測建模問題而調(diào)整D、模型超參數(shù)通常可以使用啟發(fā)式方法來設(shè)置E、超參數(shù)只能通過窮舉搜索找到最佳值答案:ACD6.在深度學(xué)習(xí)中,遇到數(shù)據(jù)不平衡問題時,我們可以用以下哪些方法進(jìn)行解決?A、批量刪除B、隨機(jī)過采樣C、合成采樣D、隨機(jī)欠采樣E、增加更多不平衡數(shù)據(jù)答案:BCD7.以下關(guān)于Relu激活函數(shù)缺點(diǎn)的描述,正確的是哪些項(xiàng)?A、有神經(jīng)元死亡的現(xiàn)像B、轉(zhuǎn)折點(diǎn)定義的曲面也是有“棱角”的,在某些回歸問題中,顯得不夠平滑C、在0處不可導(dǎo),強(qiáng)行定義了導(dǎo)數(shù)D、無上界,訓(xùn)煉相對發(fā)散E、ReLU激活函數(shù)無法改善梯度消失問題答案:ABCD8.在深度學(xué)習(xí)中,以下哪些是常用的正則項(xiàng)?A、L1B、TanhC、ReluD、l2E、Sigmoid答案:AD9.Python可以應(yīng)用以下那些領(lǐng)域A、網(wǎng)站開發(fā)B、人工智能C、APPD、數(shù)據(jù)科學(xué)E、軟件開發(fā)答案:ABCDE10.在隨機(jī)森林中,最終的集成模型是通過過什么策略決定模型結(jié)果的?A、累加制B、求平均數(shù)C、投票制D、累乘制E、累除制答案:BC11.數(shù)字圖像處理一般要完成的任務(wù)有A、圖像增強(qiáng)B、圖像變換C、圖像獲取D、圖像識別E、圖像打印答案:ABCD12.設(shè)計一個自己的股票交易機(jī)器人需要做到A、提出假設(shè)B、建立模型C、回測驗(yàn)證D、執(zhí)行交易E、穿越時空答案:ABCD13.人工智能發(fā)展的驅(qū)動力包括A、大數(shù)據(jù)B、傳感器C、腦科學(xué)D、超級計算E、算法答案:ABCDE14.基因遺傳算法的組成部分包括A、初始化編碼B、適應(yīng)度函數(shù)C、選擇D、交叉和變異E、基因編輯答案:ABCD15.以下關(guān)于隨機(jī)梯度下降和小批量梯度下降的描述,正確的是哪些項(xiàng)?A、隨機(jī)樣度下降的不穩(wěn)定性可以幫助模型在收斂中跳過一些局部極值點(diǎn)B、小批量梯度下降相比于隨機(jī)梯度下降更容易受到噪聲數(shù)據(jù)的影響C、隨機(jī)梯度下降的一種實(shí)現(xiàn)是在線學(xué)習(xí)(OnlineLearning),它根據(jù)每一個樣例來更新梯度D、小批量梯度下降的思想是每次使用一小批固定尺寸(BatchSize)的樣例來更新權(quán)值E、隨機(jī)梯度下降每次迭代都會計算整個數(shù)據(jù)集的梯度答案:ACD16.顯示不完整的處理方法,下列說法正確的是A、不予處理B、不管清不清晰全部框選屬性+噪聲C、只顯示一點(diǎn)點(diǎn)看不到題號、作答區(qū)、插圖的,框選+噪聲D、可以看清題型的(題型屬性+噪聲),能看到的題號、作答區(qū),插圖都要框起來E、不做處理答案:CD17.ASR在中文領(lǐng)域有很大的難度,主要原因是A、中文博大精深B、方言眾多C、目前ASR技術(shù)不成熟D、數(shù)據(jù)量不夠E、缺乏高質(zhì)量的麥克風(fēng)答案:AB18.以下關(guān)于標(biāo)準(zhǔn)RNN的描述正確的是哪幾項(xiàng)?A、標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)路存在褲度爆炸和棉度消失問題。B、標(biāo)準(zhǔn)RNN結(jié)構(gòu)解決了信息記憶的問題但是對長時間記憶的信息會衰減C、度消失梯度爆炸都與路徑長度太長有關(guān),前面的權(quán)重都基本固定不變沒有訓(xùn)練效果D、標(biāo)準(zhǔn)RNN是一種死板的邏,越晚的輸入影響越大越早的輸入影響越小,且無法改變這個邏輯E、標(biāo)準(zhǔn)RNN不會遇到任何梯度問題答案:ABCD19.下面有關(guān)AI應(yīng)用領(lǐng)域的描述正確的有哪些選項(xiàng)?A、智慧醫(yī)療運(yùn)用了計算機(jī)視覺數(shù)據(jù)控掘等AI技術(shù)B、智慧城市,是一門綜合學(xué)科,幾乎涵蓋AI常用三大方向,語音、NLP和計算機(jī)視覺C、智慧教育,基本特征是開放、共享、交互、協(xié)作、泛在。以教育信息化促進(jìn)教育現(xiàn)代化用信息技術(shù)改變傳統(tǒng)模式D、智能家居,運(yùn)用了物聯(lián)網(wǎng)、語音識別等技術(shù)E、人臉識別運(yùn)用了自然語言處理技術(shù)答案:ABCD20.智能眼鏡可以看到對方說話內(nèi)容的字幕,這個需要用的什么技術(shù)A、TTSB、ASRC、機(jī)器翻譯D、語音數(shù)據(jù)采集與標(biāo)注E、TTRS答案:BCD21.從技術(shù)角度看,人工智能的挑戰(zhàn)包括A、能否保證人工智能的應(yīng)用開發(fā)被用于正確的目標(biāo)B、智能系統(tǒng)開發(fā)時存在嚴(yán)重的缺陷,會產(chǎn)生不可預(yù)測的后果C、人工智能的強(qiáng)大能力產(chǎn)生的負(fù)面效果可能是緩慢而大規(guī)模的D、人工智能設(shè)計者在制作機(jī)器人時,會將自己的想法加入到機(jī)器人的思維系統(tǒng)中E、需求不足答案:ABD22.拉框標(biāo)注通常用于自動駕駛應(yīng)用中的A、行人標(biāo)注B、交通燈識別C、車道線標(biāo)注D、汽車識別E、標(biāo)志牌識別答案:ABDE23.人工智能歷經(jīng)兩波浪潮,此次人工智能風(fēng)潮再度崛起是因?yàn)?)A、大量數(shù)據(jù)變得可得B、CPU計算能力的提升C、GPU計算能力的提升D、深度學(xué)習(xí)的發(fā)展E、人類決策能力的大幅提升答案:ACD24.下列屬于數(shù)據(jù)采集渠道的是A、直接購買或共享行業(yè)數(shù)據(jù)B、網(wǎng)絡(luò)數(shù)據(jù)采集C、自行采集D、第三方合作委托采集E、編造數(shù)據(jù)答案:ABCD25.下列哪項(xiàng)屬于自然智能A、植物B、動物C、細(xì)菌D、機(jī)器E、玩具答案:ABC26.在神經(jīng)網(wǎng)絡(luò)中常有權(quán)重共享現(xiàn)象,以下哪些神經(jīng)網(wǎng)絡(luò)會發(fā)生權(quán)重現(xiàn)象A、感知器B、卷積神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)E、徑向基神經(jīng)網(wǎng)絡(luò)答案:BD27.以下哪些選項(xiàng)是CNN網(wǎng)絡(luò)結(jié)構(gòu)?A、InceptionB、ertC、AlexNetD、VGGE、RNN答案:CD28.人工智能包括哪些要素?A、算法B、場景C、算力D、數(shù)據(jù)E、人工答案:ABCD29.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),下列哪些說法是正確的A、在卷積神經(jīng)網(wǎng)絡(luò)格中,池化層只能選擇最大池化,而不慍選其他放大B、卷積運(yùn)算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一些低級的特征如邊緣、線條和角,更多層的網(wǎng)絡(luò)能從低級特征中迭代提取更復(fù)雜的特征C、全連接層把所有局部特征結(jié)合變成全局特征用來計算最后每一類的得分D、卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層由若干卷積單元組成,每個卷積單元的參數(shù)都是通過反向傳播算法優(yōu)化得到的E、卷積層的參數(shù)數(shù)量總是比全連接層多,導(dǎo)致計算成本更高。答案:BCD30.下面哪些用卷積神經(jīng)網(wǎng)絡(luò)處理效果比較好A、人臉識別B、手寫數(shù)字識別C、自然語言處理D、機(jī)器翻譯E、圖像分類答案:ABE31.以下關(guān)于ReLU激活函數(shù)優(yōu)點(diǎn)的描述,正確的是哪些項(xiàng)?A、有神經(jīng)元死亡的現(xiàn)像B、計算簡單C、輯出有界訓(xùn)練不易發(fā)散D、有效緩解了度消失的問題E、ReLU函數(shù)可以確保所有神經(jīng)元輸出始終為正值,有利于正向傳播答案:ABD32.以下關(guān)于小批量梯度下降算法描述中,正確的是哪幾項(xiàng)?A、MBGD兼顧了對率和核度的穩(wěn)定性,容易沖過局部極值,是實(shí)際工作中最常用的梯度下降算法B、MBGD每次使用一個批次的樣本進(jìn)行更新,因此速度也非常慢在實(shí)際場景中不被接受C、MBGD每次使用小批固定尺寸的樣例來更新權(quán)值D、MBGD中的BatchSize是一個超參數(shù),可由人為設(shè)定E、每次迭代所使用的訓(xùn)練樣本數(shù)不固定,與整個訓(xùn)練集的樣本數(shù)量有關(guān)答案:ACD33.處理實(shí)際問題時以下什么情況下該使用機(jī)器學(xué)習(xí)?A、數(shù)據(jù)分布本身隨時間變化,需要程序不停的重新適應(yīng),比如預(yù)測商品銷售的趨勢B、規(guī)則復(fù)雜程度低且問題的規(guī)模較小的問題C、任務(wù)的規(guī)則會隨時間的改變,比如生產(chǎn)線上的瑕疵檢測D、規(guī)則十分復(fù)雜或者無法描述,比如人臉識別和語音識別E、規(guī)則簡單且明確的問題答案:ACD34.以下關(guān)于解決問題方法的描述中,哪些選項(xiàng)是正確的?A、人工規(guī)則適用于解決問題規(guī)模小,規(guī)則復(fù)雜度高的問題B、機(jī)器學(xué)習(xí)算法適用于解決問題規(guī)模大,規(guī)則復(fù)雜度高的問題C、基于規(guī)則的算法適用于問題規(guī)模大,規(guī)則復(fù)雜度低的問題D、問題規(guī)模大,規(guī)則復(fù)雜度低的問題屬于簡單問題E、規(guī)則復(fù)雜度高低與問題規(guī)模無關(guān)答案:ABC35.機(jī)器學(xué)習(xí)的主要應(yīng)用領(lǐng)域包括?A、圖像識別B、認(rèn)知模擬C、規(guī)劃問題求解D、數(shù)據(jù)挖掘E、分類答案:ABCDE36.以下屬于Tensorflow2.0的特性的是?A、支持更多平臺和語言B、引入keras接口C、繼續(xù)兼容tensorflow1,X的相關(guān)模塊D、支持靜態(tài)圖機(jī)制E、完全不支持動態(tài)圖計算答案:ABCD37.以下哪些選項(xiàng)可以創(chuàng)建全零常量Tensor?A、tf.zeros()B、tf.zeros_like()C、tf.zeros_array()D、_list()E、tf.ones()答案:AB38.智能制造系統(tǒng)有那些方面構(gòu)成A、智能制造B、智能產(chǎn)品C、智能生產(chǎn)D、智能服務(wù)E、智能管理答案:ABCDE39.基因知識圖譜具備以下哪幾種能力?A、輔助病例診斷B、疾病預(yù)測及診斷C、基因檢測報告生成D、實(shí)體查詢E、基因編輯答案:ACD40.下列選項(xiàng)中屬于感知技術(shù)的是A、機(jī)器學(xué)習(xí)技術(shù)B、計算實(shí)施技術(shù)C、語音識別技術(shù)D、機(jī)器視覺E、壓力感應(yīng)答案:CDE41.常見的臟數(shù)據(jù)的類型有哪些?A、格式錯誤的值B、重復(fù)值C、邏輯錯誤的值D、缺失值E、平均值答案:ABCD42.神經(jīng)網(wǎng)絡(luò)起源很早,但真正被大規(guī)模商用還是在本世紀(jì),你覺得阻礙神經(jīng)網(wǎng)絡(luò)在上世紀(jì)發(fā)展的主要原因是什么A、理論沒有發(fā)展起來B、科學(xué)界不重視C、計算能力跟不上D、標(biāo)注數(shù)據(jù)不足E、編程語言限制答案:CD43.只有更完善的基礎(chǔ)數(shù)據(jù)服務(wù)產(chǎn)業(yè),才是AI技術(shù)能更好發(fā)展的基石。關(guān)于數(shù)據(jù),下列哪些選項(xiàng)是正確的?A、更安全的數(shù)據(jù)共享是AI技術(shù)更好的發(fā)展基石之一B、消除數(shù)據(jù)孤島現(xiàn)象是對AI技術(shù)拓展很重要C、數(shù)據(jù)質(zhì)量對AI的發(fā)展沒那么重要,保證數(shù)據(jù)量龐大就夠了D、數(shù)據(jù)消除壁壘對AI技術(shù)發(fā)展很重要E、數(shù)據(jù)不需要標(biāo)準(zhǔn)化處理也能直接用于所有AI模型答案:ABCD44.以下關(guān)于GPU特征的描述,正確的是哪些選項(xiàng)?A、大量緩存降低時延基于大吞葉量設(shè)計痘長邏輯控制B、基于大吞葉量設(shè)計C、擅長邏輯控制D、擅長計算密集和易于并行的程序E、GPU在執(zhí)行串行任務(wù)時效率高于CPU答案:ACD45.伴隨著人工智能技術(shù)的發(fā)展,出現(xiàn)了多種新的交互方式,如A、語音交互B、情感交互C、體感交互D、腦機(jī)交互E、直覺交互答案:ABCD46.基因遺傳算法的兩個常用的結(jié)束條件為A、達(dá)到一定的迭代次數(shù)B、適應(yīng)度函數(shù)達(dá)到一定的要求C、達(dá)到一定的變異次數(shù)D、達(dá)到一定的交叉次數(shù)E、隨機(jī)停止答案:AB47.以下哪些項(xiàng)可以應(yīng)用在需要處理序數(shù)據(jù)的場景中?A、CNNB、LSTMC、RNND、GRUE、SVM答案:BCD48.以下哪些是語音處理研究的主題?A、音頻事件檢測B、聲紋識別C、語音識別D、語言喚醒E、語音合成答案:ABCDE49.softmax函數(shù)在分類任務(wù)中經(jīng)常被使用,下列關(guān)于softmax函數(shù)的描述,哪些選項(xiàng)是正確的A、是二分函數(shù)sigmoid的推廣B、somftmax函數(shù)又稱作歸一化指數(shù)函數(shù)C、softmax回歸模型是解決二分類回歸問題的算法D、softmax函數(shù)經(jīng)常與交叉嫡損失函數(shù)聯(lián)合使用E、softmax不能改善準(zhǔn)確性答案:ABD50.有大量銷售數(shù)據(jù),但沒有標(biāo)簽的的情況下,企業(yè)想甄別出VIP客戶,以下模型中合適的有?A、邏輯回歸B、SVMC、K-MeansD、層次聚類E、決策樹答案:CD51.選擇下列哪些是人工智能的研究領(lǐng)域A、人臉識別B、專家系統(tǒng)C、圖像理解D、分布式計算E、語音識別答案:ABCE52.“噪聲”是指測量變量中的隨機(jī)錯誤或偏差,噪聲數(shù)據(jù)的主要表現(xiàn)形式有哪些?A、錯誤數(shù)據(jù)B、虛假數(shù)據(jù)C、異常數(shù)據(jù)D、缺失數(shù)據(jù)E、正確無誤的數(shù)據(jù)答案:ABC53.按照智能應(yīng)用場景,語音數(shù)據(jù)標(biāo)注任務(wù)可劃分A、智能家居B、智能會議C、智能客服D、智能車載E、智能聊天答案:ABCDE54.以下用到語音識別技術(shù)的應(yīng)用包括A、蘋果手機(jī)SiriB、微信語音輸入C、百度地圖D、WordE、智能家具喚醒答案:ABCE55.目前外科手術(shù)領(lǐng)域的醫(yī)用機(jī)器人的優(yōu)點(diǎn)有A、定位誤差小B、手術(shù)創(chuàng)口小C、不需要人類醫(yī)生進(jìn)行操作D、能夠?qū)崟r監(jiān)控患者的情況E、可以獨(dú)立進(jìn)行復(fù)雜決策無需醫(yī)生答案:AB56.以下哪些是屬于深度學(xué)習(xí)算法的激活函數(shù)A、SigmoidB、ReLUC、TanhD、SinE、xp答案:ABC57.模型評估與選擇的評估方法有()。A、留出法B、交叉驗(yàn)證法C、自助法D、調(diào)參與最終模型E、盲選答案:ABCD58.聯(lián)想存儲的特點(diǎn)是A、可以存儲許多相關(guān)(激勵,響應(yīng))模式對B、以分布、穩(wěn)健的方式存儲信息C、即使輸入激勵模式完全失真時,仍然可以產(chǎn)生正確的響應(yīng)模式D、可在原存儲中加入新的存儲模式E、存儲單一模式,無關(guān)聯(lián)性答案:ABCD59.當(dāng)編譯模型使用了以下代碼:pile(optimizer='Adam,loss='catgorical.crossentropy',metrics=[tf.keras.metrics.accuracy]),在使用evaluate方法評估模型時,會輸出以下哪些指標(biāo)A、ccuracyB、categorical_lossC、lossD、categoricalaccuracyE、gain答案:AC60.從機(jī)器學(xué)習(xí)預(yù)測目標(biāo)數(shù)據(jù)的離散程度,可以將機(jī)器學(xué)習(xí)分類哪兩類問題?A、回歸問題B、分類問題C、識別問題D、判定問題E、推理問題答案:AB61.以下關(guān)于LSTM的描述,正確的是哪幾項(xiàng)?A、門可以選擇性地以讓信息通過它們由Sigmoid神經(jīng)網(wǎng)絡(luò)層和逐點(diǎn)乘法運(yùn)算組成B、LSTM可以通過“門”的精細(xì)結(jié)構(gòu)向細(xì)胞狀態(tài)添加或移除信息C、LSTM的關(guān)鍵健是細(xì)胞狀態(tài),細(xì)胞狀態(tài)貫穿整個鏈條,只有一些次要的線性交互作用,信息很容易以不變的方式流過D、LSTM有兩種門用來保持和控制細(xì)胞狀態(tài):遺忘門和輸入門E、LSTM模型可以改善RNN的梯度消失問題答案:ABCDE62.選擇以下關(guān)于人工智能概念的正確表述A、人工智能旨在創(chuàng)造智能機(jī)器該題無法得分B、人工智能是研究和構(gòu)建在給定環(huán)境下表現(xiàn)良好的智能體程序該題無法得分C、人工智能將其定義為人類智能體的研究該題無法得分D、人工智能是為了開發(fā)一類計算機(jī)使之能夠完成通常由人類所能做的事該題無法得分E、人工智能等同于自動化操作答案:ABD63.下列屬于感知智能的相關(guān)技術(shù)有哪幾項(xiàng)A、人臉識別B、圖像識別C、語言識別D、指紋識別E、距離識別答案:ABCDE64.機(jī)器智能種類包括A、機(jī)器動作智能B、機(jī)器行為智能C、左右大腦加小腦功能D、機(jī)器語言智能E、心靈感應(yīng)答案:BC65.知識圖譜在現(xiàn)代搜索引擎中有廣泛應(yīng)用,下面哪些可能是屬于知識圖譜構(gòu)建過程中包含的內(nèi)容?A、實(shí)體及關(guān)系抽取B、實(shí)體屬性抽取C、半結(jié)構(gòu)化信息抽取D、結(jié)構(gòu)化數(shù)據(jù)融合E、音頻轉(zhuǎn)換答案:ABCD66.不屬于開區(qū)域標(biāo)注的是A、曲線標(biāo)注B、多邊形標(biāo)注C、框標(biāo)注D、線標(biāo)注E、點(diǎn)標(biāo)注答案:ABC67.以下哪些選項(xiàng)是人工智能深度學(xué)習(xí)學(xué)習(xí)框架?A、MindSporeB、pythonC、TheandD、TensorFlowE、MATLAB答案:ABCD68.按照語音信號處理研究方向,語音數(shù)據(jù)標(biāo)注任務(wù)可劃分為?A、語音識別B、語音合成C、情感識別D、語音分離E、說話人識別答案:ABCDE69.參加達(dá)特茅斯會議的學(xué)者有哪些A、羅切斯特B、曼卡錫C、明斯基D、香農(nóng)E、圖靈答案:BCD70.下列選項(xiàng)中,是人工智能的基礎(chǔ)設(shè)施是A、CPU服務(wù)器B、GPU服務(wù)器C、智能芯片D、游戲顯卡E、打印機(jī)答案:ABC71.下列哪種方法可以用來減小過擬合?()A、更多的訓(xùn)練數(shù)據(jù)B、L1正則化C、L2正則化D、減小模型的復(fù)雜度E、Dropout答案:ABCDE72.以下關(guān)于模型偏差和方差之間的組合,說法正確的有哪幾項(xiàng)?A、一個好的模型,方差和偏差都要求比較低B、高偏差+低方差,可能造成欠擬合C、低偏差+高方差可能造成欠擬合D、高偏差+高方差模型可以視為不良模型E、高偏差+高方差通常表示模型非常優(yōu)秀答案:ABD73.以下關(guān)于mindspore設(shè)計理念的描述中,正確的有哪幾項(xiàng)?A、表達(dá)/優(yōu)化/運(yùn)行解:實(shí)現(xiàn)多前端跨芯片,跨平臺B、全場統(tǒng)一架構(gòu),接口和R統(tǒng)一,AI應(yīng)用可平滑流動C、Mindspore僅支持部臀在異騰芯片D、開放:開放通用圖編譯/運(yùn)行能力給三方框架E、MindSpore只支持特定類型的神經(jīng)網(wǎng)絡(luò)架構(gòu),限制了模型多樣性答案:ABCD74.無人超市采用了()等多種智能技術(shù),消費(fèi)者在購物流程中將依次體驗(yàn)自動身份識別、自助導(dǎo)購服務(wù)、互動式營銷、商品位置偵測、線上購物車清單自動生成和移動支付A、計算機(jī)視覺B、傳感器定位C、深度學(xué)習(xí)算法D、圖像分析E、智能語音答案:ABCDE75.語音編碼格式是指按一定格式壓縮采樣和量化后的數(shù)值,從而降低音頻的數(shù)據(jù)量,便于音頻數(shù)據(jù)的存儲和傳輸。常用的編碼格式有A、VIB、PCW(WAV)C、MP3D、JPGE、GIF答案:BC76.屬于閉區(qū)域標(biāo)注的有A、曲線標(biāo)注B、線標(biāo)注C、多邊形標(biāo)注D、點(diǎn)標(biāo)注E、框標(biāo)注答案:ACE77.在深度學(xué)習(xí)任務(wù)中,遇到數(shù)據(jù)不平衡問題時,我們可以用以下哪些方法解決?A、批量刪除B、隨機(jī)過采樣C、合成采樣D、隨機(jī)欠采樣E、將所有數(shù)據(jù)放大答案:BCD78.以下哪些屬于AI訓(xùn)練和推理框架?A、MindSporeB、MatlabC、PytorchD、TensorFlowE、JavaFX答案:ACD79.考察聚類內(nèi)的特征指標(biāo)有()A、SSBB、聚類半徑C、SSED、標(biāo)準(zhǔn)差E、數(shù)據(jù)量大小答案:BCD80.圖像區(qū)域標(biāo)注現(xiàn)在可以使用的手段有A、手動標(biāo)注B、全自動化標(biāo)注C、半自動化標(biāo)注D、人工智能標(biāo)注E、全自動標(biāo)注答案:AC81.在進(jìn)行圖像任務(wù)處理過程中,往往會對圖片進(jìn)行歸一化操作,下面有關(guān)歸一化的描述,哪些選項(xiàng)是正確的?A、歸一化有可能提高精度B、數(shù)據(jù)歸一化的主要目的是為了把不同來源的數(shù)據(jù)統(tǒng)一到同一數(shù)量級C、標(biāo)準(zhǔn)差歸一化是一種常用的歸一化方法D、數(shù)據(jù)歸一化可以消除指標(biāo)之間的量綱影響E、歸一化總是會降低模型的泛化能力答案:BD82.Tensorflow2.0中可以用來查看是否是tensor的方法有?A、dtypeB、isinstanceC、is_tensorD、eviceE、has_tensor答案:BC83.下列屬于深度神經(jīng)網(wǎng)絡(luò)模型的是A、DNN深層神經(jīng)網(wǎng)絡(luò)B、CNN卷積神經(jīng)網(wǎng)絡(luò)C、RNN循環(huán)神經(jīng)網(wǎng)絡(luò)D、GAN生成對抗網(wǎng)絡(luò)E、Transformer模型答案:ABCDE84.以下那些項(xiàng)屬于生成對抗訓(xùn)練中的問題?A、不穩(wěn)定性B、模式崩塌C、過擬合D、欠擬合E、數(shù)據(jù)增強(qiáng)效果顯著提升性能答案:ABC85.關(guān)于自然語言處理正確的是A、目前最先進(jìn)的自然語言處理技術(shù)是基于深度學(xué)習(xí)模型的B、自然語言處理技術(shù)達(dá)到人類智能的標(biāo)準(zhǔn)是通過圖靈測試C、文本標(biāo)注的對象是自然語言文本D、文本標(biāo)注主要是用于無監(jiān)督學(xué)習(xí)E、文本標(biāo)注可以全自動完成答案:ABC86.序列標(biāo)注包括A、分詞B、詞性標(biāo)注C、語塊分析D、關(guān)系抽取E、實(shí)體識別答案:ABCDE87.數(shù)據(jù)預(yù)處理是一種數(shù)據(jù)挖掘技術(shù),包括A、數(shù)據(jù)清洗B、數(shù)據(jù)集成C、數(shù)據(jù)歸約D、數(shù)據(jù)標(biāo)注E、數(shù)據(jù)脫敏答案:ABCE88.下列屬于機(jī)器學(xué)習(xí)類型的是A、有監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)E、超監(jiān)督學(xué)習(xí)答案:ABCD89.以下哪些方法可以減少過擬合的問題?A、添加L1或L2正則懲訓(xùn)項(xiàng)B、提前停止訓(xùn)練C、使用Dropout方法隨機(jī)丟棄一部分輸入D、擴(kuò)充數(shù)據(jù)集,引入噪聲E、僅使用復(fù)雜度極高的模型答案:ABCD90.下列對人工智能芯片的表述,正確的是()A、一種專門用于處理人工智能應(yīng)用中大量計算任務(wù)的芯片B、能夠更好地適應(yīng)人工智能中大量矩陣運(yùn)算C、相對于傳統(tǒng)的CPU處理器,智能芯片具有很好的并行計算性能D、目前處于成熟高速發(fā)展階段E、和以前的芯片沒有區(qū)別答案:ABC91.關(guān)于Python正確的是A、Python中的異常只是系統(tǒng)拋出B、使用try語句可以捕捉異常C、用戶可以自定義異常D、異常不會終止程序的執(zhí)行E、python沒有異常答案:BC92.機(jī)器翻譯的局限性在于A、訓(xùn)練樣本單一B、只能處理簡單句C、基于已有的既成案例D、錯誤較多E、無需電力支持答案:BC93.人工智能的研究范疇廣泛且復(fù)雜,其發(fā)展需要與()和社會科學(xué)等學(xué)科深度融合A、計算機(jī)科學(xué)B、數(shù)學(xué)C、認(rèn)知科學(xué)D、神經(jīng)科學(xué)E、微電子科學(xué)答案:ABCDE94.以下關(guān)于線性回歸與防止過擬合的描述中,哪些選項(xiàng)是正確的?A、線性回歸權(quán)重系數(shù)在樣本空間中不能過大/過小,可以在目標(biāo)函數(shù)之上增加一個平方和損失B、當(dāng)使用的正則項(xiàng)是12—norm,使用這個損失函數(shù)的現(xiàn)象回歸也叫LASSO回歸C、正則項(xiàng)有助于減少過擬合D、追加了絕對值損失的線性回歸叫做Ridge回歸E、使用非線性轉(zhuǎn)換可以完全避免過擬合現(xiàn)象答案:AC95.數(shù)據(jù)倉庫的基本特征包括A、數(shù)據(jù)倉庫的數(shù)據(jù)是面向主題的B、數(shù)據(jù)倉庫的數(shù)據(jù)是集成的C、數(shù)據(jù)倉庫的數(shù)據(jù)是穩(wěn)定的D、數(shù)據(jù)倉庫的數(shù)據(jù)是隨時間不斷變化的E、數(shù)據(jù)必須每日更新答案:ABCD96.當(dāng)使用機(jī)器學(xué)習(xí)建立模型的過程中,以下哪些屬于必備的操作A、模型構(gòu)建B、數(shù)據(jù)獲取C、特征選擇D、超參數(shù)調(diào)節(jié)E、模型合并答案:ABCD97.以下算法中屬于有監(jiān)督學(xué)習(xí)中分類算法的是哪些選項(xiàng)A、決策樹B、線性回歸C、隨機(jī)森林D、支持向量機(jī)E、K-Means聚類答案:ACD98.機(jī)器學(xué)習(xí)的核心要素包括A、數(shù)據(jù)B、操作人員C、算法D、算力E、用戶體驗(yàn)答案:ACD99.在強(qiáng)化學(xué)習(xí)中,主體和環(huán)境之間交互的要素有A、狀態(tài)B、動作C、回報D、強(qiáng)化E、情緒反饋答案:ABC100.下列陳述中哪些是描述強(qiáng)AI(通用AI)的正確答案?A、指的是一種機(jī)器,具有將智能應(yīng)用于任何問題的能力B、是經(jīng)過適當(dāng)編程的具有正確輸入和輸出的計算機(jī),因此有與人類同樣判斷力的頭腦C、指的是一種機(jī)器,僅針對一個具體問題D、其定義為無知覺的計算機(jī)智能,或?qū)W⒂谝粋€狹窄任務(wù)的AIE、強(qiáng)AI僅能進(jìn)行單一任務(wù)的優(yōu)化答案:AB101.圖像數(shù)字化需要經(jīng)過的步驟包括A、采樣B、裁剪C、量化D、旋轉(zhuǎn)E、手繪答案:AC102.AI芯片從業(yè)務(wù)應(yīng)用上來分,可以分為?A、訓(xùn)練B、GPUC、模型構(gòu)建D、推理E、CPU答案:AD103.定義類如下:classhello():defshowInfo(self):print(self.x)下面描述正確的是A、該類不可以實(shí)例化B、該類可以實(shí)例化C、在pycharm工具中會出現(xiàn)語法錯誤,說self沒有定義D、該類可以實(shí)例化,并且能正常通過對象調(diào)用showInfo()E、showInfo方法無需傳入self參數(shù)答案:AC104.深度學(xué)習(xí)中常用
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年深海礦產(chǎn)資源勘探技術(shù)深海地質(zhì)勘探技術(shù)產(chǎn)業(yè)創(chuàng)新驅(qū)動趨勢報告
- 小區(qū)情防制度方案(3篇)
- 交警執(zhí)法提升制度方案(3篇)
- 模型制作方案么(3篇)
- 2025年a級考試題及答案
- 同業(yè)暫行管理辦法
- 后廚員工管理辦法
- 員工會員管理辦法
- 唐山代建管理辦法
- 商業(yè)招牌管理辦法
- 2025夏季中國南水北調(diào)集團(tuán)水網(wǎng)智慧科技有限公司招聘18人筆試歷年參考題庫附帶答案詳解
- 2025年高考湖北卷物理真題(原卷版)
- 監(jiān)理員考試題庫(附答案)
- 農(nóng)戶與企業(yè)聯(lián)營養(yǎng)殖合作協(xié)議書
- 2025年紅十字初級急救員證考試題及答案
- 2024年蘇州高新區(qū)醫(yī)療衛(wèi)生機(jī)構(gòu)招聘衛(wèi)生專業(yè)技術(shù)人員筆試真題
- 健康食堂創(chuàng)建方案
- 2025年叉車證書考試試題及答案
- 大學(xué)物理b2考試題及答案
- 檢驗(yàn)科信息管理制度
- 低空經(jīng)濟(jì)統(tǒng)計指標(biāo)體系與國家核算方法
評論
0/150
提交評論