(新版)HCIA-AIH13-311v3.5近年考試真題題庫(含答案)_第1頁
(新版)HCIA-AIH13-311v3.5近年考試真題題庫(含答案)_第2頁
(新版)HCIA-AIH13-311v3.5近年考試真題題庫(含答案)_第3頁
(新版)HCIA-AIH13-311v3.5近年考試真題題庫(含答案)_第4頁
(新版)HCIA-AIH13-311v3.5近年考試真題題庫(含答案)_第5頁
已閱讀5頁,還剩101頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

(新版)HCIA-AIH13-311v3.5近年考試真題題庫(含答案)單選題1.自動車險定損場景中,用戶依次上傳車輛的全景照片、受損部位照片以及受損部位細節(jié)照片,然后定損系統(tǒng)通過所上傳圖片的細節(jié)進行判定。這一場景運用了以下哪一項技術(shù)?A、語音合成和處理技術(shù)B、語音識別和處理技術(shù)C、自然語言處理技術(shù)D、圖像識別和目標檢測技術(shù)參考答案:D2.主成對抗網(wǎng)絡(luò)(GAN)是一種深度學(xué)習(xí)模型,以下哪一個選項屬于它的基本結(jié)構(gòu)?A、判別器B、感知器C、驗證器D、對抗器參考答案:A3.知識圖譜本質(zhì)上是語義網(wǎng)絡(luò)的知識庫,以下哪一個選項不屬于知識圖譜中的組件?A、實體B、本體C、邊D、權(quán)重參考答案:A4.長短記憶網(wǎng)絡(luò)是基于循環(huán)神經(jīng)網(wǎng)絡(luò)發(fā)展而來的,長短袖經(jīng)網(wǎng)絡(luò)主要解決了循環(huán)神經(jīng)網(wǎng)絡(luò)的什么問題?A、過擬合問題B、梯度爆炸問題C、梯度消失問題D、欠擬合問題參考答案:C5.在智慧醫(yī)療場景下,下列技術(shù)與應(yīng)用對應(yīng)錯誤的是哪一項?A、疾病風(fēng)險預(yù)測-數(shù)據(jù)挖掘B、醫(yī)學(xué)影像-計算機視覺C、虛擬助理-語音識別D、藥物挖掘-計算機視覺參考答案:D6.在以下哪一個年份,Rosenblat發(fā)明感知器(perceptron)算法?A、1969年B、1986年C、1950年D、1958年參考答案:D7.在一個任務(wù)中,試圖讓學(xué)習(xí)器利用大量未標記數(shù)據(jù)以及少量有標記數(shù)據(jù)進行訓(xùn)練,這樣的算法屬于以下哪一類學(xué)習(xí)?A、半監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、監(jiān)督學(xué)習(xí)D、強化學(xué)習(xí)參考答案:A8.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中我們目的是讓損失函數(shù)不斷減少,我們常用以下哪種方法最小化損失函數(shù)?A、DropoutB、正則化C、梯度下降D、交叉驗證參考答案:C9.在使用華為云翻拍識別服務(wù)時,recapture_detect_aksk0函數(shù)的返回結(jié)果中,如果suggestion為真時,category的取值為以下哪項?A、originalB、TrueC、空字符D、recapture參考答案:C10.在神經(jīng)網(wǎng)絡(luò)中,我們是通過以下哪個方法在訓(xùn)練網(wǎng)絡(luò)的時候更新參數(shù),從而最小化損失函數(shù)的?A、正向傳播算法B、池化計算C、卷積計算D、反向傳播算法參考答案:D11.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使用的什么法則進行逐層求導(dǎo)的?A、鏈式法則B、累加法則C、對等法則D、歸一法則參考答案:A12.在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中,感知器是最簡單的神經(jīng)網(wǎng)絡(luò),關(guān)于其結(jié)構(gòu)說法正確的是?A、其隱含層只有兩層B、其隱含層只有一層C、其網(wǎng)絡(luò)中使用的是Sigmoid激活函數(shù)D、其網(wǎng)絡(luò)中使用的是Relu激活函數(shù)參考答案:B13.在全連接結(jié)構(gòu)中,使用一個包含1000個神經(jīng)元的隱藏層處理一張100+100分辨率的圖片,不考慮偏置項,以下哪一項是正確的參數(shù)量?A、10000B、100000C、100000oD、10000000參考答案:D14.在華為云ei中哪一項是面向開發(fā)者的一站式AI開發(fā)平臺,為機器學(xué)習(xí)與深度學(xué)習(xí)海量數(shù)據(jù)預(yù)處理及半自動化標注、大規(guī)模分布式Training、自動化模型生成,及端-邊-云模型按需部署能力,幫助用戶快速創(chuàng)建和部署模型,管理全周期AI工作流?A、MysqlB、MinsporeC、ModelArtsD、Ascend參考答案:C15.在華為云EI中,以下哪項可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場景中,發(fā)揮AI技術(shù)的優(yōu)勢,從而提高效率,提升體驗。A、EI智能體B、OBS對象存儲服務(wù)C、云數(shù)據(jù)庫D、EI大數(shù)據(jù)服務(wù)參考答案:A16.以下選項中不屬于回歸算法的性能評估的是哪一項?A、MSE均方誤差B、Recall召回率C、R-Square可決系數(shù)D、MAE平均絕對誤差參考答案:B17.以下選項中,哪一項不屬于模型訓(xùn)練的超參數(shù)?A、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率B、—元線性回歸模型Y=wX+b中的權(quán)置系數(shù)(斜率)C、K最近鄰算法(KNN)中的KD、隨機森林當(dāng)中的樹的棵數(shù)參考答案:B18.以下屬于回歸算法的評價指標是?A、召回率B、混淆矩陣C、均方誤差D、準確率參考答案:C19.以下那一個選項不是高級智能駕駛給人類帶來的便利?A、極大的降供了車輛生產(chǎn)成本,B、能夠讓特殊人群上路C、減少交通事故D、解放駕駛?cè)藛T的雙手參考答案:A20.以下哪一項用于循環(huán)神經(jīng)網(wǎng)絡(luò)中一對多的類型?A、音樂生成B、動作識別C、機器翻譯D、情感分析參考答案:A21.以下哪一項屬于零階張量?A、標量B、向量C、矩陣D、R參考答案:A22.以下哪一項是靜態(tài)圖模式的劣勢?A、debugB、部署C、性能優(yōu)化D、分布式訓(xùn)練參考答案:A23.以下哪一項是HUAWEIHiAlFoundation模塊的功能?A、pp集成B、讓服務(wù)主動找到用戶C、快速轉(zhuǎn)化和遷移已有模型D、根據(jù)用戶所需,適時適地推送服務(wù)參考答案:C24.以下哪一項華為云服務(wù)是可以輔助醫(yī)療智能體中進行基因組自動學(xué)習(xí)?A、ECSB、CloudMySQLC、OBSD、ModelArts參考答案:D25.以下哪一項不屬于壓縮人工智能模型體積的方法?A、緊湊網(wǎng)絡(luò)設(shè)計B、低秩近似C、網(wǎng)絡(luò)量化D、減小有效數(shù)據(jù)量參考答案:D26.以下哪一項不屬于人工智能技術(shù)帶來的爭議性問題?A、利用GAN網(wǎng)絡(luò)生成家居圖像發(fā)布在租房和訂酒店的平臺,以達到欺騙消費者的目的。B、高鐵站利用計算機視覺技術(shù)進行人臉識別,快速完成身份信息比對C、通過圖像處理技術(shù),很多減肥藥廣告可以改變?nèi)宋锏耐庥^以達到減肥前后的對比D、通過圖像處理技術(shù),把犯罪嫌疑人P在一個從未去過的地方或?qū)⑺c未見過的人放在一起以此來制造假證據(jù)參考答案:B27.以下哪一項不屬于Mindspore全場景部署和協(xié)同的關(guān)鍵特性?A、統(tǒng)一模型R帶來一致性的部署體驗B、端云協(xié)同F(xiàn)ederalMetaLearning打破端云界限,多設(shè)備協(xié)同模型。C、數(shù)據(jù)+計算整圖到Ascend芯片。D、軟硬協(xié)同的圖優(yōu)化技術(shù)屏蔽場景差異參考答案:C28.以下哪一項不屬于IindRT子系統(tǒng)的功能特性?A、算子同步、異構(gòu)執(zhí)行,多流并發(fā)。B、內(nèi)存池化管理,高效內(nèi)存復(fù)用。C、支持多種硬件設(shè)置的調(diào)度管理D、支持端、云多種設(shè)備形態(tài)要求。參考答案:A29.以下哪一個選項不是HiQ量子計算云平臺的亮點?A、無需編程即可完成計算任務(wù)B、簡單易用C、功能豐富D、提供豐富的教程文檔參考答案:A30.以下哪一個不屬于人臉識別技術(shù)?A、人臉搜索B、人臉比對C、人臉檢測D、翻拍識別參考答案:D31.以下哪個選項是神經(jīng)網(wǎng)絡(luò)訓(xùn)練最常用的方法?A、共軛樣度法B、梯度下降C、高其消元D、最小二乘法參考答案:B32.以下哪個選項不屬于異騰AI處理器中AICore的基礎(chǔ)計算資源?A、向量計算單元B、張量計算單元C、矩陣計算單元D、標量計算單元參考答案:B33.以下哪個選項不屬于昇騰AI處理器的硬件架構(gòu)?A、TBEB、DVPPC、ontrolCPUD、AICore參考答案:A34.以下哪個選項不屬于華為云ModelArts提供的功能或服務(wù)?A、模型診斷B、智能模型調(diào)優(yōu)C、智能數(shù)據(jù)標注D、vscodeSDK參考答案:D35.以下哪個是HiAI中的離線模式?A、HiAIServiceB、HiAlEngineC、HiAIFoundationD、HAIIDE參考答案:D36.以下哪個激活函數(shù)可以很好的解決梯度消失問題?A、TanhB、SoftsignC、ReluD、Sigmoid參考答案:C37.以下哪個關(guān)于監(jiān)督式學(xué)習(xí)的說法是正確的?A、決策樹是一種監(jiān)督式學(xué)習(xí)B、監(jiān)督式學(xué)習(xí)不可以使用交叉驗證進行訓(xùn)練C、監(jiān)督式學(xué)習(xí)是一種基于規(guī)則的算法D、監(jiān)督式學(xué)習(xí)不需要標簽就可以訓(xùn)練參考答案:A38.以下哪個不是ModelArts開發(fā)類型?A、標準模型開發(fā)B、快速建模C、零基礎(chǔ)建模D、敏捷開發(fā)參考答案:D39.以下哪個不是MindSpore核心架構(gòu)的特點?A、自動并行B、自動調(diào)優(yōu)C、自動編碼D、自動微分參考答案:C40.以下描述中,哪一項不是Mindspore的設(shè)計理念?A、開放非自動B、非自動C、全場景統(tǒng)一架構(gòu)D、表達/優(yōu)化/運行解耦參考答案:B41.以下關(guān)于特征選擇描述的選項中,哪一個選項是錯誤的?A、使用特征選擇的原因是在采集到的數(shù)據(jù)集中,有一些特征可能是多余的或者與我們要預(yù)測的值無關(guān)的。B、特征選擇無法避免維度爆炸的問題C、特征選擇可以幫助我們簡化模型,使模型更容易被使用者所解釋。D、特征選擇技術(shù)可減少訓(xùn)練的時間,提升模型泛化性,避免過擬合參考答案:B42.以下關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中,哪一項是正確的?A、LSTM全稱LessShort-TermMemcry.表示短期記憶網(wǎng)絡(luò)。B、神經(jīng)網(wǎng)絡(luò)只能是從前往后單向傳播,C、LSTM適合應(yīng)用于長時間的相關(guān)信息和位置間隔的場景,D、LSTM和RNN完全沒有關(guān)系。參考答案:C43.以下關(guān)于深度學(xué)習(xí)中常用的損失函數(shù)的描述,哪一項是不正確的?A、二次代價函數(shù)關(guān)心目標輸出和實際輸出之間的“距離”B、二次代價函數(shù)更多得用于分類問題,而交又椅代價函數(shù)一般用于回歸問題C、交叉嫡代價函數(shù)刻畫了兩個既率分布之間的距離D、訓(xùn)練的目的是使得損失函數(shù)達到最小參考答案:B44.以下關(guān)于模型泛化能力的描述中,哪一項是正確的?A、泛化能力指每一條數(shù)據(jù)的預(yù)測需更多長時間。B、泛化能力指預(yù)測的結(jié)果是否容易被解釋。C、泛化能力指實際業(yè)務(wù)過程中數(shù)據(jù)量可能很大,隨著業(yè)務(wù)量增大,預(yù)測的速率是否仍然可以接受D、泛化能力指能否在實際的業(yè)務(wù)數(shù)據(jù)也能預(yù)測準確。參考答案:D45.以下關(guān)于邏輯回歸的描述中,哪一項是錯誤的?A、邏輯回歸模型是一種分類模型,用來解決分類問題B、邏輯回歸與線性回歸都是廣義線性模型C、邏輯回歸在線性回歸的基礎(chǔ)上引入了非線性因素(siqmoid函數(shù))。D、邏輯回歸和線性回歸的損失函數(shù)都是最小二乘損失函數(shù)。參考答案:D46.以下關(guān)于決策樹的描述中,哪一項是錯誤的?A、構(gòu)建決策樹的關(guān)鍵步驟就是按照所有的特征屬性進行劃分操作B、決策樹中除了根節(jié)點之外的其它節(jié)點統(tǒng)稱為葉子節(jié)點C、GNI系數(shù)可以被看作是一種純度的量化指標D、ID3算法使用信息增益率進行屬性選擇參考答案:B47.以下關(guān)于剪枝的描述中,哪一項是錯誤的?A、決策樹容易過擬合需要剪枝來縮小樹的結(jié)構(gòu)和規(guī)模。預(yù)剪枝中設(shè)置的層數(shù)是一個超參數(shù)。B、預(yù)剪枝中設(shè)置的層數(shù)是一個超參數(shù)。C、ID3算法中都會進行剪枝。D、剪枝可以分為預(yù)剪枝和后剪枝參考答案:C48.以下關(guān)于機器學(xué)習(xí)整體流程正確的是A、數(shù)據(jù)收集->,數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型部署與整合->模型評估測試B、數(shù)據(jù)收集->特征提取與選擇->數(shù)據(jù)清洗->模型訓(xùn)練->模型評估測試->模型部署與整合C、數(shù)據(jù)收集->數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型評估測試->模型部署與整合D、數(shù)據(jù)收集->數(shù)據(jù)清洗->模型訓(xùn)練->特征提取與選擇->模型部署與整合->模型評估測試參考答案:C49.以下關(guān)于機器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機器學(xué)習(xí)的一個分支B、深度學(xué)習(xí)與機器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、以上都不對參考答案:A50.以下關(guān)于回歸模型調(diào)試與應(yīng)用的描述中,錯的是哪一項?A、當(dāng)訓(xùn)練完成之后,需要使用測試集進行測試,確保模型的泛化能力。B、如果最后的模型效果不好,也需要注意使用數(shù)據(jù)清理與特征工程。C、如果出現(xiàn)過擬合,可以使用帶有正則項的LASSO回歸或者Ridge回歸,并調(diào)節(jié)超參數(shù)D、如果出現(xiàn)欠擬合,可以使用更加復(fù)雜的回歸模型,比如邏輯回歸。參考答案:D51.以下關(guān)于達芬奇架構(gòu)中的控制單元,錯誤的是哪一個選項?。A、可以讀取標量指令隊列中配置好的指令地址和參數(shù)解碼。B、可進行中斷處理和狀態(tài)申報。如果執(zhí)行過程出錯,會把執(zhí)行的錯誤狀態(tài)報告給任務(wù)調(diào)度器C、可存放神經(jīng)網(wǎng)絡(luò)中每層計算的中間結(jié)果。D、時刻控制每條指令流水線的執(zhí)行狀態(tài)。參考答案:C52.以下關(guān)于達芬奇架構(gòu)的描述錯誤的是哪一選項?A、通過總線接口單元將數(shù)據(jù)搬到輸入緩中區(qū)B、控制單元負責(zé)整個AICore的運行C、計算單元包含四種基礎(chǔ)計算資源D、AICore的片上存儲單元和相應(yīng)的數(shù)據(jù)通路構(gòu)成了存儲系統(tǒng)參考答案:C53.以下關(guān)于SVM算法說法錯誤的是?A、SVM算法可以使用用多種核函數(shù)B、SVM可以被用于解決分類問題C、支持向量是距離超平面最近的向量點D、SVM算法不能用于處理非線性數(shù)據(jù)集參考答案:D54.以下關(guān)于softsign函數(shù)的描述中,錯誤的是哪一項?A、Softsign函數(shù)相比tanh函數(shù)容易飽知B、選擇Softsig門函數(shù)的網(wǎng)絡(luò)容易出現(xiàn)樣度退化現(xiàn)象,導(dǎo)致模型難以訓(xùn)練C、Softsign函數(shù)很準回避褲度消失的問題D、Softsign函數(shù)遠離畫數(shù)中心點的位置,函數(shù)導(dǎo)數(shù)趨于0參考答案:A55.以下關(guān)于Mindspore子系統(tǒng)的設(shè)計目標的描述,錯誤的是哪一項?A、向用戶提供統(tǒng)一的模型訓(xùn)練,推理和導(dǎo)出等接口,滿足端,邊,云等不同場景B、兩層用戶AP設(shè)計,支撐用戶進行網(wǎng)絡(luò)構(gòu)建,整圖執(zhí)行,子圖執(zhí)行以及單算子執(zhí)行C、單機和分布式訓(xùn)練統(tǒng)一的編碼方式D、動態(tài)圖和靜態(tài)圖差異化編碼方式參考答案:D56.以下關(guān)于MindArmour子系統(tǒng)關(guān)鍵功能的描達中,錯誤的是哪一項?A、高效自適應(yīng)差分隱私訓(xùn)練和預(yù)算統(tǒng)計算法,數(shù)學(xué)上可證明的模型隱私泄露約束B、基于正確率的Fuzzing測試流程,靈活可定制的測試策略和指標。C、包括對抗訓(xùn)練、輸入重建在內(nèi)的常見對抗樣本檢測和模型魯棒性增強方法D、涵蓋黑白盒對抗攻擊、成員/屬性推理攻擊、數(shù)據(jù)源移等測試數(shù)據(jù)產(chǎn)生方法,覆蓋場景全面。參考答案:B57.以下關(guān)于K-means聚類算法的描述中,哪一項說法是正確的?A、簇內(nèi)相似性越小,簇間差別越小,聚類效果越好B、簇內(nèi)相似性越大,簇間差別越小,聚類效果越好。C、簇內(nèi)相似性越大,簇間差別越大,聚類效果越差D、簇內(nèi)相似性越大,簇間差別越大,聚類效果越好。參考答案:D58.以下方法中屬于特征選擇嵌入法(Embedded)的是哪項?A、L1正則B、互信息法C、方差法D、特征遞歸消除法參考答案:A59.以下不屬于衡量模型優(yōu)勢指標的是哪一項?A、代碼復(fù)雜度B、可解釋性C、預(yù)測速率D、泛化能力參考答案:A60.以下不屬于對抗生成網(wǎng)絡(luò)的應(yīng)用是?A、文字生成B、圖像生成C、圖像識別D、數(shù)據(jù)增強參考答案:C61.循環(huán)神經(jīng)網(wǎng)絡(luò)不同于卷積神經(jīng)網(wǎng)絡(luò),它比較擅長解決以下哪些問題?A、序列相關(guān)問題B、圖像分類C、圖像檢測D、推薦問題參考答案:A62.線性回歸在3維以上的維度中擬合面是?A、曲面B、平面C、超平面D、超曲面參考答案:C63.現(xiàn)有一個公司希望加裝人臉識別門禁,可以使用以下哪一種產(chǎn)品A、OBSB、HiLensC、ECSD、ModelArts參考答案:D64.下列選項中支持TensorFlow20進行維度變換的屬性是A、reshapeB、transposeC、squeezeD、gather參考答案:D65.下列選項中對泊松分布與二項分布的關(guān)系正確的是?A、泊松分布與二項分布沒有關(guān)系B、泊松分布可以替代二項分布C、泊松分布是二項分布當(dāng)n很大p很小時的近似計算D、泊松分布與二項分布的數(shù)學(xué)模型都是拉格朗日概型參考答案:C66.下列選項中不屬于華為全棧解決方案范疇的是?A、應(yīng)用使能B、邊緣計算C、開源框架D、芯片使能參考答案:B67.下列哪一項是函數(shù)tf.abs的功能?A、張量的拼接逐元素的相加計算絕對值B、逐元素的相加C、計算絕對值D、實現(xiàn)統(tǒng)計學(xué)中的各種分布參考答案:C68.下列哪一項不屬于深度學(xué)習(xí)中常用的優(yōu)化器?A、SoftplusB、AdagradC、AdamD、RMSprop參考答案:A69.下列哪一個是圖像標簽服務(wù)的URI?A、/v1.0/image/recognitionB、/v1.0/image/celebrity-recognitionC、/v1.0/image/recapture-detectD、/v1.0/image/tagging參考答案:D70.通用文字識別服務(wù)調(diào)用成功時返回的結(jié)果中,wordsblockcount代表什么?A、識別文字數(shù)目B、識別文字塊數(shù)目C、識別文字塊列表D、以上都不是參考答案:B71.通用文字識別服務(wù)調(diào)用成功時,返回的文字識別結(jié)果保存在下列哪個字段中?A、textB、resultC、ontentD、words參考答案:B72.調(diào)用華為云文字識別API時,以下哪個響應(yīng)參數(shù)表示文字塊識別結(jié)果A、wordslistB、wordsblocklistC、wordsblockD、words參考答案:D73.調(diào)用華為云通用表格識別API時能夠輸出表格子區(qū)域識別文字塊列表,以下哪一項是其輸出順序?A、公左到右,先上后下B、從左到右,先下后上C、從右到左先下后上D從右到左先上后下參考答案:A74.梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?A、SGDB、GDC、MGDD、MBGD參考答案:A75.特征是描述樣本的特性的維度,關(guān)于其在傳統(tǒng)機器學(xué)習(xí)和深度學(xué)習(xí)的可解釋性,以下說法正確的是:A、特征在傳統(tǒng)機器學(xué)習(xí)可解釋性強,而在深度學(xué)習(xí)可解釋性弱B、特征在傳統(tǒng)機器學(xué)習(xí)可解釋性弱,而在深度學(xué)習(xí)可解釋性強C、特征在傳統(tǒng)機器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均弱D、特征在傳統(tǒng)機器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均強參考答案:A76.損失函數(shù)反映了神經(jīng)網(wǎng)絡(luò)的目標輸出和實際輸出的誤差,在深度學(xué)習(xí)中常用的損失函數(shù)是?A、指數(shù)損失函數(shù)B、均方損失函數(shù)C、對數(shù)損失函數(shù)D、Hinge損失函數(shù)參考答案:B77.數(shù)據(jù)是記錄信息的符號,是信息的載體和表示。下列關(guān)于數(shù)據(jù)在AI應(yīng)用中描述正確的是哪個選項?A、數(shù)據(jù)僅僅指excel中的表格數(shù)據(jù)B、數(shù)據(jù)的質(zhì)量與模型的好壞無關(guān)C、對數(shù)據(jù)不需要預(yù)處理就可以直接輸入模型D、數(shù)據(jù)的質(zhì)是很重要,很大程度上決定模型的結(jié)果參考答案:D78.數(shù)據(jù)集擴充也可以有效的避免過擬合問題的出現(xiàn),以下哪項關(guān)于數(shù)據(jù)集擴充的說法是正確的?A、數(shù)據(jù)集越大過擬合概率越大B、數(shù)據(jù)集增大或減少過擬合概率均會越小C、數(shù)據(jù)集越小過擬合概率小D、數(shù)據(jù)集越大過擬合概率越小參考答案:D79.使用MindSpore執(zhí)行圖片中的代碼時,以下哪一項是這段代碼的正確輸出結(jié)果?Tensor=Tensor(np.array([[0,1],[2.3]]).astype(np.float32))Print(tensor[,0])A、["02"]B、["0.1.]C、["1.3.]D、["0.2.”]參考答案:D80.深度學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)類型很多,以下神經(jīng)網(wǎng)絡(luò)信息是單向傳播的是:A、LSTMB、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、GRU參考答案:B81.深度學(xué)習(xí)中如果神經(jīng)網(wǎng)絡(luò)的層數(shù)較多比較容易出現(xiàn)梯度消失問題。嚴格意義上來講是在以下哪個環(huán)節(jié)出現(xiàn)梯度消失問題?A、反向傳播更新參數(shù)B、正向傳播更新參數(shù)C、反向傳播計算結(jié)果D、正向傳播計算結(jié)果參考答案:A82.深度學(xué)習(xí)中,以下哪種方法不能解決過擬合的問題?A、參數(shù)正則化B、數(shù)據(jù)增強C、提前停止訓(xùn)練D、減小學(xué)習(xí)率參考答案:D83.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時需要大量的矩陣計算,一般我們需要配用硬件讓計算機具備并行計算的能力,以下硬件設(shè)備提供并行計算能力的是:A、主板B、內(nèi)存條C、GPUD、CPU參考答案:C84.人下關(guān)于神經(jīng)網(wǎng)絡(luò)的說法錯誤的是?A、隨著神經(jīng)網(wǎng)絡(luò)隱藏層數(shù)的增加,模型的分類能力逐步減弱B、單層感知器的局限在于不能解決異或問題C、前饋神經(jīng)網(wǎng)絡(luò)可用有向無環(huán)圖表示D、前饋神經(jīng)網(wǎng)絡(luò)同一層的神經(jīng)元之間不存在聯(lián)系參考答案:A85.人工智能應(yīng)用領(lǐng)域只有計算機視覺和語音處理。”關(guān)于上述描述,以下哪一個說法是正確的?A、該說法錯誤,AI應(yīng)用領(lǐng)域應(yīng)包括計算機視覺、語音處理和自然語言處理等領(lǐng)域B、該說法正確,計算機視覺是最重復(fù)的AI應(yīng)用領(lǐng)域。C、該說法錯誤,AI應(yīng)用領(lǐng)域只有計算機視覺和自然語言處理D、該說法正確、語音處建以極高的準確率處理語音數(shù)據(jù)。參考答案:A86.人工智能是指下列哪一項的智能?A、自然智能B、通用智能C、機器智能D、人的智能參考答案:C87.人工智能的三個階段包含了計算智能、()、認知智能。A、弱人工智能B、感知智能C、行為智能D、強人工智能參考答案:B88.批量梯度下降,小批量梯度下降,隨機梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學(xué)習(xí)率D、使用樣本數(shù)參考答案:D89.某企業(yè)在使用Mindspore構(gòu)建AI應(yīng)用后,又想和合作伙伴共享數(shù)據(jù)進一步增加模型的準確度但是數(shù)據(jù)需要保密不能直接提供他們可以通過以下哪個工具解決這個問題?A、MindSporeFederaterB、MindSporeGoldenstickC、MindSporeReinforcementD、MindSporeProbabillty參考答案:A90.某電商公司一直存在官網(wǎng)卡頓,網(wǎng)絡(luò)資源利用率不佳,運維困難的問題,那么該公司可以使用以下哪一種EI服務(wù)?A、園區(qū)智能體B、交通智能體C、網(wǎng)絡(luò)智能體D、工業(yè)智能體參考答案:C91.面對行業(yè)研究與全場景AI應(yīng)用之間的巨大鴻溝,Mindspore跨越應(yīng)用鴻溝助力普惠AI的技術(shù)創(chuàng)新不包括以下哪項?A、新協(xié)作方式B、新編程語言C、新編程范式D、新執(zhí)行模式參考答案:B92.面對超大規(guī)模模型需要實現(xiàn)高效分布式訓(xùn)練的桃戰(zhàn),Mindspore的處理方式為?A、自動并行B、串行C、手動并行參考答案:A93.交通智能體可以實現(xiàn)()小時全時段/全域交通感知?A、5x24B、7x24C、5x12D、7x12參考答案:B94.激活函數(shù)對于神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)、理解非常復(fù)雜的問題有著重要的作用,以下關(guān)于激活函數(shù)說法正確的是?A、激活函數(shù)都是線性函數(shù)B、激活函數(shù)都是非線性函數(shù)C、激活函數(shù)部分是非線性函數(shù),部分是線性函數(shù)D、激活函數(shù)大多數(shù)是非線性函數(shù),少數(shù)是線性函數(shù)參考答案:B95.機器學(xué)習(xí)中,模型需要輸入什么來訓(xùn)練自身,預(yù)測未知?A、訓(xùn)練算法B、人工程序C、神經(jīng)網(wǎng)絡(luò)D、歷史數(shù)據(jù)參考答案:D96.機器學(xué)習(xí)中,從獲取數(shù)據(jù)到正式放入模型之前,以下哪一個選項不是這個過程的一部分?A、數(shù)據(jù)標準化B、數(shù)據(jù)清理C、數(shù)據(jù)降維D、數(shù)據(jù)可視化參考答案:D97.關(guān)于圖像內(nèi)容審核服務(wù)說法錯誤的是?A、politics為涉政敏感人物檢測結(jié)果B、terrorism為涉政暴恐檢測結(jié)果C、onfidence代表置信度,范圍0-100D、label代表每個檢測結(jié)果的標簽參考答案:C98.關(guān)于梯度下降,以下哪項說法是正確的?A、全局梯度下降比隨機梯度下降速度更快B、Adam不屬于梯度下降算法。C、使用梯度下降時,學(xué)習(xí)率應(yīng)該保持一致。D、隨機梯度下降對噪聲點敏感。參考答案:D99.關(guān)于人工智能和機器學(xué)習(xí)的關(guān)系,以下說法正確的是哪一項?A、機器學(xué)習(xí)可以應(yīng)用統(tǒng)計學(xué)的知識進行分析、B、所有機器學(xué)習(xí)算法都涉及到非常多的人工神經(jīng)網(wǎng)絡(luò)C、所有的機器學(xué)習(xí)都是在模仿人腦的機制來解釋數(shù)據(jù),例如圖像,聲音和文本,D、深度學(xué)習(xí)包含機器學(xué)習(xí)、機器學(xué)習(xí)是深度學(xué)習(xí)的一個特例。參考答案:A100.關(guān)于機器學(xué)習(xí)的數(shù)據(jù)集,以下說法哪一項是正確的?A、數(shù)據(jù)集可分為訓(xùn)練集和測試集,其中測試集用于模型訓(xùn)練,即尋找特征與目標之間的關(guān)系,B、數(shù)據(jù)集中的樣本指的是每條記錄的不同屬性,比如姓名,年齡,性別等信息C、數(shù)據(jù)集的特征指的是每條記錄的不同屬性、比如姓名,年齡,性別等信息D、有監(jiān)督學(xué)習(xí)任務(wù)中,數(shù)據(jù)集的目標列一般不包含標簽參考答案:C101.關(guān)于反向傳播,以下說法錯誤的是?A、反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運用B、反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播會經(jīng)過激活函數(shù)D、反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播參考答案:A102.關(guān)于對抗生成網(wǎng)絡(luò)以下說法錯誤的是A、對抗生成網(wǎng)絡(luò)不能用來產(chǎn)生新的圖片B、對抗生成網(wǎng)絡(luò)包含生成模型與判別模型C、判別模型需要輸入帶標簽的真實樣本D、生成模型的輸入可以是隨機數(shù)參考答案:A103.符號主義的落腳點主要體現(xiàn)在哪里?A、落腳點在神經(jīng)元網(wǎng)絡(luò)與深度學(xué)習(xí)。B、落腳點在推理,符號推理與機器推理。C、落腳點在感知和行動。D、落腳點在行為控制、自適應(yīng)與進化計算。參考答案:B104.反向傳播算法是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中重要的算法,以下哪項關(guān)于其算法步驟是正確的?A、先反向傳播計算出誤差,再正向傳播計算梯度B、只有反向傳播計算輸出結(jié)果。C、只有反向傳播計算梯度D、先正向傳播計算出誤差,再反向傳播計算梯度。參考答案:D105.對于圖像分類問題,以下哪個神經(jīng)網(wǎng)絡(luò)更適合解決這個問題?A、感知器B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、全連接神經(jīng)網(wǎng)絡(luò)參考答案:C106.當(dāng)前語音處理研究在任何情況下都能達到90%以上的識別準確度。關(guān)于以上觀點,下列說法正確的是哪一項?A、錯誤,識別準確度很高但沒那么高。B、正確,語音處理可以達到很高的識別準確度。C、錯誤,很多情況下,例如噪聲、背聲等會極大的影響語音的識別準確度,D、正確,語音處理研究的歷史很長,已經(jīng)很成熟。參考答案:C107.從技術(shù)架構(gòu)角度,關(guān)于AI芯片的描述,錯誤的是哪一項?A、CPU的功能主要是解釋計算機指令以及處理計算機硬件中的數(shù)據(jù)B、FPGA實現(xiàn)了半定制芯片的功能C、ASIC屬于專用集成電路D、GPU是一種專門在個人電腦、工作站,游戲和一些移動設(shè)備上進行圖像運算工作的微處理器參考答案:A108.創(chuàng)建網(wǎng)絡(luò)層時,添加dropout層的主要目的是什么?A、提取圖像特征B、起到分類器的作用C、增加非線性D、防止過擬合參考答案:D109.查看Atlas300(3000)加速卡驅(qū)動是否安裝成功應(yīng)該使用哪條命令?A、npu-siminfoB、npuinfoC、atlas-driverinfoD、atlasinfo參考答案:A110.Tensorflow是下面哪家公司開源的第二代用于數(shù)字計算的軟件庫?A、華為B、高通C、微軟D、谷歌參考答案:D111.TensorFlow20發(fā)布的時間,是在哪一年?A、2015B、2017C、2019D、2018參考答案:C112.Pytorch是常見的機器學(xué)習(xí)計算框架,基于Torch,用于自然語言處理等應(yīng)用程序,以下哪種語言是Torch采用的編程語言?A、PythonB、LuaC、JavaD、C語言參考答案:B113.PyTorch不具備以下哪種功能?A、內(nèi)嵌kerasB、支持動態(tài)圖C、自動求導(dǎo)D、GPU加速參考答案:A114.Python3中5/2的結(jié)果是?A、2B、1C、3D、2.5參考答案:D115.Mindspore中,Tensor初始化時,如果包含多種不同類型的數(shù)據(jù),則按照以下哪一項優(yōu)先級完成數(shù)據(jù)類型轉(zhuǎn)換?A、int<bool<floatB、int<float<boolC、bool<float<intD、bool<int<float參考答案:D116.Mindspore提供了自動對圖像進行增強處理的機制,可以實現(xiàn)算子的自動選擇和執(zhí)行,達到提升訓(xùn)練精度的目的,以下哪些機制是正確的?A、基于精度的自動數(shù)據(jù)增強B、基于概率的自動數(shù)據(jù)增強C、基于魯棒性的自動數(shù)據(jù)增強D、基于反饋的自動數(shù)據(jù)增強參考答案:B117.MindCompiler子系統(tǒng)提供圖級即時編譯能力,以下哪一項不屬于其面向硬件所進行的優(yōu)化操作?A、算子融合B、layout優(yōu)化C、冗余消除D、自動并行參考答案:C118.K-means對于下列哪一種類型的數(shù)據(jù)集的聚類效果不好?A、凸多邊形分布數(shù)據(jù)集B、擺旋形分布數(shù)據(jù)集C、帶狀分布數(shù)據(jù)集D、園形分布數(shù)據(jù)集參考答案:B119.Atlas加速AI推理使用的是什么處理器?A、昇騰910處理器B、昇騰310處理器C、GPUD、FPGA參考答案:B120.AI框架第三階段的發(fā)展方向主要包括以下哪幾方面?A、運行態(tài)B、部署態(tài)C、用戶態(tài)D、平行態(tài)參考答案:A121.AI開發(fā)的基本流程包括以下步驟(1準備數(shù)據(jù)(2)部署模型(3)評估模型(4)確定目的(5)訓(xùn)模型,以下個是確的?A、4->1->5->3->2B、4->5->1->3-2C、4->1->5->2->3D、4->5->1->2->3參考答案:A122.“知識表示是對知識的描述,即用一組符號把知識編碼成計算機可以接受的某種結(jié)構(gòu)。其表示方法是唯一的?!标P(guān)于上述描述,以下哪一個說法是正確的?A、該說法正確,知識表示是專家系統(tǒng)的一種B、該說法錯誤,知識表示方法不是唯一的。C、該說法正確,知識表示可用于專家規(guī)則,模糊推理D、該說法錯誤,知識表示的編碼方式是唯一的。參考答案:D123.“對抗生成網(wǎng)絡(luò)(GAN)可以用來生成假圖片達到以假亂真的目的。”關(guān)于上述描述,以下哪一個說法是正確的?A、該說法錯誤,GAN網(wǎng)絡(luò)屬于聚類模型B、該說法錯誤,GAN屬于回歸模型C、該說法正確,GAN網(wǎng)絡(luò)屬于分類模型D、該說法正確,GAN網(wǎng)絡(luò)性能很強,屬于生成學(xué)習(xí)模型參考答案:D124.“從有標簽的歷史數(shù)據(jù)中來預(yù)測下季度的商鋪營收會在20-30萬還是30-40萬”,這是一個什么問題?A、回歸問題B、規(guī)則問題C、分類問題D、聚類問題參考答案:C多選題1.智能感知包含的能力有那些選項A、學(xué)習(xí)和自適應(yīng)能力B、記憶和思維能力C、行為能力D、感知能力參考答案:ABCD2.在隨機森林中,最終的集成模型是通過什么策略決定模型結(jié)果?A、累加制B、求平均數(shù)C、投票制D、累乘制參考答案:BC3.在使用華為云通用文字識別做實驗時輸出結(jié)果包含非常多的信息。關(guān)于這些輸出信息,正確的有哪些選項?A、輸出信息中wordsblockcount代表識別的文字塊數(shù)目。B、輸出信息中的Statuscode表示服務(wù)狀態(tài),200表示訪問服務(wù)正常。C、wordsblocklist代表識別文字塊列表,輸出順序從左到右,先上后下。D、words代表文字塊識別結(jié)果,location代表文字塊的區(qū)域位置信息,列表開形式,包含文字區(qū)域四個頂點的二維坐標Xy)。參考答案:ABCD4.在深度學(xué)習(xí)任務(wù)中,遇到數(shù)據(jù)不平衡問題時,我們可以用以下哪些方法進行解決?A、批量刪除B、隨機過采樣C、隨機欠采樣D、合成采樣參考答案:BCD5.在人工智能領(lǐng)域,三大主義學(xué)派包含以下哪些選項?A、符號主義B、行為主義C、連接主義D、機器主義參考答案:ABC6.在進行圖像任務(wù)處理過程中,往往會對圖片進行歸一化操作,下面有關(guān)歸一化的描述,哪些選項是正確的?A、歸一化有可提高精度B、數(shù)據(jù)歸一化的主要目的是為了把不同來源的數(shù)據(jù)統(tǒng)一到同一數(shù)量級C、標準差歸一化是一種常用的歸一化方法D、數(shù)據(jù)歸一化可以消除指標之間的量綱影響參考答案:BD7.在構(gòu)建好神經(jīng)網(wǎng)絡(luò)net后,使用MinDspore.moDel進行訓(xùn)練,需要傳入net和以下哪些參數(shù)?A、損失函數(shù)B、評價指標C、正則化方法D、優(yōu)化器E、梯度更新策略參考答案:ABD8.在A.l應(yīng)用開發(fā)中,通常會對數(shù)據(jù)做一些操作,以下對數(shù)據(jù)的操作中可以實現(xiàn)增加模型泛化能力的有哪些?A、對文字類數(shù)據(jù)進行隨機刪除B、對音頻類數(shù)據(jù)添加噪音C、對圖片數(shù)據(jù)進行裁剪、反轉(zhuǎn)操作D、當(dāng)前數(shù)據(jù),增加數(shù)據(jù)量。參考答案:ABCD9.有大量銷售數(shù)據(jù),但沒有標簽的情況下,企業(yè)想甄別出VIP客戶,以下模型中合適的有?A、邏輯回歸B、SVMC、K-MeansD、層次聚類參考答案:CD10.以下有關(guān)語音合成實驗的說法中,正確的有哪些選項?A、語音合成技術(shù)的主要目的是幫助用戶將上傳的完整的錄音文件通過處理生成語音對應(yīng)的文字內(nèi)容B、用戶可根據(jù)API進行音色選擇、自定義音量、語速,為企業(yè)和個人提供個性化的發(fā)音服務(wù)C、華為云提供開放API的方式,幫助用戶通過實時訪問和調(diào)用API獲取語音合成結(jié)果,將用戶輸入的文字合成為音頻。D、語音合成,又稱文語轉(zhuǎn)換,是一種將文本轉(zhuǎn)換成逼真語音的服務(wù)。參考答案:ABCD11.以下選項中哪些是常用的深度學(xué)習(xí)激活函數(shù)﹖A、tanh函數(shù)B、ReLU函數(shù)C、Softsign函數(shù)D、Sigmoid函數(shù)參考答案:ABCD12.以下選項中,哪幾項是深度學(xué)習(xí)的特征?A、利用算法自動提取特征B、高維的權(quán)重參數(shù),海量的訓(xùn)練數(shù)據(jù)下可以獲得高性能。C、對計算機硬件需求較小。D、特征可解釋性強。參考答案:AB13.以下選項中,哪幾項是傳統(tǒng)機器學(xué)習(xí)的特征?A、適合小數(shù)據(jù)量訓(xùn)練,再增加數(shù)據(jù)量難以提升性能。B、對計算機硬件需求較個計算星級別有限,一般不需配用GPU顯卡故并行運算C、人工進行特征選擇D、特征可解釋性強參考答案:ABCD14.以下網(wǎng)絡(luò)模型格式中,可以用于保存訓(xùn)練參數(shù)和網(wǎng)絡(luò)模型的有哪些選項?A、NNXB、CheCkPointC、AIRD、MinD.IR參考答案:ABD15.以下屬于數(shù)據(jù)預(yù)處理的是哪些選項?A、數(shù)據(jù)降維B、數(shù)據(jù)清理C、模型訓(xùn)練D、數(shù)據(jù)標準化參考答案:ABD16.以下屬于決策樹主要構(gòu)建步驟的是哪些選項?A、構(gòu)建子學(xué)習(xí)器B、特征選擇C、決策樹生成D、剪枝參考答案:BCD17.以下全手人工智能技術(shù)發(fā)展趨勢的說法,正確的有哪幾項?A、框架,向著更易用的開發(fā)框架發(fā)展B、數(shù)據(jù),向著更完善的基礎(chǔ)數(shù)據(jù)服務(wù)產(chǎn)業(yè),更安全的數(shù)據(jù)共享發(fā)展C、算法,向著性能更優(yōu),體積更小的算法模型發(fā)展D、場景,向看不斷實破的行業(yè)應(yīng)用發(fā)展參考答案:ABCD18.以下哪些選項屬于循環(huán)神經(jīng)網(wǎng)絡(luò)的常見應(yīng)用案例?A、機器翻譯B、情緒分析C、生成詩歌D、文本分類參考答案:ABCD19.以下哪些選項屬于圖像識別技術(shù)應(yīng)用場景?A、智能音箱B、安防監(jiān)控C、無人駕駛D、智能機器人參考答案:BCD20.以下哪些選項屬于通用量子算法?A、Grover算法B、Shor算法C、HHL算法D、A*算法參考答案:ABC21.以下哪些選項屬于HMSCore提供的AI能力A、HiAIFounDA.tionB、MinDsporeLiteC、HiAIengineD、MLKit參考答案:ACD22.以下哪些選項屬于HArmonyOs的關(guān)鍵能力?A、分布式能力B、萬能卡片C、MLKitD、HMSCore參考答案:ABD23.以下哪些選項是人工智能深度學(xué)習(xí)框架?A、MindSporeB、PytorchC、TheandD、TensorFlow參考答案:ABCD24.以下哪些選項是目標檢測任務(wù)中常見的評價指標?A、mA.PB、IOU值ROC.D.B.LEU參考答案:AB25.以下哪些選項是決策樹用于劃分節(jié)點的依據(jù)?A、CARTB、信息熵C、ID3D、Gini系數(shù)參考答案:BD26.以下哪些選項是CNN網(wǎng)絡(luò)結(jié)構(gòu)?A、InceptionB、ertC、AlexNetD、VGG參考答案:CD27.以下哪些選項可以加速深度學(xué)習(xí)訓(xùn)練?A、TPUB、FPGAC、GPUD、AsCenD參考答案:ABCD28.以下哪些選項可以創(chuàng)建全零常量Tensor?A、tf.zeros()B、tf.zeros_like0C、tf.zeros_array)D、tf.zeros_list()參考答案:AB29.以下哪些項屬于循環(huán)神經(jīng)網(wǎng)絡(luò)中多對一的類型?A、音樂生成B、動作識別C、機器翻譯D、情感分析參考答案:BC30.以下哪些項屬于生成對抗網(wǎng)絡(luò)訓(xùn)練中的問題?A、不穩(wěn)定性B、模式崩塌C、過擬合D、欠擬合參考答案:ABC31.以下哪些項是神經(jīng)網(wǎng)絡(luò)在感知機的基礎(chǔ)上做的改進?A、引入了損失函數(shù)。B、輸出層的神經(jīng)元也可以不止一個,可以有多個輸出C、加入隱藏層,隱藏層可以有多層,增強模型的表達能力。D、對激活函數(shù)做擴展,包括SigmoiD函數(shù)、SoftmAx和ReLU等。參考答案:ABCD32.以下哪些項是多層感知機(全連接結(jié)構(gòu))在處理圖像時的弊端?A、多層感知機的輸入形式會破壞圖像像素的空間關(guān)系。B、多層感知機無法解決圖像不變性的問題。C、人是通過圖像的局部特征來理解圖像,而多層感知機中每個神經(jīng)元都處理整幅圖像的像素點。D、計算機存儲和處理圖像的方式會使多層感知知機模型參數(shù)巨大。參考答案:ABCD33.以下哪些項是單層感知機和邏輯回歸的主要區(qū)別?A、激活函數(shù)B、處理的任務(wù)C、損失函數(shù)D、優(yōu)化方法參考答案:AC34.以下哪些項是常用的擴充數(shù)據(jù)集的方法?A、對語音信號添加隨機噪聲B、在文本中進行近義詞替換C、對圖像進行幾何變換D、標簽平滑參考答案:ABC35.以下哪些項是Softsign激活函數(shù)相比于Sigmoid函數(shù)的優(yōu)勢A、輸出關(guān)于0點對稱B、沒有梯度消失問題C、梯度飽和速度變緩D、導(dǎo)數(shù)最大值為1參考答案:BD36.以下哪些項可以應(yīng)用在需要處理序列數(shù)據(jù)的場景中?A、CNNB、LSTMC、RNND、GRU參考答案:BCD37.以下哪些是語音處理研究的主題?A、語音處理B、聲紋識別C、語音識別D、語音喚醒參考答案:BCD38.以下哪些是屬于深度學(xué)習(xí)算法的激活函數(shù)?A、SigmoidB、ReLUC、TanhD、Sin參考答案:ABC39.以下哪些是Mindspore中Tensor常見的操作?A、switch)B、size()C、asnumpyoD、tensor_add(other:tensor)參考答案:BC40.以下哪些模型可以用來做分類?A、邏輯回歸B、支持向量機C、線性回歸D、決策樹參考答案:ABD41.以下哪些庫是在裝有AtlAs300(3000)加速卡的服務(wù)器中安裝DDK(DeviCeDevelopmentKit)之前需要安裝的?A、DeCorAtorB、setuptoolsC、numpyD、tensorflow參考答案:ABC42.以下哪些激活函數(shù)容易產(chǎn)生梯度消失問題?A、ReLUB、SoftplusC、TAnhD、SigmoiD參考答案:CD43.以下哪些服務(wù)屬于華為EI服務(wù)家族A、EI大數(shù)據(jù)服務(wù)B、自然語言處理C、對話機器人D、EI基礎(chǔ)服務(wù)參考答案:ABCD44.以下哪幾項屬于MinDspore中與nn(神經(jīng)網(wǎng)絡(luò))相關(guān)算子?A、FlAttenB、SoftmAxC、SigmoiDD、Mul參考答案:ABC45.以下哪幾個方面屬于華為的全棧AI解決方案?A、sCenDB、CANNC、MoDelArtsD、MinDSpore參考答案:ABCD46.以下關(guān)于張量說法正確的是?A、一個矩陣是一個二階張量B、四階及以上的張量,如四維及以上的向量一樣不有直接的幾何意義C、數(shù)組是一個張量D、TensorFlow中的運算與模型優(yōu)化過程都是基于張量完成的參考答案:ABCD47.以下關(guān)于張量的敘述,正確的是哪些項?A、一階張量可以理解成一個向量B、張量就是數(shù)據(jù)矩陣C、張量是基于向量和矩陣的推廣D、MinDspore中最基礎(chǔ)的數(shù)據(jù)結(jié)構(gòu)是張量參考答案:ACD48.以下關(guān)于臟數(shù)據(jù)的描述中,哪些選項是正確的?A、臟數(shù)據(jù)中存在矛盾的、有差異的記錄。B、臟數(shù)據(jù)中常缺少屬性或者包含一些缺失的值C、臟數(shù)據(jù)包含太多錯誤信息,因此無法直接用于機器學(xué)習(xí)D、臟數(shù)據(jù)包含錯誤的記錄或者異常點。參考答案:ABCD49.以下關(guān)于小批量梯度下降算法描述中,正確的是哪幾項?A、MBGD兼顧了對率和核度的穩(wěn)定性,容易沖過局部極小值,是實際工作中最常用的梯度下降算法B、MBGD每次使用一個批次的樣本進行更新,因此速度也非常慢在實際場景中不被接受C、MBGD每次使用小批固定尺寸的樣例來更新權(quán)值D、MBGD中的BAtChSize是一個超參數(shù),可由人為設(shè)定參考答案:ACD50.以下關(guān)于梯度下降法的描述錯誤的是哪些項?A、負梯度方向是函數(shù)下降最快的方向B、梯度下降法一定夠在凸優(yōu)化問題中取得全局極值點C、梯度下降法不一定能夠在凸優(yōu)化問題中取得全局極值點D、負梯度方向是函數(shù)上升最快的方向參考答案:BD51.以下關(guān)于神經(jīng)網(wǎng)絡(luò)的描述中,正確的是哪幾項?A、人工神經(jīng)網(wǎng)絡(luò)是一種旨在模仿人腦結(jié)構(gòu)及其功能的信息處理系統(tǒng)。B、人工神經(jīng)網(wǎng)絡(luò)完全基于數(shù)學(xué),與仿生學(xué)沒有關(guān)系。C、人工神經(jīng)網(wǎng)絡(luò)反映了人腦功能的若干基本特征,如并行信息處理、學(xué)習(xí)、聯(lián)想、模式分類、記憶等。D、人工神經(jīng)網(wǎng)絡(luò)是由人工神經(jīng)元互連組成的網(wǎng)絡(luò),它是從微觀結(jié)構(gòu)和功能上對人腦的抽象、簡化,是模擬人類智能的一條重要途徑.參考答案:ACD52.以下關(guān)于哪些結(jié)構(gòu)屬于LSTM?A、輸出門B、遺忘門C、記憶門D、輸入門參考答案:ABD53.以下關(guān)于模型偏差和方差之間的組合,說法正確的有哪幾項?A、一個好的模型,方差和偏差都要求比較低B、高偏差+低方差,可能造成欠擬合C、低偏差+高方差可能造成欠擬合D、高偏差+高方差模型可以視為不良模型參考答案:ABD54.以下關(guān)于卷積層中零填充(pADDing)作用的描述,正確的是哪些項?A、增大感受野B、提取圖像邊緣的信息C、保證輸出特征圖的尺寸滿足要求D、防止過擬合參考答案:ABC55.以下關(guān)于機器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C、機器學(xué)習(xí)中模型的映射關(guān)系是自動學(xué)習(xí)的D、機器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的參考答案:ABC56.以下關(guān)于回歸分析的說法中,哪些選項是正確的?A、回歸分析是一種有監(jiān)督學(xué)習(xí)回歸分析是一種無監(jiān)督學(xué)習(xí)B、回歸分析是一種無監(jiān)督學(xué)習(xí)C、追加了絕對值損失(L1正則)的線性回歸叫做Lsso回歸D、回歸分析是用來確定兩種或兩種以上變量間相互依賴的定量關(guān)系的一種統(tǒng)計分析方法參考答案:ACD57.以下關(guān)于反向傳播算法的描述,正確的是哪些項?A、反向傳播的本質(zhì)是鏈式求導(dǎo)法則。B、反向傳播的目的是計算梯度,更新參數(shù)。C、誤差反向傳播之前需要先進行信號正向傳播D、反向傳播過程中需要計算每個神經(jīng)元的誤差項。參考答案:ABCD58.以下關(guān)于傳統(tǒng)機器學(xué)習(xí)的描述,錯誤的是哪些選項?A、適合小數(shù)據(jù)量訓(xùn)練B、需要用GPU做加速C、需要人工做特征選擇D、特征可解釋性差參考答案:BD59.以下關(guān)于池化層的描述,正確的是哪些項?A、最大池化選擇一小片正方形區(qū)域中最大的那個值作為這片小區(qū)域的代表。B、池化層的參數(shù)同樣需要通過梯度下降和反向傳播進行更新。C、平均池化選擇一小片正方形區(qū)域中的均值作為這片小區(qū)域的代表。D、常用的池化有最大池化和平均池化。參考答案:ACD60.以下關(guān)于層次聚類的說法中,哪些選項是正確的?A、使用層次聚類時、數(shù)據(jù)集的劃分可采用“自下向上”的聚合策略。B、層次聚類幫助形成樹形的聚類結(jié)構(gòu)。C、層次聚類得到的結(jié)果中、樹根擁有所有樣本的唯-聚類。D、層次聚類到的結(jié)里中,葉子是僅有一個樣本的聚類。參考答案:ABCD61.以下關(guān)于MinDspore自述中,哪些選項是正確的?A、包MinDspore支持自動整圖切分B、Minispore只能采用手動模型并行,需要設(shè)計模型切分,感知集群拓撲,開發(fā)難度高,難以保證高性能,難以調(diào)優(yōu)。C、MinDspore支持集群拓撲感知調(diào)度D、超大規(guī)模模型實現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn)參考答案:ACD62.以下關(guān)于MinDspore自動并行關(guān)鍵技術(shù)的描述中,哪些選項是正確的?A、MinDspore只能采用手動模型并行,需要設(shè)計模型切分,感知集群拓撲,開發(fā)難度高,難以保證高性能,難以調(diào)優(yōu)。B、MinDspore支持自動整圖切分C、MinDspore可以應(yīng)對超大規(guī)模模型實現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn)D、MinDspore支持集群拓撲感知調(diào)度。參考答案:BCD63.以下關(guān)于LSTM的描述,正確的是哪幾項?A、門可以選擇性地讓信息通過它們由SigmoiD神經(jīng)網(wǎng)絡(luò)層和逐點乘法運算組成B、LSTM可以通過“門”的精細結(jié)構(gòu)向細胞狀態(tài)添加或移除信息C、LSTM的關(guān)鍵健是細胞狀態(tài),細胞狀態(tài)貫穿整個鏈條,只有一些次要的線性交互作用,信息很容易以不變的方式流過D、LSTM有兩種門用來保持和控制細胞狀態(tài):遺忘門和輸入門參考答案:ABCD64.以下關(guān)于GRU的描述,正確的是哪幾項A、GRU是LSTM的一種變體B、GRU將遺忘門和輸入門合成了一個單一的更新門C、GRU會拼接上一時刻的輸出和當(dāng)前時刻的輸入D、GRU混合了細胞狀態(tài)和隱藏狀態(tài)參考答案:ABC65.以下關(guān)于GPU特征的描述,正確的是哪些選項?A、大量緩存降低時延基于大吞吐量設(shè)計擅長邏輯控制B、基于大吞吐量設(shè)計C、擅長邏輯控制D、擅長計算密集和易于并行的程序參考答案:BD66.以下不屬于通用機器學(xué)習(xí)整體流程的是哪些選項?A、模型部臀與整合B、模型評估測試C、模型報告撰寫D、業(yè)務(wù)目標分析參考答案:CD67.下面哪些屬于AI的應(yīng)用領(lǐng)域A、智慧醫(yī)療B、智慧教育C、智慧城市D、智慧家居參考答案:ABCD68.下面哪些屬于AI的應(yīng)用領(lǐng)域?A、智慧教育B、智慧城市C、智慧家居D、智慧醫(yī)療參考答案:ABCD69.下面哪幾項是屬于華為云通用APIS?A、ImAgeB、ImAgeSeArC.hC、nLPD、OCR參考答案:AD70.下列屬于AI涉及的子領(lǐng)域的有哪些選項?A、知識工程B、人機交互C、數(shù)據(jù)挖掘D、機器學(xué)習(xí)參考答案:ABCD71.下列哪些選項屬于tf.keras常用的關(guān)于網(wǎng)絡(luò)編譯的方法與接口?A、optimizersB、evaluateC、ompileD、Model參考答案:AC72.下列哪些屬于AI的子領(lǐng)域?A、機器學(xué)習(xí)B、計算機視覺C、語音識別D、自然語言處理參考答案:ABCD73.下列哪幾項是圖引擎服務(wù)可以應(yīng)用的場景?A、風(fēng)控B、銷量預(yù)C、知識圖譜D、推薦參考答案:ABCD74.下列哪幾項是華為云圖引擎服務(wù)(GrAphEngineServiCe)的優(yōu)勢?A、豐富的圖分析算法庫B、高性能圖計算內(nèi)核C、分布式高性能圖存儲擎D、語音交互參考答案:ABCD75.下列關(guān)于通用表格識別服務(wù)返回的type字段說法正確的是?A、type代表文字識別區(qū)域類型B、type為text時代表文本識別區(qū)域C、type代表表格類型D、type為table時代表格識別區(qū)域參考答案:BD76.下列關(guān)于通用表格識別服務(wù)的說法正確的是?A、rows代表文字塊占用的行信息,編號從0開始,列表形式B、colums代表文字塊占用的列信息,編號從0開始,列表形式C、傳入的圖像數(shù)據(jù)需要經(jīng)過base64編碼D、words代表文字塊識別結(jié)果參考答案:ABCD77.下列關(guān)于護照識別服務(wù)的說法正確的是?A、countrycode代表護照簽發(fā)國家的國家碼B、nationality代表持有人國籍C、passportnumber代表護照號碼D、confidence相關(guān)字段的置信度信息,置信度越大,表示本次識別的對應(yīng)字段的可靠性越高,在統(tǒng)計意義上,置信度越大,準確率越高參考答案:ABC78.下列對早期的全連接方式不適用于圖像特征提取的說法,哪些選項是正確的?A、計算速度快B、充分利用像素間的位置信息C、參數(shù)數(shù)量太多D、容易過擬合參考答案:CD79.問診機器人可能涉及以下哪些技術(shù)A、語音識別B、圖像識別C、專家系統(tǒng)D、知識圖譜參考答案:ACD80.圖引擎服務(wù)(GrAphEngineServiCe)是針對以“關(guān)系”為基礎(chǔ)的“圖”結(jié)構(gòu)數(shù)據(jù),進行一體化查詢、分析的服務(wù)。下列哪幾項是華為云圖引擎服務(wù)的優(yōu)勢?A、一體化B、簡單易用C、大規(guī)模D、高性能參考答案:ABCD81.圖像翻拍檢測服務(wù)調(diào)用成功時標簽sugestion有哪些情況?A、CertAintyB、FALSEC、unCertAintyD、TRUE參考答案:BCD82.圖像標簽服務(wù)調(diào)用成功時返回的type包含下列哪些類型?A、oBjeCt:實體標簽B、ConCept:概念標簽C、sport:運動標簽D、sCene:場景標簽參考答案:ABCD83.調(diào)用華為云語音合成pythonAPI時,需要初始化客戶端參數(shù),主要通過TtsCustomizAtionClient函數(shù)完成,以下初始化參數(shù)中,必須項有哪幾項?A、serviCe-enDpointB、regionC、skD、Ak參考答案:ABCD84.使用裝有Atls300(3000)加速卡的服務(wù)器編譯運行程序時需要檢查哪些條件?A、完成Atlas驅(qū)動安裝B、已安裝CUDA軟件包C、已安裝Cmake編譯工具D、完成環(huán)境配置參考答案:ACD85.昇騰AI處理器支持接入以下哪些種類的內(nèi)存?A、SATAB、SSDC、HBMD、DR參考答案:CD86.神經(jīng)網(wǎng)絡(luò)深度過深容易出現(xiàn)以下哪一種問題?A、梯度消失B、梯度爆炸C、訓(xùn)練數(shù)據(jù)丟失D、模型欠擬合參考答案:AB87.深度學(xué)習(xí)中以下哪些步驟是由模型自動完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取參考答案:BD88.深度學(xué)習(xí)在以下哪些領(lǐng)域當(dāng)中有廣泛的應(yīng)用?A、自然語言處理B、輔助決策C、圖像處理D、語音處理參考答案:ABCD89.人工智能研究的領(lǐng)域包括以下哪些選項?A、計算智能B、符號智能C、機器感知D、機器學(xué)習(xí)參考答案:ABCD90.人工智能包括哪些要素?A、算法B、場景C、算力D、數(shù)據(jù)參考答案:ABCD91.企業(yè)智能EI可以應(yīng)用于下哪些場景?A、智慧城市B、智能制造C、智能金融D、智政政務(wù)參考答案:ABCD92.哪些目錄是ME模塊組件包含的?A、trAinB、CmAkeC、moDel_zooD、mm參考答案:AC93.某企業(yè)在部署MinDsporepython開發(fā)環(huán)境時,可以選擇以下哪些安裝方式?A、D.oCkerB、源碼安裝C、PIPD、ConDA參考答案:ACD94.量子計算可以應(yīng)用在以下哪些領(lǐng)域?A、生物計算B、材料模擬C、物流交通D、金融科技參考答案:BCD95.截止2019年底,TensorFlow發(fā)布過的版本有?A、1B、3C、2D、0.1參考答案:ACD96.計算機視覺的應(yīng)用場景有哪些?A、語音導(dǎo)航B、智能相冊C、圖片搜索D、視頻動作分析參考答案:BCD97.基于華為云OCR服務(wù),企業(yè)可以以實現(xiàn)以下哪些業(yè)務(wù)?A、合同錄入與審核B、門診檢驗報告單掃描錄入C、快遞單自動填寫D、貓狗圖片分類參考答案:ABC98.基因知識圖譜具備以下哪幾種能力?A、輔助病例診斷B、疾病預(yù)測及診斷C、基因檢測報告生成D、實體查詢參考答案:ACD99.華為云文字識另別OCR技術(shù)的優(yōu)勢有哪幾項?A、識別精度高B、降低成本C、高適應(yīng)性D、快速高效參考答案:ABCD100.華為云可提供的AI服務(wù)有以下哪幾項?A、文本識別OCRB、語音交互C、圖引擎服務(wù)D、圖像搜索參考答案:ABCD101.華為云MoDelArts是面向AI開發(fā)的一戰(zhàn)式開發(fā)平臺,以下哪些功能在MoDelArts上可以具備?A、數(shù)據(jù)治理B、AI市場C、可視化工作流D、自動學(xué)習(xí)參考答案:ABCD102.過擬合問題是模型在訓(xùn)練集表現(xiàn)較好,但在測試集表現(xiàn)較差,為了避免過擬合問題,我們可以采取以下哪些方法?A、數(shù)據(jù)集合擴充B、L1和L2正則化C、提前停止訓(xùn)練D、使用Dropout方法參考答案:ABCD103.關(guān)于人工智能技術(shù)的爭議說法,以下哪些選項是正確的?A、I會取代那些重復(fù)性強、創(chuàng)造性低,弱社交的工作。B、隨著計算機視覺的發(fā)展,圖像及視頻的可信度也越來越低?,F(xiàn)在我們可以通過PS,GAN等技術(shù)制作假圖像,讓人難分真?zhèn)?。C、未來人工智能將會替代所有的工作,包括具有強社交屬性的行業(yè)。D、反向傳播計算梯度人工智能是非常危險的技術(shù),因此必須停止人工智能的研究。參考答案:AB104.關(guān)于模型容量的說法,以下哪些選項是正確的?A、容量和數(shù)據(jù)量以及參數(shù)數(shù)量沒有太大的關(guān)系B、容量不足的模型不能解決復(fù)雜任務(wù),可能出現(xiàn)欠擬合C、容量高的模型能夠解決復(fù)雜的任務(wù),但是其容量高于任務(wù)所需時,有可能會過擬合D、容量與執(zhí)行任務(wù)的復(fù)雜度和所提供訓(xùn)練數(shù)據(jù)的數(shù)量匹配時,算法效果通常最佳。參考答案:BCD105.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、池化操作采用掃描窗口實現(xiàn)B、池化層可以起到降維的作用C、常用的池化方法有最大池化和平均池化D、經(jīng)過池化的特征圖像變小了參考答案:ABCD106.關(guān)于矩陣分解,以下正確的是?A、只有方陣才能進行奇異分解B、一個矩陣乘以其特征向量后,向量只發(fā)生伸縮變換。C、對矩陣A進行奇異值分解,其左奇異矩陣與右奇異矩陣都是正交矩陣D、奇異值越大,其所對應(yīng)的奇異向量上包含的信息量越大。參考答案:BCD107.關(guān)于反向傳播算法,下列哪些說法是正確的?A、反向傳播算法使得神經(jīng)網(wǎng)絡(luò)的效果有了更大的提升。B、如果網(wǎng)絡(luò)中存在數(shù)個隱藏層。也可以使用求導(dǎo)的鏈式法則逐層求導(dǎo),選代求解最優(yōu)參數(shù)C、損失函數(shù)中產(chǎn)生的誤差,是通過輸入層到隱藏層到輸出層逐漸積累形成的。D、反向傳播又叫誤差反向傳播。參考答案:ABCD108.根據(jù)華為云EI智能平臺,可以提供以下哪些解決方案?A、人流統(tǒng)計方案B、基于知識圖譜的政策查詢方案C、車輛識別方案D、入侵識別方案參考答案:ABCD109.從技術(shù)架構(gòu)來看AI芯片的分類包括?A、FPGAB、CPUC、GPUD、ASIC參考答案:ABCD110.處理實際問題時,以下什么情況下該使用機器學(xué)習(xí)?A、規(guī)則十分復(fù)雜或者無法描述,比如人臉識別和語音識別B、任務(wù)的規(guī)會隨時間改變,比如生產(chǎn)線上的瑕疵檢測,比如預(yù)測商品銷售的趨勢C、數(shù)據(jù)分布本身隨時間變化,需要程序不停的重新適應(yīng)D、規(guī)則復(fù)雜程度低且問題的規(guī)模較小的問題參考答案:ABC111.常見的聚類算法有哪些?A、密度聚類B、層次聚類C、譜聚類D、K-meAns參考答案:ABCD112.常見的聚類算法有哪些?A、密度聚類B、層次聚類C、譜聚類D、KmeAns參考答案:ABCD113.softmA.x函數(shù)在分類任務(wù)中經(jīng)常被使用,下列關(guān)于softmA.x函數(shù)的描述,哪些選項是正確的?A、是二分類函數(shù)sigmoiD的推廣B、softmAx函數(shù)又稱作歸一化指數(shù)函教C、SoftmAx回歸模型是解決二分類回歸問題的算法D、softmAx函數(shù)經(jīng)常與交叉嫡損失函數(shù)聯(lián)合使用參考答案:ABD114.Pytorch提供的Tensor,可以極大地加速計算,其中的Tensor支持以下哪些硬件?A、GPUB、CPUC、Ascend310D、Ascend910參考答案:AB115.ModelArts中自動學(xué)習(xí)功能不需要代碼編寫和模型開發(fā)經(jīng)驗。下列哪些選項屬于ModelArts中自動學(xué)習(xí)的功能?A、自動設(shè)計模型B、自動訓(xùn)練C、部署模型D、自動調(diào)參E、自動壓縮參考答案:ABCDE116.ModelArts中訓(xùn)練平臺可以支持的開發(fā)模式有哪幾種?A、云上開發(fā)(IDE+PyCharmToolKit)B、云上開發(fā)(Notebook+SDK)C、本地開發(fā)(IDE+PyCharmToolKit)D、本地開發(fā)(Notebook+SDK)參考答案:BCD117.MinDspore模型在訓(xùn)練完成后,可以部署在以下哪些選項?A、華為云EC.SB、AtlAs300TProC、AtlAs800D、HUAWEIMAte50Pro參考答案:ABC118.MinDspore可以應(yīng)對超大規(guī)模模型實現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn)以下關(guān)于KNN的說法中,哪些說項是正確的?A、KNN通常需要非常大的計算量。B、KNN在做回歸預(yù)測時,一般采用平均值法。C、KNN在分類預(yù)測時,一般采用多數(shù)表決法。D、KNN是一種無監(jiān)督聚類算法參考答案:ABC119.HUA.WEIHiAI賦能A.PP哪些價值?A、安全B、穩(wěn)定C、實時D、隨時參考答案:ABCD120.HNSCore支持以下哪些操作系統(tǒng)?A、nDroiDB、HArmonyOsC、WinDowsD、IOS參考答案:ABCD121.HiAI移動計算平臺有哪些優(yōu)點?A、快速上手的源碼B、多樣的工具鏈C、完善的文檔D、豐富的API參考答案:ABCD122.AtlAs300AI加速卡適用于以下哪些場景?A、醫(yī)療影像分析B、視頻分析C、語音服務(wù)D、OCR參考答案:ABCD123.AsCenD.芯片是華為設(shè)計的AI芯片,其特點是哪幾項?A、高功耗B、高算力C、低功耗D、低算力參考答案:BC判斷題1.裝飾器的作用是為函數(shù)添加新的功能,而且不會改變函數(shù)的任何屬性。A、正確B、錯誤參考答案:B2.智能音箱是語音處理典型的應(yīng)用場景之一。A、正確B、錯誤參考答案:A3.在使用華為云圖像標簽接口函數(shù)image_tagging_aksk()時,第七個參數(shù)指的是置信度的閾值,高于此置信數(shù)的標簽將不會被返回A、正確B、錯誤參考答案:A4.在實際項目中,在構(gòu)建模型之前,數(shù)據(jù)清理與特征工程是非常重要的A、正確B、錯誤參考答案:A5.在機器學(xué)習(xí)中,特征越多,模型準確率越高。A、正確B、錯誤參考答案:B6.在超參數(shù)搜索空間較大的情況下,采用隨機搜索,會優(yōu)于網(wǎng)格搜索的效果A、正確B、錯誤參考答案:A7.在MindSpore中,常用的稀疏張量的表達形式為:<indices:Iensr,values:Tensor,Shape:Tensor),基于此試,MindSpore中內(nèi)置了稀疏張量結(jié)構(gòu):CSRTensor、COOTensor和RowTensor。A、正確B、錯誤參考答案:A8.語音識別指的是將音頻數(shù)據(jù)識別為文本數(shù)據(jù)A、正確B、錯誤參考答案:A9.用案例開發(fā)的典型應(yīng)用開發(fā)過程不包含數(shù)據(jù)加載。A、正確B、錯誤參考答案:B10.應(yīng)用案例開發(fā)的經(jīng)典應(yīng)用開發(fā)過程包含模型評價A、正確B、錯誤參考答案:A11.因為全連接層的存在,卷積神經(jīng)網(wǎng)絡(luò)輸入圖像的尺寸必須保持一致。A、正確B、錯誤參考答案:B12.異騰芯片獨特的達芬奇3DCube框架,使得芯片具有高算力,高能效,可擴展的優(yōu)點A、正確B、錯誤參考答案:13.一階張量是一個標量。A、正確B、錯誤參考答案:B14.一個向量乘以一個正交矩陣后。矩陣對向量值產(chǎn)生伸縮作用而沒有旋轉(zhuǎn)和空間映射作用。A、正確B、錯誤參考答案:B15.一個矩陣就對應(yīng)一個線性變換,通過矩陣乘法實現(xiàn)A、正確B、錯誤參考答案:A16.訓(xùn)練誤差會隨著模型復(fù)雜度的上升不斷減小。A、正確B、錯誤參考答案:A17.循環(huán)神經(jīng)網(wǎng)絡(luò)狀態(tài)的傳輸都是從前往后單向的。A、正確B、錯誤參考答案:B18.循環(huán)神經(jīng)網(wǎng)絡(luò)可以捕捉序列化數(shù)據(jù)中的動態(tài)信息。A、正確B、錯誤參考答案:A19.循環(huán)神經(jīng)網(wǎng)絡(luò)具有記憶功能A、正確B、錯誤參考答案:A20.線性回歸算法預(yù)測房價時,如果模型出現(xiàn)欠擬合,可以使用帶有正則項的LASSO回歸或者Ridge回歸,通過并調(diào)節(jié)超參數(shù)的優(yōu)化能力A、正確B、錯誤參考答案:B21.線性回歸的損失函數(shù)中加入L1正則化,此時該回歸叫做Lasso回歸A、正確B、錯誤參考答案:A22.為保證模型精度及避免硬件差異帶來的影響,Mindspore的并行訓(xùn)練需要相同型號的設(shè)備(如:全部都使用Atlas100TPro者全部都用NVIDIAV100。A、正確B、錯誤參考答案:B23.網(wǎng)絡(luò)搜索是一種參數(shù)調(diào)節(jié)的方法。A、正確B、錯誤參考答案:A24.圖像的空間聯(lián)系是局部的像素聯(lián)系較為緊密,而距離較遠的像素相關(guān)性較弱。A、正確B、錯誤參考答案:A25.圖像標簽服務(wù)返回的tag可以有多個。A、正確B、錯誤參考答案:A26.通常情況下,梯度下降方法在接近目標點區(qū)域的極小范圍內(nèi),下降的幅度越來越大,但是在目標點一定范圍內(nèi)可能存在梯度不穩(wěn)定的情況。A、正確B、錯誤參考答案:A27.梯度向量的方向,指向函數(shù)增長最快的方向,梯度下降沿著梯度向量的方向A、正確B、錯誤參考答案:B28.梯度下降法的目的是求得損失函數(shù)的最小值。A、正確B、錯誤參考答案:A29.梯度的方向是最大方向?qū)?shù)的方向A、正確B、錯誤參考答案:A30.特征選擇過濾法的局限性,過濾方法傾向于選擇冗余的變量,因為它沒有考慮特征之間的關(guān)系。A、正確B、錯誤參考答案:A31.隨機梯度下降算法速度比較快,但損失函數(shù)值往往會在極值附近橫沖直撞,難以收斂到極值。A、正確B、錯誤參考答案:A32.數(shù)據(jù)不一致問題是指數(shù)據(jù)集中存在矛盾,有差異的記錄A、正確B、錯誤參考答案:A33.使用圖像標簽服務(wù)時,可以調(diào)用接口Image_tagging_aksk(ak,sk,encode_to_base64(imc_tag_path),",'en',5,60),Image_tagging_akski這個函數(shù)的前2個參教分別是ak和sk。第3個參數(shù)是圖像數(shù)據(jù)進行編碼A、正確B、錯誤參考答案:B34.使用隨機梯度下降時,因為每次訓(xùn)練選取的樣本是隨機的,這本身就帶來了不穩(wěn)定性,會導(dǎo)致?lián)p失函數(shù)在下降到最低點的過程中,收斂過程不穩(wěn)定。A、正確B、錯誤參考答案:A35.使用mindspore.nn.conv2d構(gòu)建二位卷積神經(jīng)網(wǎng)絡(luò)時,默認情況下,接受圖像數(shù)據(jù)格式為(數(shù)量,通道,高度,寬度)A、正確B、錯誤參考答案:B36.使用Mindspore.nn.Conv2d(1,3,5,has_bias=False,weight_init=’normal')接口,可以創(chuàng)建輸入通道數(shù)為1、輸出的通道數(shù)為5、卷積核大小為3*3、使用norma1算子初始化參數(shù)的卷積層。A、正確B、錯誤參考答案:B37.昇騰AI處理器中包含AICPU控制整個AICore的運算,完成整個程序的循環(huán)控制分支判斷。A、正確B、錯誤參考答案:B38.生成對抗網(wǎng)絡(luò)中,判別網(wǎng)絡(luò)的輸入主要是生成網(wǎng)絡(luò)生成的樣本數(shù)據(jù)A、正確B、錯誤參考答案:A39.深度學(xué)習(xí)中,只能在訓(xùn)練階段使用Dropout技術(shù)。A、正確B、錯誤參考答案:A40.深度學(xué)習(xí)是一種基于無監(jiān)督特征學(xué)習(xí)和特征層次結(jié)構(gòu)學(xué)習(xí)的模型,在計算機視覺,語音識別,自然語言處理等領(lǐng)域有著突出的優(yōu)勢,A、正確B、錯誤參考答案:A41.人臉搜索服務(wù)中,如果想刪除某個人臉集,我們可以使用這樣的代碼。Frs_elient.get.v2().get_face_set_service().delete_face_set(***)其中(***)是填入實際的人臉集名稱。A、正確B、錯誤參考答案:A42.人臉檢測服務(wù)在測試圖像中沒有人臉時會報錯。A、正確B、錯誤參考答案:B43.人臉比對服務(wù)調(diào)用時只傳入一張圖像也可以A、正確B、錯誤參考答案:B44.人工智能學(xué)科研究的是如何使機器(計算機)具有智能或者說如何利用計算機實現(xiàn)智能的理論、方法和技術(shù)A、正確B、錯誤參考答案:A45.人工智能和深度學(xué)習(xí)是兩個互不相關(guān)的技術(shù)A、正確B、錯誤參考答案:B46.人工智能的四要素是數(shù)據(jù)、算法、算力、場景。要滿足這四要素,我們需要將AI與云計算、大數(shù)據(jù)和物聯(lián)網(wǎng)結(jié)合,使其更好地服務(wù)社會。A、正確B、錯誤參考答案:A47.全連接層一般位于整個網(wǎng)絡(luò)的中間位置,用于減少參數(shù)量A、正確B、錯誤參考答案:B48.前饋神經(jīng)網(wǎng)絡(luò)接收前一層的輸出,并輸出給下一層采用一種單向多層的結(jié)構(gòu),每一層包含若干個神經(jīng)元,同一層的神經(jīng)元之間沒有相互連接,層間信息的傳送只沿一個方向進行。A、正確B、錯誤參考答案:A49.樸素貝葉斯算法不需要樣本特征之間的獨立同分布。A、正確B、錯誤參考答案:B50.目前算法的研究,朝著學(xué)習(xí)能力更強、性能更優(yōu)的方向發(fā)展,但是對于算法的體積要求沒有那么高。A、正確B、錯誤參考答案:B51.聯(lián)邦學(xué)習(xí)在保證數(shù)據(jù)隱私安全的前提下,利用不同數(shù)據(jù)源合作訓(xùn)練模型,進步突破數(shù)據(jù)的瓶頸。A、正確B、錯誤參考答案:A52.可以對非方陣進行奇異值分解A、正確B、錯誤參考答案:A53.卷積神經(jīng)網(wǎng)絡(luò)中的卷積層通常用于提取局部特征。A、正確B、錯誤參考答案:A54.卷積神經(jīng)網(wǎng)絡(luò)中,卷積層的輸出可以直接作為全連接層的輸入進行進一步計算。A、正確B、錯誤參考答案:A55.具有高級智能駕駛的汽車,只需要搭載激光雷達即可完成所有感知任務(wù)。A、正確B、錯誤參考答案:B56.靜態(tài)圖是Pytorch的特點之一。A、正確B、錯誤參考答案:B57.計算機視覺是研究如何讓計算機“看”的科學(xué)。A、正確B、錯誤參考答案:A58.激活函數(shù)的作用是將線性映射變成非線性映射A、正確B、錯誤參考答案:A59.機器學(xué)習(xí)和深度學(xué)習(xí)都是人工智能的一部分,但是兩者又相互獨立。A、正確B、錯誤參考答案:B60.機器學(xué)習(xí)(包括深度學(xué)習(xí)分支)是研究“學(xué)習(xí)算法”的一門學(xué)問。.A、正確B、錯誤參考答案:A61.華為云圖像內(nèi)容審核API的請求參數(shù)中,categories表示檢測場景,若該值為空或無此參數(shù)則表示politics和terrorism都檢測,但不包含porn場景A、正確B、錯誤參考答案:A62.華為云提供的一句話識別服務(wù)需要配置property參數(shù),表示所使用的模型特征串,通常是“語種來樣率領(lǐng)域”的形式,采樣率需要與音頻采梓率保持一致。A、正確B、錯誤參考答案:A63.華為云OB.S(對象存儲服務(wù))服務(wù)可自動提取票據(jù)的關(guān)鍵信息,幫助員工自動填寫報銷單,同時結(jié)合RPA自動化機器人,可以大幅提升財務(wù)報銷工作效率。A、正確B、錯誤參考答案:B64.華為的AI全場景只提供公有云服務(wù)。A、正確B、錯誤參考答案:B65.華為的AI全場景包括公有云、私有云、各種邊緣計算、物聯(lián)網(wǎng)行業(yè)終端以及消費者終端等端、邊、云的部署環(huán)境A、正確B、錯誤參考答案:A66.華為HIAI提供了三層能力開放,HiAIFoundationHIAIengineHiAicloudA、正確B、錯誤參考答案:B67.護照識別服務(wù)的圖像數(shù)據(jù)是不需要用base64編碼的。A、正確B、錯誤參考答案:B68.高級智能駕駛車輛不僅能夠解放人類的雙手,同時還能降低交通事故發(fā)生的概率。A、正確B、錯誤參考答案:A69.二分類過程中,我們可將任意類別設(shè)為正例。A、正確B、錯誤參考答案:A70.多項式回歸當(dāng)中,模型的公式存在平方項,因此其不是線性的。A、正確B、錯誤參考答案:B71.對一個矩陣進行奇異值分解,其奇異矩陣一定是一個方陣且奇異值按從大到小的順序排列。A、正確B、錯誤參考答案:B72.當(dāng)需要去預(yù)測下周股票能帶來多少收益時會使用回歸算法。A、正確B、錯誤參考答案:A73.單層感知機和

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論