HCIA-AIH13-311v3.5認證考試題(附答案)_第1頁
HCIA-AIH13-311v3.5認證考試題(附答案)_第2頁
HCIA-AIH13-311v3.5認證考試題(附答案)_第3頁
HCIA-AIH13-311v3.5認證考試題(附答案)_第4頁
HCIA-AIH13-311v3.5認證考試題(附答案)_第5頁
已閱讀5頁,還剩124頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

HCIA-AIH13-311v3.5認證考試題(附答案)單選題1.主成對抗網(wǎng)絡(luò)(GAN)是一種深度學(xué)習(xí)模型,以下哪一個選項屬于它的基本結(jié)構(gòu)?A、判別器B、感知器C、驗證器D、對抗器參考答案:A2.知識圖譜構(gòu)建過程中需要進行信息抽取,以下哪一項不屬于信息抽取的關(guān)鍵技術(shù)?A、屬性抽取B、參數(shù)抽取C、實體抽取D、關(guān)系抽取參考答案:B3.長短記憶網(wǎng)絡(luò)是基于循環(huán)神經(jīng)網(wǎng)絡(luò)發(fā)展而來的,長短袖經(jīng)網(wǎng)絡(luò)主要解決了循環(huán)神經(jīng)網(wǎng)絡(luò)的什么問題?A、過擬合問題B、梯度爆炸問題C、梯度消失問題D、欠擬合問題參考答案:C4.在綜合實驗的語音合成實驗中如果想要設(shè)置音量,可以使用下面哪一個方法?A、Ttsc_request=ItsCustomRequest(textEttsC_request.setpitch(0)B、Ttsc_request=TtsCustomRequest(test):ttsc_request.set_speed(0)C、Ttsc_request=TtsCustomRequest(textY):ttsc_request.set_sle_rate('800D、Ttsc_request=TtsCustomRequest(text):ttsc_request.set_volume(50)參考答案:D5.在智慧醫(yī)療場景下,下列技術(shù)與應(yīng)用對應(yīng)錯誤的是哪一項?A、疾病風(fēng)險預(yù)測-數(shù)據(jù)挖掘B、醫(yī)學(xué)影像-計算機視覺C、虛擬助理-語音識別D、藥物挖掘-計算機視覺參考答案:D6.在語音識別實驗中如果想要設(shè)置輸出結(jié)果添加標點,需要使用以下哪一個選項?A、srrequest.setadd_punc('yes')B、asrrequest.setaddpunc('no’)C、onfig.setreadtimeout('yes')D、config.setreadtimeout('no’)參考答案:A7.在語音合成實驗的輸出結(jié)果中,以下哪一個選項的描述是錯誤的?A、即使調(diào)用失敗了輸出結(jié)果中也會有traceid字殷B、savedPath字段表元合成的語音文件的保存路徑C、result字段在調(diào)用成功時表示識別結(jié)果,調(diào)用失敗時無此字段D、issaved字段表示臺成的語音文件是否成功保存參考答案:D8.在應(yīng)用開發(fā)時,以下哪種操作不屬于網(wǎng)絡(luò)定義的步驟?A、指定輸入維度B、知識蒸館C、權(quán)值初始化D、指定網(wǎng)絡(luò)優(yōu)化器參考答案:B9.在以下哪一個年份,Rosenblat發(fā)明感知器(perceptron)算法?A、1969年B、1986年C、1950年D、1958年參考答案:D10.在一個任務(wù)中,試圖讓學(xué)習(xí)器利用大量未標記數(shù)據(jù)以及少量有標記數(shù)據(jù)進行訓(xùn)練,這樣的算法屬于以下哪一類學(xué)習(xí)?A、半監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、監(jiān)督學(xué)習(xí)D、強化學(xué)習(xí)參考答案:A11.在調(diào)用語音合成服務(wù)時,需要提前設(shè)置一些參數(shù)值,下列哪個范圍的值可以作為音量值?A、[-1000,1000]B、[0,100]C、[0,1000]D、[-100,100]參考答案:B12.在調(diào)用華為云服務(wù)的環(huán)境準備中,下列哪一個不需要確認安裝?A、requestsB、setuptoolsC、websocket-clientD、Jieba參考答案:D13.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使用的什么法則進行逐層求導(dǎo)的?A、鏈式法則B、累加法則C、對等法則D、歸一法則參考答案:A14.在前饋神經(jīng)網(wǎng)絡(luò)的前向傳播過程當中,具體是以下哪一項被前向傳播?A、輸入的數(shù)據(jù)B、卷積C、輸出的數(shù)據(jù)D、誤差參考答案:A15.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層后面的?A、卷積層B、池化層C、全連接層D、以上都可以參考答案:C16.在華為云ei中哪一項是面向開發(fā)者的一站式AI開發(fā)平臺,為機器學(xué)習(xí)與深度學(xué)習(xí)海量數(shù)據(jù)預(yù)處理及半自動化標注、大規(guī)模分布式Training、自動化模型生成,及端-邊-云模型按需部署能力,幫助用戶快速創(chuàng)建和部署模型,管理全周期AI工作流?A、MysqlB、MinsporeC、ModelArtsD、Ascend參考答案:C17.在華為云EI中,以下哪項可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場景中,發(fā)揮AI技術(shù)的優(yōu)勢,從而提高效率,提升體驗。A、EI智能體B、OBS對象存儲服務(wù)C、云數(shù)據(jù)庫D、EI大數(shù)據(jù)服務(wù)參考答案:A18.在達芬奇架構(gòu)中關(guān)于矩陣計算,以下哪個選項和矩陣計算單元主要完成矩陣相關(guān)運算?A、寄存器B、累加器C、運算器D、控制器參考答案:B19.在達芬奇架構(gòu)中,向量計算單元不支持的計算類型是以下哪一個選項?A、Int16B、FP32C、FP16D、Int8參考答案:A20.有監(jiān)督學(xué)習(xí)中,“近朱者赤近墨者黑”是用來形容下列哪個模型?A、K-MeansB、SVMMC、KNND、神經(jīng)網(wǎng)絡(luò)參考答案:C21.以下選項中不屬于回歸算法的性能評估的是哪一項?A、MSE均方誤差B、Recall召回率C、R-Square可決系數(shù)D、MAE平均絕對誤差參考答案:B22.以下選項中不屬于超參數(shù)搜索方法的是哪一項?A、網(wǎng)格搜索B、聚類算法C、貝葉斯搜索D、隨機搜索參考答案:B23.以下選項中,哪一項不屬于模型訓(xùn)練的超參數(shù)?A、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率B、—元線性回歸模型Y=wX+b中的權(quán)置系數(shù)(斜率)C、K最近鄰算法(KNN)中的KD、隨機森林當中的樹的棵數(shù)參考答案:B24.以下輸出結(jié)果錯誤的是?A、print(*map(lambdax:x*x,[1,2.3]))輸出結(jié)果:149B、print(*zip([1,2.3][“a”""],[“A”“B”“C”))輸出結(jié)果:(1,a’"A)(2,b’,B(3,CC、print(*filter(Jlambdax:x%2==1),[1,2,3]))輸出結(jié)果13D、sorted(("b’,2).("a,1)(c’,3)(d’4)],key=lambdax:x[1])輸出結(jié)果:[(a’,1),("’,2).(C.3),(d’4)]參考答案:B25.以下那一項技術(shù)可以提供本體設(shè)計、信息抽取、知識映射、多源融合以及增量更新等功能?A、分詞B、知識圖譜C、圖像搜索D、可視化參考答案:B26.以下哪一項屬于零階張量?A、標量B、向量C、矩陣D、R參考答案:A27.以下哪一項是在標準RNN結(jié)構(gòu)中的隱藏層中使用的激活函數(shù)?A、RaLUB、tanhC、SoftmaxD、sigmoid參考答案:B28.以下哪一項是靜態(tài)圖模式的劣勢?A、debugB、部署C、性能優(yōu)化D、分布式訓(xùn)練參考答案:A29.以下哪一項是sigmoid函數(shù)導(dǎo)數(shù)的最大值A(chǔ)、0.5B、TrueC、0.25D、0參考答案:C30.以下哪一項是ModelArts中訓(xùn)練平臺可以做的任務(wù)?A、模型部署B(yǎng)、模型管理C、模型訓(xùn)練D、致?lián)俗⒖即鸢福篊31.以下哪一項技術(shù)常用于圖像特征提取研究領(lǐng)域?A、Word2Vec技術(shù)B、樸素貝葉斯分類算法C、卷積神經(jīng)網(wǎng)絡(luò)D、長短周期記憶網(wǎng)絡(luò)參考答案:C32.以下哪一項不屬于Mindspore全場景部署和協(xié)同的關(guān)鍵特性?A、統(tǒng)一模型R帶來一致性的部署體驗B、端云協(xié)同F(xiàn)ederalMetaLearning打破端云界限,多設(shè)備協(xié)同模型。C、數(shù)據(jù)+計算整圖到Ascend芯片。D、軟硬協(xié)同的圖優(yōu)化技術(shù)屏蔽場景差異參考答案:C33.以下哪一個選項不屬于智能駕駛的“三大子系統(tǒng)”?A、娛樂系統(tǒng)B、感知系統(tǒng)C、決策系統(tǒng)D、執(zhí)行系統(tǒng)參考答案:A34.以下哪一個不屬于人臉識別技術(shù)?A、人臉搜索B、人臉比對C、人臉檢測D、翻拍識別參考答案:D35.以下哪項技術(shù)的研究與發(fā)展能夠提升模型訓(xùn)練的精度?A、自動并行B、二階優(yōu)化C、數(shù)據(jù)加速D、內(nèi)存復(fù)用參考答案:B36.以下哪個選項不屬于華為云ModelArts提供的功能或服務(wù)?A、模型診斷B、智能模型調(diào)優(yōu)C、智能數(shù)據(jù)標注D、vscodeSDK參考答案:D37.以下哪個激活函數(shù)可以很好的解決梯度消失問題?A、TanhB、SoftsignC、ReluD、Sigmoid參考答案:C38.以下哪個不是圖像識別服務(wù)的應(yīng)用?A、目標檢測B、智能相冊C、場景分析D、語音合成參考答案:D39.以下哪個不是ModelArts開發(fā)類型?A、標準模型開發(fā)B、快速建模C、零基礎(chǔ)建模D、敏捷開發(fā)參考答案:D40.以下哪個不是MindSpore核心架構(gòu)的特點?A、自動并行B、自動調(diào)優(yōu)C、自動編碼D、自動微分參考答案:C41.以下哪個不是Mindspore常用的Operation?A、signalB、mathC、arrayD、nn參考答案:A42.以下哪個表達式可以“我電話是110,有事請找我”中配出110?A、re.split("d+",str1)B、re.match("[O-9]+,str1)C、re.search("ld+",strl)D、re.match("d+”,str1)參考答案:C43.以下列哪一項不屬于語音識別場景的應(yīng)用?A、會議記錄B、電話回訪C、口語測評D、人臉識別E、智能音箱參考答案:D44.以下關(guān)于特征選擇描述的選項中,哪一個選項是錯誤的?A、使用特征選擇的原因是在采集到的數(shù)據(jù)集中,有一些特征可能是多余的或者與我們要預(yù)測的值無關(guān)的。B、特征選擇無法避免維度爆炸的問題C、特征選擇可以幫助我們簡化模型,使模型更容易被使用者所解釋。D、特征選擇技術(shù)可減少訓(xùn)練的時間,提升模型泛化性,避免過擬合參考答案:B45.以下關(guān)于昇騰AI軟件棧中任務(wù)調(diào)度器的描述,正確的是哪一個選項?A、負責完成神經(jīng)網(wǎng)絡(luò)在昇騰AI芯片上的落地與實現(xiàn),統(tǒng)籌了整個神經(jīng)網(wǎng)絡(luò)生效的過程,控制離線模型的加載和執(zhí)行過程.B、為神經(jīng)網(wǎng)絡(luò)的任務(wù)下發(fā)和分配提供了各種資源管理通道。C、可對輸入的數(shù)據(jù)進行處理與修飾。D、為異騰AI芯片提供具體的目標任務(wù)。參考答案:D46.以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)的描述中,錯誤的是哪一項?A、各層節(jié)點中具有計算功能的神經(jīng)元,稱為計算單元,每個神經(jīng)元只與前一層的神經(jīng)元相連。B、輸入節(jié)點具有計算功能,不只是為了表征輸入矢量各元素值C、前饋神經(jīng)網(wǎng)絡(luò)是一種最簡單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列。D、多層的感知器屬于前饋神經(jīng)網(wǎng)絡(luò)。參考答案:B47.以下關(guān)于樸素貝葉斯的說法中,哪一項是錯誤的?A、貝葉斯分類器應(yīng)用于大型數(shù)據(jù)庫具有較高的準確性和快速的速度B、樸素貝葉斯的“樸素",指的是該方法需要假設(shè)各個特征之間是獨立的C、樸素貝葉斯是一種簡單的多分類算法D、樸素貝葉斯算法依賴于人工神經(jīng)網(wǎng)格,因此使用起來非常復(fù)雜參考答案:D48.以下關(guān)于模型有效性的描述中,哪一項是錯誤的A、誤差是指學(xué)習(xí)到的模型在樣本上的預(yù)測結(jié)構(gòu)與樣本的真實結(jié)果之間的差B、訓(xùn)煉誤差指的是在新樣本上的誤差C、機器學(xué)習(xí)的目標是使學(xué)得的模型能夠很好的適用于新的樣本,而不是僅僅在訓(xùn)煉樣本上工作的很好D、從模型訓(xùn)練過程的角度,誤差可以被分為訓(xùn)練誤差以及泛化誤差參考答案:B49.以下關(guān)于模型泛化能力的描述中,哪一項是正確的?A、泛化能力指每一條數(shù)據(jù)的預(yù)測需更多長時間。B、泛化能力指預(yù)測的結(jié)果是否容易被解釋。C、泛化能力指實際業(yè)務(wù)過程中數(shù)據(jù)量可能很大,隨著業(yè)務(wù)量增大,預(yù)測的速率是否仍然可以接受D、泛化能力指能否在實際的業(yè)務(wù)數(shù)據(jù)也能預(yù)測準確。參考答案:D50.以下關(guān)于聯(lián)邦學(xué)習(xí)的描述,哪一個選項是錯誤的?A、聯(lián)邦學(xué)習(xí)有助于實現(xiàn)更安全的數(shù)據(jù)共享。B、聯(lián)邦學(xué)習(xí)原本用于解決安卓手機終端用戶在本地更新模型的問題C、聯(lián)邦學(xué)習(xí)的目的在于保證數(shù)據(jù)隱私安全及合法合規(guī)的基礎(chǔ)上,實現(xiàn)共同建模,提升AI橫型的效果D、聯(lián)邦學(xué)習(xí)最早在2016年由百度公司提出。參考答案:D51.以下關(guān)于剪枝的描述中,哪一項是錯誤的?A、決策樹容易過擬合需要剪枝來縮小樹的結(jié)構(gòu)和規(guī)模。預(yù)剪枝中設(shè)置的層數(shù)是一個超參數(shù)。B、預(yù)剪枝中設(shè)置的層數(shù)是一個超參數(shù)。C、ID3算法中都會進行剪枝。D、剪枝可以分為預(yù)剪枝和后剪枝參考答案:C52.以下關(guān)于計算機視覺的說法,哪一個選項是正確的?A、計算機視覺需要用到圖像處理技術(shù)B、計算機視覺是利用計算機技術(shù)來理解并運用自然語言的學(xué)科C、計算機視覺就是讓計算機去分析語言數(shù)據(jù)D、計算機視覺就是通過專家經(jīng)驗提供排障指導(dǎo)的學(xué)科參考答案:A53.以下關(guān)于基于規(guī)則的方法描述中,哪一項是錯誤的?A、基于規(guī)則的方法中決策的規(guī)則復(fù)雜或者難以描述B、基于規(guī)則的方法一般不需要使用樣本訓(xùn)練C、基于規(guī)則的方法使用顯性編程來解決問題D、基于規(guī)則的方法中規(guī)則可以被人工明確參考答案:A54.以下關(guān)于機器學(xué)習(xí)整體流程正確的是A、數(shù)據(jù)收集->,數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型部署與整合->模型評估測試B、數(shù)據(jù)收集->特征提取與選擇->數(shù)據(jù)清洗->模型訓(xùn)練->模型評估測試->模型部署與整合C、數(shù)據(jù)收集->數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型評估測試->模型部署與整合D、數(shù)據(jù)收集->數(shù)據(jù)清洗->模型訓(xùn)練->特征提取與選擇->模型部署與整合->模型評估測試參考答案:C55.以下關(guān)于機器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機器學(xué)習(xí)的一個分支B、深度學(xué)習(xí)與機器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、以上都不對參考答案:A56.以下關(guān)于機器學(xué)習(xí)常見算法的描述中,哪一項說法是正確的?A、K-means算法不能夠保證收斂。B、現(xiàn)有一個點被正確分類目遠端決策邊界。如果將該點加入到訓(xùn)練集則SVM的邊界會受其影響C、樸素貝葉斯是借助樹狀結(jié)構(gòu)來刻畫屬性間的依賴關(guān)系。D、聚類試圖將數(shù)據(jù)集中的樣本劃分為若干個子集每個子集稱為一個"簇”參考答案:D57.以下關(guān)于回歸模型調(diào)試與應(yīng)用的描述中,錯的是哪一項?A、當訓(xùn)練完成之后,需要使用測試集進行測試,確保模型的泛化能力。B、如果最后的模型效果不好,也需要注意使用數(shù)據(jù)清理與特征工程。C、如果出現(xiàn)過擬合,可以使用帶有正則項的LASSO回歸或者Ridge回歸,并調(diào)節(jié)超參數(shù)D、如果出現(xiàn)欠擬合,可以使用更加復(fù)雜的回歸模型,比如邏輯回歸。參考答案:D58.以下關(guān)于達芬奇架構(gòu)中的控制單元,錯誤的是哪一個選項?。A、可以讀取標量指令隊列中配置好的指令地址和參數(shù)解碼。B、可進行中斷處理和狀態(tài)申報。如果執(zhí)行過程出錯,會把執(zhí)行的錯誤狀態(tài)報告給任務(wù)調(diào)度器C、可存放神經(jīng)網(wǎng)絡(luò)中每層計算的中間結(jié)果。D、時刻控制每條指令流水線的執(zhí)行狀態(tài)。參考答案:C59.以下關(guān)于達芬奇架構(gòu)的描述錯誤的是哪一選項?A、通過總線接口單元將數(shù)據(jù)搬到輸入緩中區(qū)B、控制單元負責整個AICore的運行C、計算單元包含四種基礎(chǔ)計算資源D、AICore的片上存儲單元和相應(yīng)的數(shù)據(jù)通路構(gòu)成了存儲系統(tǒng)參考答案:C60.以下關(guān)于標準RNN模型,說法正確的是?A、不存在一對一的模型結(jié)構(gòu)B、反向傳播時不考慮時間方向C、不存在多對多的模型結(jié)構(gòu)D、會出現(xiàn)長時間傳輸己憶的信息衰減的問題參考答案:D61.以下關(guān)于SVM算法說法錯誤的是?A、SVM算法可以使用用多種核函數(shù)B、SVM可以被用于解決分類問題C、支持向量是距離超平面最近的向量點D、SVM算法不能用于處理非線性數(shù)據(jù)集參考答案:D62.以下關(guān)于softsign函數(shù)的描述中,錯誤的是哪一項?A、Softsign函數(shù)相比tanh函數(shù)容易飽知B、選擇Softsig門函數(shù)的網(wǎng)絡(luò)容易出現(xiàn)樣度退化現(xiàn)象,導(dǎo)致模型難以訓(xùn)練C、Softsign函數(shù)很準回避褲度消失的問題D、Softsign函數(shù)遠離畫數(shù)中心點的位置,函數(shù)導(dǎo)數(shù)趨于0參考答案:A63.以下關(guān)于Mindspore子系統(tǒng)的設(shè)計目標的描述,錯誤的是哪一項?A、向用戶提供統(tǒng)一的模型訓(xùn)練,推理和導(dǎo)出等接口,滿足端,邊,云等不同場景B、兩層用戶AP設(shè)計,支撐用戶進行網(wǎng)絡(luò)構(gòu)建,整圖執(zhí)行,子圖執(zhí)行以及單算子執(zhí)行C、單機和分布式訓(xùn)練統(tǒng)一的編碼方式D、動態(tài)圖和靜態(tài)圖差異化編碼方式參考答案:D64.以下關(guān)于L1與L2的描述中,錯誤的是哪一項?A、L1正則不僅可以防止過擬合還可以進行特征選擇、因此L2正則在實際分析中幾乎不使用。L1相對于L2能夠產(chǎn)生更加稀疏的模型B、L1正則化除了防止過擬合還可以起到特征選擇的作用。C、如果從概率角度進行分析,很多范數(shù)約束相當于對參數(shù)添加先驗分布,L2范數(shù)相當于參數(shù)服從高斯先驗分布,L1范數(shù)相當于參數(shù)服從拉普拉斯分布參考答案:C65.以下關(guān)于CPU低時延設(shè)計的描述,錯誤的是哪一個選項?A、有很多ALU和很少cache,緩存合并方問DRAM,降低時延B、復(fù)雜邏控制單元,多分支程席可通過分支預(yù)測能力降低時延C、高時鐘頃率降低時延D、強大的ALU單元,可在很短時鐘周期完成計算參考答案:A66.以下不屬于衡量模型優(yōu)勢指標的是哪一項?A、代碼復(fù)雜度B、可解釋性C、預(yù)測速率D、泛化能力參考答案:A67.以下不屬于對抗生成網(wǎng)絡(luò)的應(yīng)用是?A、文字生成B、圖像生成C、圖像識別D、數(shù)據(jù)增強參考答案:C68.以下不屬于TensorFlow2.0的特點是?A、多核CPU加速B、分布式C、多語言D、多平臺參考答案:A69.下面哪一項不是圖像搜索的應(yīng)用場景?A、服裝搜索,營銷推薦。B、設(shè)計搜索,同類比價。C、視頻濃縮,提取有效信息。D、零件搜索,提升效率。參考答案:C70.下列選項中對泊松分布與二項分布的關(guān)系正確的是?A、泊松分布與二項分布沒有關(guān)系B、泊松分布可以替代二項分布C、泊松分布是二項分布當n很大p很小時的近似計算D、泊松分布與二項分布的數(shù)學(xué)模型都是拉格朗日概型參考答案:C71.下列選項中不支持TensorFLow2.0進行維度變換的屬性是A、squeezeB、reshapeC、gatherD、Transpose參考答案:C72.下列選項中不是TensorFlow2.0支持的運算符是A、powB、C、^D、//參考答案:C73.下列哪一項是張量[[0,1],[2,3]]的正確階數(shù)?A、3B、4C、2D、6參考答案:C74.下列哪個不是tensorFlow中的元素?A、graphB、SessionC、tensorD、Point參考答案:D75.圖引擎服務(wù)(GraphEngineService)是針對以下面哪一項為基礎(chǔ)的“圖”結(jié)構(gòu)數(shù)據(jù),A、模型B、數(shù)據(jù)C、算法D、關(guān)系參考答案:D76.圖像識別實驗中,在4251個訓(xùn)練圖片中,有超過2000個類別只有一張圖片。還有一些類中有2-5個圖片。這一描述反映了以下哪一種數(shù)據(jù)問題?A、數(shù)據(jù)不平衡問題B、腚數(shù)據(jù)和數(shù)據(jù)異常值問題C、數(shù)據(jù)缺失問題D、數(shù)據(jù)過擬合問題參考答案:A77.通用文字識別服務(wù)調(diào)用成功時,返回的文字識別結(jié)果保存在下列哪個字段中?A、textB、resultC、ontentD、words參考答案:B78.調(diào)用華為云通用表格識別API時能夠輸出表格子區(qū)域識別文字塊列表,以下哪一項是其輸出順序?A、公左到右,先上后下B、從左到右,先下后上C、從右到左先下后上D從右到左先上后下參考答案:A79.特征是描述樣本的特性的維度,關(guān)于其在傳統(tǒng)機器學(xué)習(xí)和深度學(xué)習(xí)的可解釋性,以下說法正確的是:A、特征在傳統(tǒng)機器學(xué)習(xí)可解釋性強,而在深度學(xué)習(xí)可解釋性弱B、特征在傳統(tǒng)機器學(xué)習(xí)可解釋性弱,而在深度學(xué)習(xí)可解釋性強C、特征在傳統(tǒng)機器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均弱D、特征在傳統(tǒng)機器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均強參考答案:A80.數(shù)據(jù)集擴充也可以有效的避免過擬合問題的出現(xiàn),以下哪項關(guān)于數(shù)據(jù)集擴充的說法是正確的?A、數(shù)據(jù)集越大過擬合概率越大B、數(shù)據(jù)集增大或減少過擬合概率均會越小C、數(shù)據(jù)集越小過擬合概率小D、數(shù)據(jù)集越大過擬合概率越小參考答案:D81.輸入32*32的圖像,用大小5*5的卷積核做步長為1的卷積計算,輸出圖像的大小是A、28*23B、28*28C、29*29D、23*23參考答案:B82.使用MindSpore執(zhí)行圖片中的代碼時,以下哪一項是這段代碼的正確輸出結(jié)果﹖圖片代碼:=tensor([4,o,5,o,o,o],的type.float64)Print(p)A、Tensor(shape=[3],dtype=Float64,value=[4,5,6])B、Array({4,0,5,06,0)C、Tensor(shape=[3],dtype=Float64,value=[4,00000000e+000,5,00000000e+000,6,00000000e+000])D、Array(shape=[3].dtype=Float64,value=[4,00000000e+000,5,00000000e+000,6,00000000e+000])參考答案:C83.昇騰AI軟件棧中的哪個功能模塊為神經(jīng)網(wǎng)絡(luò)的任務(wù)下發(fā)和分配提供了各種資源管道通道?A、流程編排器B、任務(wù)調(diào)度器C、框架管理器D、運行管理器參考答案:D84.昇騰AI處理器的邏輯架構(gòu)不包括以下哪個選項?A、DVPPB、GPUC、AI計算引擎D、芯片系統(tǒng)控制CPU參考答案:B85.神經(jīng)網(wǎng)絡(luò)訓(xùn)練時,常會遇到很多問題,對于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?A、Relu函數(shù)B、Sigmoid函數(shù)C、tanh函數(shù)D、Softsign函數(shù)參考答案:A86.深度學(xué)習(xí)中如果神經(jīng)網(wǎng)絡(luò)的層數(shù)較多比較容易出現(xiàn)梯度消失問題。嚴格意義上來講是在以下哪個環(huán)節(jié)出現(xiàn)梯度消失問題?A、反向傳播更新參數(shù)B、正向傳播更新參數(shù)C、反向傳播計算結(jié)果D、正向傳播計算結(jié)果參考答案:A87.深度學(xué)習(xí)中,以下哪種方法不能解決過擬合的問題?A、參數(shù)正則化B、數(shù)據(jù)增強C、提前停止訓(xùn)練D、減小學(xué)習(xí)率參考答案:D88.深度學(xué)習(xí)中,不經(jīng)常使用的初始化參數(shù)W(權(quán)重矩陣)的方法是哪種?A、Xavier初始化B、Kaiming初始化C、全零初始化D、高斯分布初始化參考答案:C89.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時需要大量的矩陣計算,一般我們需要配用硬件讓計算機具備并行計算的能力,以下硬件設(shè)備提供并行計算能力的是:A、主板B、內(nèi)存條C、GPUD、CPU參考答案:C90.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)對網(wǎng)絡(luò)的性能有一定的影響,以下關(guān)于其影響說法正確的是:A、隱藏層數(shù)適當減少,神經(jīng)網(wǎng)絡(luò)的分辨能力不變B、隱藏層數(shù)適當增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越強C、隱藏層數(shù)適當減少,神經(jīng)網(wǎng)絡(luò)的分辨能力越強D、隱藏層數(shù)適當增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越弱參考答案:B91.如何獲取函數(shù)的幫助信息?A、dir()B、help()C、del()D、id()參考答案:B92.如果有100個卷積核,每個卷積核的大小是10x10,在不考慮偏置的情況下,以下哪一項是正確的參數(shù)量A、100B、100KC、10KD、1K參考答案:C93.如果想要對圖像翻拍情況進行檢測,可以調(diào)用華為云圖像標簽服務(wù)提供的功能,主要由以下哪個函數(shù)實現(xiàn)?A、imagetagging_aksk()B、initglobalenv()C、recapturedetectaksk()參考答案:A94.人下關(guān)于神經(jīng)網(wǎng)絡(luò)的說法錯誤的是?A、隨著神經(jīng)網(wǎng)絡(luò)隱藏層數(shù)的增加,模型的分類能力逐步減弱B、單層感知器的局限在于不能解決異或問題C、前饋神經(jīng)網(wǎng)絡(luò)可用有向無環(huán)圖表示D、前饋神經(jīng)網(wǎng)絡(luò)同一層的神經(jīng)元之間不存在聯(lián)系參考答案:A95.人工智能的三個階段包含了計算智能、()、認知智能。A、弱人工智能B、感知智能C、行為智能D、強人工智能參考答案:B96.前饋神經(jīng)網(wǎng)絡(luò)是一種簡單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說法正確的是:A、具備計算能力的神經(jīng)元與上下兩層相連B、其輸入節(jié)點具備計算能力C、同一層神經(jīng)元相互連接D、層間信息只沿一個方向傳遞參考答案:D97.批量梯度下降,小批量梯度下降,隨機梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學(xué)習(xí)率D、使用樣本數(shù)參考答案:D98.哪條命令可以檢查Atlas300(3000)加速卡是否在位?A、Ispci|grep'npu'B、Ispci|grep'd100'C、Ispci|grep'atlas'D、atlasinfo參考答案:B99.某廠家想要生產(chǎn)一批虛擬助理以供醫(yī)院使用,而對于虛擬助理來說聲紋識別主要涉及到以下哪一項技術(shù)?A、語音識別和處理技術(shù)B、圖像識別與處理技術(shù)C、圖像生成與增強技術(shù)D、專家系統(tǒng)與知識圖譜技術(shù)參考答案:A100.量子線路就是一些量子門序列作用于量子比特,使量子比特的量子態(tài)演化為新的量子態(tài)。以下哪一個選項不屬于量子線路A、初態(tài)制備B、繪制電子線路C、量子態(tài)演化D、量子測量參考答案:B101.考慮以下場景。使用機器學(xué)習(xí)算法進行垃圾郵件的過濾。根據(jù)機器學(xué)習(xí)的簡單定義,以下哪選項屬于性能衡是標準?A、過去三年所有帶標簽的垃圾郵件和正常郵件數(shù)據(jù)郵箱地址B、郵箱地址C、過濾垃圾郵件D、垃圾件過濾正確率參考答案:D102.交通智能體可以實現(xiàn)()小時全時段/全域交通感知?A、5x24B、7x24C、5x12D、7x12參考答案:B103.激活函數(shù)對于神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)、理解非常復(fù)雜的問題有著重要的作用,以下關(guān)于激活函數(shù)說法正確的是?A、激活函數(shù)都是線性函數(shù)B、激活函數(shù)都是非線性函數(shù)C、激活函數(shù)部分是非線性函數(shù),部分是線性函數(shù)D、激活函數(shù)大多數(shù)是非線性函數(shù),少數(shù)是線性函數(shù)參考答案:B104.機器學(xué)習(xí)中,模型需要輸入什么來訓(xùn)練自身,預(yù)測未知?A、訓(xùn)練算法B、人工程序C、神經(jīng)網(wǎng)絡(luò)D、歷史數(shù)據(jù)參考答案:D105.機器學(xué)習(xí)中,從獲得數(shù)據(jù)到模型正式放入模型之前,以下哪個選項不是這個過程的一部分?A、數(shù)據(jù)清理B、數(shù)據(jù)準化C、數(shù)據(jù)可視化D、數(shù)據(jù)降維參考答案:C106.機器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?A、BoostingB、StackingC、BaggingD、Marking參考答案:D107.機器學(xué)習(xí)的算法中,以下哪個不是無監(jiān)督學(xué)習(xí)?A、聚類B、XgboostC、關(guān)聯(lián)規(guī)則D、GMM參考答案:B108.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說法錯誤的是?A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時間軸展開B、LSTM無法解決梯度消失的問題C、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡寫為RNN參考答案:B109.關(guān)于圖像內(nèi)容審核服務(wù)說法錯誤的是?A、politics為涉政敏感人物檢測結(jié)果B、terrorism為涉政暴恐檢測結(jié)果C、onfidence代表置信度,范圍0-100D、label代表每個檢測結(jié)果的標簽參考答案:C110.關(guān)于深度學(xué)習(xí)的描述中,以下哪一項是錯誤的?A、在大部分情況下,網(wǎng)絡(luò)在高維的權(quán)重參數(shù)海量的訓(xùn)練數(shù)據(jù)下可以獲得高性能B、利用算法自動提取特征C、特征可解釋性強D、端到端”的學(xué)習(xí)參考答案:C111.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)以下說法錯誤的是A、卷積神經(jīng)網(wǎng)絡(luò)可以包含卷積層、池化層和全連接層B、在處理圖片時,是以掃描窗口的方式對圖像做卷積C、卷積核不可以用來提取圖片全局特征D、常見的池化層有最大池化與平均池化參考答案:C112.關(guān)于機器學(xué)習(xí)的數(shù)據(jù)集,以下說法哪一項是正確的?A、數(shù)據(jù)集可分為訓(xùn)練集和測試集,其中測試集用于模型訓(xùn)練,即尋找特征與目標之間的關(guān)系,B、數(shù)據(jù)集中的樣本指的是每條記錄的不同屬性,比如姓名,年齡,性別等信息C、數(shù)據(jù)集的特征指的是每條記錄的不同屬性、比如姓名,年齡,性別等信息D、有監(jiān)督學(xué)習(xí)任務(wù)中,數(shù)據(jù)集的目標列一般不包含標簽參考答案:C113.關(guān)于華為全棧全場景AI解決方案,以下說法中哪一項是錯誤的?A、tlas:基于Ascend系列AI處理器,通過豐富的產(chǎn)品形態(tài),打造面向“端、邊、云”的全場景AI基礎(chǔ)設(shè)施方案B、Ascend:基于統(tǒng)一、可擴展架構(gòu)的系列化AI芯片。C、應(yīng)用使能:提供全流程服務(wù)(ModelArts),分層API和預(yù)集成方案D、MindSpore:芯片算子庫和高度自動化算子開發(fā)工具。參考答案:D114.感知器在空間中可以展現(xiàn)為?A、線B、平面C、超平面D、點參考答案:C115.對于圖像分類問題,以下哪個神經(jīng)網(wǎng)絡(luò)更適合解決這個問題?A、感知器B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、全連接神經(jīng)網(wǎng)絡(luò)參考答案:C116.對于常用梯度下降算法的描述,以下選項中哪一項是錯誤的?A、小批量梯度下降(MBGD),每次使用一定數(shù)量的的訓(xùn)練樣本進行訓(xùn)練B、批量梯度下降(BGD)是收斂速度最快,消耗計算資源最少的一種方法。C、隨機梯度下降(SGD),每次使用一個訓(xùn)練樣本進行訓(xùn)練。D、批量梯度下降(BGD),每次使用所有的訓(xùn)練樣本進行訓(xùn)練。參考答案:B117.當使用TensorFlow2.0的keras接口搭建神經(jīng)網(wǎng)絡(luò)時,需要進行網(wǎng)絡(luò)的編譯工作,需要用到以下哪種方法?A、compileB、writeC、joinD、fit參考答案:A118.當前語音處理研究在任何情況下都能達到90%以上的識別準確度。關(guān)于以上觀點,下列說法正確的是哪一項?A、錯誤,識別準確度很高但沒那么高。B、正確,語音處理可以達到很高的識別準確度。C、錯誤,很多情況下,例如噪聲、背聲等會極大的影響語音的識別準確度,D、正確,語音處理研究的歷史很長,已經(jīng)很成熟。參考答案:C119.當函數(shù)在變量空間的某一點處,沿著哪一個方向有最大的變化率?A、梯度B、最小方向?qū)?shù)C、方向?qū)?shù)D、導(dǎo)數(shù)參考答案:A120.代碼model.fit(mnist.train.inmage,mnist.train.labels.epochs=5)中的epochs參數(shù)代表?A、全體訓(xùn)練集將被訓(xùn)練5次B、全體測試集將被測試5次C、全體訓(xùn)練集將被分為6份D、全體訓(xùn)練集將被分為5份參考答案:A121.從技術(shù)架構(gòu)角度,關(guān)于AI芯片的描述,錯誤的是哪一項?A、CPU的功能主要是解釋計算機指令以及處理計算機硬件中的數(shù)據(jù)B、FPGA實現(xiàn)了半定制芯片的功能C、ASIC屬于專用集成電路D、GPU是一種專門在個人電腦、工作站,游戲和一些移動設(shè)備上進行圖像運算工作的微處理器參考答案:A122.創(chuàng)建網(wǎng)絡(luò)層時,添加dropout層的主要目的是什么?A、提取圖像特征B、起到分類器的作用C、增加非線性D、防止過擬合參考答案:D123.白化是一種常見的數(shù)據(jù)預(yù)處理方式,下列對白化的描述哪一項是正確的?A、白化的效果不如零均值化.B、白化就是要把你需要處理的數(shù)據(jù)經(jīng)過處理后(通過某種算法)限制在你需要的一定范圍內(nèi)。C、白化是一種使用廣泛的數(shù)據(jù)部降維算法,是一種無監(jiān)督學(xué)習(xí)方法,主要是用來將特征的主要分成找出,并去掉基本無關(guān)的成分,從而達到降維的目的D、白化就是把各個特征軸上的數(shù)據(jù)除以對應(yīng)特征值,從而達到在每個特征軸上都刷歸一化幅度的結(jié)果。參考答案:C124.x=Tensor(np.array(I[1,2],[3.4]]),32)在MindSpore中,運行以上這段代碼有什么A、修改tensor的維度B、創(chuàng)建tensorC、刪除tensorD、創(chuàng)建ndarray參考答案:B125.Tensorflow是下面哪家公司開源的第二代用于數(shù)字計算的軟件庫?A、華為B、高通C、微軟D、谷歌參考答案:D126.TensorFlow是下列哪個公司首先開發(fā)的?A、B甲骨文B、FacebookC、英偉達D、Google參考答案:D127.TensorFlow使用的數(shù)據(jù)類型是?A、ScalarB、VectorC、TensorD、Matrix參考答案:C128.TensorFlow20發(fā)布的時間,是在哪一年?A、2015B、2017C、2019D、2018參考答案:C129.TensorFlow2.0中查看張量維度的方法是?A、dimensB、dtypeC、ndimD、evice參考答案:C130.Softmax激活函數(shù)可以將一個K維的任意實數(shù)向量映射成另一個K維的實數(shù)向量,該函數(shù)經(jīng)常用在神經(jīng)網(wǎng)絡(luò)的哪一層?A、輸入層B、卷積層C、隱藏層D、輸出層參考答案:D131.PyTorch中的數(shù)據(jù)基本存儲單元是?A、DataframeB、MatrixC、NumpyD、Tensor參考答案:D132.Pytorch是常見的機器學(xué)習(xí)計算框架,基于Torch,用于自然語言處理等應(yīng)用程序,以下哪種語言是Torch采用的編程語言?A、PythonB、LuaC、JavaD、C語言參考答案:B133.PyTorch不具備那種功能?A、內(nèi)嵌kkerasB、自動求導(dǎo)C、GPU加速D、支持動態(tài)圖參考答案:A134.Python3中5/2的結(jié)果是?A、2B、1C、3D、2.5參考答案:D135.ModelArts中點擊(即可給已經(jīng)創(chuàng)建好的開發(fā)環(huán)境同步OBS中的代碼和數(shù)據(jù)集?A、無需操作B、DulicateOBSC、SyncOBSD、MoveOBS參考答案:C136.ModelArts服務(wù)與()服務(wù)相結(jié)合可以輕松將模型部署到“端”?A、OBSB、OCRC、ECSD、HiLens參考答案:D137.Mindspore中,Tensor初始化時,如果包含多種不同類型的數(shù)據(jù),則按照以下哪一項優(yōu)先級完成數(shù)據(jù)類型轉(zhuǎn)換?A、int<bool<floatB、int<float<boolC、bool<float<intD、bool<int<float參考答案:D138.MindSpore在提升計算性能方面做了很多優(yōu)化,下面哪項不屬于優(yōu)化的內(nèi)容?A、On-Device執(zhí)行B、Pipeline并行C、內(nèi)存專用D、深度圖優(yōu)化參考答案:C139.Mindspore提供了自動對圖像進行增強處理的機制,可以實現(xiàn)算子的自動選擇和執(zhí)行,達到提升訓(xùn)練精度的目的,以下哪些機制是正確的?A、基于精度的自動數(shù)據(jù)增強B、基于概率的自動數(shù)據(jù)增強C、基于魯棒性的自動數(shù)據(jù)增強D、基于反饋的自動數(shù)據(jù)增強參考答案:B140.MindsporeLite沒有使用以下哪項技術(shù)?A、大小核智能超頻B、聯(lián)邦學(xué)習(xí)C、內(nèi)存復(fù)用D、異構(gòu)調(diào)度參考答案:A141.mindspore.ops.GradOperation(getall=-false,getby_list=False,sens_param=False)。以下關(guān)于上述代碼的描述中,正確的是哪一項?A、get_all為False時,會對所有揄入求導(dǎo)B、sens_param對網(wǎng)絡(luò)的輸出值做縮放以改變最終梯度C、getby_Iist為False時會對權(quán)重求導(dǎo)。D、GradOperation方法在梯度下降和反向傳播中沒有任何用處參考答案:D142.LSTM不包含以下哪個門?A、遺忘門B、輸出門C、刷新門D、輸入門參考答案:C143.L1和L2正則化是傳統(tǒng)機器學(xué)習(xí)常用來減少泛化誤差的方法,以下關(guān)于兩者的說法正確的是A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可做特征選擇參考答案:A144.K-means對于下列哪一種類型的數(shù)據(jù)集的聚類效果不好?A、凸多邊形分布數(shù)據(jù)集B、擺旋形分布數(shù)據(jù)集C、帶狀分布數(shù)據(jù)集D、園形分布數(shù)據(jù)集參考答案:B145.HUAWEIHiAI平臺中的人臉檢測是屬于哪個模塊?A、HiAlEngineB、HiAlFrameworkC、HiAlFoundationD、HiAlService參考答案:A146.GBDT算法相比于隨機森林算法,以下哪種表述是錯誤的?A、GBDT算法比隨機森林容易欠擬合B、隨機森林是并行計算的,而GBDT不能C、GBDT算法比隨機森林容易過擬合D、GBDT與隨機森林都是建立在CART樹的基礎(chǔ)之上的參考答案:A147.Bagging集成學(xué)習(xí)中,每個基學(xué)習(xí)器之間的關(guān)系是?A、相加關(guān)系B、相關(guān)關(guān)系C、后面的模型必須建立在前面的模型之上D、相互獨立參考答案:D148.Atlas加速AI推理使用的是什么處理器?A、昇騰910處理器B、昇騰310處理器C、GPUD、FPGA參考答案:B149.Atlas800AI服務(wù)器有多個型號,其中基于鯤鵬處理器平臺的是?A、tlas800型號:9000B、Atlas800型號:3000C、Atlas800型號:3010參考答案:B150.AI開發(fā)的基本流程包括以下步驟(1準備數(shù)據(jù)(2)部署模型(3)評估模型(4)確定目的(5)訓(xùn)模型,以下個是確的?A、4->1->5->3->2B、4->5->1->3-2C、4->1->5->2->3D、4->5->1->2->3參考答案:A151.0n-Device執(zhí)行,即整圖卸載執(zhí)行,充分發(fā)揮昇騰芯片的算力,可以大大降低交0n-Device執(zhí)行,即整圖卸載執(zhí)行充分發(fā)揮昇騰芯片的算力,可以大大降低交互的開銷,從而提升加速器占用率,關(guān)于0-Device執(zhí)行以下描述錯誤的是?A、MindSpore通過梯度數(shù)據(jù)驅(qū)動的自適應(yīng)圖優(yōu)化,實現(xiàn)去中心化的自主A11Reduce,梯度聚合步調(diào)一致,計算與通信充分流水B、超強芯片算力下模型執(zhí)行的挑戰(zhàn):內(nèi)存墻問題、交互開銷大、數(shù)據(jù)供給難。部分在Host執(zhí)行,部分在Device執(zhí)行,交互開銷甚至遠大于執(zhí)行開銷,導(dǎo)致加速器占用率低C、Mindspore通過面向芯片的深度圖優(yōu)化技術(shù),同步等待少,最大化“數(shù)據(jù)計算通信”的并行度,訓(xùn)練性能相比Host側(cè)圖調(diào)度方式持平D、超強芯片算力下分布式梯度聚合的挑戰(zhàn):ResINet50單選代20ms時間時會產(chǎn)生中心控制的同步開銷和頻同步的通信開銷。傳統(tǒng)方法需要3次同步完成A11Reduce,數(shù)據(jù)驅(qū)動方法自主A11Reduce,無控制開銷參考答案:C152.“知識表示是對知識的描述,即用一組符號把知識編碼成計算機可以接受的某種結(jié)構(gòu)。其表示方法是唯一的?!标P(guān)于上述描述,以下哪一個說法是正確的?A、該說法正確,知識表示是專家系統(tǒng)的一種B、該說法錯誤,知識表示方法不是唯一的。C、該說法正確,知識表示可用于專家規(guī)則,模糊推理D、該說法錯誤,知識表示的編碼方式是唯一的。參考答案:D153.“人工智能對于所有的數(shù)據(jù)都可以處理?!标P(guān)于上述描述,以下哪一個說法是正確的?A、該說法錯誤,是深度學(xué)習(xí)能對所有的數(shù)據(jù)都可以處理B、該說法正確,AI可以處理任何數(shù)據(jù)C、該說法正確,AI對于數(shù)據(jù)有很的學(xué)習(xí)能力D、該說法措誤,需要對致?lián)M行預(yù)處理等操作才可以輸入模型參考答案:D154.“批量推理是對批量數(shù)據(jù)進行推理的批量作業(yè),使用批量推理之前,不需要對模型進行訓(xùn)練?!标P(guān)于上述描述,以下哪一個說法是正確的?A、該描述錯誤批量推理不需要訓(xùn)練操作B、該描述錯誤推理之前要對模型進行訓(xùn)練才可以C、該貓述正確推理意味著訓(xùn)練結(jié)束D、該貓述正確批量推理就是不需要再訓(xùn)練了參考答案:B155.“對抗生成網(wǎng)絡(luò)(GAN)可以用來生成假圖片達到以假亂真的目的?!标P(guān)于上述描述,以下哪一個說法是正確的?A、該說法錯誤,GAN網(wǎng)絡(luò)屬于聚類模型B、該說法錯誤,GAN屬于回歸模型C、該說法正確,GAN網(wǎng)絡(luò)屬于分類模型D、該說法正確,GAN網(wǎng)絡(luò)性能很強,屬于生成學(xué)習(xí)模型參考答案:D156.“ModelArts僅僅支持華為自己的產(chǎn)品,例如昇騰310、昇騰910,使用的也都是華為自研的MindSpore?!标P(guān)于上述描述,以下哪一個說法是正確的?A、該描述正確,可以支持其他的產(chǎn)品,但還沒用起來B、該描述正確,華為的產(chǎn)品就是應(yīng)該只支持華為自己的產(chǎn)品。C、該描述錯誤,昇騰不是華為的產(chǎn)品。D、該描述錯誤,ModelArts是一個開放包容的Al產(chǎn)品。參考答案:D多選題1.最優(yōu)化問題根據(jù)約束條件可分為以下哪些類?A、不等式約束問題B、半約束問題C、無約束問題D、等式約束問題參考答案:AD2.自動駕駛場景下,涉及到的人工智能要素包含以下哪些選項?A、算力B、數(shù)據(jù)C、思考能力D、算法參考答案:ABCD3.在隨機森林中,最終的集成模型是通過什么策略決定模型結(jié)果?A、累加制B、求平均數(shù)C、投票制D、累乘制參考答案:BC4.在神經(jīng)網(wǎng)絡(luò)中常有權(quán)重共享現(xiàn)象,以下哪些神經(jīng)網(wǎng)絡(luò)會發(fā)生權(quán)重共享?A、感知器B、卷積神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)參考答案:BD5.在深度學(xué)習(xí)中,以下哪些是常用的正則項?A、L1B、TanhC、ReluD、12參考答案:AD6.在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中我們經(jīng)常使用優(yōu)化器加快訓(xùn)練速度,以下屬于深度學(xué)習(xí)中常用的優(yōu)化器A、DAgrAD優(yōu)化器B、RMSprop優(yōu)化器C、ADAm優(yōu)化器D、動量優(yōu)化器參考答案:ABCD7.在深度學(xué)習(xí)任務(wù)中,遇到數(shù)據(jù)不平衡問題時,我們可以用以下哪些方法進行解決?A、批量刪除B、隨機過采樣C、隨機欠采樣D、合成采樣參考答案:BCD8.在深度學(xué)習(xí)模型訓(xùn)練的過程中,常見的優(yōu)化器有哪些?A、DAmB、ADAgrADC、SGDD、Momentum參考答案:ABCD9.在人工智能領(lǐng)域,三大主義學(xué)派包含以下哪些選項?A、符號主義B、行為主義C、連接主義D、機器主義參考答案:ABC10.在卷積神經(jīng)網(wǎng)絡(luò)中,不同層具有不同的功能,可以起到降維作用的是以下哪一層?A、輸入層B、全連接層C、卷積層D、池化層參考答案:BCD11.在構(gòu)建好神經(jīng)網(wǎng)絡(luò)net后,使用MinDspore.moDel進行訓(xùn)練,需要傳入net和以下哪些參數(shù)?A、損失函數(shù)B、評價指標C、正則化方法D、優(yōu)化器E、梯度更新策略參考答案:ABD12.與A.SIC.芯片相比,以下哪些選項是FPGA芯片的特征?A、實現(xiàn)相同功能時,需要的芯片規(guī)模更大。B、相同工藝條件下,功耗更小。C、研發(fā)風(fēng)險較低。D、運行時無需加載配置,可立即運行。參考答案:ACD13.用于訓(xùn)練的Atlas產(chǎn)品有A、tals300型號9000B、Atlas800型號9000C、Atals500D、Atals900參考答案:ABCD14.以下有關(guān)語音合成實驗的說法中,正確的有哪些選項?A、語音合成技術(shù)的主要目的是幫助用戶將上傳的完整的錄音文件通過處理生成語音對應(yīng)的文字內(nèi)容B、用戶可根據(jù)API進行音色選擇、自定義音量、語速,為企業(yè)和個人提供個性化的發(fā)音服務(wù)C、華為云提供開放API的方式,幫助用戶通過實時訪問和調(diào)用API獲取語音合成結(jié)果,將用戶輸入的文字合成為音頻。D、語音合成,又稱文語轉(zhuǎn)換,是一種將文本轉(zhuǎn)換成逼真語音的服務(wù)。參考答案:ABCD15.以下選項中,哪幾項是深度學(xué)習(xí)的特征?A、利用算法自動提取特征B、高維的權(quán)重參數(shù),海量的訓(xùn)練數(shù)據(jù)下可以獲得高性能。C、對計算機硬件需求較小。D、特征可解釋性強。參考答案:AB16.以下選項中,哪幾項是傳統(tǒng)機器學(xué)習(xí)的特征?A、適合小數(shù)據(jù)量訓(xùn)練,再增加數(shù)據(jù)量難以提升性能。B、對計算機硬件需求較個計算星級別有限,一般不需配用GPU顯卡故并行運算C、人工進行特征選擇D、特征可解釋性強參考答案:ABCD17.以下說法正確的是?A、若函數(shù)在某一點梯度存在,則其梯度唯一B、函數(shù)的駐點一定是極值點。C、函數(shù)的極值點一定是駐點D、若函數(shù)在某一點處方向?qū)?shù)存在,則其方向?qū)?shù)唯一。參考答案:AD18.以下屬于數(shù)據(jù)預(yù)處理步的是哪些選項?A、數(shù)據(jù)匯總、訓(xùn)練模型B、訓(xùn)練模型C、合并多個數(shù)據(jù)源數(shù)據(jù)D、處理數(shù)據(jù)缺失E、數(shù)據(jù)過濾參考答案:ACDE19.以下屬于決策樹主要構(gòu)建步驟的是哪些選項?A、構(gòu)建子學(xué)習(xí)器B、特征選擇C、決策樹生成D、剪枝參考答案:BCD20.以下屬于MinDspore中提供CAllBACk的選項有哪些?A、LossMonitorB、TrAinStepC、MoDelCheCkPointD、SummAryColleCtor參考答案:ACD21.以下哪些選項屬于圖像識別技術(shù)應(yīng)用場景?A、智能音箱B、安防監(jiān)控C、無人駕駛D、智能機器人參考答案:BCD22.以下哪些選項屬于機器學(xué)習(xí)中常見的集成學(xué)習(xí)算法?A、線性回歸B、GBDTC、隨機森林D、Xgboost參考答案:BCD23.以下哪些選項屬于華為自動駕駛云服務(wù)?A、標注平臺B、數(shù)據(jù)存儲C、算法管理D、路況數(shù)據(jù)采集參考答案:ABC24.以下哪些選項屬于華為云MoDeArts提供的服務(wù)?A、自動學(xué)習(xí)B、PyC.hArmSD.KC、數(shù)據(jù)集自動標注D、多人數(shù)據(jù)標注參考答案:ABCD25.以下哪些選項屬于MinDsporeLite的特性?A、極致性能B、全場景支持C、高效部署D、分布式訓(xùn)練參考答案:ABC26.以下哪些選項屬于HMSCore提供的AI能力A、HiAIFounDA.tionB、MinDsporeLiteC、HiAIengineD、MLKit參考答案:ACD27.以下哪些選項屬于CANN中昇騰計算基礎(chǔ)層提供的服務(wù)?A、主機-設(shè)備通信B、共享虛擬內(nèi)存C、高級內(nèi)存復(fù)用D、設(shè)備虛擬化參考答案:ABD28.以下哪些選項是人工智能深度學(xué)習(xí)框架?A、MindSporeB、PytorchC、TheandD、TensorFlow參考答案:ABCD29.以下哪些選項是CNN網(wǎng)絡(luò)結(jié)構(gòu)?A、InceptionB、ertC、AlexNetD、VGG參考答案:CD30.以下哪些選項可以創(chuàng)建全零常量Tensor?A、tf.zeros()B、tf.zeros_like0C、tf.zeros_array)D、tf.zeros_list()參考答案:AB31.以下哪些項屬于生成對抗網(wǎng)絡(luò)訓(xùn)練中的問題?A、不穩(wěn)定性B、模式崩塌C、過擬合D、欠擬合參考答案:ABC32.以下哪些項是單層感知機和邏輯回歸的主要區(qū)別?A、激活函數(shù)B、處理的任務(wù)C、損失函數(shù)D、優(yōu)化方法參考答案:AC33.以下哪些項是Softsign激活函數(shù)相比于Sigmoid函數(shù)的優(yōu)勢A、輸出關(guān)于0點對稱B、沒有梯度消失問題C、梯度飽和速度變緩D、導(dǎo)數(shù)最大值為1參考答案:BD34.以下哪些項可以作為深度學(xué)習(xí)的優(yōu)化方法?A、梯度下降法B、最小二乘法C、牛頓法D、擬牛頓法參考答案:ACD35.以下哪些屬于AI訓(xùn)練和推理框架?A、MindSporeB、MatlabC、PytorchD、TensorFlow參考答案:ACD36.以下哪些是語音處理研究的主題?A、語音處理B、聲紋識別C、語音識別D、語音喚醒參考答案:BCD37.以下哪些是屬于深度學(xué)習(xí)算法的激活函數(shù)?A、SigmoidB、ReLUC、TanhD、Sin參考答案:ABC38.以下哪些是MinDspore的優(yōu)點?A、深度圖優(yōu)化B、端云協(xié)同C、On-DeviC.e執(zhí)行D、Pipeline并行參考答案:ABCD39.以下哪些模型可以用來做分類?A、邏輯回歸B、支持向量機C、線性回歸D、決策樹參考答案:ABD40.以下哪些激活函數(shù)容易產(chǎn)生梯度消失問題?A、ReLUB、SoftplusC、TAnhD、SigmoiD參考答案:CD41.以下哪幾項是華為云EI提供的入侵識別服務(wù)的特點?A、高人工成本B、高靈活性C、高易用性D、低誤振率參考答案:BCD42.以下哪幾項是MindExpress子系統(tǒng)High-LevelPythonAPI提供的功能接口?A、CallbackB、LayersC、InitializerD、Model參考答案:AD43.以下哪凡項是ModelArts中訓(xùn)練平臺的優(yōu)勢?A、多種開發(fā)模式滿足不同需求B、靈活、高效、性價比高C、預(yù)置訓(xùn)練模型,加速AI落地D、彈性訓(xùn)練提升訓(xùn)練效率參考答案:ABCD44.以下關(guān)于臟數(shù)據(jù)的描述中,哪些選項是正確的?A、臟數(shù)據(jù)中存在矛盾的、有差異的記錄。B、臟數(shù)據(jù)中常缺少屬性或者包含一些缺失的值C、臟數(shù)據(jù)包含太多錯誤信息,因此無法直接用于機器學(xué)習(xí)D、臟數(shù)據(jù)包含錯誤的記錄或者異常點。參考答案:ABCD45.以下關(guān)于線性回歸與防止過擬合的描述中,哪些選項是正確的?A、線性回歸權(quán)重系數(shù)在樣本空間中不過大/過小,可以在目標函數(shù)之上增加一個平方和損失B、當使用的正則項是12-orm,使用這個損失函數(shù)的現(xiàn)象回歸也叫LASSO回歸C、正則項有助于減少過擬合D、追加了絕對值損失的線性回歸叫做Ridge回歸參考答案:AC46.以下關(guān)于梯度下降法的描述中,正確的有哪幾項?A、梯度下降法的思想是讓損失函數(shù)沿著梯度的方向進行搜索,不斷迭代更新參數(shù),最終使得損失函數(shù)最小化。B、全局梯度下降法收斂過程比較慢,因為每次更新權(quán)值都需要計算所有的訓(xùn)練樣例。C、小批量梯度下降法每次使用一小批固定尺寸的樣例來更新權(quán)值,兼顧了效率和梯度的穩(wěn)定性D、隨機梯度下降根據(jù)每一個樣例來更新權(quán)值,往往難以收斂到極值。參考答案:ABC47.以下關(guān)于隨機梯度下降和小批量梯度下降的描述,正確的是哪些項?A、隨機樣度下降的不穩(wěn)定性可以幫助模型在收斂中跳過一些局部極值點B、小批量梯度下降相比于隨機梯度下降更容易受到噪聲數(shù)據(jù)的影響C、隨機梯度下降的一種實現(xiàn)是在線學(xué)習(xí)(OnlineLeArning),它根據(jù)每一個樣例來更新梯度D、小批量梯度下降的思想是每次使用一小批固定尺寸(BAtChSize)的樣例來更新權(quán)值參考答案:ACD48.以下關(guān)于深度學(xué)習(xí)的描述,正確的是那些選擇?A、利用算法自動提取特征B、特征可解釋性強C、需要GPU做并行運算D、需要將問題逐層分解參考答案:AC49.以下關(guān)于模型中參數(shù)與超參數(shù)的描述中,哪些選項是正確的?A、模型超參數(shù)通常由實踐者直接指定B、模型超參數(shù)只能通過人工直接設(shè)定C、模型超參數(shù)通常根據(jù)給定的預(yù)測建模問題而調(diào)整D、模型超參數(shù)通??梢允褂脝l(fā)式方法來設(shè)置參考答案:ACD50.以下關(guān)于機器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C、機器學(xué)習(xí)中模型的映射關(guān)系是自動學(xué)習(xí)的D、機器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的參考答案:ABC51.以下關(guān)于機器學(xué)習(xí)算法的描述中,哪些選項是正確的?A、深度學(xué)習(xí)是機器學(xué)習(xí)的一個特定分支,要想充分理解深度學(xué)習(xí),必須對機器學(xué)習(xí)的基本原理有深刻的理解。B、根據(jù)學(xué)習(xí)過程中的不同經(jīng)驗,機器學(xué)習(xí)算法可以分為無監(jiān)督算法和監(jiān)督算法。C、所謂“學(xué)習(xí)”是指,對于某類任務(wù)T和性能度量P,一個計算機程序在E上以P衡量的性能,隨著經(jīng)驗E而自我完善,那么我們稱這個計算機程序在從經(jīng)驗學(xué)習(xí)。D、人類通過經(jīng)驗歸納規(guī)律,機器學(xué)習(xí)算法也可以從歷史數(shù)據(jù)當中挖掘規(guī)則。參考答案:BCD52.以下關(guān)于反向傳播算法的描述,正確的是哪些項?A、反向傳播的本質(zhì)是鏈式求導(dǎo)法則。B、反向傳播的目的是計算梯度,更新參數(shù)。C、誤差反向傳播之前需要先進行信號正向傳播D、反向傳播過程中需要計算每個神經(jīng)元的誤差項。參考答案:ABCD53.以下關(guān)于傳統(tǒng)機器學(xué)習(xí)的描述,錯誤的是哪些選項?A、適合小數(shù)據(jù)量訓(xùn)練B、需要用GPU做加速C、需要人工做特征選擇D、特征可解釋性差參考答案:BD54.以下關(guān)于超參數(shù)調(diào)節(jié)方法網(wǎng)格搜索的描述中,正確的是哪些選項?A、網(wǎng)格搜索是一種昂貴且耗時的方法。B、網(wǎng)格搜索方法非常適合神經(jīng)網(wǎng)絡(luò)使用C、網(wǎng)格搜索嘗試窮舉搜索所有可能的超參數(shù)組合形成超參數(shù)值網(wǎng)格。D、網(wǎng)格搜索在超參數(shù)數(shù)目相對較少的情況下工作良好。參考答案:ACD55.以下關(guān)于標準RNN的描述正確的是哪幾項?A、標準的循環(huán)神經(jīng)網(wǎng)路存在褲度爆炸和棉度消失問題。B、標準RNN結(jié)構(gòu)解決了信息記憶的問題但是對長時間記憶的信息會衰減C、梯度消失梯度爆炸都與路徑長度太長有關(guān),前面的權(quán)重都基本固定不變,沒有訓(xùn)練效果D、標準RNN是一種死板的邏輯,越晚的輸入影響越大越早的輸入影響越小,且無法改變這個邏輯︰參考答案:ABCD56.以下關(guān)于Relu激活函數(shù)缺點的描述,正確的是哪些項?A、有神經(jīng)元死亡的現(xiàn)像B、轉(zhuǎn)折點定義的曲面也是有“棱角”的,在某些回歸問題中,顯得不夠平滑C、在0處不可導(dǎo),強行定義了導(dǎo)數(shù)D、無上界,訓(xùn)煉相對發(fā)散參考答案:ABCD57.以下關(guān)于MinDspore自述中,哪些選項是正確的?A、包MinDspore支持自動整圖切分B、Minispore只能采用手動模型并行,需要設(shè)計模型切分,感知集群拓撲,開發(fā)難度高,難以保證高性能,難以調(diào)優(yōu)。C、MinDspore支持集群拓撲感知調(diào)度D、超大規(guī)模模型實現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn)參考答案:ACD58.以下關(guān)于MinDspore自動并行關(guān)鍵技術(shù)的描述中,哪些選項是正確的?A、MinDspore只能采用手動模型并行,需要設(shè)計模型切分,感知集群拓撲,開發(fā)難度高,難以保證高性能,難以調(diào)優(yōu)。B、MinDspore支持自動整圖切分C、MinDspore可以應(yīng)對超大規(guī)模模型實現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn)D、MinDspore支持集群拓撲感知調(diào)度。參考答案:BCD59.下面有關(guān)AI應(yīng)用領(lǐng)域的描述正確的有哪些選項?A、智醫(yī)療運用了計算機視覺數(shù)據(jù)控掘等AI技術(shù)B、智慧城市,是一門綜合學(xué)科,幾乎涵蓋AI常用三大方向,語音、NLP和計算機視覺C、智慧教育,基本特征是開放、共享、交互、協(xié)作、泛在。以教育信息化促進教育現(xiàn)代化用信息技術(shù)改變傳統(tǒng)模式D、智能家居,運用了物聯(lián)網(wǎng)、語音識別等技術(shù)參考答案:ABCD60.下面哪些屬于AI的應(yīng)用領(lǐng)域A、智慧醫(yī)療B、智慧教育C、智慧城市D、智慧家居參考答案:ABCD61.下面哪幾項是屬于華為云通用APIS?A、ImAgeB、ImAgeSeArC.hC、nLPD、OCR參考答案:AD62.下列屬于AI技術(shù)方向的是哪些選項?A、自然語言處理B、規(guī)劃決策C、語音識別D、計算機視覺參考答案:ABCD63.下列使用了達芬奇架構(gòu)的產(chǎn)品有哪些選項?A、scend.310B、Kunpeng920sC、Ascend910D、Kunpengs920參考答案:AC64.下列哪些選項是<人工智能綜合實驗>調(diào)用華為云服務(wù)中可能會用到的?A、kB、regionC、projeCt_iDD、sk參考答案:ABCD65.下列哪些屬于華為云自然語言處理(NAturAlLAnguAgeProCessing)服務(wù)的關(guān)鍵技術(shù)?A、卷積B、分詞C、文本摘要D、池化參考答案:BC66.下列哪些屬于AI的子領(lǐng)域?A、機器學(xué)習(xí)B、計算機視覺C、語音識別D、自然語言處理參考答案:ABCD67.下列哪幾項是圖引擎服務(wù)可以應(yīng)用的場景?A、風(fēng)控B、銷量預(yù)C、知識圖譜D、推薦參考答案:ABCD68.下列哪幾項是華為云圖引擎服務(wù)(GrAphEngineServiCe)的優(yōu)勢?A、豐富的圖分析算法庫B、高性能圖計算內(nèi)核C、分布式高性能圖存儲擎D、語音交互參考答案:ABCD69.下列關(guān)于通用表格識別服務(wù)的說法正確的是?A、rows代表文字塊占用的行信息,編號從0開始,列表形式B、colums代表文字塊占用的列信息,編號從0開始,列表形式C、傳入的圖像數(shù)據(jù)需要經(jīng)過base64編碼D、words代表文字塊識別結(jié)果參考答案:ABCD70.下對于數(shù)據(jù)轉(zhuǎn)換的描述中,哪些選項是正確的?A、數(shù)值數(shù)據(jù)轉(zhuǎn)換為類別數(shù)據(jù)可以減少變量的值。B、在分類問題中,將類別數(shù)據(jù)編碼成為對應(yīng)的數(shù)值表示C、在文本中,通過詞嵌入將詞轉(zhuǎn)化為詞向量也是一種數(shù)據(jù)轉(zhuǎn)換對數(shù)據(jù)進行初步的預(yù)處理后,D、需要將其轉(zhuǎn)換為一種適合機器學(xué)習(xí)模型的表示形式參考答案:ABC71.圖像翻拍檢測服務(wù)調(diào)用成功時標簽sugestion有哪些情況?A、CertAintyB、FALSEC、unCertAintyD、TRUE參考答案:BCD72.圖像標簽服務(wù)調(diào)用成功時返回的type包含下列哪些類型?A、oBjeCt:實體標簽B、ConCept:概念標簽C、sport:運動標簽D、sCene:場景標簽參考答案:ABCD73.調(diào)用華為云語音合成pythonAPI時,需要初始化客戶端參數(shù),主要通過TtsCustomizAtionClient函數(shù)完成,以下初始化參數(shù)中,必須項有哪幾項?A、serviCe-enDpointB、regionC、skD、Ak參考答案:ABCD74.生成對抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場景中可以使用此網(wǎng)絡(luò)的是?A、數(shù)據(jù)增強B、語義分割C、信息檢索D、圖像生成參考答案:ABCD75.神經(jīng)網(wǎng)絡(luò)深度過深容易出現(xiàn)以下哪一種問題?A、梯度消失B、梯度爆炸C、訓(xùn)練數(shù)據(jù)丟失D、模型欠擬合參考答案:AB76.深度學(xué)習(xí)中以下哪些步驟是由模型自動完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取參考答案:BD77.深度學(xué)習(xí)在以下哪些領(lǐng)域當中有廣泛的應(yīng)用?A、自然語言處理B、輔助決策C、圖像處理D、語音處理參考答案:ABCD78.深度學(xué)習(xí)是目前比較火熱的人工智能技術(shù),但是在做深度學(xué)習(xí)任務(wù)時常常會遇到各種各樣的問題,以下會在深度學(xué)習(xí)任務(wù)中出現(xiàn)的問題有?A、梯度消失問題B、過擬合問題C、數(shù)據(jù)不平衡問題D、梯度爆炸問題參考答案:ABCD79.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)比較容易出現(xiàn)過擬合問題,以下哪些選項可能導(dǎo)致過擬合問題?A、數(shù)據(jù)集樣本數(shù)目少B、使用正則項C、使用SigmoiD激活函數(shù)D、隱藏層數(shù)過多參考答案:AD80.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問題我們常用的解決方法為A、梯度剪切B、隨機欠采樣C、使用Relu激活函數(shù)D、正則化參考答案:ACD81.人工智能研究在國際上至今沒有統(tǒng)一的定義,目前普遍將只能機器分為以下哪幾類?A、理性地行動B、理性地思考C、像人一樣思考D、像人一樣行動參考答案:ABCD82.人工智能現(xiàn)在的技術(shù)應(yīng)用方向主要有?A、自然語言處理B、控制系統(tǒng)C、計算機視覺D、語音識別參考答案:ACD83.強化學(xué)習(xí)可以應(yīng)用在以下哪些領(lǐng)域中?A、交通B、機器人控制C、游戲D、金融參考答案:ABCD84.企業(yè)智能EI可以應(yīng)用于下哪些場景?A、智慧城市B、智能制造C、智能金融D、智政政務(wù)參考答案:ABCD85.某企業(yè)在部署MinDsporepython開發(fā)環(huán)境時,可以選擇以下哪些安裝方式?A、D.oCkerB、源碼安裝C、PIPD、ConDA參考答案:ACD86.決策樹的構(gòu)建過程一般包含以下哪些選項A、特征選擇B、聚類C、剪枝D、決策樹生成參考答案:ACD87.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸,常見的池化有:A、最小池化層B、最大池化層C、平均池化層D、乘積池化層參考答案:BC88.截止2019年底,TensorFlow發(fā)布過的版本有?A、1B、3C、2D、0.1參考答案:ACD89.機器學(xué)習(xí)一般可分為以下哪些類型A、監(jiān)督學(xué)習(xí)B、半監(jiān)督學(xué)習(xí)C、無監(jiān)督學(xué)習(xí)D、強化學(xué)習(xí)參考答案:ABCD90.華為云文字識另別OCR技術(shù)的優(yōu)勢有哪幾項?A、識別精度高B、降低成本C、高適應(yīng)性D、快速高效參考答案:ABCD91.華為云可提供的AI服務(wù)有以下哪幾項?A、文本識別OCRB、語音交互C、圖引擎服務(wù)D、圖像搜索參考答案:ABCD92.華為云MoDelArts中有AIGAllery,可以提供以下哪些內(nèi)容?A、預(yù)置算法B、IDEC、NoteBookD、數(shù)據(jù)集參考答案:ACD93.華為云MoDelArts中推出了MoDelBox用于端邊云聯(lián)合開發(fā),以下哪些選項屬于其優(yōu)化策略?A、算子自動切分B、硬件親和性C、模型克隆D、算子優(yōu)化參考答案:ABD94.華為云MoDelArts是面向AI開發(fā)的一戰(zhàn)式開發(fā)平臺,以下哪些功能在MoDelArts上可以具備?A、數(shù)據(jù)治理B、AI市場C、可視化工作流D、自動學(xué)習(xí)參考答案:ABCD95.華為云EI智能體根據(jù)行業(yè)和應(yīng)用場景的不同也有很多種,目前可以實現(xiàn)的華為云引智能體有?A、工業(yè)智能體B、交通智能體C、園區(qū)智能體D、汽車智能體參考答案:ABCD96.華為云E1讓更多的企業(yè)邊界的使用AI和大數(shù)據(jù)服務(wù),加速業(yè)務(wù)發(fā)展,造福社會。華為云EI服務(wù)可以在以下哪些方面服務(wù)企業(yè)?A、行業(yè)數(shù)據(jù)B、行業(yè)智慧C、算法D、算力參考答案:ABCD97.華為HIAlServiCe提供以下哪些平臺?A、小藝對話開發(fā)平臺B、快服務(wù)智慧平臺HA.GC、智能圖表識別平臺D、自定義語音合成平臺參考答案:AB98.關(guān)于圖像內(nèi)容審核服務(wù)調(diào)用成功時返回的suggestion字段,說法正確的是?A、pAss代表不包含敏感信息,通過B、review代表需要人工復(fù)檢C、suggestion字段代表檢測是否通過D、BloCk代表包含敏感信息,不通過參考答案:ABCD99.關(guān)于深度學(xué)習(xí)中常用的激活函數(shù),以下哪些選項是正確的?A、sigmoiD,tAnh,Softsign函數(shù)在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的過程中,都無法回避梯度消失的問題B、sigmoiD函數(shù)容易導(dǎo)致梯度爆炸。C、sigmoiD函數(shù)單調(diào)連續(xù),求導(dǎo)容易,輸出有界,網(wǎng)絡(luò)比較容易收斂D、tAnh函數(shù)關(guān)于原點對稱,均值更接近于0。參考答案:ACD100.關(guān)于人臉搜索服務(wù),下列哪些說法是正確的?A、沒有人臉集時,需要先創(chuàng)建人臉集,再添加人臉數(shù)據(jù),然后才能進行搜索B、一個人臉集的大小不能超過10000張圖片C、有專門的接口可以刪除指定人臉集D、有專門的接口可以刪除某個人臉集中的人臉數(shù)據(jù)參考答案:ACD101.關(guān)于人工智能技術(shù)的爭議說法,以下哪些選項是正確的?A、I會取代那些重復(fù)性強、創(chuàng)造性低,弱社交的工作。B、隨著計算機視覺的發(fā)展,圖像及視頻的可信度也越來越低?,F(xiàn)在我們可以通過PS,GAN等技術(shù)制作假圖像,讓人難分真?zhèn)巍、未來人工智能將會替代所有的工作,包括具有強社交屬性的行業(yè)。D、反向傳播計算梯度人工智能是非常危險的技術(shù),因此必須停止人工智能的研究。參考答案:AB102.關(guān)于模型容量的說法,以下哪些選項是正確的?A、容量和數(shù)據(jù)量以及參數(shù)數(shù)量沒有太大的關(guān)系B、容量不足的模型不能解決復(fù)雜任務(wù),可能出現(xiàn)欠擬合C、容量高的模型能夠解決復(fù)雜的任務(wù),但是其容量高于任務(wù)所需時,有可能會過擬合D、容量與執(zhí)行任務(wù)的復(fù)雜度和所提供訓(xùn)練數(shù)據(jù)的數(shù)量匹配時,算法效果通常最佳。參考答案:BCD103.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),下列哪些說法是正確的?A、在卷積神經(jīng)網(wǎng)絡(luò)格中,池化層只能選擇最大池化,而不能選擇其他方法。B、卷積運算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一些低級的特征如邊緣、線條和角,更多層的網(wǎng)絡(luò)能從低級特征中迭代提取更復(fù)雜的特征。C、全連接層把所有局部特征結(jié)合變成全局特征用來計算最后每一類的得分。D、卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層由若千卷積單元組成,每個卷積單元的參數(shù)都是通過反向傳播算法優(yōu)化得到的。參考答案:BCD104.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、池化操作采用掃描窗口實現(xiàn)B、池化層可以起到降維的作用C、常用的池化方法有最大池化和平均池化D、經(jīng)過池化的特征圖像變小了參考答案:ABCD105.關(guān)于矩陣分解,以下正確的是?A、只有方陣才能進行奇異分解B、一個矩陣乘以其特征向量后,向量只發(fā)生伸縮變換。C、對矩陣A進行奇異值分解,其左奇異矩陣與右奇異矩陣都是正交矩陣D、奇異值越大,其所對應(yīng)的奇異向量上包含的信息量越大。參考答案:BCD106.關(guān)于反向傳播算法,下列哪些說法是正確的?A、反向傳播算法使得神經(jīng)網(wǎng)絡(luò)的效果有了更大的提升。B、如果網(wǎng)絡(luò)中存在數(shù)個隱藏層。也可以使用求導(dǎo)的鏈式法則逐層求導(dǎo),選代求解最優(yōu)參數(shù)C、損失函數(shù)中產(chǎn)生的誤差,是通過輸入層到隱藏層到輸出層逐漸積累形成的。D、反向傳播又叫誤差反向傳播。參考答案:ABCD107.關(guān)于Python正確的是?A、用戶可以自定義異常B、異常不會終止程序的執(zhí)行C、使用try語句可以捕獲異常D、Python中的異常只能系統(tǒng)拋出參考答案:AC108.當編譯模型時用了以下代碼,pile(optimizer='Adam'loss='categorical.crossentropy;metrics=[tf.keras.metrics.accuracy]),在使用evaluate方法評估模型時,會輸出以下哪些指標?A、categorical_accuracyB、accuracyC、ategorical_lossD、loss參考答案:BD109.處理實際問題時,以下什么情況下該使用機器學(xué)習(xí)?A、規(guī)則十分復(fù)雜或者無法描述,比如人臉識別和語音識別B、任務(wù)的規(guī)會隨時間改變,比如生產(chǎn)線上的瑕疵檢測,比如預(yù)測商品銷售的趨勢C、數(shù)據(jù)分布本身隨時間變化,需要程序不停的重新適應(yīng)D、規(guī)則復(fù)雜程度低且問題的規(guī)模較小的問題參考答案:ABC110.常見的臟數(shù)據(jù)的類型有哪些?A、格式錯誤的值B、重復(fù)值C、邏輯錯誤的值D、缺失值參考答案:ABCD111.常見的聚類算法有哪些?A、密度聚類B、層次聚類C、譜聚類D、K-meAns參考答案:ABCD112.TensorFlow成為深度學(xué)習(xí)主流框架的原因是?A、后端開發(fā)B、深度學(xué)習(xí)APIC、自動求導(dǎo)D、GPU并行加速參考答案:BCD113.TensorFlow2.0中可以用來查看是否是tensor的方法有?A、dtypeB、isinstanceC、is_tensorD、evice參考答案:BC114.SVM中常用的核函數(shù)包括哪些?A、高斯核函數(shù)B、多項式核函數(shù)C、Sigmiod核函數(shù)D、線性核函數(shù)參考答案:ABCD115.softmA.x函數(shù)在分類任務(wù)中經(jīng)常被使用,下列關(guān)于softmA.x函數(shù)的描述,哪些選項是正確的?A、是二分類函數(shù)sigmoiD的推廣B、softmAx函數(shù)又稱作歸一化指數(shù)函教C、SoftmAx回歸模型是解決二分類回歸問題的算法D、softmAx函數(shù)經(jīng)常與交叉嫡損失函數(shù)聯(lián)合使用參考答案:ABD116.Python具備以下哪些特性?A、解釋性B、開源C、簡便D、面向?qū)ο髤⒖即鸢福篈BCD117.Python的可用在以下哪些領(lǐng)?A、人工智能B、數(shù)據(jù)科學(xué)C、網(wǎng)站開發(fā)D、APP參考答案:ABCD118.MSR是一種簡潔高效靈活的基于圖的函數(shù)式IR,可以表示的函數(shù)式語義類型有?A、自由變量B、高階函數(shù)C、中斷D、遞歸參考答案:ABD119.ModelArts中自動學(xué)習(xí)功能不需要代碼編寫和模型開發(fā)經(jīng)驗。下列哪些選項屬于ModelArts中自動學(xué)習(xí)的功能?A、自動設(shè)計模型B、自動訓(xùn)練C、部署模型D、自動調(diào)參E、自動壓縮參考答案:ABCDE120.ModelArts中訓(xùn)練平臺可以支持的開發(fā)模式有哪幾種?A、云上開發(fā)(I

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論