2025年人工智能知識(shí)考試題庫(kù)及答案_第1頁(yè)
2025年人工智能知識(shí)考試題庫(kù)及答案_第2頁(yè)
2025年人工智能知識(shí)考試題庫(kù)及答案_第3頁(yè)
2025年人工智能知識(shí)考試題庫(kù)及答案_第4頁(yè)
2025年人工智能知識(shí)考試題庫(kù)及答案_第5頁(yè)
已閱讀5頁(yè),還剩72頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2025年人工智能知識(shí)考試題庫(kù)及答案

一.單項(xiàng)選擇題

i.關(guān)于語(yǔ)音識(shí)別服務(wù)中的一句話識(shí)別指的是,用于短語(yǔ)音的同步識(shí)別。

一次性上傳整個(gè)音頻,響應(yīng)中即返回識(shí)別結(jié)果。

A、TRUE

B、FALSE

答案:A

2,利用計(jì)算機(jī)來(lái)模擬人類的某些思維活動(dòng),如醫(yī)療診斷、定理證明,

這些應(yīng)用屬于()

A、數(shù)值計(jì)算

B、自動(dòng)控制

C、人工智能

D、模擬仿真

答案:C

3.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一

步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但

怎么獲知每個(gè)神經(jīng)的權(quán)重和偏移呢?

A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值

B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重

C、隨機(jī)賦值,聽(tīng)天由命

D、以上都不正確的

答案:B

4.SOM網(wǎng)絡(luò)是一種0的無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò),它能將高維輸入數(shù)據(jù)映射到

低維空間。

A、競(jìng)爭(zhēng)學(xué)習(xí)型

B、增量學(xué)習(xí)型

C、在線學(xué)習(xí)型

D、匹配學(xué)習(xí)型

答案:A

5.下列哪行python代碼有語(yǔ)法錯(cuò)誤()

A、forsubitem:al1Items:

B>forkey,valueinipmap:

C、withopensrc_file,?r,asread_stream:

D>readstream=opensrc_file,*r

答案:A

6.一階規(guī)則的基本成分是(一)

A、原子命題

B、謂詞

C、量詞

D、原子公式

答案:D

7.在python中,x=[ll,8,7,2,3],x、insert(4,[4,5]),列表x的

值為()。

A、11,8,7,2,4,5],3]

B、11,8,7,2,4,5,3]

C、11,8,7,4,5],2,3]

D、11,8,7,4,5,2,3]

答案:A

8.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,下面哪種方法可以用來(lái)處理過(guò)擬合?

A、Dropout

B、分批歸一化BatchNormalization

C、正則化regularization

D、都可以

答案:D

9.下列關(guān)于冗余特征的說(shuō)法錯(cuò)誤的是()

A、冗余特征是可以通過(guò)其他特征推演出來(lái)的特征

B、冗余特征是無(wú)用的特征

C、冗余特征有時(shí)候可以降低學(xué)習(xí)任務(wù)的難度

D、去除冗余特征可以減輕學(xué)習(xí)過(guò)程的負(fù)擔(dān)

答案:B

10.下列不屬于深度學(xué)習(xí)內(nèi)容的是

A、深度置信網(wǎng)絡(luò)

B、受限玻爾茲曼機(jī)

C、卷積神經(jīng)網(wǎng)絡(luò)

D、貝葉斯學(xué)習(xí)

則a[〃animals〃]的值為()

A、pear

B>dog

C>carrot

D、以上選項(xiàng)均不

答案:B

15.以下選項(xiàng)中,不是Python語(yǔ)言保留字的是

A^while

B、except

C、do

D、pass

答案:C

16.關(guān)于〃與/或〃圖表示知識(shí)的敘述,錯(cuò)誤的有。

A、用〃與/或〃圖表示知識(shí)方便使用程序設(shè)計(jì)語(yǔ)言表達(dá),也便于計(jì)算機(jī)

存儲(chǔ)處理。

B、〃與/或〃圖表示知識(shí)時(shí)一定同時(shí)有〃與節(jié)點(diǎn)〃和〃或節(jié)點(diǎn)〃。

C、〃與/或〃圖能方便地表示陳述性知識(shí)和過(guò)程性知識(shí)。

D、能用〃與/或〃圖表示的知識(shí)不適宜用其地方法表示。

答案:D

17.下列()不是建立專家系統(tǒng)的一般步驟

A、設(shè)計(jì)初始知識(shí)庫(kù)

B、排序與查詢

C、原型機(jī)的開(kāi)發(fā)

D、知識(shí)庫(kù)的改進(jìn)與歸納

答案:B

18.在NoSQL數(shù)據(jù)庫(kù)的復(fù)制機(jī)制中,〃主從復(fù)制〃是將數(shù)據(jù)復(fù)制到多個(gè)

節(jié)點(diǎn),用戶可以讀取該節(jié)點(diǎn)的數(shù)據(jù),但不能直接更新它,此類節(jié)點(diǎn)為

Oo

A、Main節(jié)點(diǎn)

B、Master節(jié)點(diǎn)

C、Slave節(jié)點(diǎn)

D、Save節(jié)點(diǎn)

答案:C

19.一個(gè)完整機(jī)器學(xué)習(xí)項(xiàng)目需要以下哪些流程?①抽象成數(shù)學(xué)問(wèn)題②

獲取數(shù)據(jù)③特征預(yù)處理與特征選擇④訓(xùn)練模型與調(diào)優(yōu)⑤模型診斷與

融合⑥上線運(yùn)行

A、①②③④⑤

B、②③④⑤⑥

C、①②③④⑤⑥

D、①②④⑤⑥

答案:C

20.貝葉斯網(wǎng)絡(luò)是基于概率推理的()模型。

A、數(shù)據(jù)

B、數(shù)學(xué)

C、判斷

D、圖形

答案:B

21.從加工程度看,以下()屬于數(shù)據(jù)產(chǎn)品中的決策類產(chǎn)品。

A、戰(zhàn)略規(guī)劃

B、咨詢報(bào)告

C、Apps

D、數(shù)據(jù)庫(kù)

答案:A

22.()是概率框架下實(shí)施決策的基本方法。

A、決策樹(shù)

B、神經(jīng)網(wǎng)絡(luò)

C、貝葉斯決策論

D、支持向量機(jī)

答案:C

23.前饋神經(jīng)網(wǎng)絡(luò)是一種簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目

前應(yīng)用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)

網(wǎng)絡(luò)說(shuō)法正確的是:

A、具備計(jì)算能力的神經(jīng)元與上下兩層相連

B、其輸入節(jié)點(diǎn)具備計(jì)算能力

C、同一層神經(jīng)元相互連接

D、層間信息只沿個(gè)方向傳遞

答案:D

24.規(guī)則生成本質(zhì)上是一個(gè)貪心搜索的過(guò)程,須有一定的機(jī)制來(lái)緩解

過(guò)擬合的風(fēng)險(xiǎn),最常見(jiàn)的做法是(_)

A、序列化

B、剪枝

C、去重

D、重組

答案:B

25.關(guān)聯(lián)規(guī)則反映了事物之間的相互依賴性或關(guān)聯(lián)性。關(guān)聯(lián)規(guī)則主要

可分為()類

A、3

B、4

C、5

D、$6

答案:A

26.在機(jī)器學(xué)習(xí)建模過(guò)程中對(duì)原始數(shù)據(jù)集的劃分不包括

A、trainingset

B、testset

C^validationset

D、verificationset

答案:D

27.Python3中獲取用戶輸入并默認(rèn)以字符串存儲(chǔ)的函數(shù)是()

A^rawinput

B、input

C、raw

D、print

答案:B

28.通常池化操作的效果是:

A、使圖片變大

B、使圖片變小

C、使圖片變成三角形

D、使圖片變成圓形

答案:B

29.在Python中,下列哪種說(shuō)法是錯(cuò)誤的()。

A、除字典類型外,所有標(biāo)準(zhǔn)對(duì)象均可以用于布爾測(cè)試

B、空字符串的布爾值是False

C、空列表對(duì)象的布爾值是False

D、值為0的數(shù)值型數(shù)據(jù)的布爾值是False

答案:A

30.以下不屬于對(duì)抗生成網(wǎng)絡(luò)的應(yīng)用是?

A、文字生成

B、圖像生成

C、圖像識(shí)別

D、數(shù)據(jù)增強(qiáng)

答案:c

31.下列選項(xiàng)中昇騰310和昇騰910屬性相同的是?

A、最大功率

B、架構(gòu)

C、整數(shù)精度

D、7nm制程

答案:B

32.什么是KDD?()

A、數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)

B、領(lǐng)域知識(shí)發(fā)現(xiàn)

C、文檔知識(shí)發(fā)現(xiàn)

D、動(dòng)態(tài)知識(shí)發(fā)現(xiàn)

答案:A

33.考慮值集{12243324556826},其四分位數(shù)極差是

A、31

B、24

C、55

D、3

答案:A

34.用樹(shù)形結(jié)構(gòu)來(lái)表示實(shí)體之間聯(lián)系的模型稱為

A、關(guān)系模型

B、層次模型

C、網(wǎng)狀模型

D、數(shù)據(jù)模型

答案:B

35.實(shí)現(xiàn)多路分支的最佳控制結(jié)構(gòu)是

A、if

B、try

C、if-elif-else

D、if-else

答案:C

36.前饋神經(jīng)網(wǎng)絡(luò)通過(guò)誤差后向傳播(BP算法)進(jìn)行參數(shù)學(xué)習(xí),這是

一種()機(jī)器學(xué)習(xí)手段

A、監(jiān)督學(xué)習(xí)

B、無(wú)監(jiān)督學(xué)習(xí)

C、半監(jiān)督學(xué)習(xí)

D、無(wú)監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合

答案:A

37.決策管理系統(tǒng)幫助用戶制定、細(xì)化、實(shí)施、()各種決策,并將這

些決策引入具體的環(huán)境中發(fā)揮作用。

A、核對(duì)

B、驗(yàn)證

C、檢驗(yàn)

D、跟蹤

答案:D

38.決策樹(shù)學(xué)習(xí)的關(guān)鍵是如何從候選屬性集中選擇一個(gè)最有助于分類

實(shí)例的屬性,而其選擇是以()為依據(jù)的

A、分類

B、聚類

C、概率

D、信息烯

答案:D

39.變量的不確定性越大,相對(duì)應(yīng)信息端有什么變化0

A、焙變小

B、焙變大

C、不變

D、以上都不對(duì)

答案:B

40.對(duì)于線性不可分的數(shù)據(jù),支持向量機(jī)的解決方式是()

A、軟間隔

B、硬間隔

C、核函數(shù)

D、以上選項(xiàng)均不

答案:C

41.貝葉斯學(xué)習(xí)是一種以貝葉斯法則為基礎(chǔ)的,并通過(guò)()手段進(jìn)行學(xué)

習(xí)的方法。

A、邏輯

B、概率

C、推理

D、假定

答案:B

42.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹(shù)。為了花費(fèi)更少的時(shí)間來(lái)訓(xùn)練這

個(gè)模型,下列哪種做法是正確的

A、增加樹(shù)的深度

B、增加學(xué)習(xí)率

C、減少樹(shù)的數(shù)量

D、減小樹(shù)的深度

答案:D

43.假設(shè)你使用log-loss函數(shù)作為評(píng)估標(biāo)準(zhǔn)。下面這些選項(xiàng),哪些是

對(duì)作為評(píng)估標(biāo)準(zhǔn)的log-loss的正確解釋。()

A、如果一個(gè)分類器對(duì)不正確的分類很自信,log-loss會(huì)嚴(yán)重的批評(píng)

它。

B、對(duì)一個(gè)特別的觀察而言,分類器為正確的類別分配非常小的概率,

然后對(duì)log-loss的相應(yīng)分布會(huì)非常大。

C、log-loss越低,模型越好

D、以上都是

答案:D

44.如果一個(gè)訓(xùn)練好的模型在測(cè)試集上有100%的準(zhǔn)確率,這是不是意

味著在一個(gè)新的數(shù)據(jù)集上,也會(huì)有同樣好的表現(xiàn)?

A、是的,這說(shuō)明這個(gè)模型的范化能力已經(jīng)足以支持新的數(shù)據(jù)集合了

B、不對(duì),依然后其他因素模型沒(méi)有考慮到,比如噪音數(shù)據(jù)

答案:B

45.智算中心相比傳統(tǒng)數(shù)據(jù)中心,在以下哪個(gè)方面實(shí)現(xiàn)了顯著的技術(shù)

提升,以更好地支持大規(guī)模人工智能應(yīng)用?

A、數(shù)據(jù)存儲(chǔ)容量的大幅增加

B、網(wǎng)絡(luò)帶寬的簡(jiǎn)單擴(kuò)展

C、高效能并行計(jì)算與場(chǎng)景化硬件加速的結(jié)合

D、電源管理系統(tǒng)的優(yōu)化

答案:D

46.工信部發(fā)布的新型數(shù)據(jù)中心發(fā)展三年行動(dòng)計(jì)劃指出到2023年底,

新建大型及以上數(shù)據(jù)中心PUE降低到多少以下?

A、1

B、25

C、05

D、3

答案:C

47.對(duì)中文語(yǔ)料樣本來(lái)說(shuō),為了便于模型理解,第一步是將句子拆分

為詞元,詞元又稱為

A、embedding

B、詞嵌入

C^token

D、基礎(chǔ)語(yǔ)料

答案:C

48.下列哪部分不是專家系統(tǒng)的組成部分?

A、用戶

B、綜合數(shù)據(jù)庫(kù)

C、推理機(jī)

D、知識(shí)庫(kù)

答案:A

49.在GPT-4模型中,哪項(xiàng)技術(shù)或方法主要用于提升模型的生成質(zhì)量

和理解能力?

A、跨模態(tài)學(xué)習(xí)

B、大規(guī)模的預(yù)訓(xùn)練數(shù)據(jù)集

C、自適應(yīng)計(jì)算時(shí)間

D、遞歸神經(jīng)網(wǎng)絡(luò)(RNN)

答案:B

50.基于深度學(xué)習(xí)的電力設(shè)備故障檢測(cè)主要采用()的方法,通過(guò)對(duì)

大量歷史數(shù)據(jù)進(jìn)行線下訓(xùn)練,生成智能分析模型。

A、小樣本學(xué)習(xí)

B、半監(jiān)督學(xué)習(xí)

C、無(wú)監(jiān)督學(xué)習(xí)

D、有監(jiān)督學(xué)習(xí)

答案:D

51.語(yǔ)言模型的參數(shù)估計(jì)經(jīng)常使用最大似然估計(jì),面臨的一個(gè)問(wèn)題是

沒(méi)有出現(xiàn)的項(xiàng)概率為0,這樣會(huì)導(dǎo)致語(yǔ)言模型的效果不好。為了解決

這個(gè)問(wèn)題,需要使用()。

A、平滑

B、去噪

C、隨機(jī)插值

D、增加白噪音

答案:A

52.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是()。

A、1

B、1和3

C、1和2

D、2

答案:A

53.在構(gòu)建針對(duì)設(shè)備缺陷識(shí)別的大模型時(shí),以下哪種數(shù)據(jù)來(lái)源最有助

于提高模型的準(zhǔn)確性?

A、僅使用公開(kāi)的數(shù)據(jù)集

B、結(jié)合行業(yè)內(nèi)的歷史數(shù)據(jù)和開(kāi)源數(shù)據(jù)集

C、僅依賴于合成數(shù)據(jù)

D、采用隨機(jī)生成的數(shù)據(jù)

答案:B

54.梯度下降算法的正確步驟是什么?

A、1,2,3,4,5

B、5,4,3,2,1

C、3,2,1,5,4

D、4,3,1,5,2

答案:D

55.神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,用于評(píng)估模型預(yù)測(cè)準(zhǔn)確性的函數(shù)是

A、激活函數(shù)

B、損失函數(shù)

C、權(quán)重函數(shù)

D、優(yōu)化函數(shù)

答案:B

56.《國(guó)家人工智能產(chǎn)業(yè)綜合標(biāo)準(zhǔn)化體系建設(shè)指南》對(duì)人工智能產(chǎn)業(yè)

鏈作出了具體介紹,其中人工智能產(chǎn)業(yè)鏈包括()等4個(gè)部分

A、基礎(chǔ)層、框架層、模型層、應(yīng)用層

B、基礎(chǔ)層、強(qiáng)化層、改善層、創(chuàng)新層

C、初始層、框架層、網(wǎng)絡(luò)層、創(chuàng)新層

D、初始層、強(qiáng)化層、網(wǎng)絡(luò)層、應(yīng)用層

答案:A

57.在檢測(cè)桿塔上的銷釘是否存在銷子缺失的問(wèn)題時(shí),采取了什么措

施來(lái)降低誤檢率?

A、對(duì)所有銷釘進(jìn)行人工檢查

B、僅人工檢查帶有銷子的銷釘

C、找出桿塔上連接在掛環(huán)上、需要承重的銷釘,并檢查這些銷釘是

否存在銷子缺失

D、使用標(biāo)準(zhǔn)尺寸的樣本進(jìn)行比對(duì)

答案:C

58.()是從輸電〃動(dòng)脈〃接受電能,逐級(jí)分配給千家萬(wàn)戶的〃毛細(xì)血管

O

A、配電網(wǎng)

B、攝像機(jī)

C、無(wú)人機(jī)

D、邊端設(shè)備

答案:A

59.以下關(guān)于芯片說(shuō)法正確的是?

A、芯片通常是由半導(dǎo)體制成

B、目前芯片普遍使用的半導(dǎo)體組件為二極管

C、當(dāng)前芯片的制程工藝為納米級(jí)

答案:A

60.以下哪一種芯片,不屬于FPGA的演進(jìn)過(guò)程中的芯片類型?

A、CPLD

B、PR0M

C、ASIC

D、PAL

答案:B

61.在電網(wǎng)運(yùn)行分析中,為了滿足人工智能模型對(duì)大量訓(xùn)練樣本的需

求,以下哪種方法不是用來(lái)生成具備實(shí)測(cè)數(shù)據(jù)特征的樣本以增強(qiáng)數(shù)據(jù)

集的方法?

A、擴(kuò)展式模型

B、對(duì)抗生成網(wǎng)絡(luò)

C、高斯濾波器

D、擴(kuò)散式模型

答案:A

62.大模型訓(xùn)練過(guò)程被拆分為預(yù)訓(xùn)練和精調(diào)適配階段,這樣做有什么

優(yōu)勢(shì)?

A、增加了專業(yè)人員的標(biāo)注成本,并提高了基礎(chǔ)知識(shí)累積效

B、通過(guò)增大規(guī)模、無(wú)監(jiān)督的預(yù)訓(xùn)練階段,大幅降低了專業(yè)人員的標(biāo)

注成本,并提高了基礎(chǔ)知識(shí)累積效率

C、大幅降低了專業(yè)人員的標(biāo)注成本,并提高了基礎(chǔ)知識(shí)累積效率,

減少了模型的泛化能力

D、通過(guò)增大規(guī)模,增加了訓(xùn)練所需的時(shí)間和計(jì)算資源

答案:B

63.GPT模型是基于哪種類型的神經(jīng)網(wǎng)絡(luò)架構(gòu)?

A、卷積神經(jīng)網(wǎng)絡(luò)(CNN)

B、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)

C、變換器(Transformer)

D、自編碼器

答案:C

64.電力安監(jiān)領(lǐng)域人工智能技術(shù)通常不涉及以下哪個(gè)技術(shù)()。

A、目標(biāo)檢測(cè)

B、視頻分類

C、姿態(tài)估計(jì)

D、強(qiáng)化學(xué)習(xí)

答案:D

65.在構(gòu)建大型模型的知識(shí)庫(kù)時(shí),以下選項(xiàng)不是必須考慮的因素?

A、知識(shí)庫(kù)的更新頻率

B、知識(shí)庫(kù)的規(guī)模大小

C、知識(shí)庫(kù)的精度

D、模型的運(yùn)行速度

答案:D

66.在一個(gè)n維的間中,最好的檢測(cè)離群點(diǎn)(outlier)的方法是()。

A、作正態(tài)分布概率圖

B、作盒形圖

C、馬氏距離

D、作散點(diǎn)圖

答案:C

67.關(guān)于Transformer中的編碼器(Encoder),下列說(shuō)法正確的是:

A、編碼器僅負(fù)責(zé)接收輸入序列而不進(jìn)行處理

B、編碼器輸出的是變長(zhǎng)的上下文向量

C、編碼器負(fù)責(zé)理解并編碼輸入序列的信息,將其轉(zhuǎn)換為固定長(zhǎng)度的

上下文向量

D、編碼器的功能是在解碼器之后執(zhí)行

答案:C

68.將輸出標(biāo)記的對(duì)數(shù)作為線性模型逼近的目標(biāo)是

A、對(duì)數(shù)幾率回歸

B、對(duì)數(shù)線性回歸

C、極大似然法

D、正則化

答案:B

69.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)()將

向量投影到低維空間。

A、線性變換

B、非線性變換

C、拉布拉斯變換

D、z變換

答案:A

70.在神經(jīng)網(wǎng)絡(luò)中,我們是通過(guò)以下哪個(gè)方法在訓(xùn)練網(wǎng)絡(luò)的時(shí)候更新

參數(shù),從而最小化損失函數(shù)的?

A、正向傳播算法

B、池化計(jì)算

C、卷積計(jì)算

D、反向傳播算法

答案:D

71.某二叉樹(shù)的前序序列為ABDECFG,中序序列為DBEAFCG,則后序序

列為

A、DEBFGCA

B、DBEFCGA

C、BDECFGA

D、DEFGBCA

答案:A

72.()技術(shù)可以將所有數(shù)據(jù)的特性通過(guò)圖的方式展現(xiàn)出來(lái)。

A、支持向量機(jī)

B、神經(jīng)網(wǎng)絡(luò)

C、數(shù)據(jù)可視化

D、數(shù)據(jù)挖掘

答案:C

73.關(guān)于正態(tài)分布,下列說(shuō)法錯(cuò)誤的是

A、正態(tài)分布具有集中性和對(duì)稱性

B、正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)

C、正態(tài)分布的偏度為0,峰度為1

D、標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為1

答案:C

74.下面哪個(gè)是Pytion中的不變的數(shù)據(jù)結(jié)構(gòu)()。

A、set

B、list

C、tuple

D、diet

答案:C

75.人工智能中通常把()作為衡量機(jī)器智能的準(zhǔn)則。

A^圖靈機(jī)

B、圖靈測(cè)試

C、中文屋實(shí)驗(yàn)

D、人類智能

答案:B

76.()城市大腦目前已在杭州、蘇州、上海、衢州、澳門(mén)、馬來(lái)西亞

等城市和國(guó)家落地,覆蓋交通、平安、市政建設(shè)、城市規(guī)劃等領(lǐng)域,

是目前全球最大規(guī)模的人工智能公共系統(tǒng)之一。

A、浪潮云

B、華為云

C、阿里云

D、海爾云

答案:C

77.()庫(kù)是一個(gè)具有強(qiáng)大圖像處理能力的第三方庫(kù)。用途:圖像處

理、

A^numpy

B、pandas

C、Matplotlib

D、PIL

答案:D

78.標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對(duì)于網(wǎng)絡(luò)輸出的影響隨時(shí)間

A、不斷遞歸而衰退

B、不斷遞歸而增強(qiáng)

C、先增強(qiáng)后減弱

D、先減弱后增強(qiáng)

答案:A

79.如何選取合適的卷積核大???

A、分布范圍廣一-〉較小的卷積核,大的感受野

B、分布范圍小一-〉較小的卷積核,小的感受野

C、分布范圍小一-〉較大的卷積核,小的感受野

D、分布范圍大一-)較小的卷積核,小的感受野

答案:B

80.以下不屬于聚類算法的是()。

A、K均值

B、SAN

C、Apriori

D>Jarvis-Patrik(JP)

答案:c

81.關(guān)于python程序設(shè)計(jì)語(yǔ)言,下列說(shuō)法不正確的是()

A、python源文件以***、py為擴(kuò)展名

B、python的默認(rèn)交互提示符是:>>>

C、python只能在文件模式中編寫(xiě)代碼

D、python具有豐富和強(qiáng)大的模塊

答案:C

82.下列關(guān)于MapReduce說(shuō)法不正確的是0。

A>MapReduce是一種計(jì)算框架

MapReduce來(lái)源于google的學(xué)術(shù)論文

C>MapReduce程序只能用java語(yǔ)言編寫(xiě)

D、MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用

答案:C

83.LVW屬于哪種特征選擇方法(一)

A^包裹式

B、啟發(fā)式

C、嵌入式

D、過(guò)濾式

答案:A

84.用numpy創(chuàng)建單位矩陣使用()

A、np、identity

B、np^ones

C^np、random^rand

D、np^arange

答案:A

85.強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型

A、馬可夫決策&

B、&貝葉斯&

C、&HMM&

D、&最大后驗(yàn)概率

答案:A

86.人工智能的三個(gè)階段包含了計(jì)算智能、()、認(rèn)知智能。

A、弱人工智能

B、感知智能

C、行為智能

D、強(qiáng)人工智能

答案:B

87.語(yǔ)句np、sum(arr3,axis=l)的作用是()?注:(已導(dǎo)入nunipy

庫(kù))importnumpyasnp

A、對(duì)整個(gè)數(shù)組求和

B、對(duì)每一行求和

C、對(duì)第1列求和

D、對(duì)每一列求和

答案:B

88.已知f=exsiny,則等于()。

A、exsiny+excosy

B>exsinyex+exsinyey

C、exsinyex+excosyey

D、excosyex+excosyey

答案:C

89.NMS算法中文名為()

A、非極大值抑制

B、非極小值抑制

C、極大值抑制

D、極小值抑制

答案:A

90.TensorFlow程序開(kāi)發(fā)口寸經(jīng)常會(huì)使用到placeholder,placeholder

是指

A、常量

B、變量

C、張量

D、占位符

答案:D

91.隨機(jī)森林是Bagging的一個(gè)擴(kuò)展變體,它在以決策樹(shù)為基學(xué)習(xí)器

構(gòu)建Bagging集成的基礎(chǔ)上,進(jìn)一步在決策樹(shù)的訓(xùn)練過(guò)程中引入了()

選擇。

A、隨機(jī)屬性

B、分支屬性

C、機(jī)器屬性

D、以上都不對(duì)

答案:A

92.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?

A、隨機(jī)梯度下降

B、修正線性單元(ReLU)

C、卷積函數(shù)

D、以上都不

答案:B

93.()是人工智能地核心,是使計(jì)算機(jī)具有智能地主要方法,其應(yīng)用

遍及人工智能地各個(gè)領(lǐng)域。

A、深度學(xué)習(xí)

B、機(jī)器學(xué)習(xí)

C、人機(jī)交互

D、智能芯片

答案:B

94.AI的是哪兩個(gè)英文單詞的縮寫(xiě)

A、Automaticintelligence

B、ArtificialIntelligence

C、AutomaticInformation

D、ArtificialInformation

答案:B

95.關(guān)于RBF神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是(一)

A、單隱層前饋神經(jīng)網(wǎng)絡(luò);

B、隱層神經(jīng)元激活函數(shù)為徑向基函數(shù);

C、輸出層是對(duì)隱層神經(jīng)元輸出的非線性組合;

D、可利用BP算法來(lái)進(jìn)行參數(shù)優(yōu)化;

答案:C

96.()就是指分類任務(wù)中不同類別的訓(xùn)練樣例數(shù)目差別很大的情況

A、類別不平衡

B、類別不相同

C、類別不對(duì)等

D、類別數(shù)不同

答案:A

97.下列快捷鍵中能夠中斷(InterruptExecution)Python程序運(yùn)行

的是

A、F6

B、Ctrl+Q

C^Ctrl+C

D、Ctrl+F6

答案:C

98.人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中()主要采用反向傳播算法。

A、單元學(xué)習(xí)算法

B、多層網(wǎng)絡(luò)學(xué)習(xí)

C、決策樹(shù)學(xué)習(xí)

D、概念學(xué)習(xí)

答案:B

99.關(guān)于k折交叉驗(yàn)證,下列說(shuō)法正確的是?()

A、k值并不是越大越好,k值過(guò)大,會(huì)降低運(yùn)算速度

B、選擇更大的k值,會(huì)讓偏差更小,因?yàn)閗值越大,訓(xùn)練集越接近

整個(gè)訓(xùn)練樣本

C、選擇合適的k值,能減小驗(yàn)方差

D、以上說(shuō)法都

答案:D

100.()是在統(tǒng)一規(guī)范標(biāo)準(zhǔn)下,運(yùn)用自然語(yǔ)言處理、知識(shí)圖譜、智能

搜索等關(guān)鍵技術(shù),對(duì)主變壓器、斷路器等電網(wǎng)主設(shè)備的知識(shí)資源進(jìn)行

數(shù)字化解析、知識(shí)化關(guān)聯(lián)、智能化應(yīng)用,打造企業(yè)級(jí)電網(wǎng)設(shè)備知識(shí)服

務(wù)平臺(tái),為設(shè)備管理專業(yè)人員提供設(shè)備故障輔助研判、設(shè)備缺陷定級(jí)

分析等核心知識(shí)服務(wù)。

A、電網(wǎng)

B、主設(shè)備知識(shí)服務(wù)

C、發(fā)電

D、售電

答案:B

10L黨中央、國(guó)務(wù)院高度重視人工智能技術(shù)發(fā)展,積極推進(jìn)人工智能

和()深度融合,營(yíng)造通用人工智能發(fā)展創(chuàng)新生態(tài)

A、實(shí)體經(jīng)濟(jì)

B、商業(yè)

C、體育

D、文藝

答案:A

102.在智能供電服務(wù)場(chǎng)景下,為了改進(jìn)長(zhǎng)上下文建模的方法,采用了

哪些技術(shù)?

A、僅使用了位置插值技術(shù)

B、僅使用了長(zhǎng)文本數(shù)據(jù)上采樣技術(shù)

C、使用了基于旋轉(zhuǎn)位置編碼(YaRN)的長(zhǎng)上下文建模方法,采用位

置插值和微調(diào)等技術(shù)改進(jìn)RoPE的長(zhǎng)文本外推能力

D、使用了基于數(shù)據(jù)工程的上下文擴(kuò)展方法,但沒(méi)有涉及模型繼續(xù)預(yù)

訓(xùn)練

答案:C

103,下列哪項(xiàng)關(guān)于模型能力(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)

的描述是正確的?

A、隱藏層層數(shù)增加,模型能力可能增加

B、Dropout的比例增加,模型能力必然增加

C、學(xué)習(xí)率增加,模型能力必然增加

D、都不

答案:A

104.假設(shè)你需要調(diào)整超參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),會(huì)

使用下列哪項(xiàng)技術(shù)?

A、窮舉搜索

B、隨機(jī)搜索

C、Bayesian優(yōu)化

D、都可以

答案:D

105.下列度量不具有反演性的是0

A、系數(shù)

B、幾率

C、Cohen度量

D、興趣因子

答案:D

106.()的神經(jīng)形態(tài)芯片已經(jīng)可以搭建較大規(guī)模的類腦計(jì)算系統(tǒng),為

類腦計(jì)算模型提供快速運(yùn)行平價(jià)。

A、基于腦電波神經(jīng)網(wǎng)絡(luò)

B、基于脈沖神經(jīng)網(wǎng)絡(luò)

C、基于腦回路神經(jīng)網(wǎng)絡(luò)

D、基于類腦神經(jīng)網(wǎng)絡(luò)

答案:B

107,正式提出人工智能(artificialintelligence,AI)這個(gè)術(shù)語(yǔ)并

把它作為一門(mén)新興科學(xué)的名稱實(shí)在哪一年。

A、1956

B、1960年

C、1965年

D、1980年

答案:A

108.()是科學(xué)推理的兩大基本手段。

A、歸納和演繹

B、歸納和泛化

C、歸納和特化

D、演繹和泛化

答案:A

109.語(yǔ)義網(wǎng)絡(luò)表達(dá)知識(shí)時(shí),有向弧AK0鏈、ISA鏈?zhǔn)怯脕?lái)表達(dá)節(jié)點(diǎn)知

識(shí)的

A、無(wú)悖性

B、可擴(kuò)充性

C、繼承性

D、連貫性

答案:C

110.下列關(guān)于聚類算法的說(shuō)法,正確的是()

A、聚類算法通常用于在知道類別的情況下,把樣本按照樣本之間的

相似性等分成不同的類別

B、聚類算法是一種監(jiān)督學(xué)習(xí)算法

C、聚類算法可以用于回歸問(wèn)題

D、聚類算法通常用于在不知道類別的情況下,把樣本按照樣本之間

的相似性等分成不同的類別

答案:D

111.scikit-learn用于訓(xùn)練模型的函數(shù)接口為()

A、Fit

B、fit

C、Train

D、train

答案:B

112.下列關(guān)于LARS算法的說(shuō)法正確的是(一)

A、每次選擇一個(gè)與殘差相關(guān)性最大的特征

B、是一種包裹式特征選擇法

C、基于線性回歸平絕對(duì)誤差最小化

D、是通過(guò)對(duì)LASSO稍加修改而實(shí)現(xiàn)

答案:A

113.在廢棄階段,廢棄銷毀使用目的不復(fù)存在或者有更好解決方法替

換的人工智能系統(tǒng),主要包括數(shù)據(jù)、()以及系統(tǒng)整體的廢棄銷毀過(guò)

程。

A、算法

B、模型

c^程序

D、算法模型

答案:D

114.查準(zhǔn)率和查全率是一對(duì)()的度量

A、相容

B、相等

C、矛盾

D、包含

答案:C

115.()年,一名名叫HenryBcck的機(jī)械制圖員借鑒電路圖的制圖方法

設(shè)計(jì)出了倫敦地鐵線路圖,逐漸成為全球地鐵路線的標(biāo)準(zhǔn)可視化方法,

沿用至今。

A、1930

B、1931

C、1932

D、$1,933

答案:B

116.數(shù)字圖像處理中的()技術(shù)可應(yīng)用于機(jī)動(dòng)車車牌識(shí)別系統(tǒng)。

A、圖像變換

B、圖像增強(qiáng)

C、圖像分割

D、圖像復(fù)原

答案:c

117.Softmax算法中溫度趨近于0時(shí)Softmax將趨于()

A、僅探索

B、僅利用

C、全探索

D、全利用

答案:B

118.我們常說(shuō)〃人類是智能回路的總開(kāi)關(guān)〃,即人類智能決定著任何智

能的高度、廣度和深度,下面哪一句話對(duì)這個(gè)觀點(diǎn)的描述不正確

A、人類智能是機(jī)器智能的設(shè)計(jì)者

B、機(jī)器智能目前無(wú)法完全模擬人類所有智能

C、機(jī)器智能目前已經(jīng)超越了人類智能

D、機(jī)器智能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能

或機(jī)器智能

答案:C

119.我們想要減少數(shù)據(jù)集中的特征數(shù),即降維。選擇以下適合的方案

①使用前向特征選擇方法②使用后向特征排除方法③我們先把所有

特征都使用,去訓(xùn)練一個(gè)模型,得到測(cè)試集上的表現(xiàn)然后我們?nèi)サ粢?/p>

個(gè)特征,再去訓(xùn)練,用交叉驗(yàn)證看看測(cè)試集上的表現(xiàn),如果表現(xiàn)比原

來(lái)還要好,我們可以去除這個(gè)特征④查看相關(guān)性表,去除相關(guān)性最高

的一些特征

A、①②

B、②③④

C、①②④

D、①②③④

答案:D

120.從產(chǎn)品形態(tài)看,以下()屬于數(shù)據(jù)產(chǎn)品中的數(shù)據(jù)類產(chǎn)品。

A、脫敏數(shù)據(jù)

B、數(shù)據(jù)訂閱

C、知識(shí)庫(kù)

D、決策支持

答案:A

121.在數(shù)據(jù)量大的情況下,對(duì)于相同的文本分類任務(wù),對(duì)Bert模型

和word2vec模型的分類效果判斷正確的是()

A、bert分類效果優(yōu)于word2vec

B、word2vec分類效果優(yōu)于bert

C、效果一致

D、以上選項(xiàng)均不

答案:A

122.通過(guò)圖像視頻智能分析、人臉識(shí)別、圖文識(shí)別等()融合應(yīng)用,

依托智能視頻終端、智能工器具等智能裝備,開(kāi)展現(xiàn)場(chǎng)作業(yè)智能管控

應(yīng)用建設(shè),構(gòu)建行為違章、裝置違章等4大類算法模型,智能識(shí)別人

員作業(yè)違章和現(xiàn)場(chǎng)安全風(fēng)險(xiǎn),優(yōu)化現(xiàn)場(chǎng)作業(yè)管控模式,提升現(xiàn)場(chǎng)作業(yè)

安全管控效率和覆蓋率。

A、人工智能技術(shù)

B、數(shù)據(jù)挖掘技術(shù)

C、模型推理技術(shù)

D、數(shù)據(jù)清洗技術(shù)

答案:A

123.以下哪個(gè)選項(xiàng)是更大的浮點(diǎn)運(yùn)算單位?

A、ZFLOPS

B、GFLOPS

C、EFLOPS

D、PFLOPS

答案:A

二、多選題

1.基因遺傳算法的兩個(gè)常用的結(jié)束條件為0。

A、達(dá)到一定的變異次數(shù)

B、適應(yīng)度函數(shù)達(dá)到一定的要求

C、達(dá)到一定的迭代次數(shù)

D、達(dá)到一定的交叉次數(shù)

答案:BC

2.以下說(shuō)法錯(cuò)誤的是()

A、python不區(qū)分大小寫(xiě)

B、set不是python數(shù)據(jù)類型

C、python可以在Linux系統(tǒng)運(yùn)行

DNtuple和list不可以定義為空

答案:ABD

3.以下選項(xiàng)中能提升神經(jīng)網(wǎng)絡(luò)模型計(jì)算效率的是()。

A、TPU

B、GPU

C、FPGA

D、大規(guī)模分布式集群

答案:ABCD

4.假設(shè)你需要改變參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),可以使

用下列哪項(xiàng)技術(shù)?

A、窮舉搜索

B、隨機(jī)搜索

C、Bayesian優(yōu)化

答案:ABC

5.21世紀(jì)新興的技術(shù)有()。

A、云計(jì)算

B、計(jì)算機(jī)

C、大數(shù)據(jù)

D、物聯(lián)網(wǎng)

答案:ACD

6.EM算法每次迭代包括哪些步驟?

A、求方差

B、求期望

C、求標(biāo)準(zhǔn)差

D、求極大值

答案:BD

7.f(x+y)=f(x)+f(y),則關(guān)于f(x)不正確的是()。

A、偶函數(shù)

B、非奇非偶函數(shù)

C、奇偶性不確定

D、奇函數(shù)

答案:ABC

8.縮略圖不能直接雙擊打開(kāi),要使用PTL.Image的()讀取,然后

使用()方法進(jìn)行顯示。

ANdis()

B、read

C^show()

D、open

答案:CD

9.生成對(duì)抗網(wǎng)絡(luò)GAN的基木結(jié)構(gòu)主要包括以下哪些

A、觸發(fā)器

B、生成器

C、判別器

D、聚合器

答案:BC

10.神經(jīng)元分為三種不同類型的層次:

A、隱藏層

B、輸入層

C、輸出層

D、傳輸層

答案:ABC

11.《新一代人工智能倫理規(guī)范》提出了增進(jìn)人類福祉、()、提升倫

理素養(yǎng)等基本倫理要求。

A、促進(jìn)公平公正

B、強(qiáng)化責(zé)任擔(dān)當(dāng)

C、保護(hù)隱私安全

D、確??煽乜尚?/p>

答案:ABCD

12.ASIC芯片的優(yōu)勢(shì)包括()o

A、通用性強(qiáng)

B、高性能

C、低功耗

D、小體積

答案:BCD

13.機(jī)器翻譯的局限性在于()

A、基于已有的既成案例

B、只能處理簡(jiǎn)單句

C、訓(xùn)練樣本單一

D、錯(cuò)誤較多

答案:AB

14.智能寫(xiě)作平臺(tái)基十()等相對(duì)成熟的文章分析工具,自動(dòng)收集省

公司、所轄市縣公司和支撐單位的網(wǎng)站新聞

A、全文檢索

B、分詞技術(shù)

C、熱詞分析

D、情報(bào)搜集

答案:ABCD

15.人工智能訓(xùn)練運(yùn)行平臺(tái)應(yīng)包括:()和服務(wù)發(fā)布等4部分。

A、&模型部署&

B、&模型評(píng)估

C、&模型構(gòu)建&

D、模型訓(xùn)練&

答案:ABD

16.人工智能平臺(tái)樣木分類為()、()、()、()。

A、語(yǔ)音

B、圖像

C、文本

D、視頻

答案:ABCD

17.BP神經(jīng)網(wǎng)絡(luò)的流程:

A、對(duì)某個(gè)輸入從輸入層沿網(wǎng)絡(luò)傳播到輸出層

B、從輸出層開(kāi)始從后向前計(jì)算每個(gè)單元的delta

C、計(jì)算該輸入對(duì)每個(gè)權(quán)值梯度的貢獻(xiàn)

D、所有輸入對(duì)梯度的貢獻(xiàn)求和得到總梯度,根據(jù)學(xué)習(xí)率來(lái)改變?cè)瓉?lái)

的權(quán)值,完成了權(quán)值的一次修改

答案:ABCD

18.幾乎所有的活動(dòng)都需要一些在不確定性存在的情況下進(jìn)行推理的

能力。不確定性有()等可能的來(lái)源。

A、不完全觀測(cè)

B、不完全建模

C、被建模系統(tǒng)內(nèi)在的隨機(jī)性

D、不完全判斷

答案:ABC

19.通過(guò)迭代優(yōu)化來(lái)近似求解的是()

A、學(xué)習(xí)向量量化

B、k均值算法

C、高斯混合聚類

D、以上都不對(duì)

答案:BC

20.計(jì)算機(jī)系統(tǒng)中運(yùn)行在硬件之上的一層是操作系統(tǒng)0S,它控制和管

理著系統(tǒng)硬件,操作系統(tǒng)的功能主要有()。

A、文件管理

B、設(shè)備管理

C、進(jìn)程管理

D、存儲(chǔ)管理

答案:ABCD

21.以下哪幾個(gè)方面屬于華為的全棧AI解決方案?

A、Ascend

B、CANN

C、ModelArts

D、MindSpore

答案:ABCD

22.數(shù)字?jǐn)伾梢栽谝韵履男﹫?chǎng)景應(yīng)用()。

A、基建工程

B、智慧醫(yī)療

C、智慧城市

D、工業(yè)制造

答案:ABCD

23.以下哪種評(píng)估方法受隨機(jī)樣本的影響?

A、交叉驗(yàn)證法

B、自助法

C、留一法

D、流出法

答案:ABD

24.下列關(guān)于極大似然估計(jì)(MaximumLikelihoodEstimate,MLE),說(shuō)

法正確的是

A、如果MLE存在,那么它的解可能不是唯一的

B、如果MLE存在,那么它的解一定是唯一的

C、MLE可能并不存在

D、MLE總是存在

答案:AC

25.假設(shè)檢查的步驟Oo

A、選定統(tǒng)計(jì)方法

B、提出假設(shè)

C、設(shè)定檢驗(yàn)水準(zhǔn)

D、確定檢驗(yàn)假設(shè)成立的可能性P大小并判斷

答案:ABCD

26.數(shù)據(jù)平臺(tái)可以幫助我們進(jìn)行()。

A、數(shù)據(jù)集成

B、數(shù)據(jù)管理

C、數(shù)據(jù)可視化

D、數(shù)據(jù)治理

答案:ABCD

27.Yarn架構(gòu)在Hadoop生態(tài)圈中有哪些作用?

A^隔離

B、調(diào)度

C、計(jì)算

D、資源分配

答案:ABD

28.常用的數(shù)據(jù)歸約方法有()。

A、類歸約

B、維歸約

C、值歸約

D、量歸約

答案:BC

29.如何運(yùn)行一個(gè)shell腳本。

A、chmod+x、/test、sh

/bin/shtest>sh

C、test、sh

D、/test、sh

答案:BD

30.下面哪些是基于核的機(jī)器學(xué)習(xí)算法()

A、徑向基核函數(shù)

B、支持向量機(jī)

C、線性判別分析法

D、最大期望算法

答案:ABC

31.在Python中,執(zhí)行importdatetimeasdt語(yǔ)句后,如下時(shí)間或日

期定義方式正確的是(—)。

A、dt^datetime(2019,0,0,23,23,23))

B、dt>datetime(2019,12,12,23,23,23)

C、dt>time(23,23,23

dt^datetime(2019,12,12,0)

答案:BCD

32.以下技術(shù),BERT使用的包括哪些?()

A、Transformer

B、Sei-Attention模塊

C、RNN循環(huán)連接

D、文本卷積

答案:AB

33.線性回歸的基本假設(shè)有哪些?

A、隨機(jī)誤差項(xiàng)是一個(gè)期望值為0的隨機(jī)變量;

B、對(duì)于解釋變量的所有觀測(cè)值,隨機(jī)誤差項(xiàng)有相同的方差;

C、隨機(jī)誤差項(xiàng)彼此相關(guān);

D、解釋變量是確定性變量不是隨機(jī)變量,與隨機(jī)誤差項(xiàng)之間相互獨(dú)

立;

E、隨機(jī)誤差項(xiàng)服從正態(tài)分布

答案:ABDE

34.下面關(guān)于k近鄰的說(shuō)法,正確的是:

A、根據(jù)特征向量X計(jì)算樣本之間的相似性,選擇離中心點(diǎn)最相似的

k個(gè)樣本

B、k近鄰既可以用于分類,也可以用于回歸

C、k近鄰用于分類時(shí),對(duì)于新的樣本,計(jì)算離其最近的k個(gè)樣本的平

均值,作為新樣本的預(yù)測(cè)值

D、k近鄰用于分類時(shí),對(duì)于新的樣本,根據(jù)其k個(gè)最近鄰樣本的類

別,通過(guò)多數(shù)表決的方式預(yù)測(cè)新樣本的類別

答案:BD

35.以下屬于梯度下降的是

A、BGD

B、SGD

C、Mini-Batch

D、dropout

答案:ABC

36.一般說(shuō)來(lái),人工智能技術(shù)包括

A、人機(jī)交互、生物信息技術(shù)、智能芯片

B、計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理

C、虛擬現(xiàn)實(shí)/增強(qiáng)現(xiàn)實(shí)、機(jī)器人技術(shù)

D、深度學(xué)習(xí)、機(jī)器學(xué)習(xí)

答案:ABCD

37.下面關(guān)于長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)LSTM的描述中,正確的說(shuō)法是哪

些?

A、LSTM中通過(guò)引入輸入門(mén)、遺忘門(mén)、輸出門(mén)解決了RNN中存在的梯

度消失和梯度爆炸

B、LSTM中門(mén)的開(kāi)關(guān)程度是由信息的權(quán)重決定的,即訓(xùn)練過(guò)程中記住

重要信息

C、與RNN相比,LSTM中引入更多參數(shù),所以其訓(xùn)練周期更久

D、LSTM中使用Sigmoid實(shí)現(xiàn)門(mén)限控制,而用TanH實(shí)現(xiàn)數(shù)據(jù)處理

答案:BCD

38.人工智能平臺(tái)功能應(yīng)包括:()。

A、訓(xùn)練運(yùn)行平臺(tái)

B、數(shù)據(jù)庫(kù)

C、模型庫(kù)

D、樣本庫(kù)

答案:ACD

39.樣本庫(kù)功能要求為:數(shù)據(jù)預(yù)處理包括()等。

A、灰度校正

B、特征提取

C、加注標(biāo)簽

D、平滑去噪

答案:ABD

40.以下哪些是屬于人工智能研究領(lǐng)域()

A、圖像識(shí)別

B、語(yǔ)言識(shí)別

C、機(jī)器人

D、專家系統(tǒng)

答案:ABCD

41.關(guān)于神經(jīng)網(wǎng)絡(luò)模型的說(shuō)法,哪些是不止確的()

A、增加神經(jīng)網(wǎng)絡(luò)的層數(shù)和增加每層的神經(jīng)元個(gè)數(shù)的效果是一樣的

B、神經(jīng)網(wǎng)絡(luò)的工作原理與生物體內(nèi)的神經(jīng)元是完全一樣的

C、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的實(shí)質(zhì)是對(duì)復(fù)雜函數(shù)求參數(shù)最優(yōu)解的過(guò)程

D、神經(jīng)網(wǎng)絡(luò)只能進(jìn)行二分類,不能進(jìn)行更多種類的分類了

答案:ABD

42.關(guān)于有向圖模型,說(shuō)法正確的時(shí)()

A、有向圖又稱為貝葉斯網(wǎng)絡(luò)或者信念網(wǎng)絡(luò)

B、網(wǎng)絡(luò)中的邊用有向箭頭表示子節(jié)點(diǎn)依賴于父節(jié)點(diǎn)

C、變量之間的關(guān)系通過(guò)箭頭對(duì)變量進(jìn)行了某種〃拓?fù)洹?/p>

D、在排序條件下,每個(gè)節(jié)點(diǎn)都只依賴和它直接相連的父節(jié)點(diǎn),而不

依賴與所有的前輩節(jié)點(diǎn)

答案:ABCD

43.電力行業(yè)中圖像識(shí)別技術(shù)的主要應(yīng)用包括

A、輸電線路巡檢

B、服務(wù)系統(tǒng)智能問(wèn)答

C、變電站巡檢

D、設(shè)備運(yùn)行監(jiān)測(cè)

答案:A,C,D

44.電力系統(tǒng)缺陷識(shí)別是深度學(xué)習(xí)在電力系統(tǒng)應(yīng)用中的一個(gè)重要組成

部分,下列屬于電力系統(tǒng)缺陷識(shí)別所面臨的挑戰(zhàn)的是()。

A、缺陷尺度跨度較大,小缺陷識(shí)別精度低

B、樣本背景復(fù)雜,角度多變,相互遮擋

C、樣本數(shù)量過(guò)多,難以篩選

D、不同缺陷樣本分布不平衡,低概率缺陷樣本難收集

答案:A,B,D

45.如果以特征向量的相關(guān)系數(shù)作為模式相似性測(cè)度,則影響聚類算

法結(jié)果的主要因素有?

A、已知類別樣本質(zhì)量

B、分類準(zhǔn)則

C、特征選取

D、量綱

答案:B,C

46.可以提高輸電線路智能巡視系統(tǒng)識(shí)別準(zhǔn)確率的方法包含()。

A、多收集輸電線路巡視的樣本

B、提高輸電線路巡視樣木標(biāo)注的質(zhì)量

C、引入更深入的輸電巡檢專家知識(shí)

D、指導(dǎo)無(wú)人機(jī)飛手拍攝更符合規(guī)范的樣本

答案:A,B,C,D

47.按照不同的輸入劃分,文本自動(dòng)生成可包括

A、文本到文本的生成

B、音頻到文本的生成

C、傳感器數(shù)據(jù)到文本的生成

D、圖像到文本的生成

答案:A,B,C,D

48.以下哪些方法可以用于圖像中的目標(biāo)檢測(cè)。

A、R-CNN(RegionswithCNNfeatures)

B、YOLO(YouOn1yLookOnce)

C、FasterR-CNN

D、U-Net

答案:A,B,C

49.機(jī)器學(xué)習(xí)中LI正則化和L2正則化的區(qū)別是?

A、使用L1可以得到稀疏的權(quán)值

B、使用L1可以得到平滑的權(quán)值

C、使用L2可以得到稀疏的權(quán)值

D、使用L2可以得到平滑的權(quán)值

答案:A,D

50.高算力服務(wù)器適用于哪些場(chǎng)景?

A、科學(xué)計(jì)算

B、大型游戲開(kāi)發(fā)

C、企業(yè)辦公自動(dòng)化

D、人工智能研發(fā)

E、個(gè)人網(wǎng)頁(yè)瀏覽

答案:A,B,D

51.下列哪些是常見(jiàn)的算力單位?

A、FLOPS

B、TFLOPS

C、PFLOPS

D、GB

E、MHz

答案:A,B,C

52.以下哪些技術(shù)是國(guó)產(chǎn)AT加速卡在提高環(huán)保和能效方面采用的創(chuàng)

新措施?

A、提高能效比,通過(guò)優(yōu)化芯片架構(gòu)和制程工藝,實(shí)現(xiàn)更高的性能和

更低的能耗

B、采用先進(jìn)制程技術(shù),以減少功耗并提高計(jì)算效率

C、風(fēng)冷技術(shù),通過(guò)自然環(huán)境和條件提高數(shù)據(jù)中心的冷卻效率并減少

能源消耗

D、異構(gòu)計(jì)算,實(shí)現(xiàn)了不同種類芯片的大規(guī)模并行計(jì)算,提升了能效

答案:A,B,D

53.在處理大規(guī)模語(yǔ)言模型時(shí),哪種方法可以用于提高模型的推理效

率?

A、剪枝技術(shù)(PruningTechniques)

知識(shí)蒸儲(chǔ)(KnowledgeDistillation)

C、稀疏矩陣技術(shù)(SparseMatrices)

D、增量訓(xùn)練(IncrementalTraining)

答案:A,B,C

54.在配網(wǎng)調(diào)度中應(yīng)用AlforScience(AI4S)時(shí),以下哪些技術(shù)可以

幫助提升電力系統(tǒng)的穩(wěn)定性和可靠性。

A、深度學(xué)習(xí)

B、神經(jīng)網(wǎng)絡(luò)

C、進(jìn)化算法

D、遺傳算法

答案:A,B,C

55.大模型相較于傳統(tǒng)模型具有哪些特征?

A、規(guī)??蓴U(kuò)展性強(qiáng)

B、多任務(wù)適應(yīng)性強(qiáng)

C、能力可塑性強(qiáng)

D、訓(xùn)練速度快

答案:A,B,C

56.變量選擇是用來(lái)選擇最好的判別器子集,如果要考慮模型效率,

我們應(yīng)該做哪些變量選擇的考慮?

A、多個(gè)變量其實(shí)有相同的用處

B、變量對(duì)于模型的解釋有多大作用

C、特征攜帶的信息

D、交叉驗(yàn)證

答案:A,C,D

57.聚類算法常見(jiàn)的性能評(píng)估指標(biāo)有哪些?

A、AdjustRandlndex衡量?jī)蓚€(gè)序列相似性的算法。

B、齊次性和完整性

C、輪廓系數(shù)

答案:ABC

58.以下屬于優(yōu)化器的是

A>Adam

B、SGD

C>Momentum

D、Ir

答案:ABC

59.下列哪些是數(shù)據(jù)預(yù)處理的常用技術(shù)()

A、數(shù)字屬性的缺失值補(bǔ)0

B、LabelEncoder

C、one-hotencoder

D、CountVectorize

答案:ABCD

60.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以

下技術(shù)屬于正則化技術(shù)的是

A、L1正則化

B、L2正則化

C、Dropout

D、動(dòng)量?jī)?yōu)化器

答案:ABC

61.計(jì)算智能的主要研究領(lǐng)域包括()。

A、模糊計(jì)算

B、進(jìn)化計(jì)算

C、神經(jīng)計(jì)算

D、數(shù)字計(jì)算

答案:ABC

62.人工智能平臺(tái)中運(yùn)行()組件、()組件和具有預(yù)標(biāo)注功能的()

組件的服務(wù)器應(yīng)具備獨(dú)立的AI芯片計(jì)算資源。

A、模型

B、訓(xùn)練

C、推理

D、標(biāo)注

答案:BCD

63.模型壓縮的主要方法有哪些?

A、模型蒸播

B、模型剪枝

C、模型參數(shù)量化

D、nan

答案:ABC

64.提供算法模型訓(xùn)練所采用的數(shù)據(jù)集相關(guān)描述,應(yīng)包括但不限于()o

A、推理數(shù)據(jù)集

B、測(cè)試數(shù)據(jù)集

C、訓(xùn)練數(shù)據(jù)集

D、驗(yàn)證數(shù)據(jù)集

答案:BCD

65.關(guān)于OLAP和OLTP的區(qū)別描述,正確的是?

A、OLAP主要是關(guān)于如何理解聚集的大量不同的數(shù)據(jù)、它與OTAP應(yīng)

用程序不同

B、與OLAP應(yīng)用程序不同,OLTP應(yīng)用程序包含大量相對(duì)簡(jiǎn)單的事務(wù)、

C、OLAP的特點(diǎn)在于事務(wù)量大,但事務(wù)內(nèi)容比較簡(jiǎn)單且重復(fù)率高、

D、OLAP是以數(shù)據(jù)倉(cāng)庫(kù)為基礎(chǔ)的,但其最終數(shù)據(jù)來(lái)源與OLTP一樣均來(lái)

自底層的數(shù)據(jù)庫(kù)系統(tǒng),兩者面對(duì)的用戶是相同的、

答案:ABD

66.以下哪些網(wǎng)絡(luò)結(jié)構(gòu)具有反饋連接功能,即將前一層的輸出和當(dāng)前

層自身作為輸入

A、循環(huán)神經(jīng)網(wǎng)絡(luò)

B、LSTM網(wǎng)絡(luò)

C、卷積神經(jīng)網(wǎng)絡(luò)

D、多層感知機(jī)

答案:AB

67.以下哪些是常見(jiàn)的神經(jīng)網(wǎng)絡(luò)()?

A、RBF網(wǎng)絡(luò)

B、RIO網(wǎng)絡(luò)

C、ART網(wǎng)絡(luò)

D、SQM網(wǎng)絡(luò)

E、SOM網(wǎng)絡(luò)

答案:ACE

68.產(chǎn)生式系統(tǒng)的組成部分包括()

A、綜合數(shù)據(jù)庫(kù)

B、控制策略

C、狀態(tài)空間

D、規(guī)則集

答案:ABD

69.人工智能的三大學(xué)派是

A、符號(hào)主義學(xué)派

B、連接主義學(xué)派

C、行為主義學(xué)派

D、統(tǒng)計(jì)主義學(xué)派

答案:ABC

70.驅(qū)動(dòng)深度學(xué)習(xí)的三駕馬車是指?()

A、大算力

B、大模型

C、大應(yīng)用

D、大數(shù)據(jù)

答案:ABD

71.faster-rcnn網(wǎng)絡(luò)每個(gè)位置生成哪幾種比例的anchor?

A、2比2

B、2比1

C、1比1

D、1比2

答案:BCD

72.下列有監(jiān)督學(xué)習(xí)算法中可解決分類問(wèn)題的算法有

A、邏輯回歸

B、支持向量機(jī)

C、線性回歸

D、隨機(jī)森林

答案:ABD

73.通過(guò)繼承創(chuàng)建的新類稱為()。

A、子類

B、父類

C、派生類

D、基類

答案:AC

74.語(yǔ)音識(shí)別的方法()。

A、利用仍神經(jīng)網(wǎng)絡(luò)的方法

B、聲道模型方法

C、語(yǔ)音知識(shí)方法

D、模板匹配的方法

答案:ABCD

75.linux支持的文件系統(tǒng)有?

A、ext3

B、ext4

C、ntfs

D、vfat

答案:ABCD

76.下列哪些模型可以E2E訓(xùn)練()

A、Y0L0v3

B、Y0L0v2

C、RCNN

D、fastRCNN

答案:ABD

77.英語(yǔ)重視哪兩個(gè)問(wèn)題的區(qū)分?0

A、冠詞與數(shù)詞

B、可數(shù)名詞與不可數(shù)名詞

C、單復(fù)數(shù)

D、謂語(yǔ)與非謂語(yǔ)

答案:BC

78.人工智能驅(qū)動(dòng)數(shù)據(jù)安全治理加速向()方向演進(jìn)。

A、自動(dòng)化

B、精準(zhǔn)化

C、高效化

D、智能化

答案:ABCD

79.python中常用模塊有0。

A>random

B、json

C>datetime

D、sys

答案:ABCD

80.兩步聚類的兩個(gè)主要步驟為()。

A、預(yù)聚類

B、測(cè)試

C、聚類

D、建模

答案:AC

81.圖像平滑目的是()。

A、減小突變梯度;

B、使圖像亮度平緩漸變;

C、改善圖像質(zhì)量;

D、突出圖像的窄小區(qū)域

答案:ABC

82.在Python中,令cars=[,bmw','audi','toyota','subaru']運(yùn)行

cars、sort(reverse=True)后,cars的值為();運(yùn)行

sorted(cars,reverse=True)后,cars的值為()

A、['subaru','toyota',‘a(chǎn)udi','bmw']

B、['audi','bmw','subaru','toyota)]

C、['toyota','subaru','bmw',‘a(chǎn)udi']

D、['bmw','audi','toyota','subaru,]

答案:CD

83.卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)上的三大特性:()、()、(),能有效減少網(wǎng)絡(luò)

參數(shù),加快訓(xùn)練速度。

A、上采樣

B、權(quán)重共享

C、下采樣

D、局部連接

答案:BCD

84.決策樹(shù)的生成是一個(gè)遞歸過(guò)程、在決策樹(shù)基本算法中導(dǎo)致遞歸返

回的情況包括()

A、當(dāng)前屬性集為空,無(wú)法劃分

B、當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類別,無(wú)需劃分

C、所有樣本在所有屬性上取值相同,無(wú)法劃分

D、當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分

答案:ABCD

85.常見(jiàn)的聚類算法有()。

A、分層(Hierarchical)聚類

B、兩步(TwoStep)聚類

C、Kohonennetwork

D、KNN算法

E、K平均值(K-means)算法

答案:ABCE

86.根據(jù)整數(shù)和實(shí)數(shù),可以將數(shù)值變量分為()。

A、連續(xù)數(shù)值變量

B、離散數(shù)值變量

C、順序數(shù)值變量

D、名詞性變量

E、順序變量

答案:AB

87.對(duì)現(xiàn)階段人工智能成功的關(guān)鍵要素漣漪效應(yīng)描述正確的是

A、為了達(dá)成漣漪效應(yīng),必須盡可能的獲取產(chǎn)品中的各種數(shù)據(jù);

B、漣漪效應(yīng)通過(guò)記錄產(chǎn)品中生成各類數(shù)據(jù),并將這些數(shù)據(jù)用于優(yōu)化

機(jī)器模型;

C、必須將收集到的原始數(shù)據(jù)全部進(jìn)行高成本的精細(xì)標(biāo)注,加入到模

型訓(xùn)練中去,才能實(shí)現(xiàn)漣漪效應(yīng);

D、搜索引擎中的用戶點(diǎn)擊記錄也是實(shí)現(xiàn)漣漪效應(yīng)的一種方式

答案:ABD

88.圖像邊緣檢測(cè)中常用的邊緣檢測(cè)算子有哪些?

A、Roberts算子

B、Prewitt算子

C、Sobel算子

D、Canny算子

答案:ABCD

89.關(guān)于連接主義,描述正確的是

A、基礎(chǔ)理論是神經(jīng)網(wǎng)絡(luò)

B、產(chǎn)生在20實(shí)際50年代

C、又稱為仿生學(xué)派

D、深度學(xué)習(xí)屬于連接主義

答案:ABCD

90.下列哪些是卷積操作的優(yōu)點(diǎn)?()

A、具有局部感受野

B、操作復(fù)雜度與輸入尺寸無(wú)關(guān)

C、可有效捕捉序列化數(shù)據(jù)的特征

D、對(duì)事物不同部分的觀察之間能實(shí)現(xiàn)參數(shù)共享

答案:AD

91.人工智能技術(shù)可以在()方面與元宇宙技術(shù)相結(jié)合。

A、使用人工智能技術(shù)處理元宇宙產(chǎn)生的海量且復(fù)雜的數(shù)據(jù)。

B、使用人工智能技術(shù)在增強(qiáng)現(xiàn)實(shí)和虛擬現(xiàn)實(shí)中創(chuàng)造更智能、更身臨

其境的世界。

C、使用人工智能解決芯片的計(jì)算能力。

D、使用人工智能技術(shù)來(lái)模仿和取代人類行為。

答案:ABCD

92.下面的Python開(kāi)發(fā)包中,屬于深度學(xué)習(xí)框架的有()

A、Keras

B、Tensorflow

C、Mxnet

D>flask

答案:ABC

93.推進(jìn)人工智能大發(fā)展的因素有()。

A、數(shù)據(jù)井噴

B、算法技術(shù)與模型優(yōu)化

C、產(chǎn)業(yè)效益提升

D、計(jì)算能力突破

答案:ABD

94.機(jī)器學(xué)習(xí)的一般流程包括()

A、模型驗(yàn)證

B、分析案例

C、數(shù)據(jù)獲取

D、模型訓(xùn)練

答案:ABCD

95.以下選項(xiàng)中是Python語(yǔ)言的保留字的是

A、pass

B、while

C、do

DNexcept

答案:ABD

96.關(guān)于Python字典中,正確的是

A、可以使用has_koy()方法來(lái)檢驗(yàn)一個(gè)鍵值對(duì)是否存在&

B、可以使用字典對(duì)象的values。方法可以返回字典的〃值〃

C、可以使用字典對(duì)象的keys。方法可以返回字典的〃鍵〃&

D、可以使用字典對(duì)象的items。方法可以返回字典的〃鍵-值對(duì)〃&

答案:ABCD

97.人工智能的迅速發(fā)展將深刻改變?nèi)祟惿鐣?huì)生活、改變世界,我國(guó)

人工智能發(fā)展三個(gè)階段的目標(biāo)是()

A、2025年部分達(dá)到世界領(lǐng)先水平

B、2020年與世界先進(jìn)水平同步

C、2025年與世界先進(jìn)水平同步

D、2030年總體達(dá)到世界領(lǐng)先水平

答案:ABD

98.已知A、B、C均為m階矩陣,則下列式子一定成立的是()。

A^A+B=B+A

B、AB二BA

C、A(B+C)=AB+AC

D、(A+B)3AA2+2AB+B、2

答案:AC

99.非線性核SVM研究重點(diǎn)是設(shè)計(jì)快速近似算法,包括()

A、低秩逼近

B、隨機(jī)傅里葉特征

C、隨機(jī)分布

D、采樣

答案:ABD

100.()類型的數(shù)據(jù)集不適合用深度學(xué)習(xí)?

A、數(shù)據(jù)集沒(méi)有局部相關(guān)性

B、數(shù)據(jù)集有局部相關(guān)性

C、數(shù)據(jù)集太小

D、數(shù)據(jù)集太大

答案:AC

101.經(jīng)過(guò)全面訓(xùn)練的計(jì)算機(jī)視覺(jué)模型可以開(kāi)展對(duì)象的(),具有更強(qiáng)

大的特征學(xué)習(xí)和表示能力

A、跟蹤

B、檢測(cè)

C、分類

D、識(shí)別

答案:ABCD

102.華為云ModelArts是面向AT開(kāi)發(fā)的一戰(zhàn)式開(kāi)發(fā)平臺(tái),以下哪些

功能在ModelArts上可以具備?

A、數(shù)據(jù)治理

B、AI市場(chǎng)

C、可視化工作流

D、自動(dòng)學(xué)習(xí)

答案:ABCD

103.預(yù)剪枝使得決策樹(shù)的很多分子都沒(méi)有展開(kāi),會(huì)導(dǎo)致()。

A、顯著減少測(cè)試時(shí)間開(kāi)銷

B、降低過(guò)擬合風(fēng)險(xiǎn)

C、提高欠擬合風(fēng)險(xiǎn)

D、顯著減少訓(xùn)練時(shí)間開(kāi)銷

答案:ABCD

104,遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法,包含以下兩種開(kāi)發(fā)方法()。

A、數(shù)據(jù)清洗

B、預(yù)訓(xùn)練模型的方法

C、開(kāi)發(fā)模型的方法

D、似然變換

答案:BC

105.Matplotlib庫(kù)中pyplot的基礎(chǔ)圖標(biāo)函數(shù)包括()。

A^plt^stem(x,y,linefmt,markerfmt)

B、plt^barh(width,bottom,left,height)

C、plt>cohere(x,y,NFFT=256,Fs)

D、plt>bar(left,height,width,bottom)

答案:ABCD

106.One-hot獨(dú)熱編碼有哪些特點(diǎn)?

A、特征稠密

B、詞之間相互獨(dú)立,沒(méi)有順序關(guān)系

C、特征稀疏

D、不能表征詞與詞之間的關(guān)系,one-hot之間正交

答案:BCD

107.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)來(lái)學(xué)習(xí)分類任務(wù)前,應(yīng)優(yōu)先考慮()問(wèn)題。

A、確定輸入層和輸出層的結(jié)點(diǎn)數(shù)目。

B、選擇網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)

C、初始化權(quán)值和偏置

D、去掉有遺漏值的訓(xùn)練樣例,或用最合理的值來(lái)代替

答案:ABCD

108.強(qiáng)化學(xué)習(xí)問(wèn)題的三種方法分別是()

A、基于模型(model-based)

B、基于策略(policy-based)

C、基于價(jià)值(value-based)

D、nan

答案:ABC

109.假設(shè)在卷積操作過(guò)程中,對(duì)于size為3*3的image,如需提取

100個(gè)特征,卷積層需要()個(gè)卷積核,假設(shè)卷積核大小為

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論