




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2025年人工智能知識(shí)考試題庫(kù)及答案
一.單項(xiàng)選擇題
i.關(guān)于語(yǔ)音識(shí)別服務(wù)中的一句話識(shí)別指的是,用于短語(yǔ)音的同步識(shí)別。
一次性上傳整個(gè)音頻,響應(yīng)中即返回識(shí)別結(jié)果。
A、TRUE
B、FALSE
答案:A
2,利用計(jì)算機(jī)來(lái)模擬人類的某些思維活動(dòng),如醫(yī)療診斷、定理證明,
這些應(yīng)用屬于()
A、數(shù)值計(jì)算
B、自動(dòng)控制
C、人工智能
D、模擬仿真
答案:C
3.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一
步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但
怎么獲知每個(gè)神經(jīng)的權(quán)重和偏移呢?
A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值
B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重
C、隨機(jī)賦值,聽(tīng)天由命
D、以上都不正確的
答案:B
4.SOM網(wǎng)絡(luò)是一種0的無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò),它能將高維輸入數(shù)據(jù)映射到
低維空間。
A、競(jìng)爭(zhēng)學(xué)習(xí)型
B、增量學(xué)習(xí)型
C、在線學(xué)習(xí)型
D、匹配學(xué)習(xí)型
答案:A
5.下列哪行python代碼有語(yǔ)法錯(cuò)誤()
A、forsubitem:al1Items:
B>forkey,valueinipmap:
C、withopensrc_file,?r,asread_stream:
D>readstream=opensrc_file,*r
答案:A
6.一階規(guī)則的基本成分是(一)
A、原子命題
B、謂詞
C、量詞
D、原子公式
答案:D
7.在python中,x=[ll,8,7,2,3],x、insert(4,[4,5]),列表x的
值為()。
A、11,8,7,2,4,5],3]
B、11,8,7,2,4,5,3]
C、11,8,7,4,5],2,3]
D、11,8,7,4,5,2,3]
答案:A
8.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,下面哪種方法可以用來(lái)處理過(guò)擬合?
A、Dropout
B、分批歸一化BatchNormalization
C、正則化regularization
D、都可以
答案:D
9.下列關(guān)于冗余特征的說(shuō)法錯(cuò)誤的是()
A、冗余特征是可以通過(guò)其他特征推演出來(lái)的特征
B、冗余特征是無(wú)用的特征
C、冗余特征有時(shí)候可以降低學(xué)習(xí)任務(wù)的難度
D、去除冗余特征可以減輕學(xué)習(xí)過(guò)程的負(fù)擔(dān)
答案:B
10.下列不屬于深度學(xué)習(xí)內(nèi)容的是
A、深度置信網(wǎng)絡(luò)
B、受限玻爾茲曼機(jī)
C、卷積神經(jīng)網(wǎng)絡(luò)
D、貝葉斯學(xué)習(xí)
則a[〃animals〃]的值為()
A、pear
B>dog
C>carrot
D、以上選項(xiàng)均不
答案:B
15.以下選項(xiàng)中,不是Python語(yǔ)言保留字的是
A^while
B、except
C、do
D、pass
答案:C
16.關(guān)于〃與/或〃圖表示知識(shí)的敘述,錯(cuò)誤的有。
A、用〃與/或〃圖表示知識(shí)方便使用程序設(shè)計(jì)語(yǔ)言表達(dá),也便于計(jì)算機(jī)
存儲(chǔ)處理。
B、〃與/或〃圖表示知識(shí)時(shí)一定同時(shí)有〃與節(jié)點(diǎn)〃和〃或節(jié)點(diǎn)〃。
C、〃與/或〃圖能方便地表示陳述性知識(shí)和過(guò)程性知識(shí)。
D、能用〃與/或〃圖表示的知識(shí)不適宜用其地方法表示。
答案:D
17.下列()不是建立專家系統(tǒng)的一般步驟
A、設(shè)計(jì)初始知識(shí)庫(kù)
B、排序與查詢
C、原型機(jī)的開(kāi)發(fā)
D、知識(shí)庫(kù)的改進(jìn)與歸納
答案:B
18.在NoSQL數(shù)據(jù)庫(kù)的復(fù)制機(jī)制中,〃主從復(fù)制〃是將數(shù)據(jù)復(fù)制到多個(gè)
節(jié)點(diǎn),用戶可以讀取該節(jié)點(diǎn)的數(shù)據(jù),但不能直接更新它,此類節(jié)點(diǎn)為
Oo
A、Main節(jié)點(diǎn)
B、Master節(jié)點(diǎn)
C、Slave節(jié)點(diǎn)
D、Save節(jié)點(diǎn)
答案:C
19.一個(gè)完整機(jī)器學(xué)習(xí)項(xiàng)目需要以下哪些流程?①抽象成數(shù)學(xué)問(wèn)題②
獲取數(shù)據(jù)③特征預(yù)處理與特征選擇④訓(xùn)練模型與調(diào)優(yōu)⑤模型診斷與
融合⑥上線運(yùn)行
A、①②③④⑤
B、②③④⑤⑥
C、①②③④⑤⑥
D、①②④⑤⑥
答案:C
20.貝葉斯網(wǎng)絡(luò)是基于概率推理的()模型。
A、數(shù)據(jù)
B、數(shù)學(xué)
C、判斷
D、圖形
答案:B
21.從加工程度看,以下()屬于數(shù)據(jù)產(chǎn)品中的決策類產(chǎn)品。
A、戰(zhàn)略規(guī)劃
B、咨詢報(bào)告
C、Apps
D、數(shù)據(jù)庫(kù)
答案:A
22.()是概率框架下實(shí)施決策的基本方法。
A、決策樹(shù)
B、神經(jīng)網(wǎng)絡(luò)
C、貝葉斯決策論
D、支持向量機(jī)
答案:C
23.前饋神經(jīng)網(wǎng)絡(luò)是一種簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目
前應(yīng)用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)
網(wǎng)絡(luò)說(shuō)法正確的是:
A、具備計(jì)算能力的神經(jīng)元與上下兩層相連
B、其輸入節(jié)點(diǎn)具備計(jì)算能力
C、同一層神經(jīng)元相互連接
D、層間信息只沿個(gè)方向傳遞
答案:D
24.規(guī)則生成本質(zhì)上是一個(gè)貪心搜索的過(guò)程,須有一定的機(jī)制來(lái)緩解
過(guò)擬合的風(fēng)險(xiǎn),最常見(jiàn)的做法是(_)
A、序列化
B、剪枝
C、去重
D、重組
答案:B
25.關(guān)聯(lián)規(guī)則反映了事物之間的相互依賴性或關(guān)聯(lián)性。關(guān)聯(lián)規(guī)則主要
可分為()類
A、3
B、4
C、5
D、$6
答案:A
26.在機(jī)器學(xué)習(xí)建模過(guò)程中對(duì)原始數(shù)據(jù)集的劃分不包括
A、trainingset
B、testset
C^validationset
D、verificationset
答案:D
27.Python3中獲取用戶輸入并默認(rèn)以字符串存儲(chǔ)的函數(shù)是()
A^rawinput
B、input
C、raw
D、print
答案:B
28.通常池化操作的效果是:
A、使圖片變大
B、使圖片變小
C、使圖片變成三角形
D、使圖片變成圓形
答案:B
29.在Python中,下列哪種說(shuō)法是錯(cuò)誤的()。
A、除字典類型外,所有標(biāo)準(zhǔn)對(duì)象均可以用于布爾測(cè)試
B、空字符串的布爾值是False
C、空列表對(duì)象的布爾值是False
D、值為0的數(shù)值型數(shù)據(jù)的布爾值是False
答案:A
30.以下不屬于對(duì)抗生成網(wǎng)絡(luò)的應(yīng)用是?
A、文字生成
B、圖像生成
C、圖像識(shí)別
D、數(shù)據(jù)增強(qiáng)
答案:c
31.下列選項(xiàng)中昇騰310和昇騰910屬性相同的是?
A、最大功率
B、架構(gòu)
C、整數(shù)精度
D、7nm制程
答案:B
32.什么是KDD?()
A、數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)
B、領(lǐng)域知識(shí)發(fā)現(xiàn)
C、文檔知識(shí)發(fā)現(xiàn)
D、動(dòng)態(tài)知識(shí)發(fā)現(xiàn)
答案:A
33.考慮值集{12243324556826},其四分位數(shù)極差是
A、31
B、24
C、55
D、3
答案:A
34.用樹(shù)形結(jié)構(gòu)來(lái)表示實(shí)體之間聯(lián)系的模型稱為
A、關(guān)系模型
B、層次模型
C、網(wǎng)狀模型
D、數(shù)據(jù)模型
答案:B
35.實(shí)現(xiàn)多路分支的最佳控制結(jié)構(gòu)是
A、if
B、try
C、if-elif-else
D、if-else
答案:C
36.前饋神經(jīng)網(wǎng)絡(luò)通過(guò)誤差后向傳播(BP算法)進(jìn)行參數(shù)學(xué)習(xí),這是
一種()機(jī)器學(xué)習(xí)手段
A、監(jiān)督學(xué)習(xí)
B、無(wú)監(jiān)督學(xué)習(xí)
C、半監(jiān)督學(xué)習(xí)
D、無(wú)監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合
答案:A
37.決策管理系統(tǒng)幫助用戶制定、細(xì)化、實(shí)施、()各種決策,并將這
些決策引入具體的環(huán)境中發(fā)揮作用。
A、核對(duì)
B、驗(yàn)證
C、檢驗(yàn)
D、跟蹤
答案:D
38.決策樹(shù)學(xué)習(xí)的關(guān)鍵是如何從候選屬性集中選擇一個(gè)最有助于分類
實(shí)例的屬性,而其選擇是以()為依據(jù)的
A、分類
B、聚類
C、概率
D、信息烯
答案:D
39.變量的不確定性越大,相對(duì)應(yīng)信息端有什么變化0
A、焙變小
B、焙變大
C、不變
D、以上都不對(duì)
答案:B
40.對(duì)于線性不可分的數(shù)據(jù),支持向量機(jī)的解決方式是()
A、軟間隔
B、硬間隔
C、核函數(shù)
D、以上選項(xiàng)均不
答案:C
41.貝葉斯學(xué)習(xí)是一種以貝葉斯法則為基礎(chǔ)的,并通過(guò)()手段進(jìn)行學(xué)
習(xí)的方法。
A、邏輯
B、概率
C、推理
D、假定
答案:B
42.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹(shù)。為了花費(fèi)更少的時(shí)間來(lái)訓(xùn)練這
個(gè)模型,下列哪種做法是正確的
A、增加樹(shù)的深度
B、增加學(xué)習(xí)率
C、減少樹(shù)的數(shù)量
D、減小樹(shù)的深度
答案:D
43.假設(shè)你使用log-loss函數(shù)作為評(píng)估標(biāo)準(zhǔn)。下面這些選項(xiàng),哪些是
對(duì)作為評(píng)估標(biāo)準(zhǔn)的log-loss的正確解釋。()
A、如果一個(gè)分類器對(duì)不正確的分類很自信,log-loss會(huì)嚴(yán)重的批評(píng)
它。
B、對(duì)一個(gè)特別的觀察而言,分類器為正確的類別分配非常小的概率,
然后對(duì)log-loss的相應(yīng)分布會(huì)非常大。
C、log-loss越低,模型越好
D、以上都是
答案:D
44.如果一個(gè)訓(xùn)練好的模型在測(cè)試集上有100%的準(zhǔn)確率,這是不是意
味著在一個(gè)新的數(shù)據(jù)集上,也會(huì)有同樣好的表現(xiàn)?
A、是的,這說(shuō)明這個(gè)模型的范化能力已經(jīng)足以支持新的數(shù)據(jù)集合了
B、不對(duì),依然后其他因素模型沒(méi)有考慮到,比如噪音數(shù)據(jù)
答案:B
45.智算中心相比傳統(tǒng)數(shù)據(jù)中心,在以下哪個(gè)方面實(shí)現(xiàn)了顯著的技術(shù)
提升,以更好地支持大規(guī)模人工智能應(yīng)用?
A、數(shù)據(jù)存儲(chǔ)容量的大幅增加
B、網(wǎng)絡(luò)帶寬的簡(jiǎn)單擴(kuò)展
C、高效能并行計(jì)算與場(chǎng)景化硬件加速的結(jié)合
D、電源管理系統(tǒng)的優(yōu)化
答案:D
46.工信部發(fā)布的新型數(shù)據(jù)中心發(fā)展三年行動(dòng)計(jì)劃指出到2023年底,
新建大型及以上數(shù)據(jù)中心PUE降低到多少以下?
A、1
B、25
C、05
D、3
答案:C
47.對(duì)中文語(yǔ)料樣本來(lái)說(shuō),為了便于模型理解,第一步是將句子拆分
為詞元,詞元又稱為
A、embedding
B、詞嵌入
C^token
D、基礎(chǔ)語(yǔ)料
答案:C
48.下列哪部分不是專家系統(tǒng)的組成部分?
A、用戶
B、綜合數(shù)據(jù)庫(kù)
C、推理機(jī)
D、知識(shí)庫(kù)
答案:A
49.在GPT-4模型中,哪項(xiàng)技術(shù)或方法主要用于提升模型的生成質(zhì)量
和理解能力?
A、跨模態(tài)學(xué)習(xí)
B、大規(guī)模的預(yù)訓(xùn)練數(shù)據(jù)集
C、自適應(yīng)計(jì)算時(shí)間
D、遞歸神經(jīng)網(wǎng)絡(luò)(RNN)
答案:B
50.基于深度學(xué)習(xí)的電力設(shè)備故障檢測(cè)主要采用()的方法,通過(guò)對(duì)
大量歷史數(shù)據(jù)進(jìn)行線下訓(xùn)練,生成智能分析模型。
A、小樣本學(xué)習(xí)
B、半監(jiān)督學(xué)習(xí)
C、無(wú)監(jiān)督學(xué)習(xí)
D、有監(jiān)督學(xué)習(xí)
答案:D
51.語(yǔ)言模型的參數(shù)估計(jì)經(jīng)常使用最大似然估計(jì),面臨的一個(gè)問(wèn)題是
沒(méi)有出現(xiàn)的項(xiàng)概率為0,這樣會(huì)導(dǎo)致語(yǔ)言模型的效果不好。為了解決
這個(gè)問(wèn)題,需要使用()。
A、平滑
B、去噪
C、隨機(jī)插值
D、增加白噪音
答案:A
52.對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是()。
A、1
B、1和3
C、1和2
D、2
答案:A
53.在構(gòu)建針對(duì)設(shè)備缺陷識(shí)別的大模型時(shí),以下哪種數(shù)據(jù)來(lái)源最有助
于提高模型的準(zhǔn)確性?
A、僅使用公開(kāi)的數(shù)據(jù)集
B、結(jié)合行業(yè)內(nèi)的歷史數(shù)據(jù)和開(kāi)源數(shù)據(jù)集
C、僅依賴于合成數(shù)據(jù)
D、采用隨機(jī)生成的數(shù)據(jù)
答案:B
54.梯度下降算法的正確步驟是什么?
A、1,2,3,4,5
B、5,4,3,2,1
C、3,2,1,5,4
D、4,3,1,5,2
答案:D
55.神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,用于評(píng)估模型預(yù)測(cè)準(zhǔn)確性的函數(shù)是
A、激活函數(shù)
B、損失函數(shù)
C、權(quán)重函數(shù)
D、優(yōu)化函數(shù)
答案:B
56.《國(guó)家人工智能產(chǎn)業(yè)綜合標(biāo)準(zhǔn)化體系建設(shè)指南》對(duì)人工智能產(chǎn)業(yè)
鏈作出了具體介紹,其中人工智能產(chǎn)業(yè)鏈包括()等4個(gè)部分
A、基礎(chǔ)層、框架層、模型層、應(yīng)用層
B、基礎(chǔ)層、強(qiáng)化層、改善層、創(chuàng)新層
C、初始層、框架層、網(wǎng)絡(luò)層、創(chuàng)新層
D、初始層、強(qiáng)化層、網(wǎng)絡(luò)層、應(yīng)用層
答案:A
57.在檢測(cè)桿塔上的銷釘是否存在銷子缺失的問(wèn)題時(shí),采取了什么措
施來(lái)降低誤檢率?
A、對(duì)所有銷釘進(jìn)行人工檢查
B、僅人工檢查帶有銷子的銷釘
C、找出桿塔上連接在掛環(huán)上、需要承重的銷釘,并檢查這些銷釘是
否存在銷子缺失
D、使用標(biāo)準(zhǔn)尺寸的樣本進(jìn)行比對(duì)
答案:C
58.()是從輸電〃動(dòng)脈〃接受電能,逐級(jí)分配給千家萬(wàn)戶的〃毛細(xì)血管
〃
O
A、配電網(wǎng)
B、攝像機(jī)
C、無(wú)人機(jī)
D、邊端設(shè)備
答案:A
59.以下關(guān)于芯片說(shuō)法正確的是?
A、芯片通常是由半導(dǎo)體制成
B、目前芯片普遍使用的半導(dǎo)體組件為二極管
C、當(dāng)前芯片的制程工藝為納米級(jí)
答案:A
60.以下哪一種芯片,不屬于FPGA的演進(jìn)過(guò)程中的芯片類型?
A、CPLD
B、PR0M
C、ASIC
D、PAL
答案:B
61.在電網(wǎng)運(yùn)行分析中,為了滿足人工智能模型對(duì)大量訓(xùn)練樣本的需
求,以下哪種方法不是用來(lái)生成具備實(shí)測(cè)數(shù)據(jù)特征的樣本以增強(qiáng)數(shù)據(jù)
集的方法?
A、擴(kuò)展式模型
B、對(duì)抗生成網(wǎng)絡(luò)
C、高斯濾波器
D、擴(kuò)散式模型
答案:A
62.大模型訓(xùn)練過(guò)程被拆分為預(yù)訓(xùn)練和精調(diào)適配階段,這樣做有什么
優(yōu)勢(shì)?
A、增加了專業(yè)人員的標(biāo)注成本,并提高了基礎(chǔ)知識(shí)累積效
B、通過(guò)增大規(guī)模、無(wú)監(jiān)督的預(yù)訓(xùn)練階段,大幅降低了專業(yè)人員的標(biāo)
注成本,并提高了基礎(chǔ)知識(shí)累積效率
C、大幅降低了專業(yè)人員的標(biāo)注成本,并提高了基礎(chǔ)知識(shí)累積效率,
減少了模型的泛化能力
D、通過(guò)增大規(guī)模,增加了訓(xùn)練所需的時(shí)間和計(jì)算資源
答案:B
63.GPT模型是基于哪種類型的神經(jīng)網(wǎng)絡(luò)架構(gòu)?
A、卷積神經(jīng)網(wǎng)絡(luò)(CNN)
B、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)
C、變換器(Transformer)
D、自編碼器
答案:C
64.電力安監(jiān)領(lǐng)域人工智能技術(shù)通常不涉及以下哪個(gè)技術(shù)()。
A、目標(biāo)檢測(cè)
B、視頻分類
C、姿態(tài)估計(jì)
D、強(qiáng)化學(xué)習(xí)
答案:D
65.在構(gòu)建大型模型的知識(shí)庫(kù)時(shí),以下選項(xiàng)不是必須考慮的因素?
A、知識(shí)庫(kù)的更新頻率
B、知識(shí)庫(kù)的規(guī)模大小
C、知識(shí)庫(kù)的精度
D、模型的運(yùn)行速度
答案:D
66.在一個(gè)n維的間中,最好的檢測(cè)離群點(diǎn)(outlier)的方法是()。
A、作正態(tài)分布概率圖
B、作盒形圖
C、馬氏距離
D、作散點(diǎn)圖
答案:C
67.關(guān)于Transformer中的編碼器(Encoder),下列說(shuō)法正確的是:
A、編碼器僅負(fù)責(zé)接收輸入序列而不進(jìn)行處理
B、編碼器輸出的是變長(zhǎng)的上下文向量
C、編碼器負(fù)責(zé)理解并編碼輸入序列的信息,將其轉(zhuǎn)換為固定長(zhǎng)度的
上下文向量
D、編碼器的功能是在解碼器之后執(zhí)行
答案:C
68.將輸出標(biāo)記的對(duì)數(shù)作為線性模型逼近的目標(biāo)是
A、對(duì)數(shù)幾率回歸
B、對(duì)數(shù)線性回歸
C、極大似然法
D、正則化
答案:B
69.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過(guò)()將
向量投影到低維空間。
A、線性變換
B、非線性變換
C、拉布拉斯變換
D、z變換
答案:A
70.在神經(jīng)網(wǎng)絡(luò)中,我們是通過(guò)以下哪個(gè)方法在訓(xùn)練網(wǎng)絡(luò)的時(shí)候更新
參數(shù),從而最小化損失函數(shù)的?
A、正向傳播算法
B、池化計(jì)算
C、卷積計(jì)算
D、反向傳播算法
答案:D
71.某二叉樹(shù)的前序序列為ABDECFG,中序序列為DBEAFCG,則后序序
列為
A、DEBFGCA
B、DBEFCGA
C、BDECFGA
D、DEFGBCA
答案:A
72.()技術(shù)可以將所有數(shù)據(jù)的特性通過(guò)圖的方式展現(xiàn)出來(lái)。
A、支持向量機(jī)
B、神經(jīng)網(wǎng)絡(luò)
C、數(shù)據(jù)可視化
D、數(shù)據(jù)挖掘
答案:C
73.關(guān)于正態(tài)分布,下列說(shuō)法錯(cuò)誤的是
A、正態(tài)分布具有集中性和對(duì)稱性
B、正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)
C、正態(tài)分布的偏度為0,峰度為1
D、標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為1
答案:C
74.下面哪個(gè)是Pytion中的不變的數(shù)據(jù)結(jié)構(gòu)()。
A、set
B、list
C、tuple
D、diet
答案:C
75.人工智能中通常把()作為衡量機(jī)器智能的準(zhǔn)則。
A^圖靈機(jī)
B、圖靈測(cè)試
C、中文屋實(shí)驗(yàn)
D、人類智能
答案:B
76.()城市大腦目前已在杭州、蘇州、上海、衢州、澳門(mén)、馬來(lái)西亞
等城市和國(guó)家落地,覆蓋交通、平安、市政建設(shè)、城市規(guī)劃等領(lǐng)域,
是目前全球最大規(guī)模的人工智能公共系統(tǒng)之一。
A、浪潮云
B、華為云
C、阿里云
D、海爾云
答案:C
77.()庫(kù)是一個(gè)具有強(qiáng)大圖像處理能力的第三方庫(kù)。用途:圖像處
理、
A^numpy
B、pandas
C、Matplotlib
D、PIL
答案:D
78.標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對(duì)于網(wǎng)絡(luò)輸出的影響隨時(shí)間
A、不斷遞歸而衰退
B、不斷遞歸而增強(qiáng)
C、先增強(qiáng)后減弱
D、先減弱后增強(qiáng)
答案:A
79.如何選取合適的卷積核大???
A、分布范圍廣一-〉較小的卷積核,大的感受野
B、分布范圍小一-〉較小的卷積核,小的感受野
C、分布范圍小一-〉較大的卷積核,小的感受野
D、分布范圍大一-)較小的卷積核,小的感受野
答案:B
80.以下不屬于聚類算法的是()。
A、K均值
B、SAN
C、Apriori
D>Jarvis-Patrik(JP)
答案:c
81.關(guān)于python程序設(shè)計(jì)語(yǔ)言,下列說(shuō)法不正確的是()
A、python源文件以***、py為擴(kuò)展名
B、python的默認(rèn)交互提示符是:>>>
C、python只能在文件模式中編寫(xiě)代碼
D、python具有豐富和強(qiáng)大的模塊
答案:C
82.下列關(guān)于MapReduce說(shuō)法不正確的是0。
A>MapReduce是一種計(jì)算框架
MapReduce來(lái)源于google的學(xué)術(shù)論文
C>MapReduce程序只能用java語(yǔ)言編寫(xiě)
D、MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用
答案:C
83.LVW屬于哪種特征選擇方法(一)
A^包裹式
B、啟發(fā)式
C、嵌入式
D、過(guò)濾式
答案:A
84.用numpy創(chuàng)建單位矩陣使用()
A、np、identity
B、np^ones
C^np、random^rand
D、np^arange
答案:A
85.強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型
A、馬可夫決策&
B、&貝葉斯&
C、&HMM&
D、&最大后驗(yàn)概率
答案:A
86.人工智能的三個(gè)階段包含了計(jì)算智能、()、認(rèn)知智能。
A、弱人工智能
B、感知智能
C、行為智能
D、強(qiáng)人工智能
答案:B
87.語(yǔ)句np、sum(arr3,axis=l)的作用是()?注:(已導(dǎo)入nunipy
庫(kù))importnumpyasnp
A、對(duì)整個(gè)數(shù)組求和
B、對(duì)每一行求和
C、對(duì)第1列求和
D、對(duì)每一列求和
答案:B
88.已知f=exsiny,則等于()。
A、exsiny+excosy
B>exsinyex+exsinyey
C、exsinyex+excosyey
D、excosyex+excosyey
答案:C
89.NMS算法中文名為()
A、非極大值抑制
B、非極小值抑制
C、極大值抑制
D、極小值抑制
答案:A
90.TensorFlow程序開(kāi)發(fā)口寸經(jīng)常會(huì)使用到placeholder,placeholder
是指
A、常量
B、變量
C、張量
D、占位符
答案:D
91.隨機(jī)森林是Bagging的一個(gè)擴(kuò)展變體,它在以決策樹(shù)為基學(xué)習(xí)器
構(gòu)建Bagging集成的基礎(chǔ)上,進(jìn)一步在決策樹(shù)的訓(xùn)練過(guò)程中引入了()
選擇。
A、隨機(jī)屬性
B、分支屬性
C、機(jī)器屬性
D、以上都不對(duì)
答案:A
92.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?
A、隨機(jī)梯度下降
B、修正線性單元(ReLU)
C、卷積函數(shù)
D、以上都不
答案:B
93.()是人工智能地核心,是使計(jì)算機(jī)具有智能地主要方法,其應(yīng)用
遍及人工智能地各個(gè)領(lǐng)域。
A、深度學(xué)習(xí)
B、機(jī)器學(xué)習(xí)
C、人機(jī)交互
D、智能芯片
答案:B
94.AI的是哪兩個(gè)英文單詞的縮寫(xiě)
A、Automaticintelligence
B、ArtificialIntelligence
C、AutomaticInformation
D、ArtificialInformation
答案:B
95.關(guān)于RBF神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是(一)
A、單隱層前饋神經(jīng)網(wǎng)絡(luò);
B、隱層神經(jīng)元激活函數(shù)為徑向基函數(shù);
C、輸出層是對(duì)隱層神經(jīng)元輸出的非線性組合;
D、可利用BP算法來(lái)進(jìn)行參數(shù)優(yōu)化;
答案:C
96.()就是指分類任務(wù)中不同類別的訓(xùn)練樣例數(shù)目差別很大的情況
A、類別不平衡
B、類別不相同
C、類別不對(duì)等
D、類別數(shù)不同
答案:A
97.下列快捷鍵中能夠中斷(InterruptExecution)Python程序運(yùn)行
的是
A、F6
B、Ctrl+Q
C^Ctrl+C
D、Ctrl+F6
答案:C
98.人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中()主要采用反向傳播算法。
A、單元學(xué)習(xí)算法
B、多層網(wǎng)絡(luò)學(xué)習(xí)
C、決策樹(shù)學(xué)習(xí)
D、概念學(xué)習(xí)
答案:B
99.關(guān)于k折交叉驗(yàn)證,下列說(shuō)法正確的是?()
A、k值并不是越大越好,k值過(guò)大,會(huì)降低運(yùn)算速度
B、選擇更大的k值,會(huì)讓偏差更小,因?yàn)閗值越大,訓(xùn)練集越接近
整個(gè)訓(xùn)練樣本
C、選擇合適的k值,能減小驗(yàn)方差
D、以上說(shuō)法都
答案:D
100.()是在統(tǒng)一規(guī)范標(biāo)準(zhǔn)下,運(yùn)用自然語(yǔ)言處理、知識(shí)圖譜、智能
搜索等關(guān)鍵技術(shù),對(duì)主變壓器、斷路器等電網(wǎng)主設(shè)備的知識(shí)資源進(jìn)行
數(shù)字化解析、知識(shí)化關(guān)聯(lián)、智能化應(yīng)用,打造企業(yè)級(jí)電網(wǎng)設(shè)備知識(shí)服
務(wù)平臺(tái),為設(shè)備管理專業(yè)人員提供設(shè)備故障輔助研判、設(shè)備缺陷定級(jí)
分析等核心知識(shí)服務(wù)。
A、電網(wǎng)
B、主設(shè)備知識(shí)服務(wù)
C、發(fā)電
D、售電
答案:B
10L黨中央、國(guó)務(wù)院高度重視人工智能技術(shù)發(fā)展,積極推進(jìn)人工智能
和()深度融合,營(yíng)造通用人工智能發(fā)展創(chuàng)新生態(tài)
A、實(shí)體經(jīng)濟(jì)
B、商業(yè)
C、體育
D、文藝
答案:A
102.在智能供電服務(wù)場(chǎng)景下,為了改進(jìn)長(zhǎng)上下文建模的方法,采用了
哪些技術(shù)?
A、僅使用了位置插值技術(shù)
B、僅使用了長(zhǎng)文本數(shù)據(jù)上采樣技術(shù)
C、使用了基于旋轉(zhuǎn)位置編碼(YaRN)的長(zhǎng)上下文建模方法,采用位
置插值和微調(diào)等技術(shù)改進(jìn)RoPE的長(zhǎng)文本外推能力
D、使用了基于數(shù)據(jù)工程的上下文擴(kuò)展方法,但沒(méi)有涉及模型繼續(xù)預(yù)
訓(xùn)練
答案:C
103,下列哪項(xiàng)關(guān)于模型能力(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)
的描述是正確的?
A、隱藏層層數(shù)增加,模型能力可能增加
B、Dropout的比例增加,模型能力必然增加
C、學(xué)習(xí)率增加,模型能力必然增加
D、都不
答案:A
104.假設(shè)你需要調(diào)整超參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),會(huì)
使用下列哪項(xiàng)技術(shù)?
A、窮舉搜索
B、隨機(jī)搜索
C、Bayesian優(yōu)化
D、都可以
答案:D
105.下列度量不具有反演性的是0
A、系數(shù)
B、幾率
C、Cohen度量
D、興趣因子
答案:D
106.()的神經(jīng)形態(tài)芯片已經(jīng)可以搭建較大規(guī)模的類腦計(jì)算系統(tǒng),為
類腦計(jì)算模型提供快速運(yùn)行平價(jià)。
A、基于腦電波神經(jīng)網(wǎng)絡(luò)
B、基于脈沖神經(jīng)網(wǎng)絡(luò)
C、基于腦回路神經(jīng)網(wǎng)絡(luò)
D、基于類腦神經(jīng)網(wǎng)絡(luò)
答案:B
107,正式提出人工智能(artificialintelligence,AI)這個(gè)術(shù)語(yǔ)并
把它作為一門(mén)新興科學(xué)的名稱實(shí)在哪一年。
A、1956
B、1960年
C、1965年
D、1980年
答案:A
108.()是科學(xué)推理的兩大基本手段。
A、歸納和演繹
B、歸納和泛化
C、歸納和特化
D、演繹和泛化
答案:A
109.語(yǔ)義網(wǎng)絡(luò)表達(dá)知識(shí)時(shí),有向弧AK0鏈、ISA鏈?zhǔn)怯脕?lái)表達(dá)節(jié)點(diǎn)知
識(shí)的
A、無(wú)悖性
B、可擴(kuò)充性
C、繼承性
D、連貫性
答案:C
110.下列關(guān)于聚類算法的說(shuō)法,正確的是()
A、聚類算法通常用于在知道類別的情況下,把樣本按照樣本之間的
相似性等分成不同的類別
B、聚類算法是一種監(jiān)督學(xué)習(xí)算法
C、聚類算法可以用于回歸問(wèn)題
D、聚類算法通常用于在不知道類別的情況下,把樣本按照樣本之間
的相似性等分成不同的類別
答案:D
111.scikit-learn用于訓(xùn)練模型的函數(shù)接口為()
A、Fit
B、fit
C、Train
D、train
答案:B
112.下列關(guān)于LARS算法的說(shuō)法正確的是(一)
A、每次選擇一個(gè)與殘差相關(guān)性最大的特征
B、是一種包裹式特征選擇法
C、基于線性回歸平絕對(duì)誤差最小化
D、是通過(guò)對(duì)LASSO稍加修改而實(shí)現(xiàn)
答案:A
113.在廢棄階段,廢棄銷毀使用目的不復(fù)存在或者有更好解決方法替
換的人工智能系統(tǒng),主要包括數(shù)據(jù)、()以及系統(tǒng)整體的廢棄銷毀過(guò)
程。
A、算法
B、模型
c^程序
D、算法模型
答案:D
114.查準(zhǔn)率和查全率是一對(duì)()的度量
A、相容
B、相等
C、矛盾
D、包含
答案:C
115.()年,一名名叫HenryBcck的機(jī)械制圖員借鑒電路圖的制圖方法
設(shè)計(jì)出了倫敦地鐵線路圖,逐漸成為全球地鐵路線的標(biāo)準(zhǔn)可視化方法,
沿用至今。
A、1930
B、1931
C、1932
D、$1,933
答案:B
116.數(shù)字圖像處理中的()技術(shù)可應(yīng)用于機(jī)動(dòng)車車牌識(shí)別系統(tǒng)。
A、圖像變換
B、圖像增強(qiáng)
C、圖像分割
D、圖像復(fù)原
答案:c
117.Softmax算法中溫度趨近于0時(shí)Softmax將趨于()
A、僅探索
B、僅利用
C、全探索
D、全利用
答案:B
118.我們常說(shuō)〃人類是智能回路的總開(kāi)關(guān)〃,即人類智能決定著任何智
能的高度、廣度和深度,下面哪一句話對(duì)這個(gè)觀點(diǎn)的描述不正確
A、人類智能是機(jī)器智能的設(shè)計(jì)者
B、機(jī)器智能目前無(wú)法完全模擬人類所有智能
C、機(jī)器智能目前已經(jīng)超越了人類智能
D、機(jī)器智能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能
或機(jī)器智能
答案:C
119.我們想要減少數(shù)據(jù)集中的特征數(shù),即降維。選擇以下適合的方案
①使用前向特征選擇方法②使用后向特征排除方法③我們先把所有
特征都使用,去訓(xùn)練一個(gè)模型,得到測(cè)試集上的表現(xiàn)然后我們?nèi)サ粢?/p>
個(gè)特征,再去訓(xùn)練,用交叉驗(yàn)證看看測(cè)試集上的表現(xiàn),如果表現(xiàn)比原
來(lái)還要好,我們可以去除這個(gè)特征④查看相關(guān)性表,去除相關(guān)性最高
的一些特征
A、①②
B、②③④
C、①②④
D、①②③④
答案:D
120.從產(chǎn)品形態(tài)看,以下()屬于數(shù)據(jù)產(chǎn)品中的數(shù)據(jù)類產(chǎn)品。
A、脫敏數(shù)據(jù)
B、數(shù)據(jù)訂閱
C、知識(shí)庫(kù)
D、決策支持
答案:A
121.在數(shù)據(jù)量大的情況下,對(duì)于相同的文本分類任務(wù),對(duì)Bert模型
和word2vec模型的分類效果判斷正確的是()
A、bert分類效果優(yōu)于word2vec
B、word2vec分類效果優(yōu)于bert
C、效果一致
D、以上選項(xiàng)均不
答案:A
122.通過(guò)圖像視頻智能分析、人臉識(shí)別、圖文識(shí)別等()融合應(yīng)用,
依托智能視頻終端、智能工器具等智能裝備,開(kāi)展現(xiàn)場(chǎng)作業(yè)智能管控
應(yīng)用建設(shè),構(gòu)建行為違章、裝置違章等4大類算法模型,智能識(shí)別人
員作業(yè)違章和現(xiàn)場(chǎng)安全風(fēng)險(xiǎn),優(yōu)化現(xiàn)場(chǎng)作業(yè)管控模式,提升現(xiàn)場(chǎng)作業(yè)
安全管控效率和覆蓋率。
A、人工智能技術(shù)
B、數(shù)據(jù)挖掘技術(shù)
C、模型推理技術(shù)
D、數(shù)據(jù)清洗技術(shù)
答案:A
123.以下哪個(gè)選項(xiàng)是更大的浮點(diǎn)運(yùn)算單位?
A、ZFLOPS
B、GFLOPS
C、EFLOPS
D、PFLOPS
答案:A
二、多選題
1.基因遺傳算法的兩個(gè)常用的結(jié)束條件為0。
A、達(dá)到一定的變異次數(shù)
B、適應(yīng)度函數(shù)達(dá)到一定的要求
C、達(dá)到一定的迭代次數(shù)
D、達(dá)到一定的交叉次數(shù)
答案:BC
2.以下說(shuō)法錯(cuò)誤的是()
A、python不區(qū)分大小寫(xiě)
B、set不是python數(shù)據(jù)類型
C、python可以在Linux系統(tǒng)運(yùn)行
DNtuple和list不可以定義為空
答案:ABD
3.以下選項(xiàng)中能提升神經(jīng)網(wǎng)絡(luò)模型計(jì)算效率的是()。
A、TPU
B、GPU
C、FPGA
D、大規(guī)模分布式集群
答案:ABCD
4.假設(shè)你需要改變參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),可以使
用下列哪項(xiàng)技術(shù)?
A、窮舉搜索
B、隨機(jī)搜索
C、Bayesian優(yōu)化
答案:ABC
5.21世紀(jì)新興的技術(shù)有()。
A、云計(jì)算
B、計(jì)算機(jī)
C、大數(shù)據(jù)
D、物聯(lián)網(wǎng)
答案:ACD
6.EM算法每次迭代包括哪些步驟?
A、求方差
B、求期望
C、求標(biāo)準(zhǔn)差
D、求極大值
答案:BD
7.f(x+y)=f(x)+f(y),則關(guān)于f(x)不正確的是()。
A、偶函數(shù)
B、非奇非偶函數(shù)
C、奇偶性不確定
D、奇函數(shù)
答案:ABC
8.縮略圖不能直接雙擊打開(kāi),要使用PTL.Image的()讀取,然后
使用()方法進(jìn)行顯示。
ANdis()
B、read
C^show()
D、open
答案:CD
9.生成對(duì)抗網(wǎng)絡(luò)GAN的基木結(jié)構(gòu)主要包括以下哪些
A、觸發(fā)器
B、生成器
C、判別器
D、聚合器
答案:BC
10.神經(jīng)元分為三種不同類型的層次:
A、隱藏層
B、輸入層
C、輸出層
D、傳輸層
答案:ABC
11.《新一代人工智能倫理規(guī)范》提出了增進(jìn)人類福祉、()、提升倫
理素養(yǎng)等基本倫理要求。
A、促進(jìn)公平公正
B、強(qiáng)化責(zé)任擔(dān)當(dāng)
C、保護(hù)隱私安全
D、確??煽乜尚?/p>
答案:ABCD
12.ASIC芯片的優(yōu)勢(shì)包括()o
A、通用性強(qiáng)
B、高性能
C、低功耗
D、小體積
答案:BCD
13.機(jī)器翻譯的局限性在于()
A、基于已有的既成案例
B、只能處理簡(jiǎn)單句
C、訓(xùn)練樣本單一
D、錯(cuò)誤較多
答案:AB
14.智能寫(xiě)作平臺(tái)基十()等相對(duì)成熟的文章分析工具,自動(dòng)收集省
公司、所轄市縣公司和支撐單位的網(wǎng)站新聞
A、全文檢索
B、分詞技術(shù)
C、熱詞分析
D、情報(bào)搜集
答案:ABCD
15.人工智能訓(xùn)練運(yùn)行平臺(tái)應(yīng)包括:()和服務(wù)發(fā)布等4部分。
A、&模型部署&
B、&模型評(píng)估
C、&模型構(gòu)建&
D、模型訓(xùn)練&
答案:ABD
16.人工智能平臺(tái)樣木分類為()、()、()、()。
A、語(yǔ)音
B、圖像
C、文本
D、視頻
答案:ABCD
17.BP神經(jīng)網(wǎng)絡(luò)的流程:
A、對(duì)某個(gè)輸入從輸入層沿網(wǎng)絡(luò)傳播到輸出層
B、從輸出層開(kāi)始從后向前計(jì)算每個(gè)單元的delta
C、計(jì)算該輸入對(duì)每個(gè)權(quán)值梯度的貢獻(xiàn)
D、所有輸入對(duì)梯度的貢獻(xiàn)求和得到總梯度,根據(jù)學(xué)習(xí)率來(lái)改變?cè)瓉?lái)
的權(quán)值,完成了權(quán)值的一次修改
答案:ABCD
18.幾乎所有的活動(dòng)都需要一些在不確定性存在的情況下進(jìn)行推理的
能力。不確定性有()等可能的來(lái)源。
A、不完全觀測(cè)
B、不完全建模
C、被建模系統(tǒng)內(nèi)在的隨機(jī)性
D、不完全判斷
答案:ABC
19.通過(guò)迭代優(yōu)化來(lái)近似求解的是()
A、學(xué)習(xí)向量量化
B、k均值算法
C、高斯混合聚類
D、以上都不對(duì)
答案:BC
20.計(jì)算機(jī)系統(tǒng)中運(yùn)行在硬件之上的一層是操作系統(tǒng)0S,它控制和管
理著系統(tǒng)硬件,操作系統(tǒng)的功能主要有()。
A、文件管理
B、設(shè)備管理
C、進(jìn)程管理
D、存儲(chǔ)管理
答案:ABCD
21.以下哪幾個(gè)方面屬于華為的全棧AI解決方案?
A、Ascend
B、CANN
C、ModelArts
D、MindSpore
答案:ABCD
22.數(shù)字?jǐn)伾梢栽谝韵履男﹫?chǎng)景應(yīng)用()。
A、基建工程
B、智慧醫(yī)療
C、智慧城市
D、工業(yè)制造
答案:ABCD
23.以下哪種評(píng)估方法受隨機(jī)樣本的影響?
A、交叉驗(yàn)證法
B、自助法
C、留一法
D、流出法
答案:ABD
24.下列關(guān)于極大似然估計(jì)(MaximumLikelihoodEstimate,MLE),說(shuō)
法正確的是
A、如果MLE存在,那么它的解可能不是唯一的
B、如果MLE存在,那么它的解一定是唯一的
C、MLE可能并不存在
D、MLE總是存在
答案:AC
25.假設(shè)檢查的步驟Oo
A、選定統(tǒng)計(jì)方法
B、提出假設(shè)
C、設(shè)定檢驗(yàn)水準(zhǔn)
D、確定檢驗(yàn)假設(shè)成立的可能性P大小并判斷
答案:ABCD
26.數(shù)據(jù)平臺(tái)可以幫助我們進(jìn)行()。
A、數(shù)據(jù)集成
B、數(shù)據(jù)管理
C、數(shù)據(jù)可視化
D、數(shù)據(jù)治理
答案:ABCD
27.Yarn架構(gòu)在Hadoop生態(tài)圈中有哪些作用?
A^隔離
B、調(diào)度
C、計(jì)算
D、資源分配
答案:ABD
28.常用的數(shù)據(jù)歸約方法有()。
A、類歸約
B、維歸約
C、值歸約
D、量歸約
答案:BC
29.如何運(yùn)行一個(gè)shell腳本。
A、chmod+x、/test、sh
/bin/shtest>sh
C、test、sh
D、/test、sh
答案:BD
30.下面哪些是基于核的機(jī)器學(xué)習(xí)算法()
A、徑向基核函數(shù)
B、支持向量機(jī)
C、線性判別分析法
D、最大期望算法
答案:ABC
31.在Python中,執(zhí)行importdatetimeasdt語(yǔ)句后,如下時(shí)間或日
期定義方式正確的是(—)。
A、dt^datetime(2019,0,0,23,23,23))
B、dt>datetime(2019,12,12,23,23,23)
C、dt>time(23,23,23
dt^datetime(2019,12,12,0)
答案:BCD
32.以下技術(shù),BERT使用的包括哪些?()
A、Transformer
B、Sei-Attention模塊
C、RNN循環(huán)連接
D、文本卷積
答案:AB
33.線性回歸的基本假設(shè)有哪些?
A、隨機(jī)誤差項(xiàng)是一個(gè)期望值為0的隨機(jī)變量;
B、對(duì)于解釋變量的所有觀測(cè)值,隨機(jī)誤差項(xiàng)有相同的方差;
C、隨機(jī)誤差項(xiàng)彼此相關(guān);
D、解釋變量是確定性變量不是隨機(jī)變量,與隨機(jī)誤差項(xiàng)之間相互獨(dú)
立;
E、隨機(jī)誤差項(xiàng)服從正態(tài)分布
答案:ABDE
34.下面關(guān)于k近鄰的說(shuō)法,正確的是:
A、根據(jù)特征向量X計(jì)算樣本之間的相似性,選擇離中心點(diǎn)最相似的
k個(gè)樣本
B、k近鄰既可以用于分類,也可以用于回歸
C、k近鄰用于分類時(shí),對(duì)于新的樣本,計(jì)算離其最近的k個(gè)樣本的平
均值,作為新樣本的預(yù)測(cè)值
D、k近鄰用于分類時(shí),對(duì)于新的樣本,根據(jù)其k個(gè)最近鄰樣本的類
別,通過(guò)多數(shù)表決的方式預(yù)測(cè)新樣本的類別
答案:BD
35.以下屬于梯度下降的是
A、BGD
B、SGD
C、Mini-Batch
D、dropout
答案:ABC
36.一般說(shuō)來(lái),人工智能技術(shù)包括
A、人機(jī)交互、生物信息技術(shù)、智能芯片
B、計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理
C、虛擬現(xiàn)實(shí)/增強(qiáng)現(xiàn)實(shí)、機(jī)器人技術(shù)
D、深度學(xué)習(xí)、機(jī)器學(xué)習(xí)
答案:ABCD
37.下面關(guān)于長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)LSTM的描述中,正確的說(shuō)法是哪
些?
A、LSTM中通過(guò)引入輸入門(mén)、遺忘門(mén)、輸出門(mén)解決了RNN中存在的梯
度消失和梯度爆炸
B、LSTM中門(mén)的開(kāi)關(guān)程度是由信息的權(quán)重決定的,即訓(xùn)練過(guò)程中記住
重要信息
C、與RNN相比,LSTM中引入更多參數(shù),所以其訓(xùn)練周期更久
D、LSTM中使用Sigmoid實(shí)現(xiàn)門(mén)限控制,而用TanH實(shí)現(xiàn)數(shù)據(jù)處理
答案:BCD
38.人工智能平臺(tái)功能應(yīng)包括:()。
A、訓(xùn)練運(yùn)行平臺(tái)
B、數(shù)據(jù)庫(kù)
C、模型庫(kù)
D、樣本庫(kù)
答案:ACD
39.樣本庫(kù)功能要求為:數(shù)據(jù)預(yù)處理包括()等。
A、灰度校正
B、特征提取
C、加注標(biāo)簽
D、平滑去噪
答案:ABD
40.以下哪些是屬于人工智能研究領(lǐng)域()
A、圖像識(shí)別
B、語(yǔ)言識(shí)別
C、機(jī)器人
D、專家系統(tǒng)
答案:ABCD
41.關(guān)于神經(jīng)網(wǎng)絡(luò)模型的說(shuō)法,哪些是不止確的()
A、增加神經(jīng)網(wǎng)絡(luò)的層數(shù)和增加每層的神經(jīng)元個(gè)數(shù)的效果是一樣的
B、神經(jīng)網(wǎng)絡(luò)的工作原理與生物體內(nèi)的神經(jīng)元是完全一樣的
C、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的實(shí)質(zhì)是對(duì)復(fù)雜函數(shù)求參數(shù)最優(yōu)解的過(guò)程
D、神經(jīng)網(wǎng)絡(luò)只能進(jìn)行二分類,不能進(jìn)行更多種類的分類了
答案:ABD
42.關(guān)于有向圖模型,說(shuō)法正確的時(shí)()
A、有向圖又稱為貝葉斯網(wǎng)絡(luò)或者信念網(wǎng)絡(luò)
B、網(wǎng)絡(luò)中的邊用有向箭頭表示子節(jié)點(diǎn)依賴于父節(jié)點(diǎn)
C、變量之間的關(guān)系通過(guò)箭頭對(duì)變量進(jìn)行了某種〃拓?fù)洹?/p>
D、在排序條件下,每個(gè)節(jié)點(diǎn)都只依賴和它直接相連的父節(jié)點(diǎn),而不
依賴與所有的前輩節(jié)點(diǎn)
答案:ABCD
43.電力行業(yè)中圖像識(shí)別技術(shù)的主要應(yīng)用包括
A、輸電線路巡檢
B、服務(wù)系統(tǒng)智能問(wèn)答
C、變電站巡檢
D、設(shè)備運(yùn)行監(jiān)測(cè)
答案:A,C,D
44.電力系統(tǒng)缺陷識(shí)別是深度學(xué)習(xí)在電力系統(tǒng)應(yīng)用中的一個(gè)重要組成
部分,下列屬于電力系統(tǒng)缺陷識(shí)別所面臨的挑戰(zhàn)的是()。
A、缺陷尺度跨度較大,小缺陷識(shí)別精度低
B、樣本背景復(fù)雜,角度多變,相互遮擋
C、樣本數(shù)量過(guò)多,難以篩選
D、不同缺陷樣本分布不平衡,低概率缺陷樣本難收集
答案:A,B,D
45.如果以特征向量的相關(guān)系數(shù)作為模式相似性測(cè)度,則影響聚類算
法結(jié)果的主要因素有?
A、已知類別樣本質(zhì)量
B、分類準(zhǔn)則
C、特征選取
D、量綱
答案:B,C
46.可以提高輸電線路智能巡視系統(tǒng)識(shí)別準(zhǔn)確率的方法包含()。
A、多收集輸電線路巡視的樣本
B、提高輸電線路巡視樣木標(biāo)注的質(zhì)量
C、引入更深入的輸電巡檢專家知識(shí)
D、指導(dǎo)無(wú)人機(jī)飛手拍攝更符合規(guī)范的樣本
答案:A,B,C,D
47.按照不同的輸入劃分,文本自動(dòng)生成可包括
A、文本到文本的生成
B、音頻到文本的生成
C、傳感器數(shù)據(jù)到文本的生成
D、圖像到文本的生成
答案:A,B,C,D
48.以下哪些方法可以用于圖像中的目標(biāo)檢測(cè)。
A、R-CNN(RegionswithCNNfeatures)
B、YOLO(YouOn1yLookOnce)
C、FasterR-CNN
D、U-Net
答案:A,B,C
49.機(jī)器學(xué)習(xí)中LI正則化和L2正則化的區(qū)別是?
A、使用L1可以得到稀疏的權(quán)值
B、使用L1可以得到平滑的權(quán)值
C、使用L2可以得到稀疏的權(quán)值
D、使用L2可以得到平滑的權(quán)值
答案:A,D
50.高算力服務(wù)器適用于哪些場(chǎng)景?
A、科學(xué)計(jì)算
B、大型游戲開(kāi)發(fā)
C、企業(yè)辦公自動(dòng)化
D、人工智能研發(fā)
E、個(gè)人網(wǎng)頁(yè)瀏覽
答案:A,B,D
51.下列哪些是常見(jiàn)的算力單位?
A、FLOPS
B、TFLOPS
C、PFLOPS
D、GB
E、MHz
答案:A,B,C
52.以下哪些技術(shù)是國(guó)產(chǎn)AT加速卡在提高環(huán)保和能效方面采用的創(chuàng)
新措施?
A、提高能效比,通過(guò)優(yōu)化芯片架構(gòu)和制程工藝,實(shí)現(xiàn)更高的性能和
更低的能耗
B、采用先進(jìn)制程技術(shù),以減少功耗并提高計(jì)算效率
C、風(fēng)冷技術(shù),通過(guò)自然環(huán)境和條件提高數(shù)據(jù)中心的冷卻效率并減少
能源消耗
D、異構(gòu)計(jì)算,實(shí)現(xiàn)了不同種類芯片的大規(guī)模并行計(jì)算,提升了能效
比
答案:A,B,D
53.在處理大規(guī)模語(yǔ)言模型時(shí),哪種方法可以用于提高模型的推理效
率?
A、剪枝技術(shù)(PruningTechniques)
知識(shí)蒸儲(chǔ)(KnowledgeDistillation)
C、稀疏矩陣技術(shù)(SparseMatrices)
D、增量訓(xùn)練(IncrementalTraining)
答案:A,B,C
54.在配網(wǎng)調(diào)度中應(yīng)用AlforScience(AI4S)時(shí),以下哪些技術(shù)可以
幫助提升電力系統(tǒng)的穩(wěn)定性和可靠性。
A、深度學(xué)習(xí)
B、神經(jīng)網(wǎng)絡(luò)
C、進(jìn)化算法
D、遺傳算法
答案:A,B,C
55.大模型相較于傳統(tǒng)模型具有哪些特征?
A、規(guī)??蓴U(kuò)展性強(qiáng)
B、多任務(wù)適應(yīng)性強(qiáng)
C、能力可塑性強(qiáng)
D、訓(xùn)練速度快
答案:A,B,C
56.變量選擇是用來(lái)選擇最好的判別器子集,如果要考慮模型效率,
我們應(yīng)該做哪些變量選擇的考慮?
A、多個(gè)變量其實(shí)有相同的用處
B、變量對(duì)于模型的解釋有多大作用
C、特征攜帶的信息
D、交叉驗(yàn)證
答案:A,C,D
57.聚類算法常見(jiàn)的性能評(píng)估指標(biāo)有哪些?
A、AdjustRandlndex衡量?jī)蓚€(gè)序列相似性的算法。
B、齊次性和完整性
C、輪廓系數(shù)
答案:ABC
58.以下屬于優(yōu)化器的是
A>Adam
B、SGD
C>Momentum
D、Ir
答案:ABC
59.下列哪些是數(shù)據(jù)預(yù)處理的常用技術(shù)()
A、數(shù)字屬性的缺失值補(bǔ)0
B、LabelEncoder
C、one-hotencoder
D、CountVectorize
答案:ABCD
60.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以
下技術(shù)屬于正則化技術(shù)的是
A、L1正則化
B、L2正則化
C、Dropout
D、動(dòng)量?jī)?yōu)化器
答案:ABC
61.計(jì)算智能的主要研究領(lǐng)域包括()。
A、模糊計(jì)算
B、進(jìn)化計(jì)算
C、神經(jīng)計(jì)算
D、數(shù)字計(jì)算
答案:ABC
62.人工智能平臺(tái)中運(yùn)行()組件、()組件和具有預(yù)標(biāo)注功能的()
組件的服務(wù)器應(yīng)具備獨(dú)立的AI芯片計(jì)算資源。
A、模型
B、訓(xùn)練
C、推理
D、標(biāo)注
答案:BCD
63.模型壓縮的主要方法有哪些?
A、模型蒸播
B、模型剪枝
C、模型參數(shù)量化
D、nan
答案:ABC
64.提供算法模型訓(xùn)練所采用的數(shù)據(jù)集相關(guān)描述,應(yīng)包括但不限于()o
A、推理數(shù)據(jù)集
B、測(cè)試數(shù)據(jù)集
C、訓(xùn)練數(shù)據(jù)集
D、驗(yàn)證數(shù)據(jù)集
答案:BCD
65.關(guān)于OLAP和OLTP的區(qū)別描述,正確的是?
A、OLAP主要是關(guān)于如何理解聚集的大量不同的數(shù)據(jù)、它與OTAP應(yīng)
用程序不同
B、與OLAP應(yīng)用程序不同,OLTP應(yīng)用程序包含大量相對(duì)簡(jiǎn)單的事務(wù)、
C、OLAP的特點(diǎn)在于事務(wù)量大,但事務(wù)內(nèi)容比較簡(jiǎn)單且重復(fù)率高、
D、OLAP是以數(shù)據(jù)倉(cāng)庫(kù)為基礎(chǔ)的,但其最終數(shù)據(jù)來(lái)源與OLTP一樣均來(lái)
自底層的數(shù)據(jù)庫(kù)系統(tǒng),兩者面對(duì)的用戶是相同的、
答案:ABD
66.以下哪些網(wǎng)絡(luò)結(jié)構(gòu)具有反饋連接功能,即將前一層的輸出和當(dāng)前
層自身作為輸入
A、循環(huán)神經(jīng)網(wǎng)絡(luò)
B、LSTM網(wǎng)絡(luò)
C、卷積神經(jīng)網(wǎng)絡(luò)
D、多層感知機(jī)
答案:AB
67.以下哪些是常見(jiàn)的神經(jīng)網(wǎng)絡(luò)()?
A、RBF網(wǎng)絡(luò)
B、RIO網(wǎng)絡(luò)
C、ART網(wǎng)絡(luò)
D、SQM網(wǎng)絡(luò)
E、SOM網(wǎng)絡(luò)
答案:ACE
68.產(chǎn)生式系統(tǒng)的組成部分包括()
A、綜合數(shù)據(jù)庫(kù)
B、控制策略
C、狀態(tài)空間
D、規(guī)則集
答案:ABD
69.人工智能的三大學(xué)派是
A、符號(hào)主義學(xué)派
B、連接主義學(xué)派
C、行為主義學(xué)派
D、統(tǒng)計(jì)主義學(xué)派
答案:ABC
70.驅(qū)動(dòng)深度學(xué)習(xí)的三駕馬車是指?()
A、大算力
B、大模型
C、大應(yīng)用
D、大數(shù)據(jù)
答案:ABD
71.faster-rcnn網(wǎng)絡(luò)每個(gè)位置生成哪幾種比例的anchor?
A、2比2
B、2比1
C、1比1
D、1比2
答案:BCD
72.下列有監(jiān)督學(xué)習(xí)算法中可解決分類問(wèn)題的算法有
A、邏輯回歸
B、支持向量機(jī)
C、線性回歸
D、隨機(jī)森林
答案:ABD
73.通過(guò)繼承創(chuàng)建的新類稱為()。
A、子類
B、父類
C、派生類
D、基類
答案:AC
74.語(yǔ)音識(shí)別的方法()。
A、利用仍神經(jīng)網(wǎng)絡(luò)的方法
B、聲道模型方法
C、語(yǔ)音知識(shí)方法
D、模板匹配的方法
答案:ABCD
75.linux支持的文件系統(tǒng)有?
A、ext3
B、ext4
C、ntfs
D、vfat
答案:ABCD
76.下列哪些模型可以E2E訓(xùn)練()
A、Y0L0v3
B、Y0L0v2
C、RCNN
D、fastRCNN
答案:ABD
77.英語(yǔ)重視哪兩個(gè)問(wèn)題的區(qū)分?0
A、冠詞與數(shù)詞
B、可數(shù)名詞與不可數(shù)名詞
C、單復(fù)數(shù)
D、謂語(yǔ)與非謂語(yǔ)
答案:BC
78.人工智能驅(qū)動(dòng)數(shù)據(jù)安全治理加速向()方向演進(jìn)。
A、自動(dòng)化
B、精準(zhǔn)化
C、高效化
D、智能化
答案:ABCD
79.python中常用模塊有0。
A>random
B、json
C>datetime
D、sys
答案:ABCD
80.兩步聚類的兩個(gè)主要步驟為()。
A、預(yù)聚類
B、測(cè)試
C、聚類
D、建模
答案:AC
81.圖像平滑目的是()。
A、減小突變梯度;
B、使圖像亮度平緩漸變;
C、改善圖像質(zhì)量;
D、突出圖像的窄小區(qū)域
答案:ABC
82.在Python中,令cars=[,bmw','audi','toyota','subaru']運(yùn)行
cars、sort(reverse=True)后,cars的值為();運(yùn)行
sorted(cars,reverse=True)后,cars的值為()
A、['subaru','toyota',‘a(chǎn)udi','bmw']
B、['audi','bmw','subaru','toyota)]
C、['toyota','subaru','bmw',‘a(chǎn)udi']
D、['bmw','audi','toyota','subaru,]
答案:CD
83.卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)上的三大特性:()、()、(),能有效減少網(wǎng)絡(luò)
參數(shù),加快訓(xùn)練速度。
A、上采樣
B、權(quán)重共享
C、下采樣
D、局部連接
答案:BCD
84.決策樹(shù)的生成是一個(gè)遞歸過(guò)程、在決策樹(shù)基本算法中導(dǎo)致遞歸返
回的情況包括()
A、當(dāng)前屬性集為空,無(wú)法劃分
B、當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類別,無(wú)需劃分
C、所有樣本在所有屬性上取值相同,無(wú)法劃分
D、當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分
答案:ABCD
85.常見(jiàn)的聚類算法有()。
A、分層(Hierarchical)聚類
B、兩步(TwoStep)聚類
C、Kohonennetwork
D、KNN算法
E、K平均值(K-means)算法
答案:ABCE
86.根據(jù)整數(shù)和實(shí)數(shù),可以將數(shù)值變量分為()。
A、連續(xù)數(shù)值變量
B、離散數(shù)值變量
C、順序數(shù)值變量
D、名詞性變量
E、順序變量
答案:AB
87.對(duì)現(xiàn)階段人工智能成功的關(guān)鍵要素漣漪效應(yīng)描述正確的是
A、為了達(dá)成漣漪效應(yīng),必須盡可能的獲取產(chǎn)品中的各種數(shù)據(jù);
B、漣漪效應(yīng)通過(guò)記錄產(chǎn)品中生成各類數(shù)據(jù),并將這些數(shù)據(jù)用于優(yōu)化
機(jī)器模型;
C、必須將收集到的原始數(shù)據(jù)全部進(jìn)行高成本的精細(xì)標(biāo)注,加入到模
型訓(xùn)練中去,才能實(shí)現(xiàn)漣漪效應(yīng);
D、搜索引擎中的用戶點(diǎn)擊記錄也是實(shí)現(xiàn)漣漪效應(yīng)的一種方式
答案:ABD
88.圖像邊緣檢測(cè)中常用的邊緣檢測(cè)算子有哪些?
A、Roberts算子
B、Prewitt算子
C、Sobel算子
D、Canny算子
答案:ABCD
89.關(guān)于連接主義,描述正確的是
A、基礎(chǔ)理論是神經(jīng)網(wǎng)絡(luò)
B、產(chǎn)生在20實(shí)際50年代
C、又稱為仿生學(xué)派
D、深度學(xué)習(xí)屬于連接主義
答案:ABCD
90.下列哪些是卷積操作的優(yōu)點(diǎn)?()
A、具有局部感受野
B、操作復(fù)雜度與輸入尺寸無(wú)關(guān)
C、可有效捕捉序列化數(shù)據(jù)的特征
D、對(duì)事物不同部分的觀察之間能實(shí)現(xiàn)參數(shù)共享
答案:AD
91.人工智能技術(shù)可以在()方面與元宇宙技術(shù)相結(jié)合。
A、使用人工智能技術(shù)處理元宇宙產(chǎn)生的海量且復(fù)雜的數(shù)據(jù)。
B、使用人工智能技術(shù)在增強(qiáng)現(xiàn)實(shí)和虛擬現(xiàn)實(shí)中創(chuàng)造更智能、更身臨
其境的世界。
C、使用人工智能解決芯片的計(jì)算能力。
D、使用人工智能技術(shù)來(lái)模仿和取代人類行為。
答案:ABCD
92.下面的Python開(kāi)發(fā)包中,屬于深度學(xué)習(xí)框架的有()
A、Keras
B、Tensorflow
C、Mxnet
D>flask
答案:ABC
93.推進(jìn)人工智能大發(fā)展的因素有()。
A、數(shù)據(jù)井噴
B、算法技術(shù)與模型優(yōu)化
C、產(chǎn)業(yè)效益提升
D、計(jì)算能力突破
答案:ABD
94.機(jī)器學(xué)習(xí)的一般流程包括()
A、模型驗(yàn)證
B、分析案例
C、數(shù)據(jù)獲取
D、模型訓(xùn)練
答案:ABCD
95.以下選項(xiàng)中是Python語(yǔ)言的保留字的是
A、pass
B、while
C、do
DNexcept
答案:ABD
96.關(guān)于Python字典中,正確的是
A、可以使用has_koy()方法來(lái)檢驗(yàn)一個(gè)鍵值對(duì)是否存在&
B、可以使用字典對(duì)象的values。方法可以返回字典的〃值〃
C、可以使用字典對(duì)象的keys。方法可以返回字典的〃鍵〃&
D、可以使用字典對(duì)象的items。方法可以返回字典的〃鍵-值對(duì)〃&
答案:ABCD
97.人工智能的迅速發(fā)展將深刻改變?nèi)祟惿鐣?huì)生活、改變世界,我國(guó)
人工智能發(fā)展三個(gè)階段的目標(biāo)是()
A、2025年部分達(dá)到世界領(lǐng)先水平
B、2020年與世界先進(jìn)水平同步
C、2025年與世界先進(jìn)水平同步
D、2030年總體達(dá)到世界領(lǐng)先水平
答案:ABD
98.已知A、B、C均為m階矩陣,則下列式子一定成立的是()。
A^A+B=B+A
B、AB二BA
C、A(B+C)=AB+AC
D、(A+B)3AA2+2AB+B、2
答案:AC
99.非線性核SVM研究重點(diǎn)是設(shè)計(jì)快速近似算法,包括()
A、低秩逼近
B、隨機(jī)傅里葉特征
C、隨機(jī)分布
D、采樣
答案:ABD
100.()類型的數(shù)據(jù)集不適合用深度學(xué)習(xí)?
A、數(shù)據(jù)集沒(méi)有局部相關(guān)性
B、數(shù)據(jù)集有局部相關(guān)性
C、數(shù)據(jù)集太小
D、數(shù)據(jù)集太大
答案:AC
101.經(jīng)過(guò)全面訓(xùn)練的計(jì)算機(jī)視覺(jué)模型可以開(kāi)展對(duì)象的(),具有更強(qiáng)
大的特征學(xué)習(xí)和表示能力
A、跟蹤
B、檢測(cè)
C、分類
D、識(shí)別
答案:ABCD
102.華為云ModelArts是面向AT開(kāi)發(fā)的一戰(zhàn)式開(kāi)發(fā)平臺(tái),以下哪些
功能在ModelArts上可以具備?
A、數(shù)據(jù)治理
B、AI市場(chǎng)
C、可視化工作流
D、自動(dòng)學(xué)習(xí)
答案:ABCD
103.預(yù)剪枝使得決策樹(shù)的很多分子都沒(méi)有展開(kāi),會(huì)導(dǎo)致()。
A、顯著減少測(cè)試時(shí)間開(kāi)銷
B、降低過(guò)擬合風(fēng)險(xiǎn)
C、提高欠擬合風(fēng)險(xiǎn)
D、顯著減少訓(xùn)練時(shí)間開(kāi)銷
答案:ABCD
104,遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法,包含以下兩種開(kāi)發(fā)方法()。
A、數(shù)據(jù)清洗
B、預(yù)訓(xùn)練模型的方法
C、開(kāi)發(fā)模型的方法
D、似然變換
答案:BC
105.Matplotlib庫(kù)中pyplot的基礎(chǔ)圖標(biāo)函數(shù)包括()。
A^plt^stem(x,y,linefmt,markerfmt)
B、plt^barh(width,bottom,left,height)
C、plt>cohere(x,y,NFFT=256,Fs)
D、plt>bar(left,height,width,bottom)
答案:ABCD
106.One-hot獨(dú)熱編碼有哪些特點(diǎn)?
A、特征稠密
B、詞之間相互獨(dú)立,沒(méi)有順序關(guān)系
C、特征稀疏
D、不能表征詞與詞之間的關(guān)系,one-hot之間正交
答案:BCD
107.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)來(lái)學(xué)習(xí)分類任務(wù)前,應(yīng)優(yōu)先考慮()問(wèn)題。
A、確定輸入層和輸出層的結(jié)點(diǎn)數(shù)目。
B、選擇網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)
C、初始化權(quán)值和偏置
D、去掉有遺漏值的訓(xùn)練樣例,或用最合理的值來(lái)代替
答案:ABCD
108.強(qiáng)化學(xué)習(xí)問(wèn)題的三種方法分別是()
A、基于模型(model-based)
B、基于策略(policy-based)
C、基于價(jià)值(value-based)
D、nan
答案:ABC
109.假設(shè)在卷積操作過(guò)程中,對(duì)于size為3*3的image,如需提取
100個(gè)特征,卷積層需要()個(gè)卷積核,假設(shè)卷積核大小為
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年高考物理“興趣培養(yǎng)”持續(xù)激發(fā)試題
- 工業(yè)技術(shù)考試題及答案
- 工程電路考試題及答案
- 2025湖南衡陽(yáng)市水務(wù)投資集團(tuán)有限公司招聘30人模擬試卷及一套答案詳解
- 研發(fā)創(chuàng)新守信成果轉(zhuǎn)化保證承諾書(shū)(9篇)
- 專屬定制產(chǎn)品唯一性保證承諾書(shū)8篇
- 企業(yè)合同管理流程及模板集
- 2025年高二物理下學(xué)期電路分析與應(yīng)用測(cè)試題
- 2025年丙肝知識(shí)知識(shí)考核試題及答案
- 甘肅電網(wǎng)考試題目及答案
- 介紹錢(qián)三強(qiáng)的
- 大學(xué)美育課件:中國(guó)藝術(shù)美-繪畫(huà)美
- 小學(xué)1-6年級(jí)英語(yǔ)知識(shí)點(diǎn)歸納匯總
- 支氣管炎疾病演示課件
- JCT2217-2014 環(huán)氧樹(shù)脂防水涂料
- 高中英語(yǔ)最全動(dòng)詞不規(guī)則變化表(附檢測(cè)版)
- 《客艙安全管理與應(yīng)急處置》教案 第6課 認(rèn)識(shí)撤離設(shè)備
- 人教版七年級(jí)數(shù)學(xué)上冊(cè)《填幻方》PPT
- 支護(hù)樁錨索施工方案
- 藥品不良反應(yīng)和醫(yī)療器械不良事件監(jiān)測(cè)培訓(xùn)終楊課件
- 海爾人單合一管理模式課件
評(píng)論
0/150
提交評(píng)論