2025年人工智能與機(jī)器學(xué)習(xí)基礎(chǔ)測(cè)試試卷及答案_第1頁(yè)
2025年人工智能與機(jī)器學(xué)習(xí)基礎(chǔ)測(cè)試試卷及答案_第2頁(yè)
2025年人工智能與機(jī)器學(xué)習(xí)基礎(chǔ)測(cè)試試卷及答案_第3頁(yè)
2025年人工智能與機(jī)器學(xué)習(xí)基礎(chǔ)測(cè)試試卷及答案_第4頁(yè)
2025年人工智能與機(jī)器學(xué)習(xí)基礎(chǔ)測(cè)試試卷及答案_第5頁(yè)
已閱讀5頁(yè),還剩9頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2025年人工智能與機(jī)器學(xué)習(xí)基礎(chǔ)測(cè)試試卷及答案一、單項(xiàng)選擇題(每題2分,共20分)1.以下哪項(xiàng)不是監(jiān)督學(xué)習(xí)的典型任務(wù)?A.圖像分類(LabeledImages)B.情感分析(標(biāo)注的文本情感)C.客戶分群(無(wú)標(biāo)注的用戶行為數(shù)據(jù))D.房?jī)r(jià)預(yù)測(cè)(帶標(biāo)簽的房屋特征數(shù)據(jù))2.在邏輯回歸模型中,若輸出層使用sigmoid激活函數(shù),則模型假設(shè)樣本屬于正類的概率為:A.\(P(y=1|x)=\frac{1}{1+e^{-(\omega^Tx+b)}}\)B.\(P(y=1|x)=\frac{e^{\omega^Tx+b}}{1+e^{\omega^Tx+b}}\)C.\(P(y=1|x)=\max(0,\omega^Tx+b)\)D.A和B均正確3.以下哪種方法最適合解決過(guò)擬合問(wèn)題?A.增加訓(xùn)練數(shù)據(jù)量B.減少模型參數(shù)數(shù)量C.添加L2正則化項(xiàng)D.以上都是4.決策樹中,信息增益的計(jì)算基于:A.父節(jié)點(diǎn)的熵減去子節(jié)點(diǎn)的條件熵B.子節(jié)點(diǎn)的條件熵減去父節(jié)點(diǎn)的熵C.父節(jié)點(diǎn)的基尼系數(shù)減去子節(jié)點(diǎn)的平均基尼系數(shù)D.子節(jié)點(diǎn)的基尼系數(shù)減去父節(jié)點(diǎn)的基尼系數(shù)5.支持向量機(jī)(SVM)的核心思想是:A.最小化訓(xùn)練誤差B.最大化分類間隔C.最小化預(yù)測(cè)誤差的絕對(duì)值D.通過(guò)核函數(shù)將數(shù)據(jù)映射到高維空間后線性可分6.以下哪項(xiàng)不是無(wú)監(jiān)督學(xué)習(xí)的應(yīng)用?A.主題模型(LDA)發(fā)現(xiàn)文本隱含主題B.K-means聚類用戶行為C.異常檢測(cè)(基于正常數(shù)據(jù)分布)D.用帶標(biāo)簽數(shù)據(jù)訓(xùn)練的圖像分割模型7.在梯度下降中,“學(xué)習(xí)率”的作用是:A.控制參數(shù)更新的步長(zhǎng)B.決定模型的復(fù)雜度C.防止梯度消失D.加速收斂到全局最優(yōu)8.以下關(guān)于交叉驗(yàn)證的描述錯(cuò)誤的是:A.留一法(LOOCV)的計(jì)算成本較高B.K折交叉驗(yàn)證的K值越大,偏差越小C.交叉驗(yàn)證用于評(píng)估模型的泛化能力D.交叉驗(yàn)證可以完全消除過(guò)擬合9.深度學(xué)習(xí)中,ReLU激活函數(shù)的主要優(yōu)點(diǎn)是:A.避免梯度爆炸B.緩解梯度消失C.輸出均值為0,加速訓(xùn)練D.計(jì)算復(fù)雜度低10.對(duì)于時(shí)間序列預(yù)測(cè)任務(wù),最適合的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)是:A.卷積神經(jīng)網(wǎng)絡(luò)(CNN)B.循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)C.多層感知機(jī)(MLP)D.自編碼器(Autoencoder)二、填空題(每空2分,共20分)1.機(jī)器學(xué)習(xí)模型的泛化能力是指模型對(duì)________數(shù)據(jù)的預(yù)測(cè)能力。2.線性回歸的損失函數(shù)通常采用________(填寫具體名稱)。3.隨機(jī)森林是________(填寫“集成學(xué)習(xí)”或“強(qiáng)化學(xué)習(xí)”)的一種實(shí)現(xiàn),通過(guò)________(填寫“Bagging”或“Boosting”)方法構(gòu)建多個(gè)決策樹。4.梯度下降的三種變體中,________(填寫名稱)每次僅用一個(gè)樣本計(jì)算梯度,________(填寫名稱)用全部樣本計(jì)算梯度。5.神經(jīng)網(wǎng)絡(luò)中,批量歸一化(BatchNormalization)的主要作用是________。6.在K近鄰(KNN)算法中,當(dāng)K過(guò)小時(shí),模型容易________(填寫“過(guò)擬合”或“欠擬合”);當(dāng)K過(guò)大時(shí),模型容易________(填寫“過(guò)擬合”或“欠擬合”)。7.生成對(duì)抗網(wǎng)絡(luò)(GAN)由________和________兩個(gè)網(wǎng)絡(luò)組成,通過(guò)對(duì)抗訓(xùn)練學(xué)習(xí)數(shù)據(jù)分布。三、簡(jiǎn)答題(每題6分,共30分)1.解釋“偏差-方差權(quán)衡”(Bias-VarianceTradeoff)的含義,并說(shuō)明其對(duì)模型選擇的指導(dǎo)意義。2.對(duì)比隨機(jī)梯度下降(SGD)與批量梯度下降(BGD)的優(yōu)缺點(diǎn)。3.簡(jiǎn)述支持向量機(jī)(SVM)中核函數(shù)的作用,并列舉兩種常用核函數(shù)。4.什么是欠擬合?如何判斷模型是否欠擬合?可以采取哪些措施緩解?5.說(shuō)明混淆矩陣中TruePositive(TP)、FalsePositive(FP)、TrueNegative(TN)、FalseNegative(FN)的含義,并寫出精確率(Precision)和召回率(Recall)的計(jì)算公式。四、計(jì)算題(每題10分,共30分)1.假設(shè)有一個(gè)二分類問(wèn)題,訓(xùn)練數(shù)據(jù)包含3個(gè)樣本:-樣本1:特征x=[1,2],標(biāo)簽y=1-樣本2:特征x=[3,4],標(biāo)簽y=0-樣本3:特征x=[2,1],標(biāo)簽y=1假設(shè)邏輯回歸模型的參數(shù)為\(\omega=[0.5,-0.3]\),偏置b=0.1。計(jì)算樣本2屬于正類的概率(保留3位小數(shù)),并判斷模型對(duì)樣本2的預(yù)測(cè)標(biāo)簽(閾值為0.5)。2.某數(shù)據(jù)集的類別分布為:正類(Class1)有6個(gè)樣本,負(fù)類(Class0)有4個(gè)樣本。現(xiàn)考慮用特征A進(jìn)行分裂,分裂后左子節(jié)點(diǎn)包含正類4個(gè)、負(fù)類1個(gè),右子節(jié)點(diǎn)包含正類2個(gè)、負(fù)類3個(gè)。計(jì)算該分裂的信息增益(熵的計(jì)算以2為底)。3.給定二維線性可分?jǐn)?shù)據(jù)集:正類樣本點(diǎn)(1,2)、(2,3),負(fù)類樣本點(diǎn)(0,1)、(1,0)。假設(shè)支持向量機(jī)(SVM)的決策邊界為\(w_1x_1+w_2x_2+b=0\),且已知支持向量為(1,2)和(1,0)。計(jì)算最大分類間隔的寬度。五、綜合應(yīng)用題(20分)假設(shè)你需要設(shè)計(jì)一個(gè)基于機(jī)器學(xué)習(xí)的用戶點(diǎn)擊預(yù)測(cè)模型(輸入為用戶年齡、性別、歷史點(diǎn)擊次數(shù)、頁(yè)面停留時(shí)間,輸出為是否點(diǎn)擊目標(biāo)廣告),請(qǐng)?jiān)敿?xì)描述以下步驟:(1)數(shù)據(jù)預(yù)處理的關(guān)鍵步驟及原因;(2)模型選擇(至少列舉2種模型并說(shuō)明理由);(3)訓(xùn)練過(guò)程中的優(yōu)化策略(如損失函數(shù)、優(yōu)化器選擇);(4)模型評(píng)估指標(biāo)的選擇及原因。答案一、單項(xiàng)選擇題1.C(客戶分群屬于無(wú)監(jiān)督學(xué)習(xí))2.D(sigmoid函數(shù)的兩種等價(jià)表達(dá)式)3.D(增加數(shù)據(jù)、簡(jiǎn)化模型、正則化均能緩解過(guò)擬合)4.A(信息增益=父節(jié)點(diǎn)熵-子節(jié)點(diǎn)條件熵)5.B(SVM核心是最大化分類間隔)6.D(帶標(biāo)簽的圖像分割屬于監(jiān)督學(xué)習(xí))7.A(學(xué)習(xí)率控制參數(shù)更新步長(zhǎng))8.D(交叉驗(yàn)證評(píng)估泛化能力,但無(wú)法完全消除過(guò)擬合)9.B(ReLU緩解梯度消失,計(jì)算簡(jiǎn)單)10.B(RNN適合處理序列數(shù)據(jù))二、填空題1.未見過(guò)的(或“新的”“測(cè)試”)2.均方誤差(MSE)3.集成學(xué)習(xí);Bagging4.隨機(jī)梯度下降(SGD);批量梯度下降(BGD)5.減少內(nèi)部協(xié)變量偏移,加速訓(xùn)練6.過(guò)擬合;欠擬合7.生成器(Generator);判別器(Discriminator)三、簡(jiǎn)答題1.偏差-方差權(quán)衡指模型誤差由偏差(模型對(duì)真實(shí)關(guān)系的近似誤差)和方差(模型對(duì)訓(xùn)練數(shù)據(jù)波動(dòng)的敏感程度)共同組成。偏差高的模型(如線性模型)易欠擬合,方差高的模型(如復(fù)雜決策樹)易過(guò)擬合。模型選擇時(shí)需在偏差和方差間平衡,例如通過(guò)調(diào)整模型復(fù)雜度(如決策樹深度、正則化參數(shù))找到泛化誤差最小的點(diǎn)。2.SGD每次用1個(gè)樣本計(jì)算梯度,優(yōu)點(diǎn)是計(jì)算快、適合大規(guī)模數(shù)據(jù),容易跳出局部最優(yōu);缺點(diǎn)是梯度波動(dòng)大,收斂不穩(wěn)定。BGD用全部樣本計(jì)算梯度,優(yōu)點(diǎn)是梯度估計(jì)準(zhǔn)確,收斂穩(wěn)定;缺點(diǎn)是計(jì)算成本高,不適合大樣本,可能陷入局部最優(yōu)。3.核函數(shù)的作用是將低維不可分?jǐn)?shù)據(jù)映射到高維空間,使其線性可分,同時(shí)避免顯式計(jì)算高維特征。常用核函數(shù):線性核(\(K(x,z)=x^Tz\))、多項(xiàng)式核(\(K(x,z)=(x^Tz+c)^d\))、高斯核(\(K(x,z)=\exp(-\gamma\|x-z\|^2)\))。4.欠擬合指模型無(wú)法捕捉數(shù)據(jù)的復(fù)雜模式,訓(xùn)練誤差和測(cè)試誤差均較高。判斷方法:訓(xùn)練集和測(cè)試集的誤差都很大且接近。緩解措施:增加模型復(fù)雜度(如增加神經(jīng)網(wǎng)絡(luò)層數(shù))、減少正則化強(qiáng)度、特征工程(添加高階特征)。5.TP:真實(shí)正類被預(yù)測(cè)為正類;FP:真實(shí)負(fù)類被預(yù)測(cè)為正類;TN:真實(shí)負(fù)類被預(yù)測(cè)為負(fù)類;FN:真實(shí)正類被預(yù)測(cè)為負(fù)類。精確率\(Precision=\frac{TP}{TP+FP}\),召回率\(Recall=\frac{TP}{TP+FN}\)。四、計(jì)算題1.樣本2的特征x=[3,4],代入邏輯回歸模型:\(z=\omega^Tx+b=0.5×3+(-0.3)×4+0.1=1.5-1.2+0.1=0.4\)\(P(y=1|x)=\frac{1}{1+e^{-z}}=\frac{1}{1+e^{-0.4}}≈0.599\)(保留3位小數(shù))。概率0.599>0.5,預(yù)測(cè)標(biāo)簽為1。2.父節(jié)點(diǎn)熵\(H(D)=-(\frac{6}{10}\log_2\frac{6}{10}+\frac{4}{10}\log_2\frac{4}{10})≈-[0.6×(-0.737)+0.4×(-1.322)]≈0.971\)。左子節(jié)點(diǎn)熵\(H(D1)=-(\frac{4}{5}\log_2\frac{4}{5}+\frac{1}{5}\log_2\frac{1}{5})≈-[0.8×(-0.322)+0.2×(-2.322)]≈0.722\)。右子節(jié)點(diǎn)熵\(H(D2)=-(\frac{2}{5}\log_2\frac{2}{5}+\frac{3}{5}\log_2\frac{3}{5})≈-[0.4×(-1.322)+0.6×(-0.737)]≈0.971\)。條件熵\(H(D|A)=\frac{5}{10}H(D1)+\frac{5}{10}H(D2)=0.5×0.722+0.5×0.971≈0.846\)。信息增益\(Gain(A)=H(D)-H(D|A)≈0.971-0.846=0.125\)。3.支持向量到?jīng)Q策邊界的距離為\(\frac{1}{\|w\|}\),最大間隔為\(\frac{2}{\|w\|}\)。支持向量(1,2)代入決策邊界滿足\(w_1×1+w_2×2+b=1\)(正類間隔邊界),(1,0)代入滿足\(w_1×1+w_2×0+b=-1\)(負(fù)類間隔邊界)。聯(lián)立方程:\(w_1+2w_2+b=1\)\(w_1+b=-1\)相減得\(2w_2=2→w_2=1\),代入第二個(gè)方程得\(w_1+b=-1→b=-1-w_1\)。任意正類樣本(2,3)應(yīng)滿足\(w_1×2+w_2×3+b≥1\),代入\(w_2=1\)和\(b=-1-w_1\)得:\(2w_1+3×1+(-1-w_1)≥1→w_1+2≥1→w_1≥-1\)。同理,負(fù)類樣本(0,1)應(yīng)滿足\(w_1×0+w_2×1+b≤-1\),代入得\(1+(-1-w_1)≤-1→-w_1≤-1→w_1≥1\)。因此\(w_1=1\)(取等號(hào)時(shí)為支持向量),則\(w=[1,1]\),\(\|w\|=\sqrt{1^2+1^2}=\sqrt{2}\),最大間隔為\(\frac{2}{\sqrt{2}}=\sqrt{2}\)。五、綜合應(yīng)用題(1)數(shù)據(jù)預(yù)處理步驟:-缺失值處理:用戶年齡、停留時(shí)間可能存在缺失,可用均值/中位數(shù)填充(數(shù)值型)或眾數(shù)填充(類別型如性別),避免模型訓(xùn)練時(shí)出錯(cuò)。-特征編碼:性別(類別型)用獨(dú)熱編碼(One-Hot)轉(zhuǎn)換為數(shù)值,避免模型誤判順序關(guān)系。-特征標(biāo)準(zhǔn)化:年齡、歷史點(diǎn)擊次數(shù)、停留時(shí)間的量綱不同,用Z-score標(biāo)準(zhǔn)化(\(x'=(x-μ)/σ\))使特征分布一致,加速梯度下降收斂。-異常值檢測(cè):通過(guò)箱線圖或3σ原則識(shí)別異常停留時(shí)間(如超過(guò)均值3倍標(biāo)準(zhǔn)差),修正或剔除,防止模型被異常值誤導(dǎo)。(2)模型選擇:-邏輯回歸(LR):線性模型,計(jì)算效率高,可解釋性強(qiáng)(系數(shù)表示特征重要性),適合初步基線模型。-梯度提升樹(XGBoost):集成模型,能捕捉特征間非線性關(guān)系,對(duì)小樣本和混合類型數(shù)據(jù)(數(shù)值+類別)魯棒性強(qiáng),通常在點(diǎn)擊率預(yù)測(cè)任務(wù)中表現(xiàn)優(yōu)異。(3)訓(xùn)練優(yōu)化策略:-損失函數(shù):選擇對(duì)數(shù)損失(LogLoss),因任務(wù)是二分類,對(duì)數(shù)損失與邏輯回歸的極大似然估計(jì)一致,能有效衡量概率預(yù)測(cè)的準(zhǔn)確性。-優(yōu)化器:LR用隨機(jī)梯度下降(SGD)或Adam(自適應(yīng)學(xué)習(xí)率),XGBoost用內(nèi)置的梯度提升優(yōu)化算法,自動(dòng)處理樹的分裂和正則化(如L1/L2正

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論