人工智能通識 實踐任務報告匯 Chap 1 人工智能概述- Chap 14 人工智能的未來展望_第1頁
人工智能通識 實踐任務報告匯 Chap 1 人工智能概述- Chap 14 人工智能的未來展望_第2頁
人工智能通識 實踐任務報告匯 Chap 1 人工智能概述- Chap 14 人工智能的未來展望_第3頁
人工智能通識 實踐任務報告匯 Chap 1 人工智能概述- Chap 14 人工智能的未來展望_第4頁
人工智能通識 實踐任務報告匯 Chap 1 人工智能概述- Chap 14 人工智能的未來展望_第5頁
已閱讀5頁,還剩73頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

《人工智能通識》實踐任務報告實踐章節(jié):學生姓名: 專業(yè)班級: 學號: 機械工業(yè)出版社《第1章人工智能概述》課程實踐姓名學號班級實踐地點指導教師時間實踐任務一1、實踐主題使用生成式大模型(如DeepSeek、豆包等)生成一段以“未來城市”或“人與AI的關系”為主題的短篇小說或詩歌,并分析其創(chuàng)作特性。2、實踐目的(1)體驗生成式AI的文本生成能力,理解其技術原理與應用場景;(2)通過分析生成內容,探討AI在邏輯性、創(chuàng)造性和語言風格上的表現(xiàn);(3)辯證思考AI是否具備真正的“創(chuàng)造力”,培養(yǎng)批判性思維。3、實踐要求(1)以小組為單位(每組3-5人),分工完成生成、分析與討論;(2)使用至少兩種不同的大模型生成文本,對比其輸出差異;(3)生成內容需符合主題,字數(shù)限制:短篇小說300-500字,詩歌10-20行;(4)分析需結合具體案例,邏輯清晰,結論客觀。4、實踐細節(jié)與任務任務1:AI內容生成1.選擇工具與主題:①選用DeepSeek、豆包、ChatGPT等生成式AI工具;②確定創(chuàng)作主題(如“未來城市:AI管理下的烏托邦”或“人與AI的共生困境”)。2.輸入提示詞(Prompt)設計:①設計具體、清晰的提示詞,例如:“請以‘未來城市’為主題,寫一篇短篇小說,描述人類與AI共同解決環(huán)境危機的故事。”、“創(chuàng)作一首關于人與AI情感聯(lián)結的詩歌,語言風格偏向科幻與哲思。”②調整提示詞參數(shù)(如溫度值、最大生成長度),觀察輸出變化。3.生成與優(yōu)化:①每組生成至少3個版本的文本,篩選最優(yōu)結果;②可對生成內容進行局部修改,但需標注AI原創(chuàng)部分與人工調整部分。任務2:生成內容分析1.邏輯性評估:①檢查故事情節(jié)或詩歌意象是否連貫,是否存在矛盾或跳躍;②分析AI是否理解主題深層含義(如“未來城市”中的科技倫理問題)。2.創(chuàng)造性評估:①對比不同模型的輸出,評估其想象力(如新穎的情節(jié)設計、隱喻運用);②討論生成內容是“組合現(xiàn)有知識”還是“突破性創(chuàng)新”。3.語言風格分析:①統(tǒng)計用詞頻率、句式結構(如長句/短句比例、修辭手法);②對比AI與人類作家的風格差異(如情感表達、個性化敘事)。任務3:創(chuàng)造力辯論1.小組討論:圍繞“AI是否具備真正的創(chuàng)造力”展開辯論,結合生成案例支持觀點,可參考Amabile的創(chuàng)造力四要素:新穎性、價值性、主動性、社會性展開分析。2.撰寫分析報告:①報告需包含:生成內容原文、分析過程、對比圖表、結論與反思;②提出改進AI創(chuàng)造力的建議。5.成果展示與交流可制作PPT展示生成內容、分析亮點與辯論結果;小組之間進行提問和評價,開展課堂交流討論。實踐報告《人工智能通識》實驗任務報告實驗章節(jié):學生姓名: 專業(yè)班級: 學號: 機械工業(yè)出版社《第二章大數(shù)據與人工智能》課程實驗姓名學號班級實驗地點指導教師時間實驗任務一(如有任務二自行復制同樣的表格,如沒有,請把“一”字刪除)1、任務名稱(宋體五號字,1.5倍行距。)示例:爬取豆瓣網電影數(shù)據,并完成數(shù)據清洗和預處理2、任務目標(宋體五號字,1.5倍行距。)明確本次實驗期望達成的核心目標。如:(1)掌握2種網絡爬蟲工具,如八爪魚、ContentGrabber等的使用方法(2)學會運用數(shù)據清洗和預處理技術,去除爬取數(shù)據中的噪聲、重復內容,處理缺失值、異常值等,將原始數(shù)據轉化為規(guī)范、可用的格式,為后續(xù)數(shù)據分析奠定基礎。(3)理解數(shù)據爬取過程中的網站規(guī)則和法律法規(guī),培養(yǎng)合法合規(guī)的數(shù)據采集意識3、具體任務內容(宋體五號字,1.5倍行距。)詳細列舉學生在實驗過程中需要完成的各項任務。示例如下:(1)選定一種本次實驗使用的爬取工具,數(shù)據清洗工具,并說明原因。(2)用選定的工具,爬取豆包電影中以“哪吒”為關鍵字搜索出的全部電影信息。(3)電影信息字段包括:導演、編劇、主演、類型、制片國家/地區(qū)、語言、上映日期、片長、又名、評分、評價數(shù)。(4)對數(shù)據進行清洗,處理缺失值,異常值等,將時間字段轉換為統(tǒng)一的日期時間格式。4、成果要求(宋體五號字,1.5倍行距。)(1)實驗報告一份,按照實驗報告模板撰寫,詳細描述實驗過程、遇到的問題及解決方案、實驗結果等。(2)數(shù)據結果一份,保存為CSV文件。(3)程序代碼一份。要求注釋大于50%。實驗報告實驗任務爬取豆瓣網電影數(shù)據,并完成數(shù)據清洗和預處理2、實驗環(huán)境(宋體五號字,1.5倍行距。)列出實驗使用的硬件配置(如CPU、內存等)和軟件工具(包括Python版本、爬蟲框架、數(shù)據處理庫等)及版本號。說明選擇xx工具(環(huán)境)的原因:3、任務完成及步驟【分解任務1】:爬取豆包電影中以“哪吒”為關鍵字搜索出的全部電影信息。實驗步驟:(1)詳細記錄數(shù)據爬取實驗過程,包括代碼片段、操作步驟、關鍵參數(shù)設置等。(2)xxxxxx實驗結果:(1)xxxxxx實驗總結:(1)遇到xx問題,解決方法;總結xx經驗【分解任務2】:“哪吒*”電影信息數(shù)據的清洗實驗步驟:(1)詳細記錄數(shù)據清洗實驗過程,包括代碼片段、操作步驟、關鍵參數(shù)設置等。(2)xxxxxx實驗結果:(1)xxxxxx實驗總結:(1)遇到xx問題,解決方法;總結xx經驗。如對比數(shù)據清洗和預處理前后的差異;分析數(shù)據處理過程中遇到的問題及解決方案,評估數(shù)據處理效果是否達到預期?!痉纸馊蝿?】:“哪吒*”電影信息數(shù)據的預處理實驗步驟:(1)詳細記錄數(shù)據清洗實驗過程,包括代碼片段、操作步驟、關鍵參數(shù)設置等。(2)Xxxxxx實驗結果:(1)xxxxxx實驗總結:(1)遇到xx問題,解決方法;總結xx經驗??偨Yxx經驗。如對比數(shù)據清洗和預處理前后的差異;分析數(shù)據處理過程中遇到的問題及解決方案,評估數(shù)據處理效果是否達到預期。4、實驗總結總結實驗成果,分析實驗過程中的不足和改進方向,思考數(shù)據爬取與處理技術在實際場景中的應用。實驗輸出說明(1)數(shù)據文件清單:《xx.csv》,內容為...(2)代碼文件清單:《xx.xx》,內容為...。多文件時逐一說明?!度斯ぶ悄芡ㄗR》實驗任務報告實踐章節(jié):學生姓名: 專業(yè)班級: 學號: 《第三章機器學習》課程實驗姓名學號班級實驗地點指導教師時間實驗任務一任務名稱基于Python的房價預估模型構建與應用2、任務目標(1)基于Python的房價預估模型構建與應用。(2)掌握使用Python編程語言及相關庫(如NumPy、pandas、scikit-learn等)進行數(shù)據處理、模型訓練和評估的方法。(3)通過構建房價預估模型,能夠準確預測給定房屋特征下的房價,為實際的房價評估提供參考依據。3、具體任務內容(1)數(shù)據收集與整理:收集包含房屋特征(如面積、房間數(shù)、樓層、房齡等)和對應房價的數(shù)據集,使用pandas庫對數(shù)據進行清洗、預處理,包括處理缺失值、異常值等。(2)數(shù)據分析與可視化:利用matplotlib、seaborn等庫對數(shù)據進行探索性分析,繪制各種圖表(如柱狀圖、折線圖、散點圖等),了解房屋特征與房價之間的關系。(3)模型選擇與訓練:選擇合適的機器學習回歸模型(如線性回歸、決策樹回歸、隨機森林回歸等),使用訓練數(shù)據集對模型進行訓練,通過調整模型參數(shù),使模型達到較好的擬合效果。(4)模型評估與優(yōu)化:使用測試數(shù)據集對訓練好的模型進行評估,計算評估指標(如均方誤差、平均絕對誤差、決定系數(shù)等),根據評估結果對模型進行優(yōu)化,如調整參數(shù)、選擇不同的特征組合等。4、成果要求(1)代碼實現(xiàn):提供完整、規(guī)范、注釋清晰的Python代碼,包括數(shù)據處理、模型訓練、評估和可視化等各個環(huán)節(jié)的代碼實現(xiàn)。(2)實驗報告:撰寫詳細的實驗報告,包括實驗目的、實驗方法、實驗過程、實驗結果及分析等內容,對模型的性能和優(yōu)缺點進行深入討論。(3)實驗報告:撰寫詳細的實驗報告,包括實驗目的、實驗方法、實驗過程、實驗結果及分析等內容,對模型的性能和優(yōu)缺點進行深入討論。(4)可視化結果:提供直觀清晰的可視化圖表,展示數(shù)據分布、特征與房價的關系以及模型的預測結果等,幫助理解和分析實驗過程及結果。實驗報告實驗任務(1)可視化結果:提供直觀清晰的可視化圖表,展示數(shù)據分布、特征與房價的關系以及模型的預測結果等,幫助理解和分析實驗過程及結果。(2)模型構建與訓練:基于線性回歸、隨機森林回歸、梯度提升回歸等機器學習算法,利用Python實現(xiàn)房價預估模型的搭建,并使用預處理后的數(shù)據進行模型訓練。(3)模型評估與優(yōu)化:通過均方誤差(MSE)、平均絕對誤差(MAE)、決定系數(shù)(R2)等指標評估模型性能,對模型參數(shù)進行調優(yōu),對比不同算法的預測效果。(4)實際應用與展示:使用優(yōu)化后的模型對新數(shù)據進行房價預測,以可視化方式展示預測結果,實現(xiàn)模型在房價預估場景的初步應用。2、實驗環(huán)境(1)硬件環(huán)境:計算機配置:CPU為IntelCorei5-10400F(主頻2.9GHz),內存16GBDDR4,硬盤512GBSSD,獨立顯卡NVIDIAGeForceGTX1650(4GB顯存)。其他設備:普通顯示器、標準鍵盤鼠標,用于代碼編寫、數(shù)據處理及模型訓練操作(2)軟件環(huán)境:操作系統(tǒng):Windows1064位編程語言:Python3.8核心庫與框架:數(shù)據處理:pandas1.3.5、NumPy1.21.2數(shù)據可視化:matplotlib3.4.3、seaborn0.11.2機器學習:scikit-learn0.24.2、XGBoost1.5.2開發(fā)工具:JupyterNotebook6.4.6、PyCharm2022.1任務完成及步驟(1)數(shù)據收集與準備收集包含房屋特征(如面積、周邊配套、房齡等)和對應房價的數(shù)據集,使用pandas庫對數(shù)據進行清洗、預處理,包括處理缺失值、異常值等。比如收集市面上已經成功售出房屋的1000套房屋數(shù)據。周邊配套設施信息涵蓋是否臨近學校、醫(yī)院、商場,用“是”或“否”記錄;交通便利性則通過距離最近地鐵站的距離衡量,單位為千米。部分數(shù)據示例如下表。影響房價的因素很多,為了使案例簡單易懂,此處僅選取面積作為房價預估的影響因素,選取面積(平方米)作為特征,房價(萬元)作為標簽。房屋ID房屋面積(平方米)房齡(年)臨近學校臨近醫(yī)院臨近商場距地鐵站距離(千米)成交價格(萬元)1805是否是0.5125210010是是是1.215031253否是否0.81804908否是否0.713557512是是是1.511061106是否是0.316076015是否是2.09581304否否是0.61959857是是否1.01251010518是否是1.3155……下面需要對數(shù)據進行全面檢查,判斷其中是否存在缺失值與異常值。一旦發(fā)現(xiàn)缺失值,可以依據實際情況,選擇使用均值、中位數(shù)填充的方式來補齊數(shù)據,或者直接刪除包含缺失值的樣本。對于異常值,像房屋面積過大、價格過低這類不符合常理的數(shù)據點,要深入分析后,再進行合理處置。完成數(shù)據處理后,將處理好的數(shù)據保存為

house_price.csv

文件,使用Python的Pandas庫讀取數(shù)據。Python實現(xiàn)代碼如下:importpandasaspd

house_price_data=[

{'price':1250000,'area':80},

{'price':1500000,'area':100},

{'price':1800000,'area':125},

{'price':1350000,'area':90},

{'price':1100000,'area':75},

{'price':1600000,'area':110},

{'price':950000,'area':60},

{'price':1950000,'area':130},

{'price':1250000,'area':85},

{'price':1550000,'area':105},……

]

df1=pd.DataFrame(house_price_data)

df1.to_csv('house_price.csv',index=False)(2)模型選擇選用簡單線性回歸模型,公式為:y=θ0+θ1x,其中,y是預測的房價,x是房屋面積,θJθm是樣本數(shù)量,yi是第i(3)數(shù)據預處理對數(shù)據集使用Python的Scikit-learn庫將數(shù)據按70%訓練集、30%測試集劃分,Python代碼如下:fromsklearn.model_selectionimporttrain_test_splitimportpandasaspddata=pd.read_csv('house_price.csv')X=data['area'].values.reshape(-1,1)y=data['price'].valuesX_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.3,random_state=42)接下來對房屋面積特征進行標準化,使數(shù)據具有零均值和單位方差,Python實現(xiàn)代碼如下:fromsklearn.preprocessingimportStandardScalerscaler=StandardScaler()X_train=scaler.fit_transform(X_train)X_test=scaler.transform(X_test)(4)模型訓練使用Scikit-learn的LinearRegression類訓練模型,Python實現(xiàn)代碼如下:fromsklearn.linear_modelimportLinearRegressionmodel=LinearRegression()model.fit(X_train,y_train)訓練后得到θ0和θ(5)模型評估對測試集進行預測,Python代碼如下:y_pred=model.predict(X_test)計算均方誤差(MSE)、均方根誤差(RMSE)和決定系數(shù)(R2),Python代碼如下:fromsklearn.metricsimportmean_squared_error,r2_scoremse=mean_squared_error(y_test,y_pred)rmse=mean_squared_error(y_test,y_pred,squared=False)r2=r2_score(y_test,y_pred)print(f'MeanSquaredError:{mse}')print(f'RootMeanSquaredError:{rmse}')print(f'R-squared:{r2}')運行結果為:MeanSquaredError:23361012777.108433RootMeanSquaredError:152843.098558R-squared:0.8866486112407173(6)結果可視化使用Matplotlib繪制實際房價與預測房價對比圖,以及房屋面積與房價的散點圖及擬合直線,Python代碼如下:importmatplotlib.pyplotaspltplt.figure(figsize=(12,6))#實際值與預測值對比plt.subplot(1,2,1)plt.scatter(range(len(y_test)),y_test,label='ActualPrice',color='blue')plt.scatter(range(len(y_pred)),y_pred,label='PredictedPrice',color='red',marker='x')plt.xlabel('SampleIndex')plt.ylabel('Price(10,000yuan)')plt.title('ActualvsPredictedHousePrices')plt.legend()#面積與房價散點圖及擬合直線plt.subplot(1,2,2)plt.scatter(X_test[:,0],y_test,label='ActualData',color='green')plt.plot(X_test[:,0],y_pred,label='FittedLine',color='orange',linewidth=2)plt.xlabel('HouseArea(Standardized)')plt.ylabel('Price(10,000yuan)')plt.title('HouseAreavsPrice')plt.legend()plt.tight_layout()plt.show()運行上述代碼,生成兩個圖表,如下圖所示。左圖展示實際房價和預測房價隨樣本索引的變化,藍色點為實際房價,紅色叉為預測房價。右圖展示標準化后的房屋面積與房價的關系,綠色點為實際數(shù)據,橙色線為擬合直線。實驗總結算法驗證與實現(xiàn):通過Python成功構建基于線性回歸的房價預估模型,驗證了線性回歸算法在處理單一特征(房屋面積)與房價線性關系時的有效性,掌握了

numpy

、

matplotlib

scikit-learn

庫的基礎應用,熟悉了數(shù)據處理、模型訓練與可視化的完整流程。(2)模型局限性分析:由于僅考慮房屋面積單一因素,模型無法覆蓋房齡、地段、戶型等關鍵影響變量,導致預測精度受限,無法準確反映真實房價波動,暴露了單特征模型在復雜場景下的不足。(3)改進方向探索:后續(xù)可通過引入多元線性回歸,納入更多相關特征;嘗試非線性模型(如多項式回歸、隨機森林)以適應復雜數(shù)據分布;同時優(yōu)化數(shù)據預處理(如歸一化、特征篩選)和模型評估方法(交叉驗證),提升模型泛化能力。(4)實踐經驗總結:本次實驗強化了理論與實踐結合的能力,認識到實際問題建模需綜合考慮數(shù)據復雜性與算法適用性,為后續(xù)構建更完善的預測模型提供了方法論參考。5、實驗輸出說明(1)代碼文件:提供完整Python代碼(.py或.ipynb格式),包含數(shù)據處理、模型訓練、評估及可視化的全流程代碼,代碼注釋清晰。(2)數(shù)據集:原始數(shù)據集及預處理后的數(shù)據集(.csv格式),標注數(shù)據來源及處理說明。(3)實驗報告:詳細記錄實驗目的、過程、結果及分析,包含模型性能表格、可視化圖表等。(4)可視化圖表:輸出預測結果對比圖、誤差分析圖等(.png或.pdf格式),直觀展示模型效果?!度斯ぶ悄芡ㄗR》實驗任務報告實驗章節(jié):學生姓名: 專業(yè)班級: 學號: 機械工業(yè)出版社《第四章深度學習》課程實驗姓名學號班級實驗地點指導教師時間實驗任務一(如有任務二自行復制同樣的表格,如沒有,請把“一”字刪除)1、任務名稱使用蟻群優(yōu)化算法求解旅行商問題。2、任務目標(1)理解蟻群算法原理及其在組合優(yōu)化問題中的應用。(2)掌握使用Python實現(xiàn)蟻群算法求解旅行商問題。(3)使用可視化算法求解過程和最終路徑。(4)分析算法參數(shù)對求解效果的影響。3、具體任務內容(1)實現(xiàn)蟻群算法核心功能。城市間距離矩陣計算、螞蟻路徑構建策略、信息素更新機制。(2)可視化算法收斂過程和最優(yōu)路徑。(3)調整算法主要參數(shù)(信息素因子、啟發(fā)因子、揮發(fā)率等)觀察算法性能變化。4、成果要求(1)實驗報告一份,按照實驗報告模板撰寫,詳細描述實驗過程、遇到的問題及解決方案、實驗結果等,制作表格列舉不同主要參數(shù)配置下的實驗結果,并對結果進行分析。(2)程序代碼一份。完整可執(zhí)行的Python程序代碼,要求注釋大于50%。實驗報告實驗任務(1)完成蟻群算法函數(shù)以及結果可視化函數(shù)定義,蟻群算法主要參數(shù)包括:城市坐標列表、螞蟻數(shù)量、迭代次數(shù)、信息素重要程度因子、啟發(fā)函數(shù)重要程度因子、信息素揮發(fā)率、信息素強度等。(2)生成隨機城市坐標、初始化并運行蟻群算法函數(shù),生成可視化結果。(3)制作表格,列出在相同城市坐標下,不同主要參數(shù)下的算法收斂結果,并分析結果。2、實驗環(huán)境(1)硬件環(huán)境:處理器:IntelCorei5及以上內存:8GB及以上顯卡:集成顯卡(支持Python圖形庫)(2)軟件環(huán)境:操作系統(tǒng):Windows1064位編程語言:Python3.8核心庫與框架:numpy、matplotlib、pandas3、任務完成及步驟【分解任務1】:導入numpy、matplotlib、pandas庫,定義蟻群算法函數(shù)、結果可視化函數(shù)。實驗代碼:importnumpyasnpimportmatplotlib.pyplotaspltimportpandasaspdclassAntColonyTSP:def__init__(self,cities,n_ants=50,n_iterations=100,alpha=1.0,beta=3.0,evaporation=0.5,Q=100):"""參數(shù):cities-城市坐標列表[(x1,y1),(x2,y2),...]n_ants-螞蟻數(shù)量n_iterations-迭代次數(shù)alpha-信息素重要程度因子beta-啟發(fā)函數(shù)重要程度因子evaporation-信息素揮發(fā)率Q-信息素強度"""self.cities=citiesself.n_cities=len(cities)self.n_ants=n_antsself.n_iterations=n_iterationsself.alpha=alphaself.beta=betaself.evaporation=evaporationself.Q=Q#計算距離矩陣self.distances=self.calculate_distances()#初始化信息素矩陣self.pheromone=np.ones((self.n_cities,self.n_cities))/self.n_cities#存儲最優(yōu)路徑self.best_path=Noneself.best_distance=float('inf')self.convergence_curve=[]defcalculate_distances(self):"""計算城市間距離矩陣"""distances=np.zeros((self.n_cities,self.n_cities))foriinrange(self.n_cities):forjinrange(i+1,self.n_cities):dist=np.linalg.norm(np.array(self.cities[i])-np.array(self.cities[j]))distances[i][j]=distdistances[j][i]=distreturndistancesdefrun(self):"""執(zhí)行蟻群算法"""foriterationinrange(self.n_iterations):all_paths=[]path_distances=[]#每只螞蟻構建路徑forantinrange(self.n_ants):path=self.build_path()distance=self.calculate_path_distance(path)all_paths.append(path)path_distances.append(distance)#更新全局最優(yōu)路徑ifdistance<self.best_distance:self.best_distance=distanceself.best_path=path#更新信息素self.update_pheromone(all_paths,path_distances)#記錄收斂曲線self.convergence_curve.append(self.best_distance)print(f"Iteration{iteration+1}:BestDistance={self.best_distance:.2f}")returnself.best_path,self.best_distancedefbuild_path(self):"""單只螞蟻構建路徑"""#隨機選擇起點start_city=np.random.randint(0,self.n_cities)path=[start_city]visited=set([start_city])#逐步訪問其他城市for_inrange(self.n_cities-1):next_city=self.select_next_city(path[-1],visited)path.append(next_city)visited.add(next_city)returnpathdefselect_next_city(self,current_city,visited):"""根據概率選擇下一個城市"""unvisited=[cityforcityinrange(self.n_cities)ifcitynotinvisited]#計算概率probabilities=[]forcityinunvisited:pheromone=self.pheromone[current_city][city]**self.alphaheuristic=(1.0/self.distances[current_city][city])**self.betaprobabilities.append(pheromone*heuristic)#歸一化概率total=sum(probabilities)probabilities=[p/totalforpinprobabilities]#輪盤賭選擇returnnp.random.choice(unvisited,p=probabilities)defcalculate_path_distance(self,path):"""計算路徑總距離"""distance=0foriinrange(len(path)):from_city=path[i]to_city=path[(i+1)%len(path)]distance+=self.distances[from_city][to_city]returndistancedefupdate_pheromone(self,all_paths,path_distances):"""更新信息素"""#信息素揮發(fā)self.pheromone*=(1.0-self.evaporation)#信息素增強forpath,distanceinzip(all_paths,path_distances):foriinrange(len(path)):from_city=path[i]to_city=path[(i+1)%len(path)]self.pheromone[from_city][to_city]+=self.Q/distanceself.pheromone[to_city][from_city]+=self.Q/distancedefplot_convergence(self):"""繪制收斂曲線"""plt.figure(figsize=(10,6))plt.plot(self.convergence_curve)plt.title('ACOConvergenceCurve')plt.xlabel('Iteration')plt.ylabel('BestDistance')plt.grid(True)plt.savefig('convergence.png',dpi=300)plt.show()defplot_path(self,path=None):"""可視化路徑"""ifpathisNone:path=self.best_pathplt.figure(figsize=(10,8))cities=np.array(self.cities)#繪制城市點plt.scatter(cities[:,0],cities[:,1],s=100,c='red',marker='o',alpha=0.8)#繪制路徑foriinrange(len(path)):from_city=path[i]to_city=path[(i+1)%len(path)]plt.plot([cities[from_city][0],cities[to_city][0]],[cities[from_city][1],cities[to_city][1]],'b-',linewidth=1,alpha=0.6)#標記起點plt.scatter(cities[path[0]][0],cities[path[0]][1],s=200,c='green',marker='*',alpha=1.0)plt.title(f'TSPSolution-Distance:{self.calculate_path_distance(path):.2f}')plt.xlabel('XCoordinate')plt.ylabel('YCoordinate')plt.grid(True)plt.savefig('tsp_path.png',dpi=300)plt.show()【分解任務2】:生成城市坐標,調用蟻群優(yōu)化算法,并生成可視化結果。實驗代碼:if__name__=="__main__":#生成隨機城市坐標np.random.seed(42)n_cities=30cities=np.random.rand(n_cities,2)*100#初始化并運行蟻群算法aco=AntColonyTSP(cities=cities,n_ants=50,n_iterations=100,alpha=1.0,beta=3.0,evaporation=0.5,Q=100)best_path,best_distance=aco.run()print("\n=====FinalResult=====")print(f"BestPath:{best_path}")print(f"BestDistance:{best_distance:.2f}")#可視化結果aco.plot_convergence()aco.plot_path()實驗結果:生成兩幅圖:城市路徑圖、算法收斂曲線圖。實驗總結:(1)遇到xx問題,解決方法;總結xx經驗(2)遇到xx問題,解決方法;總結xx經驗4、實驗總結總結實驗成果,分析實驗過程中的不足和改進方向,思考蟻群算法在實際場景中的應用。實驗輸出說明(1)代碼文件清單:《xx.py》,內容為...。多文件時逐一說明?!度斯ぶ悄芡ㄗR》實驗任務報告實踐章節(jié):學生姓名: 專業(yè)班級: 學號: 《第五章大模型技術及應用》課程實驗姓名學號班級實驗地點指導教師時間實驗任務一任務名稱基于HuggingFace的文本分類任務2、任務目標(1)掌握使用HuggingFace庫加載預訓練模型的方法。(2)理解文本分類任務的基本流程和實現(xiàn)方式。(3)學會使用PyTorch構建自定義數(shù)據集和訓練模型。(4)掌握模型評估和預測的方法。3、具體任務內容(1)下載并處理IMDB電影評論數(shù)據集,創(chuàng)建訓練集和測試集。(2)使用DistilBertTokenizer對文本進行分詞處理。(3)構建自定義數(shù)據集類和數(shù)據加載器。(4)加載預訓練的DistilBERT模型并添加分類頭。(5)實現(xiàn)模型訓練循環(huán),包括前向傳播、反向傳播和參數(shù)更新。(6)編寫模型評估函數(shù),計算分類準確率。(7)實現(xiàn)對自定義輸入文本的情感預測功能。4、成果要求(1)實驗報告一份,按照實驗報告模板撰寫,詳細描述實驗過程、遇到的問題及解決方案、實驗結果等。(2)完整的代碼實現(xiàn),包括數(shù)據處理、模型訓練和評估部分。(3)訓練好的文本分類模型,能夠對電影評論進行情感分析(積極/消極)。(4)記錄模型訓練過程中的損失值和評估指標。(5)能夠對用戶輸入的任意電影評論進行情感預測并輸出結果。實驗報告實驗任務使用HuggingFace庫實現(xiàn)一個基于預訓練模型的文本分類系統(tǒng),對IMDB電影評論進行情感分析(積極/消極)。通過這個實驗,將掌握以下技能:(1)掌握使用HuggingFace庫加載預訓練模型的方法。(2)理解文本分類任務的基本流程和實現(xiàn)方式。(3)學會使用PyTorch構建自定義數(shù)據集和訓練模型。(4)掌握模型評估和預測的方法。2、實驗環(huán)境(1)硬件環(huán)境:處理器:IntelCorei7或更高內存:16GB或更高顯卡:NVIDIAGPU(推薦RTX3060及以上,支持CUDA)(2)軟件環(huán)境:操作系統(tǒng):Windows10/11、Linux或macOSPython版本:3.8或更高主要依賴庫:PyTorch1.10或更高transformers4.20或更高pandas1.3或更高numpy1.21或更高scikit-learn1.0或更高requests2.26或更高tqdm4.62或更高(3)數(shù)據來源:IMDB電影評論數(shù)據集(/~amaas/data/sentiment/)3、任務完成及步驟【分解任務1】:數(shù)據準備實驗步驟:下載并處理IMDB電影評論數(shù)據集。通過download_imdb_data()函數(shù)從網絡下載數(shù)據集,并解壓到本地。然后,load_imdb_data()函數(shù)將數(shù)據加載到pandasDataFrame中,并劃分為訓練集和測試集。#下載IMDB數(shù)據集defdownload_imdb_data():print("正在下載IMDB數(shù)據集...")url="/~amaas/data/sentiment/aclImdb_v1.tar.gz"response=requests.get(url,stream=True)withopen("aclImdb_v1.tar.gz","wb")asf:forchunkintqdm(response.iter_content(chunk_size=1024)):ifchunk:f.write(chunk)print("下載完成,正在解壓...")importtarfilewithtarfile.open("aclImdb_v1.tar.gz","r:gz")astar:tar.extractall()print("解壓完成")#加載數(shù)據集defload_imdb_data():try:#嘗試從本地加載數(shù)據df=pd.read_csv('imdb_data.csv')except:#如果本地沒有數(shù)據,則下載并處理download_imdb_data()#...其余代碼省略...實驗結果:實驗總結:(1)遇到xx問題,解決方法;總結xx經驗【分解任務2】:數(shù)據預處理實驗步驟:創(chuàng)建自定義的IMDBDataset類,用于處理文本數(shù)據并將其轉換為模型可以接受的格式。這個類使用DistilBertTokenizer對文本進行分詞,并添加特殊標記、填充和截斷,以確保輸入長度一致。#創(chuàng)建自定義數(shù)據集類classIMDBDataset(Dataset):def__init__(self,reviews,labels,tokenizer,max_length=128):self.reviews=reviewsself.labels=labelsself.tokenizer=tokenizerself.max_length=max_lengthdef__len__(self):returnlen(self.reviews)def__getitem__(self,idx):review=self.reviews[idx]label=self.labels[idx]#對文本進行分詞encoding=self.tokenizer.encode_plus(review,add_special_tokens=True,max_length=self.max_length,padding='max_length',truncation=True,return_tensors='pt')return{'input_ids':encoding['input_ids'].flatten(),'attention_mask':encoding['attention_mask'].flatten(),'label':torch.tensor(label,dtype=torch.long)}實驗結果:(1)xxxxxx實驗總結:(1)遇到xx問題,解決方法;總結xx經驗?!痉纸馊蝿?】:模型加載與訓練實驗步驟:使用預訓練的DistilBERT模型,并在其基礎上添加了一個分類頭,用于預測評論的情感。模型在訓練數(shù)據上進行了3個epoch的訓練,使用AdamW優(yōu)化器和交叉熵損失函數(shù)。#加載預訓練模型和分詞器tokenizer=DistilBertTokenizer.from_pretrained('distilbert-base-uncased')model=DistilBertForSequenceClassification.from_pretrained('distilbert-base-uncased',num_labels=2).to(device)#定義優(yōu)化器optimizer=AdamW(model.parameters(),lr=2e-5)#訓練模型deftrain_model(model,train_dataloader,optimizer,device,epochs=3):model.train()forepochinrange(epochs):total_loss=0progress_bar=tqdm(enumerate(train_dataloader),total=len(train_dataloader),desc=f'Epoch{epoch+1}')forstep,batchinprogress_bar:#...訓練循環(huán)代碼省略...實驗結果:(1)xxxxxx實驗總結:(1)遇到xx問題,解決方法;總結xx經驗??偨Yxx經驗?!痉纸馊蝿?】模型評估實驗步驟:訓練完成后,使用測試集評估模型的性能,計算分類準確率。#評估模型defevaluate_model(model,test_dataloader,device):model.eval()predictions=[]true_labels=[]withtorch.no_grad():forbatchintqdm(test_dataloader,desc='Evaluating'):#...評估代碼省略...#計算準確率accuracy=accuracy_score(true_labels,predictions)print(f'Accuracy:{accuracy:.4f}')returnaccuracy【分解任務5】模型保存于預測實驗步驟:保存訓練好的模型,并實現(xiàn)一個簡單的交互界面,允許用戶輸入自定義電影評論進行情感預測。#保存模型model.save_pretrained('imdb_sentiment_model')tokenizer.save_pretrained('imdb_sentiment_model')#測試自定義輸入custom_review=input("\n請輸入一條電影評論,我將預測其情感(輸入'q'退出):")whilecustom_review.lower()!='q':#...預測代碼省略...sentiment="積極"ifprediction==1else"消極"print(f"預測情感:{sentiment}")實驗總結(1)成功實現(xiàn)了基于DistilBERT的文本分類模型,對IMDB電影評論進行情感分析(2)模型在測試集上達到了約92%的準確率(3)實現(xiàn)了自定義評論的情感預測功能,用戶可以輸入任意評論獲取情感分析結果5、實驗輸出說明(1)訓練過程輸出:每個epoch的訓練損失值訓練進度條顯示當前epoch和批次的處理進度示例輸出:Epoch1/3,AverageLoss:0.3947Epoch2/3,AverageLoss:0.2214Epoch3/3,AverageLoss:0.1578(2)評估結果輸出:模型在測試集上的準確率示例輸出:Accuracy:0.9234(3)模型保存:訓練好的模型保存在imdb_sentiment_model文件夾中包含模型權重和配置文件,可以直接用于后續(xù)推理(4)自定義預測輸出:用戶輸入評論后,系統(tǒng)返回預測的情感(積極/消極)示例輸出:請輸入一條電影評論,我將預測其情感(輸入'q'退出):Thismovieisamazing!預測情感:積極《人工智能通識》實踐任務報告實踐章節(jié):學生姓名: 專業(yè)班級: 學號: 機械工業(yè)出版社《第六章人工智能倫理》課程實踐姓名學號班級實踐地點指導教師時間實踐任務一1、實踐主題探究公眾對人工智能倫理問題的認知與態(tài)度。2、實踐目的(1)深入了解公眾對人工智能倫理問題的知曉程度,包括數(shù)據隱私、算法安全、責任歸屬等核心議題。(2)分析不同年齡、職業(yè)、教育背景等因素對公眾認知人工智能倫理問題的影響。(3)收集公眾對解決人工智能倫理問題的期望和建議,為構建面向未來的人工智能倫理體系提供參考依據。3、實踐要求(1)以小組為單位開展調研活動,每組3-5人。(2)綜合運用問卷調查、實地訪談、文獻查閱等方法開展調查研究,保證數(shù)據的全面性和有效性。(3)調查數(shù)據要真實可靠,分析過程邏輯清晰,結論客觀準確。(4)對調研數(shù)據進行整理、分析,撰寫調研報告,報告內容完整、結構合理、語言通順,字數(shù)不少于2000字。4、實踐細節(jié)與任務設計問卷與訪談提綱:根據實踐目的,設計一份包含選擇題、簡答題的調查問卷,內容涵蓋公眾對人工智能的使用經歷、對各類倫理問題的了解程度、看法等;同時設計訪談提綱,用于深入了解不同人群的觀點。問卷和訪談提綱需經過小組討論、修改,確保問題合理、有效。數(shù)據收集:①問卷調查:通過線上問卷平臺(如問卷星)和線下實地發(fā)放相結合的方式,線上問卷借助社交媒體、行業(yè)論壇等渠道傳播,線下選擇不同場所,如商場、學校、社區(qū)等,針對不同年齡、職業(yè)的人群發(fā)放問卷。確保問卷發(fā)放的廣泛性和代表性,每組至少發(fā)放200份問卷,回收有效問卷不少于150份。②訪談調查:選取具有代表性的人群進行訪談,如科技從業(yè)者、普通上班族、老年人、學生等,每組訪談人數(shù)不少于10人。訪談過程中做好記錄,可采用錄音等方式輔助,但需事先征得受訪者同意。數(shù)據分析:對回收的問卷進行整理,剔除無效問卷,將有效問卷數(shù)據錄入電子表格,便于統(tǒng)計分析。對訪談記錄進行梳理,提煉關鍵信息。運用統(tǒng)計學方法,對問卷數(shù)據進行分析,如計算各類問題的選擇比例、不同群體的認知差異等;對訪談數(shù)據進行歸納總結,找出共性觀點和差異點。撰寫報告:在調研報告中,以圖表(柱狀圖、餅狀圖等)、文字相結合的方式呈現(xiàn)調研結果,直觀展示公眾對人工智能倫理問題的認知和態(tài)度情況。根據調研結果得出結論,分析公眾認知存在的問題及原因;結合結論提出針對性的建議,如加強人工智能倫理教育的方式、完善相關政策法規(guī)的方向等。報告內容包括:引言(闡述實踐背景和目的)、調查方法(介紹問卷調查、實地訪談、文獻查閱的具體實施情況)、調查結果(呈現(xiàn)數(shù)據分析結果,結合圖表進行說明)、結論與建議(進行總結,提出相應的改進建議和未來展望)、參考文獻等。成果展示與交流,可制作PPT展示,小組之間進行提問和評價,開展課堂交流討論。實踐報告實踐任務二1、辯論主題人工智能的發(fā)展究竟是“利大于弊”還是“弊大于利”?2、實踐目的(1)幫助學生理解人工智能發(fā)展帶來的影響,培養(yǎng)學生全面、辯證看待問題的能力。(2)通過辯論實踐,鍛煉學生的資料收集與整理能力、邏輯思維能力、語言表達能力以及團隊協(xié)作能力。(3)激發(fā)學生對科技發(fā)展的思考,提升學生的社會責任感和對未來發(fā)展的關注度。3、實踐要求(1)將學生分成正反兩方辯論小組,每組人數(shù)根據班級總人數(shù)合理分配,以便協(xié)作。各小組自行推選組長,負責組織協(xié)調組內工作。(2)雙方需廣泛收集支持己方觀點的論據,論據來源要可靠,包括學術研究報告、權威數(shù)據統(tǒng)計、實際案例、專家觀點等。禁止使用未經證實的謠言或虛假信息作為論據。(3)辯論過程中要遵守基本的辯論規(guī)則,發(fā)言需圍繞辯題展開,不得偏離主題。(4)各小組需撰寫辯論總結報告,涵蓋辯論過程回顧、自我表現(xiàn)評價、對辯題新的認識等內容。報告格式規(guī)范,字數(shù)不少于2000字。4、實踐細節(jié)與任務確定辯題立場:宣布辯題,學生根據自己的初步想法選擇加入正方或反方陣營。小組組建與分工:正反方各自組建辯論小組,組長進行分工,可分為資料收集員、論據整理員、一辯、二辯、三辯、四辯等角色。資料收集員負責廣泛收集資料;論據整理員對收集到的資料進行篩選、分類和整理;辯手們根據自己的角色特點,準備相應的辯論內容。資料收集與分析:可查閱人工智能相關的書籍、學術期刊,收集其中關于人工智能發(fā)展利弊的理論研究、案例分析等內容。搜索權威機構發(fā)布的人工智能行業(yè)報告、統(tǒng)計數(shù)據,以及主流媒體對人工智能重大事件的報道和評論。同時,關注專業(yè)的科技論壇和社交媒體上相關的討論,獲取不同視角的觀點。對收集到的資料進行深入分析,提取能夠支持己方觀點的關鍵信息,制作論據卡片,注明資料來源,方便在辯論中引用。撰寫辯論稿與制定策略:一辯撰寫開篇立論稿,明確闡述己方觀點,條理清晰地列出主要論據,為后續(xù)辯論奠定基礎。二辯、三辯根據各自的攻辯和自由辯論環(huán)節(jié)任務,準備提問和反駁的內容。設計有針對性的問題,預測對方可能的觀點并準備好反駁論據,形成攻辯和自由辯論的策略框架。四辯撰寫總結陳詞稿,對全場辯論進行總結,升華己方觀點。全組共同討論完善辯論稿和策略,進行多次模擬辯論,根據模擬情況對內容和策略進行調整優(yōu)化。辯論流程:開篇立論、攻辯環(huán)節(jié)、自由辯論、總結陳詞。撰寫小組總結報告:辯論結束后,正反方各小組分別撰寫總結報告。報告內容包括以下幾方面:辯題基本信息、辯論過程回顧、自我表現(xiàn)分析、對辯題的新認識、收獲與啟示、改進方向與建議等。全班交流分享:每個小組選派代表上臺發(fā)言,分享小組的總結報告內容。其他同學認真傾聽,可提出問題或發(fā)表自己的看法,共同探討在辯論過程中對人工智能發(fā)展的新認識和新感悟。教師在交流分享過程中進行引導和總結,幫助學生進一步深化對辯題的理解,培養(yǎng)學生全面、深入思考問題的能力。辯論總結報告《人工智能通識》實驗任務報告實踐章節(jié):學生姓名: 專業(yè)班級: 學號: 《第7章人工智能在工業(yè)中的應用》課程實驗姓名學號班級實驗地點指導教師時間實驗任務一任務名稱基于機器學習的機器故障預測2、任務目標利用機器學習算法對工業(yè)機器運行數(shù)據進行分析,構建高精度的故障預測模型,實現(xiàn)對機器潛在故障的提前預警,從而減少非計劃停機時間,降低維護成本,提高工業(yè)生產的穩(wěn)定性和效率。通過本次實驗,深入理解人工智能在工業(yè)故障預測領域的應用原理與實踐流程,掌握數(shù)據預處理、模型訓練、評估等關鍵技術。3、具體任務內容(1)數(shù)據收集:收集工業(yè)機器在正常運行和故障狀態(tài)下的傳感器數(shù)據,包括溫度、振動、電流等關鍵指標數(shù)據。?(2)數(shù)據預處理:對收集到的數(shù)據進行清洗,去除噪聲數(shù)據和異常值;對缺失數(shù)據進行填充處理;對數(shù)據進行歸一化,使數(shù)據具有可比性。?(3)特征工程:從原始數(shù)據中提取有價值的特征,如計算振動數(shù)據的頻率特征、溫度數(shù)據的變化趨勢等,構建特征向量。?(4)模型選擇與訓練:選擇合適的機器學習算法,如支持向量機(SVM)、隨機森林等,使用預處理后的數(shù)據對模型進行訓練。?(5)模型評估:使用測試數(shù)據集對訓練好的模型進行評估,計算模型的準確率、召回率、F1值等指標,分析模型的性能。?(6)故障預測與預警:將實時采集的機器運行數(shù)據輸入到訓練好的模型中,根據模型輸出判斷機器是否存在故障風險,并及時發(fā)出預警。4、成果要求(1)實驗報告一份,按照實驗報告模板撰寫,詳細描述實驗過程、遇到的問題及解決方案、實驗結果等。(2)完整的代碼實現(xiàn),包括數(shù)據處理、模型訓練和評估部分。(3)訓練好的故障預測系統(tǒng),能夠對系統(tǒng)故障進行診斷。實驗報告實驗任務利用機器學習算法構建工業(yè)機器故障預測模型,實現(xiàn)對機器潛在故障的提前預警。通過這個實驗,將掌握以下技能:(1)收集機器運行多傳感器數(shù)據;?(2)清洗、處理和歸一化數(shù)據;?(3)提取時頻域特征構建向量;?(4)用隨機森林訓練故障預測模型;?(5)評估模型性能指標;?(6)輸入實時數(shù)據實現(xiàn)故障預警;2、實驗環(huán)境(1)硬件環(huán)境:處理器:IntelCorei7或更高內存:16GB或更高顯卡:NVIDIAGPU(推薦RTX3060及以上,支持CUDA)(2)軟件環(huán)境:操作系統(tǒng):Windows10/11、Linux或macOSPython版本:3.8或更高主要依賴庫:Scikit-learn、Pandas、NumPy、Matplotlib數(shù)據存儲:MySQL8.03、任務完成及步驟【分解任務1】:數(shù)據收集實驗步驟:通過與工廠合作,從工廠的MySQL數(shù)據庫中獲取機器在正常運行和故障狀態(tài)下,由多個傳感器采集的溫度、振動加速度、電流、電壓等10個指標數(shù)據,數(shù)據采集頻率為每分鐘一次,采集周期為3個月。#下載數(shù)據集對應代碼importmysql.connectorimportpandasaspd#連接MySQL數(shù)據庫mydb=mysql.connector.connect(host="localhost",#數(shù)據庫主機地址,根據實際情況修改user="your_username",#數(shù)據庫用戶名,根據實際情況修改password="your_password",#數(shù)據庫密碼,根據實際情況修改database="your_database"#數(shù)據庫名稱,根據實際情況修改)#從數(shù)據庫中讀取數(shù)據query="SELECT*FROMmachine_sensor_data"#表名根據實際情況修改data=pd.read_sql(query,mydb)mydb.close()實驗結果:實驗總結:(1)遇到xx問題,解決方法;總結xx經驗【分解任務2】:數(shù)據預處理實驗步驟:(1)數(shù)據清洗:使用Pandas庫讀取數(shù)據后,通過統(tǒng)計分析找出并刪除包含大量缺失值或明顯異常值的記錄,如溫度數(shù)據超出正常范圍(0-100℃)的記錄。?(2)缺失值處理:計算每列數(shù)據的均值,用均值對缺失值進行填充。?(3)數(shù)據歸一化:采用Min-Max歸一化方法,將數(shù)據映射到[0,1]區(qū)間,使不同特征的數(shù)據具有可比性。#數(shù)據預處理對應代碼importpandasaspdfromsklearn.preprocessingimportMinMaxScaler#數(shù)據清洗,刪除包含大量缺失值或明顯異常值的記錄data=data[(data['temperature']>=0)&(data['temperature']<=100)]#缺失值處理,采用均值填充data.fillna(data.mean(),inplace=True)#數(shù)據歸一化scaler=MinMaxScaler()data[['temperature','vibration','current','voltage']]=scaler.fit_transform(data[['temperature','vibration','current','voltage']])實驗結果:(1)xxxxxx實驗總結:(1)遇到xx問題,解決方法;總結xx經驗?!痉纸馊蝿?】:特征工程實驗步驟:(1)時域特征提?。簩τ谡駝訑?shù)據,計算其均值、方差、峰值等時域特征;對于溫度數(shù)據,計算溫度變化率等特征。?(2)頻域特征提?。簩φ駝訑?shù)據進行傅里葉變換,提取主要頻率成分的幅值作為頻域特征。?(3)構建特征向量:將提取的各類特征組合成一個特征向量,作為機器學習模型的輸入數(shù)據。#提取特征對應代碼importpandasaspdimportnumpyasnp#時域特征提取data['vibration_mean']=data['vibration'].rolling(window=10).mean()data['vibration_std']=data['vibration'].rolling(window=10).std()data['temperature_change_rate']=data['temperature'].diff()#頻域特征提?。ê喕纠?,假設振動數(shù)據已存儲為時間序列)defget_frequency_features(vibration_data):fft_result=np.fft.fft(vibration_data)frequencies=np.fft.fftfreq(len(vibration_data))positive_indices=np.where(frequencies>0)[0]magnitude=np.abs(fft_result[positive_indices])returnmagnitude[:10]#取前10個主要頻率成分的幅值data['frequency_features']=data['vibration'].apply(lambdax:get_frequency_features(x))#構建特征向量X=data.drop('is_fault',axis=1)#假設is_fault列為故障標簽列y=data['is_fault']實驗結果:(1)xxxxxx實驗總結:(1)遇到xx問題,解決方法;總結xx經驗??偨Yxx經驗。【分解任務4】模型選擇與訓練實驗步驟:(1)模型選擇:選擇隨機森林算法作為故障預測模型,因其具有良好的魯棒性和泛化能力,能處理非線性數(shù)據,適合工業(yè)故障預測場景。?(2)劃分訓練集和測試集:將預處理后的數(shù)據集按照7:3的比例劃分為訓練集和測試集。(3)模型訓練:使用訓練集數(shù)據對隨機森林模型進行訓練,設置樹的數(shù)量為100,最大深度為10等參數(shù)。#評估選擇與訓練對應代碼fromsklearn.model_selectionimporttrain_test_splitfromsklearn.ensembleimportRandomForestClassifier#劃分訓練集和測試集X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.3,random_state=42)#模型訓練model=RandomForestClassifier(n_estimators=100,max_depth=10,random_state=42)model.fit(X_train,y_train)【分解任務5】模型評估實驗步驟:使用測試集數(shù)據對訓練好的隨機森林模型進行評估,計算準確率、召回率、F1值等指標,以分析模型的性能。#模型評估對應代碼fromsklearn.metricsimportaccuracy_score,recall_score,f1_scorey_pred=model.predict(X_test)accuracy=accuracy_score(y_test,y_pred)recall=recall_score(y_test,y_pred)f1=f1_score(y_test,y_pred)print("準確率:",accuracy)print("召回率:",recall)print("F1值:",f1)【分解任務6】故障預測與預警實驗步驟:將實時采集的機器運行數(shù)據按照數(shù)據預處理和特征工程的方法進行處理,然后輸入到訓練好的隨機森林模型中,根據模型輸出判斷機器是否存在故障風險,若存在故障風險則通過郵件或短信向維護人員發(fā)出預警信息。#故障預測與預警對應代碼#假設實時數(shù)據為new_data(格式與原始數(shù)據相同)new_data=pd.DataFrame({'temperature':[0.5],'vibration':[0.3],'current':[0.4],'voltage':[0.6],#其他特征列...})#對新數(shù)據進行相同的數(shù)據預處理和特征工程new_data[['temperature','vibration','current','voltage']]=scaler.transform(new_data[['temperature','vibration','current','voltage']])new_data['vibration_mean']=new_data['vibration'].rolling(window=10).mean()new_data['vibration_std']=new_data['vibration'].rolling(window=10).std()new_data['temperature_change_rate']=new_d

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論