人工智能+汽車技術(shù)與應(yīng)用(高職汽車類專業(yè)通)教案 6.1.1人工智能帶來的倫理挑戰(zhàn)_第1頁
人工智能+汽車技術(shù)與應(yīng)用(高職汽車類專業(yè)通)教案 6.1.1人工智能帶來的倫理挑戰(zhàn)_第2頁
人工智能+汽車技術(shù)與應(yīng)用(高職汽車類專業(yè)通)教案 6.1.1人工智能帶來的倫理挑戰(zhàn)_第3頁
人工智能+汽車技術(shù)與應(yīng)用(高職汽車類專業(yè)通)教案 6.1.1人工智能帶來的倫理挑戰(zhàn)_第4頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

-PAGE1-湖北交通職業(yè)技術(shù)學(xué)院備課紙教學(xué)主題6.1倫理、法規(guī)與標(biāo)準(zhǔn)6.1.1人工智能帶來的倫理挑戰(zhàn)授課日期班次授課節(jié)次學(xué)時1教學(xué)目標(biāo)(能力、知識、素質(zhì))知識目標(biāo):掌握AI倫理的五大核心挑戰(zhàn)(數(shù)據(jù)隱私、算法偏見、責(zé)任歸屬、深度偽造、就業(yè)替代),理解每類挑戰(zhàn)的技術(shù)根源與社會影響。能力目標(biāo):能結(jié)合實際案例分析AI產(chǎn)品的倫理風(fēng)險,具備“技術(shù)設(shè)計時預(yù)判倫理問題”的初步思維。素質(zhì)目標(biāo):樹立“負(fù)責(zé)任的AI開發(fā)者”意識,認(rèn)識到“好技術(shù)不僅要‘能用’,更要‘向善’”。教學(xué)方法案例教學(xué)法、情景模擬法、小組辯論法(用真實事件讓學(xué)生“代入角色”,避免純理論說教)。參考書及教具《人工智能+汽車技術(shù)與應(yīng)用》重點與難點重點:五大倫理挑戰(zhàn)的核心表現(xiàn)+典型案例(如Facebook劍橋分析事件、亞馬遜AI招聘歧視)。難點:理解“技術(shù)中立性”的誤區(qū)(算法并非絕對客觀),以及“技術(shù)優(yōu)化”與“倫理合規(guī)”的平衡邏輯。教學(xué)過程(時間安排等)(一)課程導(dǎo)入:從“你刷到的‘假明星’說起”(3分鐘)先問大家一個問題:有沒有刷到過“周杰倫說要退出歌壇”“楊冪吐槽某綜藝”的視頻,點開一看覺得不像本人,后來發(fā)現(xiàn)是Deepfake或者玩AI繪圖時,隨手上傳了自己的照片,轉(zhuǎn)頭就擔(dān)心照片會不會被拿去訓(xùn)練模型。其實這些糾結(jié),本質(zhì)都是AI倫理的“日常版困惑”——就像咱們長大要懂待人接物的規(guī)矩,AI技術(shù)越厲害,越得懂“不能踩的倫理紅線”。今天咱們就當(dāng)AI倫理輔導(dǎo)員,扒一扒那些讓技術(shù)大佬都頭疼的“倫理坑”,看看AI是怎么一不小心就犯錯的!(二)核心知識點講解:AI的“五大倫理坑”與真實案例(20分鐘)1.坑一:數(shù)據(jù)隱私——AI的“燃料”不能是“偷來的”(5分鐘)AI就像個大胃王,每天要吃海量數(shù)據(jù)才跑得動,但吃數(shù)據(jù)得講規(guī)矩——總不能趁人不注意,把別人的隱私當(dāng)開胃小菜吧?這就是第一個坑:數(shù)據(jù)隱私侵占。核心矛盾是“數(shù)據(jù)需求”和“隱私保護”的打架,典型案例就是2018年的“Facebook劍橋分析事件”:一家叫“劍橋分析”的公司,搞了個心理測試APP,騙了數(shù)千萬Facebook用戶填信息——不僅要生日、住址,還要填“喜歡的電影、討厭的食物”。這些數(shù)據(jù)被偷偷拿去訓(xùn)練AI,最后用在2016年美國大選,給不同用戶推“定制化政治廣告”,比如給焦慮的人推“候選人能解決失業(yè)”,給保守的人推“候選人反對移民”。后來這事爆出來,F(xiàn)acebook被罰款50億美元,相當(dāng)于“偷一頓飯,賠了一棟樓”?,F(xiàn)在大家用APP時看到的“隱私權(quán)限彈窗”,很多都是這事兒倒逼出來的——相當(dāng)于給AI的“數(shù)據(jù)餐盤”裝了個“防盜鎖”。2.坑二:算法偏見——AI學(xué)壞了,還會“隱形歧視”(5分鐘)咱們總說“算法是客觀的”,但其實算法是“跟著數(shù)據(jù)學(xué)”的——如果數(shù)據(jù)本身帶偏見,算法就會像學(xué)壞了的徒弟,把偏見復(fù)刻得明明白白,甚至變本加厲。最經(jīng)典的就是亞馬遜2014年搞的“AI招聘工具”:亞馬遜想讓AI幫著篩簡歷,就喂了過去10年的招聘數(shù)據(jù)——結(jié)果發(fā)現(xiàn),歷史上男性申請技術(shù)崗的多,錄用的也多,AI就偷偷給簡歷里有“女性社團經(jīng)歷”“曾擔(dān)任女校學(xué)生會主席”的候選人打低分,甚至直接過濾。后來亞馬遜自己測出來了,2018年趕緊把這工具停了,但已經(jīng)有不少女性求職者因為這“隱形歧視”錯失機會。這就像你教孩子“看人不能看性別”,結(jié)果孩子偷偷學(xué)了你小時候的刻板印象——算法的“中立”,全看喂給它的數(shù)據(jù)干不干凈。3.坑三:責(zé)任歸屬——AI犯錯了,誰來“背鍋”?(5分鐘)以前機器壞了,找維修師傅;現(xiàn)在AI做決策出問題了,找開發(fā)者?找使用者?還是找AI自己?這就像熊孩子闖禍了,該怪孩子、怪家長,還是怪教他的老師——根本沒那么好分。2018年的“特斯拉Autopilot事故”就是典型:美國一個司機開著特斯拉,開了Autopilot模式,結(jié)果AI沒識別到前方靜止的卡車,直接撞上去,司機沒了。事后三方扯皮:-特斯拉說:“我這是L2級輔助駕駛,不是全自動,司機得盯著路!”-司機家屬說:“你們廣告里說‘能自動剎車、自動避障’,我們才信的!”-開發(fā)者說:“AI識別有盲區(qū)很正常,哪能百分百對?”最后法院判司機負(fù)主要責(zé)任,但也逼得特斯拉改了廣告——把“自動駕駛”改成“自動輔助駕駛”,還加了強制提醒?,F(xiàn)在全球都在討論“AI責(zé)任法”,本質(zhì)就是想給“誰背鍋”定個明確規(guī)矩。4.坑四:深度偽造——AI造的“假”,比真的還真(5分鐘)以前“造謠一張嘴,辟謠跑斷腿”;現(xiàn)在AI造個假視頻、假音頻,5分鐘搞定,還能讓你看不出破綻——這就是深度偽造,相當(dāng)于給謊言裝了高清濾鏡。2024年美國大選就鬧過這事:有人用Deepfake技術(shù),做了一段拜登說:“要取消老年人醫(yī)?!钡囊曨l——視頻里拜登的表情、語氣跟真的一模一樣,連手勢都沒破綻。這段視頻在社交媒體上一天就轉(zhuǎn)了幾百萬次,好多老人嚇得打電話給議員抗議。后來平臺雖然標(biāo)了“這是偽造的”,但已經(jīng)有不少人信了,甚至影響了部分選區(qū)的投票意向。還有人用這技術(shù)造“明星不雅視頻”“企業(yè)老板虛假聲明”,不僅毀人聲譽,還能搞垮公司——深度偽造的可怕之處,不是造了個假,而是讓大家連真的都不敢信了。5.坑五:就業(yè)替代——AI搶飯碗,誰最慌?(5分鐘)AI能當(dāng)客服、能流水線上組裝零件、還能寫代碼,有人說“未來一半的工作會被AI取代”——這不是危言聳聽,但也不是所有人都會失業(yè),關(guān)鍵是誰先被盯上。富士康“機器換人”計劃就是個例子:2016年起,富士康在國內(nèi)工廠裝了好多AI機器人,替代了6萬名流水線工人——比如焊接、擰螺絲這些重復(fù)活,機器人做得又快又好。但不是所有工人都失業(yè)了:會修機器人、會調(diào)試程序的工人,工資漲了;只會擰螺絲的工人,要么轉(zhuǎn)崗去做質(zhì)檢,要么只能下崗。這就像以前流水線取代手工時,裁縫沒慌,但只會“縫扣子”的小工慌了——AI替代的不是“工作”,而是沒技術(shù)含量的重復(fù)勞動?,F(xiàn)在大家說的“AI時代要終身學(xué)習(xí)”,其實就是怕自己變成“被AI淘汰的那一個”。(三)互動環(huán)節(jié):當(dāng)“AI倫理裁判”,斷“棘手案子”(20分鐘)分組演練,每組4人,扮演“AI倫理裁判團”,我給大家一個案子:緊急場景下的生命價值權(quán)衡:AI如何“做選擇”?自動駕駛系統(tǒng)在面對無法避免的事故時,需基于預(yù)設(shè)算法做出道德決策,這引發(fā)了對“機器倫理”的廣泛討論。典型案例如“電車難題”。請大家討論1個問題:當(dāng)車輛必須在“保護乘客安全”與“避免碰撞行人”之間選擇時,算法應(yīng)如何權(quán)衡?給10分鐘討論,每組派個代表“宣判”,最后咱們投票選“最公正的裁判團”。討論后點評:解決“機器倫理”問題有兩個路徑:功利主義算法和倫理規(guī)則庫。功利主義算法以“最大化整體利益”為核心,試圖通過量化傷害與收益,在事故不可避免時選擇損失最小的方案。倫理規(guī)則庫是將人類社會公認(rèn)的道德準(zhǔn)則轉(zhuǎn)化為機器可執(zhí)行的規(guī)則集合,為自動駕駛系統(tǒng)劃定行為邊界。自動駕駛系統(tǒng)通過讀取規(guī)則庫,對傳感器獲取的信息進行判斷,選擇符合規(guī)則的行為。(四)課程總結(jié):AI要“向善”,先懂“規(guī)矩”(2分鐘)今天咱們扒了AI的“五大倫理坑”,其實這些坑不是不讓AI發(fā)展,而是讓AI走得更穩(wěn)——就像咱們開車要考駕照、要遵守交通規(guī)則,AI要上路,也得懂倫理規(guī)矩。最后給大家一個記憶口訣,方便記住核心:隱私不偷拿,偏見要篩查,責(zé)任分清楚,偽造別亂發(fā),就業(yè)共進化。未來你們當(dāng)AI開發(fā)者,研發(fā)汽車前多問一句:“這會不會侵犯隱私?會不會有偏見?……”——這才是“有溫度的技術(shù)人”。課后作業(yè)找一個2023

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論