生成式人工智能基礎(chǔ)與應(yīng)用 課件 單元一 開篇明義:AIGC概述_第1頁
生成式人工智能基礎(chǔ)與應(yīng)用 課件 單元一 開篇明義:AIGC概述_第2頁
生成式人工智能基礎(chǔ)與應(yīng)用 課件 單元一 開篇明義:AIGC概述_第3頁
生成式人工智能基礎(chǔ)與應(yīng)用 課件 單元一 開篇明義:AIGC概述_第4頁
生成式人工智能基礎(chǔ)與應(yīng)用 課件 單元一 開篇明義:AIGC概述_第5頁
已閱讀5頁,還剩36頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

單元一開篇明義AIGC概述PART1情景導(dǎo)入PART2PART3學(xué)習(xí)目標(biāo)知識鏈接PART4PART5知識拓展單元總結(jié)PART1情景導(dǎo)入PART1情景導(dǎo)入在科技日新月異的發(fā)展下,人工智能(AI)已經(jīng)從一個(gè)遙遠(yuǎn)的概念逐漸走進(jìn)了我們的日常生活,而生成式人工智能(AIGC)作為AI領(lǐng)域的新興分支,更是以其強(qiáng)大的創(chuàng)造力和廣泛的應(yīng)用前景吸引了無數(shù)人的目光。想象一下,一個(gè)能夠自主生成內(nèi)容、設(shè)計(jì)圖像,甚至編寫代碼的AI系統(tǒng),將如何改變我們的工作和學(xué)習(xí)方式?隨著AI技術(shù)的不斷演進(jìn),從最初的專家系統(tǒng)到如今的深度學(xué)習(xí),AIGC應(yīng)運(yùn)而生,它標(biāo)志著AI不再僅僅是執(zhí)行預(yù)設(shè)任務(wù)的工具,而是能夠主動(dòng)創(chuàng)造、學(xué)習(xí)并適應(yīng)新環(huán)境的智能體。那么,AIGC究竟是如何工作的?它的底層邏輯和技術(shù)基礎(chǔ)又是什么呢?為了深入探究AIGC的奧秘,我們將一起揭開其技術(shù)面紗,了解生成模型的工作原理和數(shù)據(jù)訓(xùn)練方式。同時(shí),我們還將介紹一些常見的AIGC工具和平臺,幫助大家掌握如何在實(shí)際中運(yùn)用這些技術(shù)。從文學(xué)到教育,從娛樂到營銷,AIGC的應(yīng)用案例已遍布各行各業(yè),展現(xiàn)著它無盡的潛力和價(jià)值。然而,技術(shù)的快速發(fā)展也伴隨著倫理道德的挑戰(zhàn)。在享受AIGC帶來的便利時(shí),我們更應(yīng)關(guān)注數(shù)據(jù)隱私、算法偏見等問題,確保技術(shù)的負(fù)責(zé)任使用。最后,讓我們一同展望AIGC的未來,探索它可能帶來的變革與機(jī)遇。PART2學(xué)習(xí)目標(biāo)PART2學(xué)習(xí)目標(biāo)理解AIGC基本概念掌握AIGC技術(shù)的發(fā)展歷程建立機(jī)器學(xué)習(xí)的基礎(chǔ)知識框架熟悉AIGC技術(shù)在多個(gè)領(lǐng)域的應(yīng)用案例知識目標(biāo)能力目標(biāo)素質(zhì)目標(biāo)具備對AIGC技術(shù)研究與分析能力能夠利用數(shù)據(jù)科學(xué)方法為AIGC提供支持理解AIGC在實(shí)際場景中的作用和價(jià)值掌握AIGC技術(shù)的基本應(yīng)用方法培養(yǎng)學(xué)習(xí)者對AIGC技術(shù)的獨(dú)立思考和判斷能力培養(yǎng)學(xué)習(xí)者對AIGC技術(shù)發(fā)展的社會(huì)責(zé)任感該持續(xù)學(xué)習(xí),以適應(yīng)不斷變化的技術(shù)環(huán)境PART3知識鏈接PART3知識鏈接一、從AI到AIGC1.AIGC概念A(yù)I,即artificialintelligence,中文翻譯為“人工智能”。它是指通過計(jì)算機(jī)技術(shù)、機(jī)器學(xué)習(xí)、統(tǒng)計(jì)學(xué)等方法,使計(jì)算機(jī)系統(tǒng)具備類似于人類的智能和思維能力。AI的核心目標(biāo)是使計(jì)算機(jī)能夠像人類一樣思考和行動(dòng),同時(shí)也能夠解決人類面臨的智能和決策問題。AIGC,即artificialintelligentgenerativecontent,中文翻譯為“人工智能生成內(nèi)容”。它是指利用人工智能技術(shù)生成具有創(chuàng)新性和創(chuàng)造性的內(nèi)容。AIGC是AI技術(shù)在內(nèi)容創(chuàng)作領(lǐng)域的應(yīng)用,主要通過機(jī)器學(xué)習(xí)和自然語言處理等技術(shù),自動(dòng)或半自動(dòng)地生成文本、圖像、音頻、視頻等多媒體內(nèi)容。PART3知識鏈接一、從AI到AIGC2.AIGC發(fā)展歷程(1)早期探索人工智能生成內(nèi)容(AIGC)技術(shù)的早期探索是一個(gè)充滿挑戰(zhàn)和創(chuàng)新的時(shí)期。從20世紀(jì)中葉開始,科學(xué)家們就開始嘗試讓機(jī)器模擬人類的創(chuàng)造性思維,這標(biāo)志著AIGC技術(shù)的萌芽。圖靈測試與AI的誕生:1950年,艾倫·圖靈提出了著名的“圖靈測試”,旨在通過對話來檢驗(yàn)機(jī)器是否具備智能。圖靈預(yù)言,未來將會(huì)創(chuàng)造出能夠欺騙人類判斷的智能機(jī)器。這一理論的提出,不僅為AI的發(fā)展奠定了哲學(xué)基礎(chǔ),也為后來的AIGC技術(shù)埋下了伏筆。PART3知識鏈接一、從AI到AIGC2.AIGC發(fā)展歷程(1)早期探索依利亞克組曲是音樂創(chuàng)作的起點(diǎn):1957年,歷史上第一支由計(jì)算機(jī)創(chuàng)作的音樂作品《依利亞克組曲》完成。這部作品基于算法生成,雖然簡單,卻展示了計(jì)算機(jī)處理藝術(shù)創(chuàng)作的潛力。它證明了機(jī)器不僅能夠執(zhí)行邏輯運(yùn)算,還能涉足音樂、繪畫等藝術(shù)領(lǐng)域。Eliza與自然語言處理的曙光:到了20世紀(jì)60年代,隨著計(jì)算機(jī)技術(shù)的進(jìn)步,自然語言處理(NLP)開始成為AI研究的熱點(diǎn)。1966年,約瑟夫·魏岑鮑姆開發(fā)了Eliza,一款能夠模擬心理治療師對話的程序。盡管Eliza的對話模式相對固定,但它在自然語言理解和生成方面取得了開創(chuàng)性的成就。PART3知識鏈接一、從AI到AIGC2.AIGC發(fā)展歷程(2)機(jī)器學(xué)習(xí)興起

從1990年代到21世紀(jì)初,AIGC技術(shù)進(jìn)入了沉淀積累階段。受限于當(dāng)時(shí)的算法瓶頸,AIGC技術(shù)無法直接進(jìn)行復(fù)雜內(nèi)容的生成。然而,這一時(shí)期的研究為后來的技術(shù)突破積累了寶貴的經(jīng)驗(yàn)。研究者們通過不斷地實(shí)驗(yàn)和探索,逐步理解了語言、圖像、音樂等不同模態(tài)內(nèi)容的生成規(guī)律。該系統(tǒng)能夠?qū)崟r(shí)將英文演講自動(dòng)翻譯為中文語音,展示了AIGC在語言轉(zhuǎn)換領(lǐng)域的應(yīng)用潛力。Eliza的對話模式相對固定,但它在自然語言理解和生成方面取得了開創(chuàng)性的成就。PART3知識鏈接一、從AI到AIGC2.AIGC發(fā)展歷程(3)人工智能小說的嘗試

2018年,世界第一部完全由人工智能創(chuàng)作的小說《1TheRoad》問世,這是AIGC技術(shù)在文學(xué)創(chuàng)作領(lǐng)域的一次大膽嘗試。盡管這部作品在文學(xué)價(jià)值上可能尚有爭議,但它的出現(xiàn)無疑為AIGC技術(shù)的未來發(fā)展打開了新的大門。小說《1TheRoad》PART3知識鏈接一、從AI到AIGC3.深度學(xué)習(xí)的突破(1)對抗生成網(wǎng)絡(luò)(GAN)的提出2014年,對抗生成網(wǎng)絡(luò)(GAN)被提出,這是一種新型的深度學(xué)習(xí)模型,它通過讓兩個(gè)神經(jīng)網(wǎng)絡(luò)兩個(gè)神經(jīng)網(wǎng)絡(luò)——生成器(Generator)和判別器(Discriminator)——之間的對抗性訓(xùn)練,相來生成新的、與真實(shí)數(shù)據(jù)相似的數(shù)據(jù)。GAN的提出,為AIGC技術(shù)帶來了革命性的突破,極大地提高了AI生成內(nèi)容的逼真度。(2)微軟“小冰”與AI詩歌創(chuàng)作2017年,微軟的人工智能“小冰”創(chuàng)作了世界首部100%由人工智能創(chuàng)作的詩集《陽光失了玻璃窗》。這一事件不僅是AIGC在文學(xué)創(chuàng)作領(lǐng)域的里程碑,也標(biāo)志著AI在藝術(shù)創(chuàng)作方面的巨大潛力。(3)DeepMind的DVD-GAN與視頻生成2018年,谷歌的DeepMind研發(fā)出了DVD-GAN,這是一種能夠自動(dòng)生成連續(xù)視頻的AI系統(tǒng)。DVD-GAN的問世,展示了AIGC技術(shù)在動(dòng)態(tài)視覺內(nèi)容生成上的能力,為未來的視頻制作和游戲開發(fā)等領(lǐng)域提供了新的可能性。PART3知識鏈接一、從AI到AIGC3.深度學(xué)習(xí)的突破(4)英偉達(dá)的StyleGAN與高質(zhì)量圖片生成同年,英偉達(dá)發(fā)布了StyleGAN,這是一種可以自動(dòng)生成人眼難以分辨真假的高質(zhì)量圖片的AI模型。StyleGAN的發(fā)布,進(jìn)一步推動(dòng)了AIGC技術(shù)在圖像生成領(lǐng)域的發(fā)展,其生成的圖像在視覺效果上達(dá)到了前所未有的高度。(5)OpenAI的DALL-E與文本到圖像的轉(zhuǎn)換2019年,OpenAI提出了DALL-E,這是一個(gè)輸入文字即可生成極高質(zhì)量且風(fēng)格多樣的圖片的AI系統(tǒng)。DALL-E的問世,不僅展示了AIGC技術(shù)在文本到圖像轉(zhuǎn)換上的能力,也為未來的設(shè)計(jì)和創(chuàng)意工作提供了強(qiáng)大的工具。深度學(xué)習(xí)的出現(xiàn)為AIGC技術(shù)帶來了革命性的變化。特別是生成對抗網(wǎng)絡(luò)(GAN)和變分自編碼器(VAE)等模型的提出,極大地提高了內(nèi)容生成的質(zhì)量。這些模型能夠生成逼真的圖像、音頻和其他媒體內(nèi)容,使得AIGC的應(yīng)用范圍和影響力得到了極大地?cái)U(kuò)展。PART3知識鏈接一、從AI到AIGC4.廣泛應(yīng)用(1)DALL-E2的發(fā)布2022年4月,DALL-E2的發(fā)布是一個(gè)重要的里程碑。這一模型不僅能夠生成更真實(shí)和更準(zhǔn)確的畫像,而且能夠?qū)⑽谋久枋鲋械母拍?、屬性和風(fēng)格等元素綜合起來,生成現(xiàn)實(shí)主義的圖像和藝術(shù)作品。DALL-E2的發(fā)布,展示了AIGC技術(shù)在圖像生成領(lǐng)域的巨大潛力。(2)ChatGPT的革命性影響 2022年11月30日,大語言模型ChatGPT的發(fā)布引發(fā)了全球關(guān)注。ChatGPT不僅能與人對話,還能編寫代碼、創(chuàng)作內(nèi)容等。這一款革命性產(chǎn)品的上線,在短短5天內(nèi)用戶數(shù)量就已突破100萬。ChatGPT的出現(xiàn),不僅改變了人們與機(jī)器交互的方式,也為內(nèi)容創(chuàng)作、編程輔助等領(lǐng)域帶來了新的可能。(3)GPT-4的先進(jìn)推理能力2023年3月15日,GPT-4正式面世。GPT-4可以更準(zhǔn)確地解決用戶的難題,其多模態(tài)的特性還可以生成、編輯具有創(chuàng)意性或技術(shù)性的文章。在高級推理方面的表現(xiàn),GPT-4超過了其前代產(chǎn)品,為AIGC技術(shù)在復(fù)雜問題解決和內(nèi)容創(chuàng)作上的應(yīng)用開辟了新的道路。PART3知識鏈接一、從AI到AIGC4.廣泛應(yīng)用(4)DALL-E3的圖像生成新高度2023年9月21日,DALL-E3正式發(fā)布。這一模型在圖像生成的效果上達(dá)到了新的高度,能夠更準(zhǔn)確地呈現(xiàn)用戶的想法。DALL-E3的發(fā)布,進(jìn)一步提升了AIGC技術(shù)在圖像生成領(lǐng)域的應(yīng)用水平。(5)Sora的視頻生成能力2024年2月16日,Sora問世。Sora繼承了DALL-E3的畫質(zhì)和遵循指令能力,可以根據(jù)用戶的文本提示創(chuàng)建逼真的視頻。Sora能夠深度模擬真實(shí)物理世界,生成具有多個(gè)角色、包含特定運(yùn)動(dòng)的復(fù)雜場景。Sora的出現(xiàn),標(biāo)志著AIGC技術(shù)在視頻內(nèi)容生成上取得了重要進(jìn)展。從DALL-E2到Sora,AIGC技術(shù)的發(fā)展不再局限于單一模態(tài)的內(nèi)容生成,而是開始向多模態(tài)融合的方向發(fā)展。這些技術(shù)能夠理解和生成包含文本、圖像、視頻等多種模態(tài)的內(nèi)容,為用戶提供更加豐富和多樣化的交互體驗(yàn)。PART3知識鏈接二、AIGC的底層邏輯1.基礎(chǔ)模型AIGC基礎(chǔ)模型匯總表模型名稱提出時(shí)間應(yīng)用場景變分自編碼(VAE)2013年圖像生成、語音合成生成對抗網(wǎng)絡(luò)(GAN)2014年圖像生成、語音合成擴(kuò)散模型(diffusionmodel)2015年圖像生成Transformer2017年語言模型Visiontransformer(ViT)2020年視覺模型PART3知識鏈接二、AIGC的底層邏輯1.基礎(chǔ)模型(1)變分自編碼(VAE)變分自編碼器是深度生成模型中的一種,由Kingma等人在2014年提出,與傳統(tǒng)的自編碼器通過數(shù)值方式描述潛在空間不同,它以概率方式對潛在空間進(jìn)行觀察,在數(shù)據(jù)生成方面應(yīng)用價(jià)值較高。VAE分為兩部分,編碼器與解碼器。編碼器將原始高維輸入數(shù)據(jù)轉(zhuǎn)換為潛在空間的概率分布描述;解碼器從采樣的數(shù)據(jù)進(jìn)行重建生成新數(shù)據(jù)。(2)生成對抗網(wǎng)絡(luò)(GAN)2014年IanGoodFellow提出了GAN,成為早期最著名的生成模型。GAN使用零和博弈策略學(xué)習(xí),在圖像生成中應(yīng)用廣泛。以GAN為基礎(chǔ)產(chǎn)生了多種變體,如DCGAN、StytleGAN、CycleGAN等。GAN包含兩個(gè)部分:生成器:學(xué)習(xí)生成合理的數(shù)據(jù)。對于圖像生成來說是給定一個(gè)向量,生成一張圖片。其生成的數(shù)據(jù)作為判別器的負(fù)樣本。其輸入為一組向量,可以表征數(shù)字編號、字體、粗細(xì)、潦草程度等。在這里使用特定分布隨機(jī)生成。判別器:判別輸入是生成數(shù)據(jù)還是真實(shí)數(shù)據(jù)。網(wǎng)絡(luò)輸出越接近于0,生成數(shù)據(jù)可能性越大;反之,真實(shí)數(shù)據(jù)可能性越大。在訓(xùn)練階段,利用真實(shí)數(shù)據(jù)與生成數(shù)據(jù)訓(xùn)練二分類模型,輸出為0-1之間概率,越接近1,輸入為真實(shí)數(shù)據(jù)可能性越大。生成器與判別器相互對立。在不斷迭代訓(xùn)練中,雙方能力不斷加強(qiáng),最終的理想結(jié)果是生成器生成的數(shù)據(jù),判別器無法判別是真是假。以生成對抗網(wǎng)絡(luò)為基礎(chǔ)產(chǎn)生的應(yīng)用:圖像超分、人臉替換、卡通頭像生成等。PART3知識鏈接二、AIGC的底層邏輯1.基礎(chǔ)模型(3)擴(kuò)散模型擴(kuò)散模型:擴(kuò)散是受到非平衡熱力學(xué)的啟發(fā),定義一個(gè)擴(kuò)散步驟的馬爾科夫鏈,并逐漸向數(shù)據(jù)中添加噪聲,然后學(xué)習(xí)逆擴(kuò)散過程,從噪聲中構(gòu)建出所需的樣本。擴(kuò)散模型的最初設(shè)計(jì)是用于去除圖像中的噪聲。隨著降噪系統(tǒng)的訓(xùn)練時(shí)間越來越長且越來越好,可以將純噪聲作為唯一輸入,生成逼真的圖片。擴(kuò)散模型的工作原理是通過添加噪聲來破壞訓(xùn)練數(shù)據(jù),然后通過逆轉(zhuǎn)這個(gè)噪聲過程來學(xué)習(xí)恢復(fù)數(shù)據(jù)。換句話說,擴(kuò)散模型可以從噪聲中生成連貫的圖像。擴(kuò)散模型通過向圖像添加噪聲進(jìn)行訓(xùn)練,然后模型學(xué)習(xí)如何去除噪聲,該模型將此去噪過程應(yīng)用于隨機(jī)種子以生成逼真的圖像。2017年由谷歌提出,采用注意力機(jī)制(attention)對輸入數(shù)據(jù)重要性的不同而分配不同權(quán)重,其并行化處理的優(yōu)勢能夠使其在更大的數(shù)據(jù)集訓(xùn)練,加速了GPT等預(yù)訓(xùn)練大模型的發(fā)展。最初用來完成不同語言之間的翻譯。主體包括Encoder與Decoder分別對源語言進(jìn)行編碼,并將編碼信息轉(zhuǎn)換為目標(biāo)語言文本。隨后,基于Transformer作為基礎(chǔ)模型,發(fā)展出了BERT,LaMDA、PaLM以及GPT系列。人工智能開始進(jìn)入大模型參數(shù)的預(yù)訓(xùn)練模型時(shí)代。PART3知識鏈接二、AIGC的底層邏輯1.基礎(chǔ)模型(3)擴(kuò)散模型2020年,由谷歌團(tuán)隊(duì)提出,將Transformer應(yīng)用至圖像分類任務(wù),此后Transformer開始在CV領(lǐng)域大放異彩。ViT將圖片分為14*14的patch,并對每個(gè)patch進(jìn)行線性變換得到固定長度的向量送入Transformer,后續(xù)與標(biāo)準(zhǔn)的Transformer處理方式相同。以ViT為基礎(chǔ)衍生出了多重優(yōu)秀模型,如swintransformer,ViTAEtransformer等。ViT通過將人類先驗(yàn)經(jīng)驗(yàn)知識引入網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì),獲得了更快的收斂速度、更低的計(jì)算代價(jià)、更多的特征尺度、更強(qiáng)的泛化能力,能夠更好地學(xué)習(xí)和編碼數(shù)據(jù)中蘊(yùn)含的知識,正在成為視覺領(lǐng)域的基礎(chǔ)網(wǎng)絡(luò)架構(gòu)。以ViT為代表的視覺大模型賦予了AI感知、理解視覺數(shù)據(jù)的能力,助力AIGC發(fā)展。2022年4月,美國OpenAI公司發(fā)布了DALL-E2,這是一種文本到圖像的生成模型。同年9月28日,在OpenAI網(wǎng)站向公眾開放,提供數(shù)量有限的免費(fèi)圖像和額外的購買圖像服務(wù)。Imagen是2022年5月谷歌發(fā)布的文本到圖像的擴(kuò)散模型,該模型目前不對外開放。用戶可通過輸入描述性文本,生成圖文匹配的圖像。2022年8月,StabilityAI發(fā)布了StableDiffusion,這是一種類似于DALL-E2與Imagen的開源Diffusion模型,代碼與模型權(quán)重均向公眾開放,為AI圖像生成領(lǐng)域的發(fā)展注入了新的活力。PART3知識鏈接二、AIGC的底層邏輯2.預(yù)訓(xùn)練大模型(1)計(jì)算機(jī)視覺(CV)預(yù)訓(xùn)練大模型Florence是微軟在2021年11月提出的視覺基礎(chǔ)模型。Florence采用雙塔transformer結(jié)構(gòu)。文本采用12層transformer,視覺采用swintransformer。通過來自互聯(lián)網(wǎng)的9億圖文對,采用unifiedcontrasivelearning機(jī)制將圖文映射到相同空間中。其可處理的下游任務(wù)包括:圖文檢索、圖像分類、目標(biāo)檢測、視覺問答以及動(dòng)作識別。(2)自然語言處理(NLP)預(yù)訓(xùn)練大模型LaMDA:LaMDA是谷歌在2021年發(fā)布的大規(guī)模自然語言對話模型。LaMDA的訓(xùn)練過程分為預(yù)訓(xùn)練與微調(diào)兩步。在預(yù)訓(xùn)練階段,谷歌從公共數(shù)據(jù)中收集了1.56T數(shù)據(jù)集,feed給LaMDA,讓其對自然語言有初步認(rèn)識。(3)多模態(tài)預(yù)訓(xùn)練大模型CLIP(OpenAI):2021年美國OpenAI公司發(fā)布了跨模態(tài)預(yù)訓(xùn)練大模型CLIP,該模型采用從互聯(lián)網(wǎng)收集的4億對圖文對。采用雙塔模型與比對學(xué)習(xí)訓(xùn)練方式進(jìn)行訓(xùn)練。CLIP的英文全稱是contrastivelanguage-imagepre-training,即一種基于對比文本-圖像對的預(yù)訓(xùn)練方法或者模型。StableDiffusion(StablilityAI):StableDiffusion是英國倫敦StabilityAI公司開源的圖像生成擴(kuò)散模型。StableDiffusion的發(fā)布是AI圖像生成發(fā)展過程中的一個(gè)里程碑,相當(dāng)于給大眾提供了一個(gè)可用的高性能模型,不僅生成的圖像質(zhì)量非常高,運(yùn)行速度快,并且有資源和內(nèi)存的要求也較低。PART3知識鏈接三、常見的AIGC大模型工具1.AI寫作工具文心一言:作為百度基于文心大模型推出的生成式對話產(chǎn)品,文心一言擁有強(qiáng)大的語言理解和生成能力,支持中文、英文等多種語言,廣泛應(yīng)用于搜索、問答、內(nèi)容創(chuàng)作等領(lǐng)域,為用戶提供智能化、個(gè)性化的對話體驗(yàn),被譽(yù)為“中國版ChatGPT”。訊飛公文:訊飛公文是科大訊飛開發(fā)的智能公文寫作輔助工具,依托星火認(rèn)知大模型,提供素材籌備、擬稿寫作、審稿核稿等功能,支持公文加密保護(hù),適用于政務(wù)、企業(yè)等多類用戶,提升公文撰寫效率和質(zhì)量。通義千問:通義千問是阿里云推出的超大規(guī)模語言模型,具備多輪對話、文案創(chuàng)作、邏輯推理、多模態(tài)理解和多語言支持等功能,適用于需要自然語言處理和多樣化問題解答服務(wù)的場景,為用戶提供全面、準(zhǔn)確的問題解答。Kimi智能助手:這是由國內(nèi)通用人工智能創(chuàng)業(yè)公司月之暗(MoonshotAl)基于自研千億參數(shù)大模型打造的對話式AI助手產(chǎn)品。它于2023年10月推出,是全球首個(gè)支持輸入20萬漢字的智能助手產(chǎn)品,現(xiàn)已支持200萬字的無損上下文輸入。kimi具備強(qiáng)大的語言理解和處理能力,以及文件處理、信息檢索、學(xué)術(shù)研究輔助等多種功能,廣泛應(yīng)用于辦公、電商、教育等領(lǐng)域。PART3知識鏈接三、常見的AIGC大模型工具2.AI繪圖工具通義萬相:通義萬相是阿里巴巴推出的先進(jìn)文生文工具,依托強(qiáng)大算法,能深入理解文本內(nèi)容,生成高質(zhì)量文章,支持多領(lǐng)域應(yīng)用,如新聞撰寫、廣告創(chuàng)意等,提升內(nèi)容創(chuàng)作效率與品質(zhì)。奇域AI:奇域AI是一款創(chuàng)新的文生文工具,專注于提供個(gè)性化、創(chuàng)意性文本生成服務(wù),通過智能分析用戶需求,生成獨(dú)特且富有吸引力的文章內(nèi)容,適用于營銷、教育等多種場景。LiblibAI:LiblibAI是一款基于人工智能技術(shù)的文生文工具,擁有強(qiáng)大的語言處理能力,能夠高效生成各類文章,包括學(xué)術(shù)論文、新聞報(bào)道等,助力用戶快速完成高質(zhì)量內(nèi)容創(chuàng)作。艾繪AI:艾繪AI是一款專注于設(shè)計(jì)領(lǐng)域的文生文工具,結(jié)合AI技術(shù)與設(shè)計(jì)理念,生成富有創(chuàng)意和設(shè)計(jì)感的文本內(nèi)容,適用于廣告設(shè)計(jì)、品牌推廣等,提升設(shè)計(jì)作品的文字表現(xiàn)力。美圖設(shè)計(jì)室:美圖設(shè)計(jì)室雖以設(shè)計(jì)為主,但其內(nèi)置的文生文功能也不容小覷,能快速生成與圖片相匹配的文字描述,增強(qiáng)設(shè)計(jì)作品的整體效果,適用于海報(bào)、宣傳冊等多種設(shè)計(jì)場景。美間AI:美間AI是一款集設(shè)計(jì)與文生文于一體的工具,通過智能分析用戶需求,生成既美觀又實(shí)用的文本內(nèi)容,特別適用于室內(nèi)設(shè)計(jì)、家居搭配等領(lǐng)域,提升設(shè)計(jì)方案的整體質(zhì)感。PART3知識鏈接三、常見的AIGC大模型工具3.AI音/視頻工具剪映專業(yè)版:這是一款功能全面且操作便捷的視頻剪輯工具,不僅提供剪輯、濾鏡、轉(zhuǎn)場等多種功能,還支持高清導(dǎo)出和分享,是視頻創(chuàng)作者們提升創(chuàng)作效率和質(zhì)量的得力助手。騰訊智影:騰訊推出的智能視頻創(chuàng)作平臺,集視頻剪輯、后期處理、團(tuán)隊(duì)協(xié)作等功能于一體,支持多格式導(dǎo)入和輸出,滿足企業(yè)和專業(yè)視頻制作團(tuán)隊(duì)的各種需求。百度加度:百度打造的AI音視頻創(chuàng)作神器,內(nèi)置海量視頻模板和音頻素材,支持用戶一鍵生成高質(zhì)量的音視頻內(nèi)容,讓創(chuàng)作更加輕松高效。智譜清影:這是一款以文字圖像為核心功能的工具,能夠根據(jù)用戶的文字描述,智能生成與之匹配的精美圖片,助力視頻創(chuàng)作者打造更加生動(dòng)、富有創(chuàng)意的視覺效果。即夢AI:這是一款功能強(qiáng)大的音視頻創(chuàng)作助手,通過智能算法,能夠根據(jù)用戶需求自動(dòng)生成個(gè)性化、高質(zhì)量的音視頻內(nèi)容,助力用戶快速實(shí)現(xiàn)創(chuàng)意想法。海綿音樂:這是一款創(chuàng)新的AI音樂創(chuàng)作平臺,用戶只需輸入主題、情感等關(guān)鍵詞,即可生成符合需求的個(gè)性化音樂,為視頻內(nèi)容增添更多色彩和魅力。PART3知識鏈接四、AIGC在各行業(yè)的實(shí)際應(yīng)用案例1.新聞與媒體AIGC技術(shù)在新聞與媒體領(lǐng)域的應(yīng)用,正在重塑新聞生產(chǎn)流程。它能夠通過分析數(shù)據(jù)、整合信息,自動(dòng)生成新聞報(bào)道,這不僅提高了效率,還允許媒體機(jī)構(gòu)在第一時(shí)間發(fā)布新聞。AIGC技術(shù)還可以根據(jù)不同受眾群體的偏好,定制新聞內(nèi)容,實(shí)現(xiàn)個(gè)性化新聞服務(wù)。此外,AIGC還能夠生成體育賽事摘要,通過分析比賽數(shù)據(jù),快速提供比賽亮點(diǎn)和統(tǒng)計(jì)信息,滿足體育迷的需求。案例1:《路透社》利用AIGC技術(shù)自動(dòng)生成財(cái)經(jīng)新聞。通過集成的算法,該技術(shù)能夠解析公司的財(cái)報(bào)數(shù)據(jù),并自動(dòng)撰寫關(guān)于公司盈利情況的新聞報(bào)道。這些報(bào)道不僅準(zhǔn)確無誤,而且發(fā)布速度快,讓投資者能夠迅速獲取關(guān)鍵信息。案例2:體育網(wǎng)站ESPN使用AIGC技術(shù)生成NBA比賽的摘要。AIGC系統(tǒng)能夠分析比賽的統(tǒng)計(jì)數(shù)據(jù),如得分、籃板、助攻等,并結(jié)合比賽的關(guān)鍵時(shí)刻,生成簡潔、信息豐富的賽事摘要,為球迷提供快速回顧比賽的方式。PART3知識鏈接四、AIGC在各行業(yè)的實(shí)際應(yīng)用案例2.文學(xué)與藝術(shù)在文學(xué)與藝術(shù)領(lǐng)域,AIGC也展現(xiàn)了其獨(dú)特的魅力。它不僅可以輔助創(chuàng)作詩歌、小說,還能生成獨(dú)具風(fēng)格的藝術(shù)畫作和音樂作品。通過這些作品,我們可以看到人工智能與人類創(chuàng)造力的完美結(jié)合,為藝術(shù)創(chuàng)作帶來了更多的可能性和靈感。案例1:微軟的AI機(jī)器人“小冰”能夠創(chuàng)作現(xiàn)代詩歌。通過學(xué)習(xí)數(shù)以萬計(jì)的詩歌,小冰能夠理解詩歌的結(jié)構(gòu)和情感表達(dá),并創(chuàng)作出具有一定藝術(shù)性的詩歌作品。小冰的詩歌作品在社交媒體上受到了廣泛的關(guān)注和討論。案例2:Google的Magenta項(xiàng)目使用AIGC技術(shù)生成音樂作品。該技術(shù)通過分析大量的音樂數(shù)據(jù),學(xué)習(xí)不同音樂風(fēng)格和旋律結(jié)構(gòu),能夠創(chuàng)作出具有獨(dú)特風(fēng)格和情感表達(dá)的音樂作品。Magenta項(xiàng)目的作品在音樂界引起了一定的關(guān)注,展示了AIGC在音樂創(chuàng)作上的潛力。PART3知識鏈接四、AIGC在各行業(yè)的實(shí)際應(yīng)用案例3.教育與培訓(xùn)在教育領(lǐng)域,AIGC技術(shù)為個(gè)性化學(xué)習(xí)提供了強(qiáng)大的支持。通過分析學(xué)生的學(xué)習(xí)習(xí)慣和能力,AIGC可以幫助教育者開發(fā)個(gè)性化的學(xué)習(xí)材料,從而滿足每個(gè)學(xué)生的獨(dú)特需求。此外,AIGC還能模擬訓(xùn)練場景,為學(xué)生提供更加真實(shí)和生動(dòng)的學(xué)習(xí)體驗(yàn)。案例1:Coursera利用AIGC技術(shù)為學(xué)生提供個(gè)性化的學(xué)習(xí)路徑。通過分析學(xué)生的學(xué)習(xí)行為和成績,Coursera的AI系統(tǒng)能夠推薦適合學(xué)生當(dāng)前水平和興趣的課程,幫助學(xué)生更有效地規(guī)劃學(xué)習(xí)路徑。案例2:醫(yī)學(xué)教育公司OssoVR使用AIGC技術(shù)開發(fā)了虛擬手術(shù)訓(xùn)練系統(tǒng)。該系統(tǒng)通過模擬真實(shí)的手術(shù)環(huán)境,讓醫(yī)學(xué)生能夠在虛擬環(huán)境中練習(xí)手術(shù)操作,提高手術(shù)技能。PART3知識鏈接四、AIGC在各行業(yè)的實(shí)際應(yīng)用案例4.娛樂與游戲在娛樂和游戲領(lǐng)域,AIGC技術(shù)為玩家?guī)砹饲八从械幕?dòng)體驗(yàn)。利用AIGC,我們可以輕松地創(chuàng)造虛擬角色、游戲環(huán)境和互動(dòng)體驗(yàn),使得游戲世界變得更加豐富和多彩。無論是逼真的角色動(dòng)畫,還是復(fù)雜的環(huán)境交互,AIGC都為我們提供了更多的創(chuàng)意空間。案例1:游戲公司EpicGames使用AIGC技術(shù)生成游戲《堡壘之夜》中的城市景觀。通過算法,EpicGames能夠創(chuàng)建出具有不同建筑風(fēng)格和布局的城市環(huán)境,為玩家提供獨(dú)特的探索體驗(yàn)。案例2:電影制作公司W(wǎng)etaDigital利用AIGC技術(shù)生成電影《阿凡達(dá)》中的虛擬角色。通過分析真實(shí)演員的面部表情和身體動(dòng)作,WetaDigital的AI系統(tǒng)能夠生成逼真的虛擬角色,為電影增添生動(dòng)性。PART3知識鏈接四、AIGC在各行業(yè)的實(shí)際應(yīng)用案例5.營銷與廣告在營銷和廣告領(lǐng)域,AIGC技術(shù)使得廣告投放更加精準(zhǔn)和有效。通過分析用戶的消費(fèi)習(xí)慣和興趣偏好,AIGC可以生成個(gè)性化的廣告內(nèi)容和社交媒體帖子,從而提高廣告的點(diǎn)擊率和轉(zhuǎn)化率。這不僅提升了廣告效果,還為廣告主帶來了更高的投資回報(bào)率。案例1:營銷公司Acxiom使用AIGC技術(shù)為汽車品牌生成個(gè)性化的廣告。通過分析消費(fèi)者的購車偏好和行為,Acxiom的AI系統(tǒng)能夠生成符合消費(fèi)者需求的廣告內(nèi)容,提高廣告的吸引力。案例2:天貓利用AIGC技術(shù)發(fā)起了一個(gè)AI共創(chuàng)年畫的活動(dòng),用戶可以通過AIGC互動(dòng)在明星或者IP制作的年畫添上自己的一筆,創(chuàng)作出帶有個(gè)人烙印的年畫。這種個(gè)性化的精準(zhǔn)溝通方式吸引了大量粉絲的參與和互動(dòng),提升了用戶對品牌的忠誠度和黏性。PART3知識鏈接四、AIGC在各行業(yè)的實(shí)際應(yīng)用案例6.客戶服務(wù)在客戶服務(wù)領(lǐng)域,AIGC技術(shù)為我們提供了智能客服機(jī)器人和虛擬助手。這些智能工具可以快速地回答客戶的問題,提供有效的解決方案,從而大幅提升客戶服務(wù)的效率和質(zhì)量。無論是在線購物平臺,還是銀行、電信等行業(yè),AIGC都在為我們提供更加便捷和高效的服務(wù)體驗(yàn)。案例1:在線零售商Amazon使用AIGC技術(shù)提供智能客服服務(wù)。通過自然語言處理技術(shù),Amazon的AI系統(tǒng)能夠理解客戶的查詢,并提供準(zhǔn)確的答案和解決方案,提高客服的效率。案例2:銀行公司Citibank利用AIGC技術(shù)提供虛擬助手服務(wù)。通過語音識別和自然語言處理技術(shù),Citibank的虛擬助手能夠理解客戶的語音指令,并提供相應(yīng)的服務(wù),如查詢賬戶余額、轉(zhuǎn)賬等。綜上所述,AIGC技術(shù)的應(yīng)用領(lǐng)域已經(jīng)深入到我們生活的方方面面,從新聞報(bào)道到藝術(shù)創(chuàng)作,從教育培訓(xùn)到娛樂游戲,再到營銷廣告和客戶服務(wù),都留下了AIGC技術(shù)的深刻印記。隨著技術(shù)的不斷進(jìn)步,我們有理由相信,AIGC將在未來為我們帶來更多的驚喜和改變。PART3知識鏈接五、AIGC的倫理道德1.AIGC技術(shù)風(fēng)險(xiǎn)(1)技術(shù)的惡意應(yīng)用AIGC的快速發(fā)展引發(fā)了對深度偽造技術(shù)的擔(dān)憂,該技術(shù)使用基于AI的技術(shù)生成接近真實(shí)的照片、電影或音頻,這些可以用來描述不存在的事件或個(gè)人。深度偽造技術(shù)的出現(xiàn)使得篡改或生成高度真實(shí)且無法區(qū)分的音頻和視頻內(nèi)容成為可能,這最終無法被觀察者的肉眼區(qū)分。(2)內(nèi)容的質(zhì)量問題質(zhì)量差內(nèi)容意味著內(nèi)容不夠真實(shí)或甚至有毒。當(dāng)AI生成的內(nèi)容不夠真實(shí)時(shí),很容易讓用戶認(rèn)為AIGC生成能力有限,并對AIGC模型本身產(chǎn)生負(fù)面印象,這阻礙了AIGC模型的發(fā)展。當(dāng)AI生成的內(nèi)容是有毒的,它可能對人類的認(rèn)知產(chǎn)生影響,這涉及道德和倫理問題。倫理是AIGC技術(shù)發(fā)展中不能忽視的一個(gè)方面,涉及AI和人類社會(huì)之間的價(jià)值觀、道德、法律觀念等問題。AI生成內(nèi)容的潛在毒性是指AI生成的內(nèi)容存在偏見,即,AIGC可能生成違反社會(huì)價(jià)值的內(nèi)容,因此它很容易成為許多惡意人士的工具。(3)模型的安全問題惡意用戶可以利用AIGC模型的漏洞攻擊模型,并向輸入數(shù)據(jù)中添加有意的干擾信號以欺騙AIGC模型的行為。這可能導(dǎo)致模型生成錯(cuò)誤的輸出,或者以有意的方式生成誤導(dǎo)信息。并且,使用模型反向傳播攻擊也可能從一些輸出中推斷出用于模型原始訓(xùn)練的數(shù)據(jù),這可以引發(fā)數(shù)據(jù)的泄露甚至國家安全。PART3知識鏈接五、AIGC的倫理道德2.AIGC面臨的隱私與安全挑戰(zhàn)(1)數(shù)據(jù)的隱私安全挑戰(zhàn)個(gè)人數(shù)據(jù)的安全:將個(gè)人敏感數(shù)據(jù)直接上傳到生成性AI模型是一種有風(fēng)險(xiǎn)的做法。大型語言模型(LLM)復(fù)雜性高、預(yù)訓(xùn)練中使用的數(shù)據(jù)量大,這意味著AIGC具有更高的數(shù)據(jù)泄露風(fēng)險(xiǎn)。目前,還沒有足夠有效的手段來保護(hù)用戶的個(gè)人數(shù)據(jù)不被侵犯。在最近流行的ChatGPT中,OpenAI尚未在技術(shù)上實(shí)現(xiàn)對用戶隱私的有效保護(hù)。也就是說,它們幾乎不可能從提供給ChatGPT的數(shù)據(jù)中刪除所有用戶的個(gè)人信息。身份認(rèn)證與訪問控制:大型生成式AI模型的強(qiáng)大能力使其能夠快速學(xué)習(xí)用戶隱私數(shù)據(jù)。然而,通過AIGC服務(wù)將這些數(shù)據(jù)毫無保留地呈現(xiàn)給所有用戶,會(huì)帶來嚴(yán)重的安全問題。身份認(rèn)證和訪問控制能夠限制具有不同身份的用戶訪問特定的數(shù)據(jù)。然而,目前AIGC服務(wù)中缺乏相應(yīng)的限制措施。包括微軟和亞馬遜在內(nèi)的公司已經(jīng)警告他們的員工不要與ChatGPT分享內(nèi)部機(jī)密信息,因?yàn)橐呀?jīng)出現(xiàn)了ChatGPT的輸出與企業(yè)機(jī)密內(nèi)容密切相關(guān)的情況。(2)生成內(nèi)容的質(zhì)量挑戰(zhàn)事實(shí)上的失真:AIGC失真指的是生成與事實(shí)相悖的內(nèi)容,產(chǎn)生虛假信息并誤導(dǎo)用戶。這樣的內(nèi)容會(huì)影響到信息的準(zhǔn)確性,并可能對用戶的決策產(chǎn)生負(fù)面影響。觀點(diǎn)上的偏見:AIGC的偏見包括與人類價(jià)值觀不一致、對特定群體的成見或歧視,這可能損害社會(huì)和諧并加劇不同群體之間的沖突。PART3知識鏈接五、AIGC的倫理道德3.AIGC使用時(shí)的倫理與道德素養(yǎng)(1)倫理素養(yǎng)科技倫理意識:需要認(rèn)識到技術(shù)不僅僅是工具,其應(yīng)用往往涉及倫理問題。他們應(yīng)該了解并關(guān)注技術(shù)發(fā)展可能帶來的倫理挑戰(zhàn),如人工智能決策可能產(chǎn)生的歧視、隱私問題等。負(fù)責(zé)任的決策:在面臨技術(shù)決策時(shí),學(xué)生應(yīng)考慮其可能對社會(huì)、環(huán)境及他人造成的影響,并基于倫理原則做出負(fù)責(zé)任的決策??沙掷m(xù)發(fā)展觀念:應(yīng)理解和支持可持續(xù)發(fā)展觀念,即在使用和推廣新技術(shù)時(shí),要考慮到其對環(huán)境、經(jīng)濟(jì)和社會(huì)長期可持續(xù)發(fā)展的影響。(2)道德素養(yǎng)誠信:無論是在學(xué)術(shù)研究、項(xiàng)目合作還是日常生活中,用戶都應(yīng)保持誠實(shí)和信用,不抄襲、不造假、不剽竊。尊重:尊重他人的觀點(diǎn)、勞動(dòng)成果和知識產(chǎn)權(quán)。在學(xué)術(shù)交流和技術(shù)應(yīng)用中,尊重原創(chuàng)性和他人的貢獻(xiàn)。公正:在處理技術(shù)相關(guān)的問題時(shí),用戶應(yīng)秉持公正原則,不偏袒任何一方,不利用技術(shù)優(yōu)勢損害他人利益。隱私保護(hù):在使用和處理個(gè)人信息時(shí),用戶應(yīng)嚴(yán)格遵守隱私保護(hù)原則,不泄露、不濫用他人的個(gè)人信息。社會(huì)責(zé)任感:用戶應(yīng)認(rèn)識到自己的技術(shù)行為和決策可能對社會(huì)造成的影響,并承擔(dān)起相應(yīng)的社會(huì)責(zé)任。應(yīng)積極關(guān)注社會(huì)公益事業(yè),利用自己的技術(shù)知識和技能為社會(huì)做出貢獻(xiàn)。PART3知識鏈接六、AIGC的未來發(fā)展1.技術(shù)進(jìn)步近年來,深度學(xué)習(xí)算法經(jīng)歷了數(shù)次迭代和創(chuàng)新,特別是生成對抗網(wǎng)絡(luò)(GAN)和變分自編碼器(VAE)等先進(jìn)模型的提出,為AIGC技術(shù)注入了新的活力。這些模型通過模擬人類大腦的學(xué)習(xí)過程,使得AI生成的內(nèi)容在逼真度和多樣性上都有了質(zhì)的飛躍。未來,隨著技術(shù)的不斷進(jìn)步,我們可以期待AIGC在內(nèi)容生成上達(dá)到更高的藝術(shù)性和創(chuàng)造性。2.多模態(tài)融合AIGC技術(shù)的發(fā)展正逐漸打破單一模態(tài)的限制,向多模態(tài)融合的方向邁進(jìn)。這意味著AIGC將能夠理解和生成包含文本、圖像、視頻以及音頻等多種模態(tài)的內(nèi)容,為用戶提供更加豐富和多元的感官體驗(yàn)。例如,在未來的虛擬現(xiàn)實(shí)中,用戶可以通過AIGC技術(shù)生成的多媒體內(nèi)容,沉浸在更加真實(shí)且富有互動(dòng)性的虛擬環(huán)境中。3.智能化和個(gè)性化隨著大數(shù)據(jù)和云計(jì)算等技術(shù)的不斷發(fā)展,AIGC將變得更加智能化和個(gè)性化。通過對用戶行為的深入分析和學(xué)習(xí),AIGC將能夠更準(zhǔn)確地捕捉用戶的需求和偏好,從而生成更加符合用戶個(gè)性化的內(nèi)容。這種智能化的內(nèi)容生成方式,不僅將提升用戶體驗(yàn),還將為企業(yè)提供更精準(zhǔn)的營銷和推廣手段。4.廣泛應(yīng)用AIGC技術(shù)的應(yīng)用領(lǐng)域正在不斷擴(kuò)展,已經(jīng)滲透到新聞與媒體、文學(xué)與藝術(shù)、教育與培訓(xùn)、娛樂與游戲等多個(gè)方面。在這些領(lǐng)域中,AIGC技術(shù)正助力專業(yè)人士提高工作效率,同時(shí)也為普通用戶提供了更加便捷和高效的服務(wù)。未來,隨著技術(shù)的進(jìn)一步成熟和應(yīng)用場景的不斷拓展,AIGC的應(yīng)用將更加廣泛和深入。PART3知識鏈接六、AIGC的未來發(fā)展5.社會(huì)影響AIGC技術(shù)的發(fā)展不僅改變了傳統(tǒng)的內(nèi)容生產(chǎn)方式,更引發(fā)了關(guān)于創(chuàng)意、版權(quán)和倫理等方面的深刻討論。這些討論預(yù)示著AIGC將對我們的社會(huì)和文化產(chǎn)生深遠(yuǎn)的影響。例如,在創(chuàng)意產(chǎn)業(yè)中,AIGC技術(shù)的廣泛應(yīng)用可能會(huì)對傳統(tǒng)創(chuàng)作方式產(chǎn)生沖擊,但同時(shí)也為創(chuàng)作者提供了更多的創(chuàng)作手段和可能性。6.規(guī)范和引導(dǎo)面對AIGC技術(shù)的快速發(fā)展和應(yīng)用,社會(huì)需要對其進(jìn)行合理的規(guī)范和引導(dǎo)。這包括制定相應(yīng)的法律法規(guī)和標(biāo)準(zhǔn)體系,以確保AIGC技術(shù)的健康、有序和可持續(xù)發(fā)展。同時(shí),還需要加強(qiáng)對AIGC技術(shù)的監(jiān)管和評估工作,防止其被濫用或誤用。7.經(jīng)濟(jì)貢獻(xiàn)隨著AIGC技術(shù)的商業(yè)化落地進(jìn)程加速,其巨大的市場潛力正在被逐步挖掘。預(yù)計(jì)未來幾年內(nèi),AIGC技術(shù)將帶動(dòng)市場規(guī)模的快速增長,為經(jīng)濟(jì)發(fā)展貢獻(xiàn)新的力量。這不僅將為企業(yè)帶來更多的商業(yè)機(jī)會(huì)和利潤空間,還將推動(dòng)相關(guān)產(chǎn)業(yè)鏈的發(fā)展和升級。8.技術(shù)飛躍AIGC技術(shù)的廣泛應(yīng)用和突破被視為人工智能領(lǐng)域的一次重大技術(shù)飛躍。這不僅體現(xiàn)在其生成內(nèi)容的逼真度和多樣性上,更體現(xiàn)在其對人類探索機(jī)器創(chuàng)造力的重要推動(dòng)作用上。未來隨著技術(shù)的不斷進(jìn)步和創(chuàng)新應(yīng)用模式的涌現(xiàn),我們可以期待AIGC在更多領(lǐng)域展現(xiàn)出其強(qiáng)大的潛力和價(jià)值。PART4知

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論