




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
項(xiàng)目7風(fēng)格遷移:基于NST與AnimeGAN的圖像古風(fēng)化教學(xué)目標(biāo)能力目標(biāo)(1)了解NeuralStyleTransfer圖像風(fēng)格遷移原理。(2)掌握NeuralStyleTransfer(NST)安裝與使用。(3)了解AnimeGAN圖像風(fēng)格遷移原理。(4)掌握AnimeGAN安裝與使用。知識(shí)目標(biāo)(1)掌握基于NeuralStyleTransfer(NST)進(jìn)行圖像風(fēng)格遷移的實(shí)際操作技能。(2)掌握基于AnimeGAN進(jìn)行圖像風(fēng)格遷移的實(shí)際操作技能。目錄2基于NeuralStyleTransfer的圖像風(fēng)格遷移1認(rèn)識(shí)圖像風(fēng)格遷移3基于AnimeGAN的圖像風(fēng)格遷移目錄2基于NeuralStyleTransfer的圖像風(fēng)格遷移1認(rèn)識(shí)圖像風(fēng)格遷移3基于AnimeGAN的圖像風(fēng)格遷移1.認(rèn)識(shí)數(shù)據(jù)集
任務(wù)目標(biāo)(1)了解圖像風(fēng)格遷移定義及方法。(2)了解圖像風(fēng)格遷移應(yīng)用領(lǐng)域。1.1圖像風(fēng)格遷移方法圖像風(fēng)格遷移是一種利用深度學(xué)習(xí)技術(shù)實(shí)現(xiàn)的圖像轉(zhuǎn)換過程,其目標(biāo)是將一幅圖像(通常為藝術(shù)作品)的風(fēng)格應(yīng)用到另一幅目標(biāo)圖像上,同時(shí)保留目標(biāo)圖像內(nèi)容的真實(shí)性。這一技術(shù)的背景起源于2015年的一篇開創(chuàng)性論文,由LeonA.Gatys等人提出。通過圖像風(fēng)格遷移為藝術(shù)家和設(shè)計(jì)師提供了一種新型的創(chuàng)作工具,展示了AI技術(shù)在非傳統(tǒng)領(lǐng)域的潛力。圖像風(fēng)格遷移主要方法包括基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的方法、優(yōu)化方法和生成對(duì)抗網(wǎng)絡(luò)(GAN)方法。以下是幾種主要方法的詳細(xì)介紹:基于卷積神經(jīng)網(wǎng)絡(luò)的方法:利用深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò),通過提取圖像內(nèi)容特征和風(fēng)格特征,實(shí)現(xiàn)風(fēng)格遷移。經(jīng)典的NeuralStyleTransfer是這種方法代表。它使用預(yù)訓(xùn)練CNN來提取圖像的特征,并通過優(yōu)化使得生成圖像的內(nèi)容與輸入內(nèi)容圖像相似,而風(fēng)格則與風(fēng)格圖像相似??。優(yōu)化方法:通過定義一個(gè)損失函數(shù),函數(shù)包括內(nèi)容損失和風(fēng)格損失,對(duì)生成圖像進(jìn)行優(yōu)化。內(nèi)容損失衡量生成圖像與內(nèi)容圖像在內(nèi)容上的相似性,而風(fēng)格損失衡量生成圖像與風(fēng)格圖像在風(fēng)格上的相似性。通過迭代優(yōu)化損失函數(shù),可生成既保留內(nèi)容圖像結(jié)構(gòu)又有風(fēng)格圖像風(fēng)格的圖像??。生成對(duì)抗網(wǎng)絡(luò)(GAN)方法:利用生成器和判別器的對(duì)抗訓(xùn)練,生成高質(zhì)量的風(fēng)格遷移圖像。典型的例子有AnimeGAN。AnimeGAN專門用于將真實(shí)世界的人像圖像轉(zhuǎn)換為動(dòng)漫風(fēng)格的圖像,通過生成器和判別器的對(duì)抗訓(xùn)練實(shí)現(xiàn)高質(zhì)量的動(dòng)漫風(fēng)1.2數(shù)據(jù)集展示
圖像風(fēng)格遷移近年來得到了廣泛關(guān)注和應(yīng)用,它通過優(yōu)化圖像內(nèi)容和風(fēng)格特征,使得圖像能夠呈現(xiàn)出多樣的藝術(shù)效果。以下是圖像風(fēng)格遷移在各個(gè)領(lǐng)域的應(yīng)用及其詳細(xì)介紹。(1)藝術(shù)創(chuàng)作領(lǐng)域:圖像風(fēng)格遷移在藝術(shù)創(chuàng)作中的應(yīng)用尤為顯著。藝術(shù)家和設(shè)計(jì)師可以利用這項(xiàng)技術(shù)將普通的照片轉(zhuǎn)換成具有特定藝術(shù)風(fēng)格的圖像,如水墨畫、油畫、水彩畫、素描等。這種轉(zhuǎn)換不僅提高了藝術(shù)創(chuàng)作的效率,還為藝術(shù)家提供了更多的靈感和創(chuàng)作自由。例如,使用NeuralStyleTransfer技術(shù),用戶可以輕松地將吳道子、唐伯虎等古代畫家的畫風(fēng)應(yīng)用到現(xiàn)代攝影作品中,創(chuàng)造出獨(dú)特的視覺效果?。(2)電影和動(dòng)畫領(lǐng)域:圖像風(fēng)格遷移技術(shù)可以用于場(chǎng)景的藝術(shù)化處理,增強(qiáng)視覺效果和藝術(shù)表現(xiàn)力。例如,在電影制作中,可以將真實(shí)場(chǎng)景轉(zhuǎn)換為特定藝術(shù)風(fēng)格的畫面,營造出特定的視覺氛圍。在動(dòng)畫制作中,圖像風(fēng)格遷移可以幫助動(dòng)畫師將手繪風(fēng)格應(yīng)用到數(shù)字動(dòng)畫中,節(jié)省大量的手工繪制時(shí)間和成本??。(3)廣告和營銷領(lǐng)域:圖像風(fēng)格遷移技術(shù)可以用于創(chuàng)建吸引人的視覺效果,從而吸引更多的觀眾注意力。廣告設(shè)計(jì)師可以將產(chǎn)品照片轉(zhuǎn)換為不同藝術(shù)風(fēng)格的圖像,增加廣告的藝術(shù)性和吸引力。例如,通過將產(chǎn)品圖像轉(zhuǎn)換為油畫風(fēng)格或漫畫風(fēng)格,可以使廣告更加生動(dòng)有趣,吸引消費(fèi)者的注意。(4)教育和培訓(xùn)領(lǐng)域:通過將教學(xué)材料和訓(xùn)練數(shù)據(jù)轉(zhuǎn)換為不同藝術(shù)風(fēng)格,教育工作者可以提高教學(xué)內(nèi)容趣味性和吸引力。例如在美術(shù)教育中,教師可以使用圖像風(fēng)格遷移技術(shù)將學(xué)生的作品轉(zhuǎn)換為不同藝術(shù)家的風(fēng)格,幫助學(xué)生更好地理解和學(xué)習(xí)不同的藝術(shù)流派和技法。目錄2基于NeuralStyleTransfer的圖像風(fēng)格遷移1認(rèn)識(shí)圖像風(fēng)格遷移3基于AnimeGAN的圖像風(fēng)格遷移2.深度學(xué)習(xí)環(huán)境部署
任務(wù)目標(biāo)(1)了解NeuralStyleTransfer算法的基本原理和方法。(2)掌握NeuralStyleTransfer算法部署及項(xiàng)目工程結(jié)構(gòu)。(3)掌握NeuralStyleTransfer算法的實(shí)現(xiàn)過程,包括損失模塊定義及預(yù)訓(xùn)練模型嵌入。2.1NeuralStyleTransfer原理概述NeuralStyleTransfer(NST)是一種利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)實(shí)現(xiàn)圖像風(fēng)格遷移的方法。NST算法的核心思想是使用預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)來提取圖像的內(nèi)容特征和風(fēng)格特征,通過優(yōu)化過程生成融合了內(nèi)容圖像和風(fēng)格圖像特征的圖像。在風(fēng)格遷移過程中,通常涉及兩幅圖像:內(nèi)容圖像(ContentImage)和風(fēng)格圖像(StyleImage)。內(nèi)容圖像提供圖像的主要結(jié)構(gòu)和主題,而風(fēng)格圖像則貢獻(xiàn)其獨(dú)特的視覺風(fēng)格,如紋理、色彩布局和筆觸。NST算法主要包括等6個(gè)步驟,下面分別是其詳細(xì)描述:特征提取使用深度卷積神經(jīng)網(wǎng)絡(luò)來提取圖像的內(nèi)容和風(fēng)格特征。卷積神經(jīng)網(wǎng)絡(luò)的不同層提取圖像的不同層次的特征.2)內(nèi)容表示3)風(fēng)格表示4)總變差損失為了使生成圖像更平滑,避免過多噪聲,加入總變差損失(TotalVariationLoss)最終的損失函數(shù)是內(nèi)容損失、風(fēng)格損失和總變差損失的加權(quán)和:5)總損失其中,α、β和γ和分別是內(nèi)容損失、風(fēng)格損失和總變差損失的權(quán)重系數(shù)。2.2自然風(fēng)景國畫化實(shí)戰(zhàn)-NST模型部署NST項(xiàng)目部署主要從源碼下載、工程目錄及安裝依賴包三個(gè)部分來進(jìn)行,下面分別簡單介紹其過程。
源碼下載。有兩種方式獲取源碼:一是通過本課程提供下載獲取。二是通過訪問項(xiàng)目網(wǎng)頁,下載項(xiàng)目源碼到本地。/tutorials/advanced/neural_style_tutorial.html
(2)工程目錄介紹下圖本次工程的主要文件和目錄結(jié)構(gòu)。其中,weights為模型存放的目錄,inputs、outputs分別為輸入圖像文件夾及輸出風(fēng)格化圖像文件夾。NeuralStyleTutorial.py為風(fēng)格遷移的腳本實(shí)現(xiàn),NeuralStyleTutorial.ipynb為記事本形式的圖像風(fēng)格遷移腳本。requirements.txt中包含項(xiàng)目所需的依賴包。(3)安裝依賴包。下載源碼后,進(jìn)入NST-landscape文件夾,打開Anacoda終端。利用conda創(chuàng)建Python=3.10的虛擬環(huán)境,并通過pip在該環(huán)境中安裝環(huán)境包。下面命令為創(chuàng)建虛擬環(huán)境、激活虛擬環(huán)境、安裝python依賴包:環(huán)境依賴包說明“requirements.txt”文件里包含了NST項(xiàng)目所依賴的python包,其中每個(gè)包的作用如下表所示:2.3自然風(fēng)景國畫化實(shí)戰(zhàn)(基于NST風(fēng)格遷移)基于NTS實(shí)現(xiàn)自然風(fēng)景國畫化的代碼文件對(duì)應(yīng)為”NeuralStyleTutorial.ipynb”,后文對(duì)代碼文件的重要組成部分分別進(jìn)行說明講解,包括以下6個(gè)模塊。數(shù)據(jù)加載圖像數(shù)據(jù)顯示內(nèi)容特征提取損失加權(quán)和優(yōu)化基于VGG的NST模型及損失函數(shù)設(shè)置圖像生成2.3.1基于NST風(fēng)格遷移–數(shù)據(jù)加載首先介紹數(shù)據(jù)加載。右側(cè)為導(dǎo)入風(fēng)格和內(nèi)容圖片的代碼。原始的PIL圖片的值介于0到255之間,但是當(dāng)轉(zhuǎn)換成torch張量時(shí),它們的值被轉(zhuǎn)換成0到1之間。圖片也需要被重設(shè)成相同的維度。一個(gè)重要的細(xì)節(jié)是,注意torch庫中的神經(jīng)網(wǎng)絡(luò)用來訓(xùn)練的張量的值為0到1之間。如果你嘗試將0到255的張量圖片加載到神經(jīng)網(wǎng)絡(luò),然后激活的特征映射將不能偵測(cè)到目標(biāo)內(nèi)容和風(fēng)格。2.3.2基于NST風(fēng)格遷移–圖像數(shù)據(jù)顯示圖形可視化的代碼如右圖所示,展示了如何在使用PyTorch進(jìn)行深度學(xué)習(xí)操作的同時(shí),使用matplotlib來顯示和檢查內(nèi)容和風(fēng)格圖像。這在圖像風(fēng)格遷移任務(wù)的調(diào)試和可視化過程中是常見的步驟。
2.3.3基于NST風(fēng)格遷移–內(nèi)容特征提取像風(fēng)格遷移(NeuralStyleTransfer,NST)的內(nèi)容特征提取是一個(gè)關(guān)鍵的過程,它涉及從預(yù)定的內(nèi)容圖像和風(fēng)格圖像中提取出重要的特征以供后續(xù)的風(fēng)格融合。內(nèi)容特征提取首先需要從內(nèi)容圖像中提取出代表其主要視覺內(nèi)容的高層特征。這通常涉及識(shí)別圖像中的物體、形狀和結(jié)構(gòu)等信息。然后使用預(yù)訓(xùn)練的深度卷積神經(jīng)網(wǎng)絡(luò)(例如VGG網(wǎng)絡(luò)),將內(nèi)容圖像作為輸入,提取中間層的激活作為內(nèi)容特征。一般來說,網(wǎng)絡(luò)中較深層的卷積層能夠捕捉圖像的更復(fù)雜、更抽象的內(nèi)容信息。在本小節(jié)代碼中,內(nèi)容特征提取通過以下步驟來實(shí)現(xiàn):首先模型中第一個(gè)模塊是正則化模塊(Normalization),這是為了將輸入圖像的數(shù)據(jù)標(biāo)準(zhǔn)化,即調(diào)整圖像的均值和標(biāo)準(zhǔn)差,使模型在不同的圖像輸入上表現(xiàn)更穩(wěn)定。然后在預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)(CNN)中選擇特定的卷積層作為內(nèi)容層。在這個(gè)例子中,默認(rèn)情況下選擇的是第四個(gè)卷積層(conv_4)。這個(gè)層被認(rèn)為能夠捕捉足夠的高級(jí)內(nèi)容信息,而不過于具體到細(xì)節(jié)。2.3.4基于NST風(fēng)格遷移–損失函數(shù)設(shè)置在圖像風(fēng)格遷移任務(wù)中,損失函數(shù)是優(yōu)化過程的核心,它定義了目標(biāo)圖像與內(nèi)容圖像和風(fēng)格圖像之間的目標(biāo)差異。整個(gè)過程是通過最小化這些損失來調(diào)整生成圖像的像素值,以使其在視覺上同時(shí)捕捉到內(nèi)容圖像的內(nèi)容和風(fēng)格圖像的風(fēng)格。通常情況下,損失函數(shù)由兩個(gè)主要部分組成:內(nèi)容損失(ContentLoss)和風(fēng)格損失(StyleLoss)。左側(cè)代碼為內(nèi)容損失,右側(cè)為風(fēng)格損失代碼。風(fēng)格損失的目的是測(cè)量目標(biāo)圖像和風(fēng)格圖像在風(fēng)格上的差異。它是通過在多個(gè)卷積層的特征激活上使用Gram矩陣來實(shí)現(xiàn)的。本項(xiàng)目中是通過計(jì)算每個(gè)選定的風(fēng)格層(stylelayers)特征,計(jì)算目標(biāo)圖像和風(fēng)格圖像的特征激活的Gram矩陣,然后使用這兩個(gè)Gram矩陣之間的平均平方誤差來定義風(fēng)格損失。內(nèi)容損失的作用是確保目標(biāo)圖像在像素級(jí)別上與內(nèi)容圖像保持相似。它通常是通過計(jì)算內(nèi)容圖像和目標(biāo)圖像在某些深度層(contentlayers)的激活之間的誤差來實(shí)現(xiàn)的。本項(xiàng)目中計(jì)算內(nèi)容損失的方法是使用平均平方誤差(MeanSquaredError,MSE)來度量預(yù)選層的特征激活之間的差異。2.3.5基于NST風(fēng)格遷移–基于VGG的NST模型及損失函數(shù)設(shè)置(1)模型加載,加載本地模型并設(shè)置內(nèi)容風(fēng)格層(2)構(gòu)建包含內(nèi)容損失和風(fēng)格損失的模型2.3.6基于NST風(fēng)格遷移–圖像生成
在定義好CNN網(wǎng)絡(luò)的特征提取層和損失函數(shù)后,就可以執(zhí)行圖像風(fēng)格遷移任務(wù)了,在代碼7-7中,定義了一個(gè)函數(shù)run_style_transfer,目標(biāo)圖像被迭代地更新,以減少其內(nèi)容與內(nèi)容圖像間的差異性以及其風(fēng)格與風(fēng)格圖像間的差異性。圖像更新繼續(xù)進(jìn)行,直到達(dá)到預(yù)定的迭代次數(shù),或者直到損失函數(shù)收斂至某個(gè)閾值以下。最終,這段代碼輸出了具有風(fēng)格圖像特征的內(nèi)容圖像,完成了風(fēng)格遷移任務(wù)。2.4基于NST風(fēng)格遷移–結(jié)果展示(a)內(nèi)容圖像(b)內(nèi)容圖像(c)風(fēng)格遷移結(jié)果圖(a)為內(nèi)容圖像,圖(b)為風(fēng)格圖像,圖(c)為風(fēng)格遷移生成圖像,可以看出該算法能夠?qū)L(fēng)格圖像的特征融入到內(nèi)容圖像中。目錄2基于NeuralStyleTransfer的圖像風(fēng)格遷移1認(rèn)識(shí)圖像風(fēng)格遷移3基于AnimeGAN的圖像風(fēng)格遷移3.基于AnimeGAN的圖像風(fēng)格遷移任務(wù)目標(biāo)(1)了解AnimeGAN的基本原理和方法。(2)掌握AnimeGAN算法部署及項(xiàng)目工程結(jié)構(gòu)。(3)掌握AnimeGAN算法的實(shí)現(xiàn)細(xì)節(jié),包括生成器模型網(wǎng)絡(luò)結(jié)構(gòu)及模型推理。3.1AnimeGAN原理概述AnimeGAN是一種專門用于將真實(shí)世界的人像圖像轉(zhuǎn)換為動(dòng)漫風(fēng)格圖像的生成對(duì)抗網(wǎng)絡(luò)(GAN)方法。該方法通過生成器和判別器的對(duì)抗訓(xùn)練,實(shí)現(xiàn)高質(zhì)量的動(dòng)漫風(fēng)格遷移。AnimeGAN主要由兩個(gè)部分組成:生成器(Generator)和判別器(Discriminator)。生成器的任務(wù)是將輸入的真實(shí)圖像轉(zhuǎn)換為動(dòng)漫風(fēng)格的圖像,而判別器的任務(wù)是區(qū)分生成的動(dòng)漫圖像和真實(shí)的動(dòng)漫圖像。這兩個(gè)網(wǎng)絡(luò)通過對(duì)抗訓(xùn)練相互提升,最終生成的圖像能夠以假亂真。生成器采用了卷積神經(jīng)網(wǎng)絡(luò)的架構(gòu),其目的是將輸入圖像轉(zhuǎn)換為具有動(dòng)漫風(fēng)格的圖像。生成器網(wǎng)絡(luò)通常包括一系列的卷積層和反卷積層,逐步提取輸入圖像的特征并進(jìn)行風(fēng)格轉(zhuǎn)換。生成器的訓(xùn)練目標(biāo)是生成足以欺騙判別器的動(dòng)漫風(fēng)格圖像。判別器也是一個(gè)卷積神經(jīng)網(wǎng)絡(luò),其任務(wù)是區(qū)分生成的圖像和真實(shí)的動(dòng)漫圖像。判別器通過不斷學(xué)習(xí)來提高自身的辨別能力,從而促使生成器生成更為真實(shí)的動(dòng)漫風(fēng)格圖像。生成器和判別器通過對(duì)抗訓(xùn)練相互競(jìng)爭(zhēng)和提升。生成器嘗試生成能夠欺騙判別器的圖像,而判別器則不斷改進(jìn),以便更好地識(shí)別生成的圖像是否真實(shí)。這個(gè)過程通過最小化生成器和判別器的損失函數(shù)來實(shí)現(xiàn)。3.2AnimeGAN部署gitclone/bryandlee/animegan2-pytorch.git有三種方式獲取源碼:一是通過本課程提供下載獲取。二是通過git命令clone項(xiàng)目代碼到本地:本次工程的主要文件和目錄結(jié)構(gòu)。其中,weights為模型存放的目錄,inputs、outputs分別為輸入圖像文件夾及輸出風(fēng)格化圖像文件夾。model.py中為生成器部分的腳本實(shí)現(xiàn),test.py為推理腳本。Requirements.txt中包含項(xiàng)目所需的依賴包。(2)工程目錄介紹三是通過訪問項(xiàng)目網(wǎng)頁,下載項(xiàng)目zip包到本地后解壓。/bryandlee/animegan2-pytorch(1)源碼下載3.3.1基于AnimeGAN人臉風(fēng)格化-網(wǎng)絡(luò)結(jié)構(gòu)該部分主要為模型加載部分,主要為ConvNormLReLU模塊、倒置殘差塊及生成器網(wǎng)絡(luò)。ConvNormLReLU模塊組合了填充層、卷積層、歸一化層和LeakyReLU激活函數(shù),方便構(gòu)建網(wǎng)絡(luò)層。根據(jù)pad_mode選擇填充方式,包括零填充、復(fù)制填充和反射填充。倒置殘差塊(InvertedResBlock):包含擴(kuò)展層、深度卷積層和點(diǎn)卷積層,使用跳躍連接來增強(qiáng)梯度傳遞.(1)定義帶有卷積層、歸一化層和LeakyReLU激活函數(shù)的模塊(2)倒置殘差塊3.3.2基于AnimeGAN人臉風(fēng)格化-網(wǎng)絡(luò)結(jié)構(gòu)生成器網(wǎng)絡(luò)包含多個(gè)順序塊,每個(gè)塊由ConvNormLReLU組合層組成,在塊之間使用雙線性插值進(jìn)行上采樣處理。最終通過out_layer輸出結(jié)果,使用Tanh激活函數(shù)將輸出限制在[-1,1]范圍內(nèi)。3.4模型推理(a)原始圖像(b)風(fēng)格遷移結(jié)果圖(a)為原始圖像,圖中的紅框是腳本中提供的坐標(biāo);圖(b)為風(fēng)格遷移結(jié)果展示,可以看到該模型能夠?qū)?dòng)漫風(fēng)格遷移到原始圖像中,在具備風(fēng)格特征的同時(shí)能夠保持原始圖像的內(nèi)容特征。下面分別為模型推理腳本及模型推理結(jié)果比對(duì)。其中模型推理腳本中有加載并預(yù)處理圖像,模型加載以及模型推理,結(jié)果圖像保存等部分腳本,見左側(cè)代碼。知識(shí)要點(diǎn)為幫助讀者回顧項(xiàng)目的重點(diǎn)內(nèi)容,總結(jié)項(xiàng)目中涉及到的主要知識(shí)點(diǎn):NeuralStyleTransfe的原理,包括使用深度神經(jīng)網(wǎng)絡(luò)提取圖像的內(nèi)容和風(fēng)格特征,以及使用優(yōu)化算法生成風(fēng)格遷移后的圖像。NeuralStyleTransfe算法的網(wǎng)絡(luò)結(jié)構(gòu)搭建及損失函數(shù)設(shè)置。NeuralStyleTransfe的實(shí)現(xiàn)過程,包括加載和預(yù)處理圖像數(shù)據(jù),構(gòu)建和初始化網(wǎng)絡(luò)模型,設(shè)置和調(diào)整超參數(shù),執(zhí)行優(yōu)化算法,保存和展示風(fēng)格遷移后的圖像。AnimeGAN算法原理,包括生成對(duì)抗網(wǎng)絡(luò)各模塊作用。AnimeGAN的實(shí)現(xiàn)過程,包括圖像加載與預(yù)處理,初始化預(yù)訓(xùn)練模型以及模型推理經(jīng)驗(yàn)總結(jié)在圖像風(fēng)格遷移任務(wù)中,有以下幾個(gè)實(shí)用的建議可以幫助優(yōu)化模型的
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 員工工資提成合同協(xié)議
- 武漢市合同房補(bǔ)充協(xié)議
- 正規(guī)服裝合作合同協(xié)議
- 2025房產(chǎn)如何撰寫買賣合同
- 商品共同經(jīng)營合同協(xié)議
- 櫻桃產(chǎn)地采購合同協(xié)議
- 2025實(shí)習(xí)勞動(dòng)合同模板示例
- 死亡賠償協(xié)議書格式
- 2025簽訂汽車維修合同應(yīng)注意的事項(xiàng)
- 員工下班后協(xié)議書范本
- 2023年廣東省初中生物地理學(xué)業(yè)考試真題集合試卷及答案高清版
- 靜脈輸液輸液反應(yīng)課件
- 廣東省廣州市天河區(qū)2023年中考二模化學(xué)試題(含解析)
- 《動(dòng)物王國開大會(huì)》說課-優(yōu)質(zhì)課件
- 病媒生物監(jiān)測(cè)記錄表
- 醇的性質(zhì)高中化學(xué)一等獎(jiǎng)公開課一等獎(jiǎng)省優(yōu)質(zhì)課大賽獲獎(jiǎng)?wù)n件
- 電廠煙囪外壁防腐工程項(xiàng)目施工方案
- 《教師職業(yè)道德》全書word版
- 唯美復(fù)古風(fēng)人間煙火氣相冊(cè)宣傳模板課件
- 合同制消防員績效考核細(xì)則詳解
- 門禁一卡通系統(tǒng)解決方案
評(píng)論
0/150
提交評(píng)論