




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
TensorFlow實(shí)現(xiàn)服裝圖像分類深度學(xué)習(xí)應(yīng)用技術(shù)服裝圖像分類職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08
服裝圖像分類了解人工智能領(lǐng)域機(jī)器學(xué)習(xí)的概念、分類及應(yīng)用與深度學(xué)習(xí)的概念、訓(xùn)練過程了解神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)掌握激活函數(shù)、損失函數(shù)的意義及作用掌握過擬合、欠擬合的概念及避免策略能夠正確導(dǎo)入訓(xùn)練所需的FashinMNIST數(shù)據(jù)集并查看能夠使用matplotlib庫(kù)實(shí)現(xiàn)數(shù)據(jù)可視化并完成數(shù)據(jù)預(yù)處理能夠使用Keras構(gòu)建簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)模型能夠完成模型的訓(xùn)練、評(píng)估并使用模型進(jìn)行預(yù)測(cè)職業(yè)能力目標(biāo)01知識(shí)目標(biāo)技能目標(biāo)職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08
服裝圖像分類
對(duì)下載服裝圖像數(shù)據(jù)集進(jìn)行預(yù)處理,使用TensorFlow進(jìn)行模型構(gòu)建、模型訓(xùn)練以及評(píng)估。任務(wù)描述任務(wù)要求掌握FashionMNIST數(shù)據(jù)集的加載和處理;學(xué)習(xí)使用TensorFlow框架搭建神經(jīng)網(wǎng)絡(luò);掌握并實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練過程;掌握并實(shí)現(xiàn)模型評(píng)估及預(yù)測(cè)過程。任務(wù)描述與要求02職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08
服裝圖像分類任務(wù)分析如何添加神經(jīng)層?過擬合和欠擬合的區(qū)別是什么?任務(wù)分析與計(jì)劃03任務(wù)計(jì)劃表通過上面的思考,你是否對(duì)本任務(wù)要完成的工作有所了解?讓我們一起來制訂完成本次任務(wù)的實(shí)施計(jì)劃吧!任務(wù)分析與計(jì)劃03項(xiàng)目名稱TensorFlow實(shí)現(xiàn)服裝圖像分類任務(wù)名稱服裝圖像分類計(jì)劃方式自主設(shè)計(jì)計(jì)劃要求請(qǐng)用8個(gè)計(jì)劃步驟來完整描述出如何完成本次任務(wù)序號(hào)任務(wù)計(jì)劃1
2
3
4
5
6
7
8職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08
服裝圖像分類神經(jīng)網(wǎng)絡(luò)204知識(shí)儲(chǔ)備人工智能領(lǐng)域概念1過擬合、欠擬合3人工智能04人工智能(ArtificialIntelligence),英文縮寫為AI。它是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。04人工智能(1)弱人工智能
弱人工智能(ArtificialNarrowIntelligence/ANI),只專注于完成某個(gè)特定的任務(wù),它們只是用于解決特定的具體類的任務(wù)問題而存在,大都是統(tǒng)計(jì)數(shù)據(jù),以此從中歸納出模型。人工智能目前分為弱人工智能、強(qiáng)人工智能和超人工智能。04人工智能
強(qiáng)人工智能(Artificial
Generallnteligence/AGI),屬于人類級(jí)別的人工智能,在各方面都能和人類比肩,它能夠進(jìn)行思考、計(jì)劃、解決問題、抽象思維、理解復(fù)雜理念、快速學(xué)習(xí)和從經(jīng)驗(yàn)中學(xué)習(xí)等操作,并且和人類一樣得心應(yīng)手。(2)強(qiáng)人工智能索菲亞04人工智能
超人工智能(ArtificialSuperintelligence/ASI),在幾乎所有領(lǐng)域都比最聰明的人類大腦都聰明許多,包括科學(xué)創(chuàng)新、通識(shí)和社交技能。在超人工智能階段,人工智能已經(jīng)跨過“奇點(diǎn)”,其計(jì)算和思維能力已經(jīng)遠(yuǎn)超人腦。(3)超人工智能人工智能發(fā)展史04
第一次發(fā)展高潮(1955年—1974年)。計(jì)算機(jī)可以解決代數(shù)應(yīng)用題、證明幾何定理、學(xué)習(xí)和使用英語。
第一次寒冬(1974年—1980年)。AI遭遇到瓶頸。第二次發(fā)展高潮(1980年—1987年)。在這期間目標(biāo)是造出能夠與人對(duì)話、翻譯語言、解釋圖像、能夠像人一樣推理的機(jī)器。第二次寒冬(1987年—1993年)。AI硬件的市場(chǎng)需求突然下跌。第三次發(fā)展高潮(1993年至今)。云計(jì)算、大數(shù)據(jù)、機(jī)器學(xué)習(xí)、自然語言和機(jī)器視覺等領(lǐng)域發(fā)展迅速人工智能機(jī)器學(xué)習(xí)(MachineLearning)住在二環(huán),是人工智能的核心區(qū)域,也是當(dāng)前發(fā)展最迅猛的一部分,子算法流派枝繁葉茂,但思想比較統(tǒng)一。深度學(xué)習(xí)人工智能04人工智能(ArtificialIntelligence)涵蓋范圍最廣,三環(huán)以內(nèi)都可以叫人工智能,它關(guān)注的問題和方法也最雜,包括知識(shí)推理、邏輯規(guī)劃以及機(jī)器人等方面。深度學(xué)習(xí)(DeepLearning)其實(shí)原本是從機(jī)器學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)子算法分支發(fā)展出來的一系列成果,知識(shí)體系一脈相承。
機(jī)器學(xué)習(xí)——人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)的關(guān)系04機(jī)器學(xué)習(xí)的概念
機(jī)器學(xué)習(xí)(MachineLearning,ML),是人工智能的核心,屬于人工智能的一個(gè)分支。
機(jī)器學(xué)習(xí)理論主要是設(shè)計(jì)和分析一些讓計(jì)算機(jī)可以自動(dòng)“學(xué)習(xí)”的算法。機(jī)器學(xué)習(xí)算法是一類從數(shù)據(jù)中自動(dòng)分析獲得規(guī)律,并利用規(guī)律對(duì)未知數(shù)據(jù)進(jìn)行預(yù)測(cè)的算法。所以機(jī)器學(xué)習(xí)的核心就是數(shù)據(jù),算法(模型),算力(計(jì)算機(jī)運(yùn)算能力)。機(jī)器學(xué)習(xí)的分類04
監(jiān)督學(xué)習(xí)(有導(dǎo)師學(xué)習(xí)):輸入數(shù)據(jù)中有導(dǎo)師信號(hào),以概率函數(shù)、代數(shù)函數(shù)或人工神經(jīng)網(wǎng)絡(luò)為基函數(shù)模型,采用迭代計(jì)算方法,學(xué)習(xí)結(jié)果為函數(shù)。
無監(jiān)督學(xué)習(xí)(無導(dǎo)師學(xué)習(xí)):輸入數(shù)據(jù)中無導(dǎo)師信號(hào),采用聚類方法,學(xué)習(xí)結(jié)果為類別。典型的無導(dǎo)師學(xué)習(xí)有發(fā)現(xiàn)學(xué)習(xí)、聚類、競(jìng)爭(zhēng)學(xué)習(xí)等。
強(qiáng)化學(xué)習(xí)(增強(qiáng)學(xué)習(xí)):以環(huán)境反饋(獎(jiǎng)/懲信號(hào))作為輸入,以統(tǒng)計(jì)和動(dòng)態(tài)規(guī)劃技術(shù)為指導(dǎo)的一種學(xué)習(xí)方法。04
機(jī)器學(xué)習(xí)應(yīng)用領(lǐng)域十分廣泛,無論是在軍事領(lǐng)域還是民用領(lǐng)域,都有機(jī)器學(xué)習(xí)算法施展的機(jī)會(huì)。例如:數(shù)據(jù)挖掘、數(shù)據(jù)分類、計(jì)算機(jī)視覺、自然語言處理(NLP)、生物特征識(shí)別、搜索引擎、醫(yī)學(xué)診斷、檢測(cè)信用卡欺詐、機(jī)器翻譯、證券市場(chǎng)分析、DNA序列測(cè)序、語音和手寫識(shí)別、戰(zhàn)略游戲和機(jī)器人運(yùn)用等。機(jī)器學(xué)習(xí)的應(yīng)用
04
深度學(xué)習(xí)(DL,DeepLearning)是機(jī)器學(xué)習(xí)(ML,MachineLearning)領(lǐng)域中一個(gè)新的研究方向,它被引入機(jī)器學(xué)習(xí)使其更接近于最初的目標(biāo)——人工智能(AI,ArtificialIntelligence)。
深度學(xué)習(xí)在搜索技術(shù),數(shù)據(jù)挖掘,機(jī)器學(xué)習(xí),機(jī)器翻譯,自然語言處理,多媒體學(xué)習(xí),語音,推薦和個(gè)性化技術(shù),以及其他相關(guān)領(lǐng)域都取得了很多成果。深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究,含多個(gè)隱藏層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。
深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。
深度學(xué)習(xí)深度學(xué)習(xí)的概念04深度學(xué)習(xí)的訓(xùn)練過程
(1)自下上升的非監(jiān)督學(xué)習(xí)
從底層開始,一層一層地往頂層訓(xùn)練。采用無標(biāo)定數(shù)據(jù)分層訓(xùn)練各層參數(shù),這一步可以看作是一個(gè)無監(jiān)督訓(xùn)練過程,這也是和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)區(qū)別最大的部分,可以看作是特征學(xué)習(xí)過程。(2)自頂向下的監(jiān)督學(xué)習(xí)
通過帶標(biāo)簽的數(shù)據(jù)去訓(xùn)練,誤差自頂向下傳輸,對(duì)網(wǎng)絡(luò)進(jìn)行微調(diào)。基于第一步得到的各層參數(shù)進(jìn)一步優(yōu)調(diào)整個(gè)多層模型的參數(shù),這一步是一個(gè)有監(jiān)督訓(xùn)練過程。04知識(shí)儲(chǔ)備神經(jīng)網(wǎng)絡(luò)2112過擬合、欠擬合3人工智能領(lǐng)域概念神經(jīng)網(wǎng)絡(luò)04
神經(jīng)網(wǎng)絡(luò)的算法目前最受追捧,因?yàn)閾魯±钍朗陌柗ü匪玫降乃惴▽?shí)際上就是基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法。
神經(jīng)網(wǎng)絡(luò)簡(jiǎn)單地說就是將多個(gè)神經(jīng)元連接起來、組成一個(gè)網(wǎng)絡(luò)。一個(gè)多層感知機(jī)的示意圖如右,網(wǎng)絡(luò)的最左邊一層被稱為輸入層,其中的神經(jīng)元被稱為輸入神經(jīng)元。
最右邊及輸出層包含輸出神經(jīng)元,在這個(gè)例子中,只有一個(gè)單一的輸出神經(jīng)元,但一般情況下輸出層也會(huì)有多個(gè)神經(jīng)元。中間層被稱為隱含層,因?yàn)槔锩娴纳窠?jīng)元既不是輸入也不是輸出。030102神經(jīng)元04
神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的基本組成,如果把它畫出來,大概就長(zhǎng)成右圖這樣。
圖中神經(jīng)元左邊的x表示對(duì)神經(jīng)元的多個(gè)輸入,w表示每個(gè)輸入對(duì)應(yīng)的權(quán)重,神經(jīng)元右邊的箭頭表示它僅有一個(gè)輸出。04激活函數(shù)
激活函數(shù)(ActivationFunction)是一種添加到人工神經(jīng)網(wǎng)絡(luò)中的函數(shù),旨在幫助網(wǎng)絡(luò)學(xué)習(xí)數(shù)據(jù)中的復(fù)雜模式。類似于人類大腦中基于神經(jīng)元的模型,激活函數(shù)最終決定了要發(fā)射給下一個(gè)神經(jīng)元的內(nèi)容。能使得神經(jīng)網(wǎng)絡(luò)輸出變?yōu)榉蔷€性映射,且能有效減輕梯度消失問題。04
①Sigmoid函數(shù)是一個(gè)在生物學(xué)中常見的S型函數(shù),也稱為S型生長(zhǎng)曲線。在信息科學(xué)中,由于其單增以及反函數(shù)單增等性質(zhì),Sigmoid函數(shù)常被用作神經(jīng)網(wǎng)絡(luò)的閾值函數(shù),將變量映射到0,1之間。②Sigmoid函數(shù)的缺點(diǎn):傾向于梯度消失;函數(shù)輸出不是以0為中心的,這會(huì)降低權(quán)重更新的效率;執(zhí)行指數(shù)運(yùn)算,計(jì)算機(jī)運(yùn)行得較慢。Sigmoid函數(shù)公式如下
激活函數(shù)04
①Tanh是雙曲函數(shù)中的一個(gè),Tanh()為雙曲正切。tanh函數(shù)和sigmoid函數(shù)的曲線相對(duì)相似。但是它比sigmoid函數(shù)更有一些優(yōu)勢(shì)。
②當(dāng)輸入較大或較小時(shí),Tanh函數(shù)輸出幾乎是平滑的并且梯度較小,這不利于權(quán)重更新。二者的區(qū)別在于輸出間隔,tanh的輸出間隔為1,并且整個(gè)函數(shù)以0為中心,比sigmoid函數(shù)更好;
③在tanh圖中,負(fù)輸入將被強(qiáng)映射為負(fù),而零輸入被映射為接近零。
④注意:在一般的二元分類問題中,tanh函數(shù)用于隱藏層,而sigmoid函數(shù)用于輸出層,但這并不是固定的,需要根據(jù)特定問題進(jìn)行調(diào)整。激活函數(shù)04Relu激活函數(shù)(TheRectifiedLinearUnit),用于隱層神經(jīng)元輸出,相比于sigmoid函數(shù)和tanh函數(shù),它具有如下優(yōu)點(diǎn):當(dāng)輸入為正時(shí),不存在梯度飽和問題。計(jì)算速度快得多。當(dāng)然,它也有缺點(diǎn):
當(dāng)輸入為負(fù)時(shí),ReLU完全失效,在正向傳播過程中,這不是問題。ReLU函數(shù)不是以0為中心的函數(shù)。激活函數(shù)04
①LeakyReLU函數(shù),一種專門設(shè)計(jì)用于解決DeadReLU(神經(jīng)元壞死)問題的激活函數(shù),為了徹底避免deadReLU現(xiàn)象。用一個(gè)類似0.01的小值來初始化神經(jīng)元,從而使得ReLU在負(fù)數(shù)區(qū)域更偏向于激活而不是死掉。LeakyReLU公式如下:激活函數(shù)04
①ELU函數(shù)是針對(duì)ReLU函數(shù)的一個(gè)改進(jìn)型,相比于ReLU函數(shù),在輸入為負(fù)數(shù)的情況下,是有一定的輸出的,而且這部分輸出還具有一定的抗干擾能力。
②與ReLU相比,ELU有負(fù)值,這會(huì)使激活的平均值接近零。
ELU具有ReLU的所有優(yōu)點(diǎn),輸出的平均值接近0,以0為中心。
③
ELU公式如下:激活函數(shù)04損失函數(shù)損失函數(shù)
損失函數(shù)用來評(píng)價(jià)模型的預(yù)測(cè)值和真實(shí)值不一樣的程度,給模型的優(yōu)化指引方向。損失函數(shù)選擇的越好,通常模型的性能越好。不同的模型用的損失函數(shù)一般也不一樣。優(yōu)化神經(jīng)網(wǎng)絡(luò)的基準(zhǔn),就是縮小損失函數(shù)的輸出值。04交叉熵?fù)p失(CrossEntropy):均方差損失與評(píng)價(jià)絕對(duì)誤差損失
均方差(MSE)損失是機(jī)器學(xué)習(xí)、深度學(xué)習(xí)回歸任務(wù)中最常用的一種損失函數(shù),也稱為L(zhǎng)2Loss。平均絕對(duì)誤差(MAE)是另一類常用的損失函數(shù),也稱為L(zhǎng)1Loss。MSE比MAE能夠更快收斂,MAE對(duì)異常點(diǎn)更加魯棒。MSE與MAE區(qū)別損失函數(shù)04
合頁損失函數(shù)是一種將MSE與MAE結(jié)合起來,取兩者優(yōu)點(diǎn)的損失函數(shù)。從圖中可以看到:1)0-1損失:當(dāng)樣本被正確分類時(shí),損失為0;當(dāng)樣本被錯(cuò)誤分類時(shí),損失為1。2)感知機(jī)損失函數(shù):當(dāng)樣本被正確分類時(shí),損失為0;當(dāng)樣本被錯(cuò)誤分類時(shí),損失為-y(wx+b)。3)合頁損失函數(shù):當(dāng)樣本被正確分類且函數(shù)間隔大于1時(shí),合頁損失才是0,否則損失是1-y(wx+b)。也就是說,合頁損失函數(shù)對(duì)學(xué)習(xí)有更高的要求。缺點(diǎn):合頁損失函數(shù)是對(duì)錯(cuò)誤越大的樣本施以更嚴(yán)重的懲罰。可這樣會(huì)導(dǎo)致?lián)p失函數(shù)對(duì)噪音敏感。損失函數(shù)04
①softmax函數(shù),又稱歸一化指數(shù)函數(shù)。
我們知道概率有兩個(gè)性質(zhì):預(yù)測(cè)的概率為非負(fù)數(shù);各種預(yù)測(cè)結(jié)果概率之和等于1。softmax就是將在負(fù)無窮到正無窮上的預(yù)測(cè)結(jié)果按照這兩步轉(zhuǎn)換為概率的。
②softmax第一步就是將模型的預(yù)測(cè)結(jié)果轉(zhuǎn)化到指數(shù)函數(shù)上。為了確保各個(gè)預(yù)測(cè)結(jié)果的概率之和等于1,只需要將轉(zhuǎn)換后的結(jié)果進(jìn)行歸一化處理。損失函數(shù)04
交叉熵?fù)p失函數(shù),也稱為對(duì)數(shù)損失或者logistic損失。交叉熵能夠衡量同一個(gè)隨機(jī)變量中的兩個(gè)不同概率分布的差異程度,在機(jī)器學(xué)習(xí)中就表示為真實(shí)概率分布與預(yù)測(cè)概率分布之間的差異。交叉熵的值越小,模型預(yù)測(cè)效果就越好。
損失函數(shù)神經(jīng)網(wǎng)絡(luò)204知識(shí)儲(chǔ)備人工智能領(lǐng)域概念1過擬合、欠擬合3104過擬合概念
訓(xùn)練準(zhǔn)確率和測(cè)試準(zhǔn)確率之間的差距代表過擬合。過擬合是指機(jī)器學(xué)習(xí)模型在新的、以前未曾見過的輸入上的表現(xiàn)不如在訓(xùn)練數(shù)據(jù)上的表現(xiàn)。簡(jiǎn)言之,過擬合就是訓(xùn)練時(shí)的結(jié)果很好,但是在預(yù)測(cè)時(shí)結(jié)果不好的情況。避免過擬合的策略04
更多的數(shù)據(jù)能夠讓模型學(xué)習(xí)的更加全面。數(shù)據(jù)集擴(kuò)增就是要得到更多符合要求的數(shù)據(jù)。
結(jié)構(gòu)風(fēng)險(xiǎn)損失函數(shù)就是經(jīng)驗(yàn)損失函數(shù)+表示模型復(fù)雜度的正則化,正則項(xiàng)通常選擇L1或者L2正則化。結(jié)構(gòu)風(fēng)險(xiǎn)損失函數(shù)能夠有效地防止過擬合。
(1)數(shù)據(jù)集擴(kuò)增(2)正則化
在訓(xùn)練的過程中,記錄到目前為止最好的驗(yàn)證正確率,當(dāng)連續(xù)10次Epoch,驗(yàn)證正確率沒有達(dá)到最佳Accuracy,就可以停止迭代了。
數(shù)據(jù)較少時(shí),降低模型復(fù)雜度是比較有效的方法,適當(dāng)?shù)慕档湍P蛷?fù)雜度可以降低模型對(duì)噪聲的擬合度。(3)提前停止訓(xùn)練(4)降低模型復(fù)雜度欠擬合概念04
欠擬合就是模型沒有很好地捕捉到數(shù)據(jù)特征,不能夠很好地?cái)M合數(shù)據(jù)。模型不夠復(fù)雜或者訓(xùn)練數(shù)據(jù)過少時(shí),模型均無法捕捉訓(xùn)練數(shù)據(jù)的基本(或者內(nèi)在)關(guān)系,會(huì)出現(xiàn)偏差。這樣一來,模型一直會(huì)錯(cuò)誤地預(yù)測(cè)數(shù)據(jù),從而導(dǎo)致準(zhǔn)確率降低,這種現(xiàn)象稱之為模型欠擬合。04避免欠擬合策略增加新特征添加多項(xiàng)式特征減少正則化參數(shù),使用非線性模型調(diào)整模型的容量(capacity)集成學(xué)習(xí)方法。避免欠擬合策略職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08
服裝圖像分類05任務(wù)實(shí)施模型搭建2模型任務(wù)準(zhǔn)備1模型訓(xùn)練與評(píng)估3模型預(yù)測(cè)4模型任務(wù)準(zhǔn)備05本任務(wù)使用TensorFlow版本為2.5.01、安裝TensorFlow代碼如下:!sudopipinstalltensorflow==2.5.005本任務(wù)使用了tf.keras。2、導(dǎo)入依賴包tf.keras是TensorFlow中用來構(gòu)建和訓(xùn)練模型的高級(jí)API。模型任務(wù)準(zhǔn)備05加載數(shù)據(jù)集會(huì)返回四個(gè)NumPy數(shù)組:3、導(dǎo)入FashionMNIST數(shù)據(jù)集訓(xùn)練集:train_images和train_labels,模型使用它們的數(shù)據(jù)進(jìn)行學(xué)習(xí)。測(cè)試集:test_images和test_labels,它們的數(shù)據(jù)會(huì)被用來對(duì)模型進(jìn)行測(cè)試。模型任務(wù)準(zhǔn)備05標(biāo)簽與類對(duì)應(yīng)表圖像是28x28的NumPy數(shù)組,像素值介于0到255之間。模型任務(wù)準(zhǔn)備05Fashion_Mnist數(shù)據(jù)集訓(xùn)練集60,000個(gè)圖像來訓(xùn)練網(wǎng)絡(luò),使用10,000個(gè)圖像來評(píng)估網(wǎng)絡(luò)學(xué)習(xí)對(duì)圖像分類的準(zhǔn)確率。在訓(xùn)練模型之前,先瀏覽訓(xùn)練集的格式。4、瀏覽數(shù)據(jù)模型任務(wù)準(zhǔn)備05任務(wù)實(shí)施模型搭建2模型任務(wù)準(zhǔn)備1模型訓(xùn)練與評(píng)估3模型預(yù)測(cè)4051、添加神經(jīng)層神經(jīng)網(wǎng)絡(luò)的基本組成部分是層。層會(huì)從向其饋送的數(shù)據(jù)中提取表示形式。大多數(shù)深度學(xué)習(xí)都包括將簡(jiǎn)單的層鏈接在一起。大多數(shù)層(如tf.keras.layers.Dense)都具有在訓(xùn)練期間才會(huì)學(xué)習(xí)的參數(shù)。模型參數(shù):模型搭建Flatten()展平層,將tensor展開,不做計(jì)算Dense()全連接層05在準(zhǔn)備對(duì)模型進(jìn)行訓(xùn)練之前,還需要再對(duì)其進(jìn)行一些設(shè)置。以下內(nèi)容是在模型的編譯步驟中添加的:2、編譯模型損失函數(shù)-用于測(cè)量模型在訓(xùn)練期間的準(zhǔn)確率。優(yōu)化器-決定模型如何根據(jù)其看到的數(shù)據(jù)和自身的損失函數(shù)進(jìn)行更新。指標(biāo)-用于監(jiān)控訓(xùn)練和測(cè)試步驟。模型搭建05#編譯模型tf.keras.Mpile(optimizer,loss,metrics)模型搭建
optimizer:模型訓(xùn)練使用的優(yōu)化器,可以從tf.keras.optimizers中選擇。loss:模型優(yōu)化時(shí)使用的損失值類型,可以從tf.keras.losses中選擇。metrics:訓(xùn)練過程中返回的矩陣評(píng)估指標(biāo),可以從tf.keras.metrics中選擇。05任務(wù)實(shí)施模型搭建2模型任務(wù)準(zhǔn)備1模型訓(xùn)練與評(píng)估3模型預(yù)測(cè)405開始訓(xùn)練,調(diào)用model.fit方法,這樣命名是因?yàn)樵摲椒〞?huì)將模型與訓(xùn)練數(shù)據(jù)進(jìn)行“擬合”:1、向模型饋送數(shù)據(jù)tf.keras.Model.fit(x,y,batch_size,epochs,validation_data)x:訓(xùn)練集數(shù)組。y:訓(xùn)練集標(biāo)簽數(shù)組。batch_size:批處理數(shù)量。(此次省略)epochs:迭代次數(shù)。validation_data:驗(yàn)證集的圖片和標(biāo)簽數(shù)組。(此次省略)模型訓(xùn)練與評(píng)估05比較模型在測(cè)試數(shù)據(jù)集上的表現(xiàn)2、評(píng)估準(zhǔn)確率模型訓(xùn)練與評(píng)估tf.keras.Model.evaluate(x,y,batch_size=None,verbose=1):x:測(cè)試集圖片數(shù)組。y:測(cè)試集標(biāo)簽數(shù)組。batch_size:批處理數(shù)量。verbose:模式選擇,0為靜音模式,1為正常模式,有處理進(jìn)度條。053、模型預(yù)測(cè)在模型經(jīng)過訓(xùn)練后,您可以使用它對(duì)一些圖像進(jìn)行預(yù)測(cè)。模型具有線性輸出,即logits。您可以附加一個(gè)softmax層,將logits轉(zhuǎn)換成更容易理解的概率。np.argmax():返回?cái)?shù)組中最大值的index。模型訓(xùn)練與評(píng)估054、驗(yàn)證預(yù)測(cè)結(jié)果正確的預(yù)測(cè)標(biāo)簽為藍(lán)色,錯(cuò)誤的預(yù)測(cè)標(biāo)簽為紅色。數(shù)字表示預(yù)測(cè)標(biāo)簽的百分比(總計(jì)為100)。模型訓(xùn)練與評(píng)估05任務(wù)實(shí)施模型搭建2模型任務(wù)準(zhǔn)備1模型訓(xùn)練與評(píng)估3模型預(yù)測(cè)405從測(cè)試數(shù)據(jù)集中抓取一個(gè)圖像進(jìn)行預(yù)測(cè)。1、模型預(yù)測(cè)模型預(yù)測(cè)tf.keras.Model.predict(x,batch_size=None,verbose=0)x:圖片數(shù)據(jù)數(shù)組batch_size:批處理數(shù)量。verbose:模式選擇,0為靜音模式,1為正常模式,有處理進(jìn)度條。職業(yè)能力目標(biāo)01任務(wù)描述與要求02任務(wù)分析與計(jì)劃03知識(shí)儲(chǔ)備04任務(wù)實(shí)施05任務(wù)檢查與評(píng)價(jià)06任務(wù)小結(jié)07任務(wù)拓展08
服裝圖像分類任務(wù)檢查與評(píng)價(jià)061、請(qǐng)參照評(píng)價(jià)標(biāo)準(zhǔn)完成自評(píng)和對(duì)其他小組的互評(píng)。2、各組請(qǐng)代表分析本組任務(wù)實(shí)施經(jīng)驗(yàn)。項(xiàng)目名稱Tensorflow實(shí)現(xiàn)服裝圖像分類任務(wù)名稱服裝圖像分類評(píng)價(jià)方式可采用自評(píng)、互評(píng)、老師評(píng)價(jià)等方式說
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 綜合接入?yún)f(xié)議書
- 綠化修復(fù)協(xié)議書
- 配套公建協(xié)議書
- 競(jìng)拍保證協(xié)議書
- 浴足店合作合同協(xié)議書
- 英國(guó)數(shù)據(jù)協(xié)議書
- 老李離婚協(xié)議書
- 干砌石擋墻外包協(xié)議書
- 道閘安裝協(xié)議書
- 外立面改造安全協(xié)議書
- 在校生《學(xué)籍證明》申請(qǐng)表(模板)
- 電梯故障維修記錄
- 員工招聘外文翻譯文獻(xiàn)
- 中國(guó)世界文化遺產(chǎn)課件
- 預(yù)防接種工作單位資質(zhì)申請(qǐng)表
- 2022年四川省成都市青羊區(qū)七下期末數(shù)學(xué)試卷
- 智慧健康管理ppt課件
- 天牛的識(shí)別與防治PPT演示課件(PPT 99頁)
- 英語51閱讀理解主旨題(best-title)答題技巧
- 孔距尺寸的標(biāo)注與孔的位置度公差的確定
- 服裝工藝(各工序)單價(jià)表
評(píng)論
0/150
提交評(píng)論