機器學(xué)習(xí) 教案 龐俊彪 第1次課-第13次課 機器學(xué)習(xí)與模式識別引論-決策樹_第1頁
機器學(xué)習(xí) 教案 龐俊彪 第1次課-第13次課 機器學(xué)習(xí)與模式識別引論-決策樹_第2頁
機器學(xué)習(xí) 教案 龐俊彪 第1次課-第13次課 機器學(xué)習(xí)與模式識別引論-決策樹_第3頁
機器學(xué)習(xí) 教案 龐俊彪 第1次課-第13次課 機器學(xué)習(xí)與模式識別引論-決策樹_第4頁
機器學(xué)習(xí) 教案 龐俊彪 第1次課-第13次課 機器學(xué)習(xí)與模式識別引論-決策樹_第5頁
已閱讀5頁,還剩22頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

《機器學(xué)習(xí)》教案《機器學(xué)習(xí)》教案適用專業(yè):機器人、人工智能教學(xué)年度:教學(xué)班級:授課教師課程名稱授課地點授課時間第1次章節(jié)題目機器學(xué)習(xí)與模式識別引論教學(xué)目的讓學(xué)生了解什么是人工智能教學(xué)重點什么是機器學(xué)習(xí)什么是模式識別什么是人工智能教學(xué)難點機器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)從記憶轉(zhuǎn)化為理解概念的由來模式識別的分類教學(xué)方法啟發(fā)式,案例教具多媒體,程序運行結(jié)果,黑板板書案例設(shè)計一個典型的模式識別過程包括教學(xué)內(nèi)容人工智能(artificialintelligence,AI)定義為:任何感知環(huán)境并采取行動以類似人的方式實現(xiàn)其目標的設(shè)備,即一種能夠像人類一樣進行思考、判斷、行動等,能夠使用類似人類的方式對外界刺激做出反應(yīng)的智能機器。模式識別:利用統(tǒng)計規(guī)律來發(fā)現(xiàn)數(shù)據(jù)中的規(guī)律,并利用該規(guī)律來進行預(yù)測,尤其將數(shù)據(jù)預(yù)測分類到不同的類別中。一個典型的模式識別過程包括:數(shù)據(jù)抽取過程中的規(guī)范化,數(shù)據(jù)的預(yù)處理,數(shù)據(jù)的規(guī)范化,根據(jù)問題建立模型,訓(xùn)練模型,利用模型進行預(yù)測,系統(tǒng)地部署,根據(jù)預(yù)測結(jié)果對上述過程進行改進。上述過程中,各個階段需要注重的典型問題及動機。機器學(xué)習(xí):對于某類任務(wù)T和性能指標P,若一個計算機程序在任務(wù)T中以指標P的性能隨著經(jīng)驗E而自我改善,則我們稱該程序在從經(jīng)驗E中學(xué)習(xí)。傳統(tǒng)機器學(xué)習(xí)關(guān)注模式識別中“根據(jù)問題建立模型”,并對模型的理論特點進行分析,包括模型精度的上下解,模型的收斂性,模型的等效性。教學(xué)過程由手寫字符問題引出人工智能從人工智能的發(fā)展引入關(guān)于沿著正確方法堅持的思政教育重點介紹數(shù)學(xué)概念的理解應(yīng)該從物理概念出發(fā)以beyes公式的理解,從計算轉(zhuǎn)換為對證據(jù)的累積的過程教學(xué)總結(jié)授課教師課程名稱授課地點授課時間第2次章節(jié)題目模式識別數(shù)學(xué)基礎(chǔ)教學(xué)目的讓學(xué)生了解模式識別數(shù)學(xué)公式教學(xué)重點貝葉斯公式函數(shù)的凹凸性導(dǎo)數(shù)的含義教學(xué)難點機器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)增強學(xué)生的對數(shù)學(xué)和物理的理解能力教學(xué)方法啟發(fā)式,案例教具多媒體,程序運行結(jié)果,黑板板書案例設(shè)計不知道概率分布情況下對數(shù)據(jù)進行最大釋然估計,最大后驗估計教學(xué)內(nèi)容貝葉斯公式理解證據(jù),先驗,消元的含義;理解貝葉斯公式證據(jù)的增加會帶來新的先驗。函數(shù)的凹凸性凹凸函數(shù)的判斷方法;凸函數(shù)與Jessian不等式。導(dǎo)數(shù)的含義:函數(shù)變化速度最快的方向-〉一階梯度下降優(yōu)化方法;函數(shù)的形狀在局部的近似-〉函數(shù)在局部區(qū)域內(nèi)的逼近方法。泰勒展開:函數(shù)在局部點任意階的近似-〉函數(shù)在局部區(qū)域內(nèi)的逼近方法和不等式證明。基于梯度下降的優(yōu)化基于梯度下降的優(yōu)化公式;對于凹函數(shù)而言,理解學(xué)習(xí)率與梯度下降迭代次數(shù)的關(guān)系;理解梯度下降過程,并能畫出梯度下降中,梯度,學(xué)習(xí)率和優(yōu)化點的幾何關(guān)系;一階梯度下降與函數(shù)一階泰勒展開的關(guān)系;理解學(xué)習(xí)率大小與目標函數(shù)優(yōu)化速度之間的關(guān)系;對于用一個向量組成的變量而言,理解學(xué)習(xí)率對于向量不同分量最有解的影響;會用程序?qū)崿F(xiàn)基于梯度下降的目標優(yōu)化算法;貝葉斯決策理與代價矩陣貝葉斯決策是考慮預(yù)測錯誤下引發(fā)代價所帶來的期望損失最小化;代價矩陣本質(zhì)上體現(xiàn)問題決策錯誤的損失函數(shù);貝葉斯決策引入了樣本點所在空間位置的概率,而不在簡單歸約為每個樣本的概率一樣。后者是帶來樣本不平衡問題中損失函數(shù)設(shè)計所考慮的重要問題。基本編程能力會使用OPENCV,PYTORCH,Sci-Py,scikit-learn,NumPy,scikit-image,Matplotlib利用貝葉斯公式作為推理依據(jù),實現(xiàn)MNIST手寫字符識別理解模式識別基本過程中的步驟,數(shù)據(jù)的預(yù)處理,數(shù)據(jù)的規(guī)范化,根據(jù)問題建立模型,訓(xùn)練模型,利用模型進行預(yù)測,系統(tǒng)地部署,根據(jù)預(yù)測結(jié)果對上述過程進行改進;理解先驗概率,似然概率的計算過程;理解樸素貝葉斯在MNIST中能成功地條件并能找到實驗證據(jù);理解拉普拉斯平滑的動機,原理和計算過程;能通過實驗觀測,學(xué)生意識到直方圖建立概率的編程過程和局限性;能嘗試利用已學(xué)的知識(如圖象處理)實現(xiàn)“數(shù)據(jù)的預(yù)處理”的優(yōu)化而提高性能;教學(xué)過程1.講解數(shù)的凹凸性,導(dǎo)數(shù)的含義:2.留梯度下降和taylor展開之間的關(guān)系作為作業(yè)?并留梯度下降的作業(yè)?3.對手寫數(shù)字識別過程的討論教學(xué)總結(jié)授課教師課程名稱授課地點授課時間第3次章節(jié)題目參數(shù)化的概率密度估計教學(xué)目的讓學(xué)生了解頻率學(xué)派、貝葉斯學(xué)派的基本觀點教學(xué)重點頻率學(xué)派的觀點貝葉斯學(xué)派的觀點和優(yōu)點最大似然估計教學(xué)難點機器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)從記憶轉(zhuǎn)化為理解概念的由來增強學(xué)生的對數(shù)學(xué)和物理的理解能力教學(xué)方法啟發(fā)式,案例教具多媒體,程序運行結(jié)果,黑板板書案例設(shè)計不知道概率分布情況下對數(shù)據(jù)進行最大釋然估計,最大后驗估計教學(xué)內(nèi)容頻率學(xué)派的基本觀點概率是一個固定的值;概率會隨著樣本數(shù)量的增加而逐漸逼近一個真實的固定值;頻率學(xué)派認為事實的規(guī)律完全來源于對于似然函數(shù)的估計;貝葉斯學(xué)派的基本觀點概率不是一個固定值,而是一個隨機變量;先驗分布代表我們對過去知識的理解,而似然函數(shù)代表目前收集到數(shù)據(jù)中獲得到的證據(jù),概率分布應(yīng)該由先驗和事實共同決定;最大似然估計最大似然估計的本質(zhì)是讓樣本出現(xiàn)的概率最大化,即對數(shù)據(jù)規(guī)律的掌握等價于數(shù)據(jù)的最大化出現(xiàn);對數(shù)據(jù)規(guī)律用參數(shù)θ進行最大似然估計(記憶)后,我們可以利用貝葉斯公式進行預(yù)測;樣本的獨立同分布假設(shè)讓最大似然估計的聯(lián)合概率密度變?yōu)檫B乘的形式:P理解最大似然估計中,我們必須對概率密度的形式進行提前約定中存在的問題,這等價于頻率學(xué)派認為概率是固定值的問題。高斯分布(正態(tài)分布)掌握基本的數(shù)學(xué)公式;理解高斯分布中均值、方差的含義;通過高斯分布對參數(shù)的估計,理解無偏估計是理論上好的估計方法,而有偏估計理論上是壞的方法;理解大數(shù)定律關(guān)于某個變量說明是最終收斂與正態(tài)分布;理解置信度是對估計不確定性的一種建模;理解高斯分布為short-tailed分布;理解好的估計方法不僅是無偏估計,而且估計的方差還小。掌握多維高斯分布(多元正態(tài)分布)理解多維高斯分布中協(xié)方差矩陣是半正定、對稱矩陣的含義(半正定:);由于協(xié)方差矩陣的大小與特征向量的平方關(guān)系,我們需要對協(xié)方差矩陣進行不同程度的約簡,包括:保留協(xié)方差矩陣的所有元素,只保留對角線上的元素,和只保留對角線上的元素并且對角線上的元素都相同。教學(xué)過程由手寫字符問題的識別引出概率密度估計的重要性用例子說明頻率派的特點從物理概念出發(fā)以beyes公式的理解,從計算轉(zhuǎn)換為對證據(jù)的累積的過程講解高斯分布,多元高斯分布的區(qū)別,符號中的具體含義,并對手寫字符進行識別的利用教學(xué)總結(jié)授課教師課程名稱授課地點授課時間第4次章節(jié)題目參數(shù)化的概率密度估計教學(xué)目的讓學(xué)生了解頻率學(xué)派、貝葉斯學(xué)派的基本觀點教學(xué)重點最大后驗估計貝葉斯估計教學(xué)難點機器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)從記憶轉(zhuǎn)化為理解概念的由來增強學(xué)生的對數(shù)學(xué)和物理的理解能力教學(xué)方法啟發(fā)式,案例教具多媒體,程序運行結(jié)果,黑板板書案例設(shè)計不知道概率分布情況下對數(shù)據(jù)進行最大釋然估計,最大后驗估計教學(xué)內(nèi)容最大后驗估計最大后驗估計是融合先驗知識的最大似然估計;最大后驗估計也是將參數(shù)θ無關(guān)的消元項進行省略的最大似然估計;理解高斯分布先驗下的參數(shù)估計等價于Tikhonovregularization吉洪諾夫正則化(L2正則化)。理解先驗選擇是靠經(jīng)驗選擇的過程,不同的先驗代表我們對模型參數(shù)的不同理解和約束;貝葉斯估計貝葉斯估計和貝葉斯公式是兩回事;貝葉斯估計是對參數(shù)θ出現(xiàn)概率的完全估計;貝葉斯估計中,參數(shù)θ的最優(yōu)值是參數(shù)θ的期望;貝葉斯估計難以計算,所以引入共軛先驗;教學(xué)過程1.引出最大后驗估計2.從物理概念出發(fā)以beyes公式的理解,從計算轉(zhuǎn)換為對證據(jù)的累積的過程3.最大釋然估計與貝葉斯估計的比較4.給出兩者在比較上的差別5.講解最大后驗估計和正則化之間的區(qū)別,注意講解不同正則化的先驗不一樣,造成的結(jié)果也不一樣教學(xué)總結(jié)授課教師課程名稱授課地點授課時間第5次章節(jié)題目感知機教學(xué)目的感知機的由來感知機中替代函數(shù)的想法感知機的加速問題教學(xué)重點替代函數(shù)的觀點教學(xué)難點機器學(xué)習(xí)模型設(shè)計原理教學(xué)方法啟發(fā)式,案例教具多媒體,程序運行結(jié)果,黑板板書案例設(shè)計課堂上對高斯生成的兩類可分數(shù)據(jù)進行分類演示教學(xué)內(nèi)容感知機對單個神經(jīng)元進行模擬進行分類感知機將模式在歐式空間中(向量空間)通過內(nèi)積的方式進行分類證據(jù)的積累;偏置b是與符號函數(shù)sign(x)向量空間意味著同一向量中不同的維度應(yīng)具有可比性,例如,a表示身高(米),而b表示體重(KG)直接組成向量[a,b]T感知機的損失函數(shù)感知的損失函數(shù)是最小化錯分樣本的函數(shù)間隔和;函數(shù)間隔表示樣本點在分類函數(shù)在特征空間中對樣本的可分性;替代函數(shù)的思想是模式識別和機器學(xué)習(xí)的重要策略。感知機的學(xué)習(xí)算法梯度下降算法對感知機目標函數(shù)的具體應(yīng)用;一次優(yōu)化迭代中,用所有樣本的為梯度下降,用小部分樣本的為最小批梯度下降,用一個樣本的為隨機梯度下降;感知機的實現(xiàn)過程中應(yīng)建立對損失函數(shù),前后參數(shù)范數(shù)變化、訓(xùn)練集和驗證集上的性能指標隨著訓(xùn)練迭代次數(shù)的變化曲線。學(xué)會觀測算法的運行特點,從而發(fā)現(xiàn)算法的調(diào)試錯誤和改進。理解按照“觀察”(發(fā)現(xiàn)問題)-〉“假設(shè)”(解決思路)-〉“實驗”(實現(xiàn)思路)-〉“評估”(評價思路的合理性)的思路來分析算法模型。教學(xué)過程1、感知機對生物的模擬2、感知機的損失函數(shù)的設(shè)計與替換3、感知機的學(xué)習(xí)算法,對梯度下降,隨機梯度下降,小批量梯度下降的比較4、講解歐式空間中語義點和單位一致性5、講解機器學(xué)習(xí)算法一般流程教學(xué)總結(jié)授課教師課程名稱授課地點授課時間第6次章節(jié)題目感知機教學(xué)目的感知機的訓(xùn)練問題機器學(xué)習(xí)算法的一半流程教學(xué)重點模型分析的從原始問題的數(shù)學(xué)描述,梯度分析,對偶角度分析教學(xué)難點模型分析的角度教學(xué)方法啟發(fā)式,案例教具多媒體,程序運行結(jié)果,黑板板書案例設(shè)計課堂上對高斯生成的兩類可分數(shù)據(jù)進行分類演示教學(xué)內(nèi)容數(shù)據(jù)歸一化最小最大線性歸一化只能將特征線性變換到0-1的區(qū)間,解決特征取值范圍的問題;零均值歸一化將特征的中心進行對齊,并變換到均值為0、標準差為1的分布上,能解決特征的對齊問題;特征的對齊本質(zhì)是解決將多個不同類型的特征強扭到同一個向量空間帶來的原點不對齊和不可比問題;不同的數(shù)據(jù)和問題會利用到不同的歸一化;歸一化會影響模型是否能快速收斂到理想的局部最小點;歸一化也會影響模型預(yù)測的穩(wěn)定性。感知機的改進從決策面對于隨機變量隨機性進行約束引入margin的概念;觀測margin的有無會極大提高決策面穩(wěn)定性。感知機的對偶問題感知機解的對偶問題是從隨機梯度下降的迭代公式展開獲得;感知機解的對偶形式將梯度下降的向量空間轉(zhuǎn)換為樣本之間的內(nèi)乘積空間;Gram矩陣計算量是樣本數(shù)量的平方;感知機解的對偶形式是對解的另在解的迭代過程的理解;損失函數(shù),損失函數(shù)的梯度和解的最終形式是我們理解模型的三個層次和方法。教學(xué)過程1、講解歸一化的本質(zhì)是語義對齊和量岡對齊2、講解機器學(xué)習(xí)算法改進是靠對數(shù)據(jù)和問題的理解3、講解對偶問題本質(zhì)上是算法求解過程的直接表示,并對其意義進行講解教學(xué)總結(jié)授課教師課程名稱授課地點授課時間第7次章節(jié)題目Logistic回歸教學(xué)目的讓學(xué)生對Logistic回歸的模型形式、目標函數(shù)的定義、目標函數(shù)的優(yōu)化求解有深入的理解。教學(xué)重點Sigmoid函數(shù)的物理意義Sigmoid最大釋然估計的等價于交叉熵交叉熵與KL散度關(guān)系機器學(xué)習(xí)算法的一般流程Logistic回歸模型Logistic回歸模型的參數(shù)估計教學(xué)難點機器學(xué)習(xí)模型設(shè)計原理模型分析的角度教學(xué)方法啟發(fā)式,案例教具多媒體,程序運行結(jié)果,黑板板書案例設(shè)計細菌數(shù)量增長規(guī)律;對sigmoid函數(shù)的近似和特征的變換演示教學(xué)內(nèi)容邏輯斯回歸的由來如何建立了變量總結(jié)與事件發(fā)生概率之間的關(guān)系;如何利用最大似然估計等手段進行建模。Sigmoid函數(shù)的物理意義Sigmoid函數(shù)的導(dǎo)數(shù)計算過程;Sigmoid函數(shù)能將證據(jù)轉(zhuǎn)換為概率的過程;Sigmoid最大釋然估計的等價于交叉熵;交叉熵與KL散度關(guān)系。邏輯斯回歸的最大似然估計與感知機相比,邏輯斯回歸將符號函數(shù)轉(zhuǎn)換為Sigmoid函數(shù);邏輯斯回歸將證據(jù)轉(zhuǎn)換為事件出現(xiàn)的概率后,對2分類問題用0-1概率密度進行建模,用最大似然估計進行參數(shù)的密度估計;邏輯斯回歸的損失函數(shù)等價于交叉熵;邏輯斯回歸解仍然是關(guān)注難分的樣本點。教學(xué)過程由案例引入如何建立對輸入變量的“總結(jié)”與事件發(fā)生概率之間的關(guān)系的問題。探討如何利用最大似然估計等手段進行建模。介紹機器學(xué)習(xí)算法的一般流程最大斯然估計與概率密度之間的關(guān)系Sigmoid含義的講解Sigmoid與交叉熵的講解邏輯回歸的建模過程,梯度下降的求解過程,邏輯回歸的學(xué)習(xí)方法教學(xué)總結(jié)授課教師課程名稱授課地點授課時間第8次章節(jié)題目Logistic回歸教學(xué)目的將二分類的Logistic回歸擴展到多分類問題;探討多類分類與數(shù)據(jù)不平衡問題;讓學(xué)生了解機器學(xué)習(xí)的基本流程,基本評價方式。教學(xué)重點多類分類與數(shù)據(jù)不平衡問題;數(shù)據(jù)不均衡處理原則分類器性能評價準則教學(xué)難點如何實現(xiàn)多類分類而避免樣本數(shù)量的不均衡問題;如何設(shè)計評價指標;教學(xué)方法啟發(fā)式教具多媒體,程序運行結(jié)果,黑板板書案例設(shè)計經(jīng)典評價指標(精度,召回率)教學(xué)內(nèi)容多類分類問題多類分類問題用1對多會帶來類別的不平衡問題;歸一化指數(shù)函數(shù)(softmax函數(shù))將證據(jù)轉(zhuǎn)換為多類預(yù)測的概率密度;Softmax函數(shù)特點是將證據(jù)響應(yīng)大的類繼續(xù)拔高,而將響應(yīng)低的類進行壓抑。數(shù)據(jù)不均衡分類問題數(shù)據(jù)不均衡是普遍存在的現(xiàn)實問題,是現(xiàn)實long-tailed現(xiàn)象的描述;處理數(shù)據(jù)不均衡的手段有過采樣和欠采樣兩種手段。分類性能評價在數(shù)據(jù)均衡的情況下,準確率就能反映系統(tǒng)的性能,但在數(shù)據(jù)不均衡的情況下,我們需要引入二分類的混淆矩陣;理解利用二元分類的混淆矩陣正對少量樣本類的評估方法,查準率和召回率;理解ROC曲線的計算過程。教學(xué)過程由Logistic回歸引入多分類問題;講解多分類問題中的數(shù)據(jù)不均衡問題;數(shù)據(jù)不均衡問題的處理準則;講解分類性能的評價標準及設(shè)計準則;教學(xué)總結(jié)授課教師課程名稱授課地點授課時間第9次章節(jié)題目線性可分支持向量機教學(xué)目的讓學(xué)生了解什么是線性可分支持向量機教學(xué)重點線性可分支持向量機的對偶問題教學(xué)難點理解支持向量的定義教學(xué)方法啟發(fā)式,案例教具多媒體,程序運行結(jié)果,黑板板書案例設(shè)計線性支持向量機對分類的理解是找一些分類“最壞”的向量,然后再讓這些“最壞”情況下的向量具有最壞的分類性能教學(xué)內(nèi)容線性可分支持向量機樣本點到分類超平面的距離是點到面的垂直距離;理解向量空間中一個向量的方向和長度的定義;線性支持向量機對分類的理解是找一些分類“最壞”的向量,然后再讓這些“最壞”情況下的向量具有最壞的分類性能;樣本函數(shù)間隔之間的序會改變模型的分類性能,但樣本的函數(shù)間隔整體變化不會;合頁損失是0-1損失的上界,是一種margin約束下函數(shù)間隔最大化的方法;支持向量機是一種帶L2正則化的合頁損失。線性可分支持向量機的對偶問題支持向量機的對偶問題是將復(fù)雜的不等式約束轉(zhuǎn)化為簡單而易于求解的不等式約束;KKT條件是對一般不等式約束的標準求解思路,KKT條件能轉(zhuǎn)換問題,但不能保證轉(zhuǎn)換后的問題一定易于求解;理解支持向量的定義;能從支持向量機的對偶形式中推斷出支持向量機只含有稀疏的支持向量;能從支持向量機對偶問題解的形式分析權(quán)重w是多個支持向量的線性疊加;能用公開的優(yōu)化工具包對支持向量機的對偶問題進行優(yōu)化。教學(xué)過程線性支持向量機對分類的理解是找一些分類“最壞”的向量,然后再讓這些“最壞”情況下的向量具有最壞的分類性能理解支持向量的定義;能從支持向量機的對偶形式中推斷出支持向量機只含有稀疏的支持向量;能用公開的優(yōu)化工具包對支持向量機的對偶問題進行優(yōu)化。教學(xué)總結(jié)授課教師課程名稱授課地點授課時間第10次章節(jié)題目線性不可分支持向量機教學(xué)目的讓學(xué)生了解線性不可分支持向量機教學(xué)重點掌握線性不可分支持向量機的對偶求解過程梅林理論判斷那些函數(shù)是核函數(shù);教學(xué)難點線性不可分支持向量機的對偶求解過程教學(xué)方法啟發(fā)式,案例教具多媒體,程序運行結(jié)果,黑板板書案例設(shè)計多項式核函數(shù)和高斯核函數(shù)案例教學(xué)內(nèi)容線性不可分支持向量機理解利用軟間隔的方法對不可分支持向量機轉(zhuǎn)換為可分的支持向量機;掌握線性不可分支持向量機的對偶求解過程;線性不可分支持向量機可分為:間隔內(nèi)支持向量,位于決策面的支持向量,和被誤分的支持向量。線性可分支持向量機的非線性化線性模型轉(zhuǎn)換為非線性模型依靠對特征的非線性變換;核技巧是一類特殊的非線性核函數(shù),該函數(shù)能將低維的特征變換到高維空間后再進行內(nèi)積計算所需的計算量;針對某類數(shù)據(jù)(問題)的非線性分類能力,我們需要不同的非線性變換;梅林理論判斷那些函數(shù)是核函數(shù);掌握多項式核函數(shù)和高斯核函數(shù)。教學(xué)過程首先講解線性不可分支持向量機;講解線性不可分支持向量機的對偶求解過程;講解線性可分支持向量機的非線性化;講解核函數(shù),多項式核函數(shù)和高斯核函數(shù)。教學(xué)總結(jié)授課教師課程名稱授課地點授課時間第11次章節(jié)題目支持向量機的最優(yōu)化求解方法教學(xué)目的原始估計次梯度算法是利用隨機梯度下降對線性可分支持向量機的應(yīng)用;教學(xué)重點支持向量回歸教學(xué)難點理解支持向量回歸教學(xué)方法啟發(fā)式,案例教具多媒體,程序運行結(jié)果,黑板板書案例設(shè)計用例子講解計算過程教學(xué)內(nèi)容支持向量機的最優(yōu)化求解方法序列最小化優(yōu)化算法的是利用優(yōu)化策略中的活動集方法;原始估計次梯度算法是利用隨機梯度下降對線性可分支持向量機的應(yīng)用;序列最小化優(yōu)化算法能成功地關(guān)鍵是有些關(guān)鍵樣本點優(yōu)化到的函數(shù)參數(shù)會對最終的模型起作用,如支持向量對目標函數(shù)更重要。支持向量回歸利用間隔的思路,讓回歸樣本點都盡量擬合在以回歸超為中心的間隔內(nèi);教學(xué)過程1.講解支持向量機與隨機梯度下降的關(guān)系2.講解支持向量回歸的原理教學(xué)總結(jié)授課教師課程名稱授課地點授課時間第12次章節(jié)題目決策樹教學(xué)目的掌握信息論的基本概念和知識教學(xué)重點信息論基礎(chǔ)講解教學(xué)難點信息熵本質(zhì)的理解教學(xué)方法啟發(fā)式,案例教具多媒體,程序運行結(jié)果,黑板板書案例設(shè)計用例子講解計算過程教學(xué)內(nèi)容決策樹的決策過程是一種貪心的判斷過程決策樹一旦判斷出錯,錯誤將會傳遞到下一個階段;決策樹每次用一個屬性,讓分類過程可解釋性;此外,優(yōu)先使用的特征可以認為對于分類的有效性更高;決策樹分類過程就是對樣本進行不斷劃分“純”化的過程;決策樹是選擇某個屬性,產(chǎn)生

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論