機器學習 課件 第7章 集成學習_第1頁
機器學習 課件 第7章 集成學習_第2頁
機器學習 課件 第7章 集成學習_第3頁
機器學習 課件 第7章 集成學習_第4頁
機器學習 課件 第7章 集成學習_第5頁
已閱讀5頁,還剩10頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

第7章集成學習《機器學習》胡曉目錄7.1集成學習理論依據7.2集成學習機制7.3決策樹7.4隨機森林7.5自適應助推7.1集成學習理論依據

7.2集成學習機制裝袋法(Bagging)

:每次被選取的樣本賦予相同權重,所有模型有相同投票權;采用某種組合策略確定最終結果。助推法(Boosting)采用級聯方式,前級基學習指導后級基學習,后級基學習重視前級的錯分樣本,并給予錯分樣本

7.3決策樹

在樹形結構圖中,只有輸出沒有輸入的節點稱為是根結點,位于樹的頂端;既有輸入又有輸出的結點稱為中間結點;只有輸入沒有輸出的結點稱為葉結點,葉結點代表了對樣本數據的決策類別,即決策結果。7.3決策樹7.3.2ID3和C4.5第3代迭代二叉樹(IterativeDichotomiser3,ID3)C4.5算法與ID3整體結構基本一樣,都采用自頂向下的貪婪搜索遍歷所有可能的決策樹空間;不同的是:在劃分分支選擇最優屬性時,ID3選擇信息增益最高的屬性,而C4.5采用信息增益比最高的屬性。

信息增益比,

7.3決策樹7.3.2ID3和C4.5

7.3決策樹

7.3決策樹7.3.3分類回歸樹

從表7.1中有放回的隨機抽取15個樣本構成數據集

7.3決策樹

7.3決策樹7.3.4剪枝理想情況下,所有樣本都能被決策樹精確預測,即生成決策樹葉結點都有確定類型。但實際上決策樹可能存在過多結點,導致過度擬合。常見原因:樣本中存在噪聲和樣本不具代表性。因此,實際中常常進行枝葉裁剪。預剪枝后剪枝7.4隨機森林隨機森林是(RadomForest)裝袋學習機制的一種進階。在隨機森林中,每個基映射函數都是一棵決策樹,然后將多棵決策樹集成一個強映射函數,可實現分類也可實現

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論