人工智能基礎與應用(第2版)(微課版)課件 3-2 認識線性回歸_第1頁
人工智能基礎與應用(第2版)(微課版)課件 3-2 認識線性回歸_第2頁
人工智能基礎與應用(第2版)(微課版)課件 3-2 認識線性回歸_第3頁
人工智能基礎與應用(第2版)(微課版)課件 3-2 認識線性回歸_第4頁
人工智能基礎與應用(第2版)(微課版)課件 3-2 認識線性回歸_第5頁
已閱讀5頁,還剩5頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

3-2認識線性回歸模塊?線性回歸:預測未來趨勢目錄CONTENTS線性回歸的數學表達式01梯度下降法03線性回歸的幾個概念02一.線性回歸的數學表達式定義及表達式線性回歸(linearregression)是一種通過擬合自變量xi與因變量y之間的最佳線性關系,來預測目標變量的方法。如果上式中只包括一個自變量x和一個因變量y,且二者的關系可用一條直線近似表示,則這種回歸分析被稱為一元線性回歸分析。如果回歸分析中包括兩個或兩個以上的自變量xi,且因變量y和自變量xi之間是線性關系,則稱其為多元線性回歸分析。二.線性回歸的幾個概念1.方差衡量誤差真實值:預測值:y二.線性回歸的幾個概念2.總平方和SST:衡量了所有觀測值相對于整體均值的離散程度。其值越大,說明原始的樣本本身具有越大的波動,這種波動反映了因變量的整體偏差。如何評價上述直線對真實值擬合的好壞程度二.線性回歸的幾個概念3.擬合優度R2:稱為判斷系數或擬合優度。由右式可知,線性回歸方程以外的其他因素引起的誤差SSE越小,R2就越接近1,表示此線性回歸方程可以很好地解釋因變量的變化;反之,如果SSE越大,接近總體偏差SST,R2就越接近0,說明此問題可能不適合采用線性回歸模型解決。盡可能最小y=+三.梯度下降法1.定義?梯度下降法:?是一種用于求解函數最小值的優化算法。其基本思想是通過迭代的方式,沿著函數的負梯度方向逐步減小函數值,直到達到局部最小值。梯度下降法適用于求解無約束優化問題,常用于機器學習中的參數優化。損失函數L可以理解為系數b和w的函數,記為尋找損失函數L(b,w)的最小值的過程,實際就是按照某種方向,不斷去微調b和w的值,一步一步嘗試找到這個最小值。Min()三.梯度下降法2.求解過程三.梯度下降法3.線性回歸解決問題一般步驟01根據問題構建一個線性回歸模型,即構建一個函數。02用樣本訓練模型,使用梯度下降法調整模型參數,目標使損失函數最小。03重復步驟(2),直至找到損失函數的最小值。04用驗證集測試模型的精度,評價指標常為均方誤差MSE。05如預測結果不滿意,則需要改進模型(如加大訓練集、改變學習率等)。06回到步驟(2),重新訓練模型,直至獲得滿意的模型。07利用自變量x

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論