梯度下降算法和人工神經網絡_第1頁
梯度下降算法和人工神經網絡_第2頁
梯度下降算法和人工神經網絡_第3頁
梯度下降算法和人工神經網絡_第4頁
梯度下降算法和人工神經網絡_第5頁
已閱讀5頁,還剩8頁未讀, 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、梯度下降算法和人工神經網絡線性回歸與梯度下降算法BP人工神經網絡線性回歸與梯度下降算法線性回歸:典型的房價預測問題用線性方程表示:當特征有很多個時,將使用矢量化的方法:梯度下降算法代價函數(Cost Function)m:樣本數y(i):第i個樣本中的房價h(x):預測的房價參數的訓練BP人工神經網絡BP(Back Propagation)神經網絡是1986年由Rumelhart和McCelland為首的科學家小組提出,是一種按誤差逆傳播算法訓練的多層前饋網絡,是目前應用最廣泛的神經網絡模型之一。BP網絡能學習和存貯大量的輸入-輸出模式映射關系,而無需事前揭示描述這種映射關系的數學方程。它的學

2、習規則是使用最速下降法,通過反向傳播來不斷調整網絡的權值和閾值,使網絡的誤差平方和最小。BP神經網絡模型拓撲結構包括輸入層(input)、隱層(hidden layer)和輸出層(output layer)。上面那個太復雜讓我們看看 “神經元”結構我們選用sigmoid函數作為激活函數激活函數 所謂神經網絡就是將許多個單一“神經元”聯結在一起,這樣,一個“神經元”的輸出就可以是另一個“神經元”的輸入。例如,下圖就是一個簡單的神經網絡:我們用 l 表示第 層第 i 單元輸入加權和(包括偏置單元),比如, ,則 。 這里我們將激活函數 擴展為用向量來表示,上面的等式可以更簡潔地表示為: 表示第 層第 單元的激活值激活值(輸出值)。反向傳播算法(用批量梯度下降法來求解神經網絡)對于單個樣例 ,其代價函數為:定義整體代價函數為:以上公式中的第一項 是一個均方差項。第二項是一個規則化項(也叫權重衰減項權重衰減項),其目的是減小權重的幅度,防止

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論