數(shù)據(jù)挖掘神經(jīng)網(wǎng)絡_第1頁
數(shù)據(jù)挖掘神經(jīng)網(wǎng)絡_第2頁
數(shù)據(jù)挖掘神經(jīng)網(wǎng)絡_第3頁
數(shù)據(jù)挖掘神經(jīng)網(wǎng)絡_第4頁
數(shù)據(jù)挖掘神經(jīng)網(wǎng)絡_第5頁
已閱讀5頁,還剩17頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

神經(jīng)網(wǎng)絡

vicky2自動駕駛汽車在高速公路上常速行駛。采用固定在汽車上的照相機的30*32像素作為輸入(960個輸入單元),輸出為駕駛方向(30個輸出單元)。內(nèi)容要點神經(jīng)網(wǎng)絡介紹BP算法基本步驟神經(jīng)網(wǎng)絡結(jié)構(gòu)主要參數(shù)的選擇神經(jīng)網(wǎng)絡方法特點神經(jīng)網(wǎng)絡介紹神經(jīng)網(wǎng)絡是人工智能中研究比較成熟的技術(shù)。最早是由心理學家和神經(jīng)生物學家提出的,旨在尋求和測試神經(jīng)的計算模擬。神經(jīng)網(wǎng)絡介紹神經(jīng)網(wǎng)絡是一組連接的輸入/輸出單元(節(jié)點和有向鏈),其中每個連接都與一個權(quán)值相連。在學習階段,通過不斷調(diào)整神經(jīng)網(wǎng)絡的相連權(quán)值,使得能夠正確預測輸入樣本的目標值。神經(jīng)網(wǎng)絡構(gòu)成神經(jīng)網(wǎng)絡通常由輸入層、輸出層和隱藏層組成,輸入層的神經(jīng)元個數(shù)可以等于樣本的特征數(shù)+1(對應模型中的截距項)輸出層就是分類判決層,它的神經(jīng)元個數(shù)等于樣本的類別數(shù)(2分類1個節(jié)點)或采用其他編碼方式從而確定需要的節(jié)點個數(shù)。每個連接具有一個權(quán)值非輸入節(jié)點激活函數(shù)(轉(zhuǎn)換函數(shù)、擠壓函數(shù))激活函數(shù)神經(jīng)網(wǎng)絡流行算法目前最流行的神經(jīng)網(wǎng)絡學習算法是:后向傳播算法(Back-propagation,BP)。它通過迭代地處理一組訓練樣本,將每個樣本的網(wǎng)絡預測與實際值比較,進行學習。對于每個訓練樣本,修改連接權(quán)值,使得網(wǎng)絡預測與實際類值之間的均方誤差最小。這種修改“后向”地進行,即由輸出層,經(jīng)由每個隱藏層,到第一個隱藏層。BP算法基本步驟1.初始化網(wǎng)絡各層的權(quán)值及神經(jīng)元閾值(偏倚)。(一個小的隨機數(shù))2.

向前傳播輸入計算預測值:對每一樣本,計算隱藏層和輸出層每個單元的凈輸入和輸出。

前向傳播輸入激活函數(shù)采用符號函數(shù)例如:對第二個觀測,v=w0*x0+w1*x1+w2*x2-0.4=0.2>0y=1BP算法基本步驟3.后向傳播誤差并調(diào)整權(quán)值OOOOOO輸出向量輸出節(jié)點隱藏層節(jié)點輸入節(jié)點輸入向量BP算法基本步驟4.循環(huán)對訓練集執(zhí)行2-3步。實例更新:每個觀測執(zhí)行一遍;周期更新:所有觀測前向傳播一遍,累計權(quán)重和偏倚的變動,只執(zhí)行一遍更新BP算法訓練終止條件更新權(quán)值較小(權(quán)值收斂逼近一個固定值)正確分類率達到預期或在測試集上的誤差開始增加)超過預先指定的訓練周期(實踐中,權(quán)收斂可能需要數(shù)十萬個周期)神經(jīng)網(wǎng)絡結(jié)構(gòu)舉例……o1o2omwnmw11w1mw2mwn1w21……wo11wo21wom1ownmw11w1mw2mwn1w21-如果太小,可能要幾天才收斂-如果太大,可能會發(fā)散

訓練神經(jīng)網(wǎng)絡關(guān)鍵參數(shù)—學習率一般認為,增加隱層數(shù)可以降低網(wǎng)絡誤差(也有文獻認為不一定能有效降低),提高精度,但也使網(wǎng)絡復雜化,從而增加了網(wǎng)絡的訓練時間和出現(xiàn)“過擬合”的傾向。Hornik等早已證明:若輸出層采用線性轉(zhuǎn)換函數(shù),隱層采用Sigmoid轉(zhuǎn)換函數(shù),則含一個隱層的MLP網(wǎng)絡能夠以任意精度逼近任何有理函數(shù)。

在設計BP網(wǎng)絡時可參考這一點,應優(yōu)先考慮3層BP網(wǎng)絡(即有1個隱層)。訓練神經(jīng)網(wǎng)絡—隱層數(shù)在BP網(wǎng)絡中,隱層節(jié)點數(shù)的選擇非常重要,它不僅對建立的神經(jīng)網(wǎng)絡模型的性能影響很大,而且是訓練時出現(xiàn)“過擬合”的直接原因。

確定隱層節(jié)點數(shù)的最基本原則是:在滿足精度要求的前提下取盡可能緊湊的結(jié)構(gòu),即取盡可能少的隱層節(jié)點數(shù)。

研究表明,隱層節(jié)點數(shù)不僅與輸入/輸出層的節(jié)點數(shù)有關(guān),更與需解決的問題的復雜程度和轉(zhuǎn)換函數(shù)的型式以及樣本數(shù)據(jù)的特性等因素有關(guān)。隱層節(jié)點數(shù)

在確定隱層節(jié)點數(shù)時必須滿足下列條件:隱層節(jié)點數(shù)必須小于N-1(其中N為訓練樣本數(shù)),否則,建立的網(wǎng)絡模型沒有泛化能力,也沒有任何實用價值。同理可推得:輸入層的節(jié)點數(shù)(變量數(shù))必須小于N-1。(2)訓練樣本數(shù)必須多于網(wǎng)絡模型的連接權(quán)數(shù),一般為2~10倍。確定隱層節(jié)點數(shù)訓練神經(jīng)網(wǎng)絡—訓練遍數(shù) 對訓練數(shù)據(jù)的所有記錄的一次掃描稱為一遍。 在訓練過程中定期用驗證數(shù)據(jù)計算誤差率,在使用后向傳播算法的前幾遍驗證數(shù)據(jù)的誤差率會降低,但過一會就會升高。驗證數(shù)據(jù)的最小誤差率那一點表明最好的訓練遍數(shù)。神經(jīng)網(wǎng)絡分類法特點可以對非線性和

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論