第三章 感知器_第1頁
第三章 感知器_第2頁
第三章 感知器_第3頁
第三章 感知器_第4頁
第三章 感知器_第5頁
已閱讀5頁,還剩33頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

第三章前饋神經(jīng)網(wǎng)絡(luò)3.1單層感知器3.2多層感知器13.1單層感知器3.1.1感知器模型3前饋神經(jīng)網(wǎng)絡(luò)2j=1,2,…,m

3.1.1感知器模型前饋神經(jīng)網(wǎng)絡(luò)--單層感知器3凈輸入:輸出:(3.1)(3.2)3.1.1感知器模型前饋神經(jīng)網(wǎng)絡(luò)--單層感知器4(1)設(shè)輸入向量X=(x1,x2)T輸出:則由方程wijx1+w2jx2-Tj=0

(3.3)確定了二維平面上的一條分界線。ojx1-1x2前饋神經(jīng)網(wǎng)絡(luò)--單層感知器3.1.2感知器的功能5(1)輸入是二維wijx1+w2jx2–Tj=0 wijx1=Tj-w2jx2 x1=(Tj-w2jx2)/wij

=-(w2j/wij)x2+Tj/wij

=a

x2+c

6感知器的功能(二維)7前饋神經(jīng)網(wǎng)絡(luò)--單層感知器3.1.2感知器的功能8(2)設(shè)輸入向量X=(x1,x2,x3)T輸出:則由方程wijx1+w2jx2+w3j

–Tj=0(3.4)確定了三維空間上的一個分界平面。x2ojx1x3-1前饋神經(jīng)網(wǎng)絡(luò)--單層感知器3.1.2感知器的功能9(2)輸入是三維wijx1+w2jx2+w3j

x3–Tj=0

x1=a

x2+b

x3+c

是什么?10前饋神經(jīng)網(wǎng)絡(luò)--單層感知器3.1.2感知器的功能11(3)設(shè)輸入向量X=(x1,x2,…,xn)T則由方程wijx1+w2jx2+…+wnj

–Tj=0(3.6)確定了n維空間上的一個分界平面。輸出:wijx1+w2jx2+…+wnj

–Tj=0(3.5)前饋神經(jīng)網(wǎng)絡(luò)--單層感知器3.1.2感知器的功能123.1.4感知器的學(xué)習(xí)關(guān)鍵問題就是求133.1.4感知器的學(xué)習(xí)算法Perceptron(感知器)學(xué)習(xí)規(guī)則式中,當(dāng)實際輸出與期望值相同時,權(quán)值不需要調(diào)整。感知器學(xué)習(xí)規(guī)則代表一種有導(dǎo)師學(xué)習(xí)。14感知器學(xué)習(xí)規(guī)則的訓(xùn)練步驟:(1)對各權(quán)值w0j(0),w1j(0),┄,wnj(0),j=1,2,┄,m

(m為計算層的節(jié)點數(shù))賦予較小的非零隨機(jī)數(shù);(2)輸入樣本對{Xp,dp},其中Xp=(-1,x1p,x2p,┄,xnp),

dp為期望的輸出向量(教師信號),上標(biāo)p代表樣本對的模式序號,設(shè)樣本集中的樣本總數(shù)為P,

則p=1,2,┄,P;前饋神經(jīng)網(wǎng)絡(luò)--單層感知器3.1.4感知器的學(xué)習(xí)算法15感知器學(xué)習(xí)規(guī)則的訓(xùn)練步驟:(3)計算各節(jié)點的實際輸出ojp(t)=sgn[WjT(t)Xp],j=1,2,...,m;(4)調(diào)整各節(jié)點對應(yīng)的權(quán)值,Wj(t+1)=

Wj(t)+η[djp-ojp(t)]Xp,

j=1,2,┄,m,

其中為學(xué)習(xí)率,用于控制調(diào)整速度,太大會影響訓(xùn)練的穩(wěn)定性,太小則使訓(xùn)練的收斂速度變慢,一般取0<η≤1;(5)返回到步驟(2)輸入下一對樣本,周而復(fù)始直到對所有樣本,感知器的實際輸出與期望輸出相等。前饋神經(jīng)網(wǎng)絡(luò)--單層感知器3.1.4感知器的學(xué)習(xí)算法16PerceptronRule171819202122感知器學(xué)習(xí)規(guī)則的訓(xùn)練步驟:(1)權(quán)值初始化(2)輸入樣本對(3)計算輸出(4)根據(jù)感知器學(xué)習(xí)規(guī)則調(diào)整權(quán)值(5)返回到步驟(2)輸入下一對樣本,周而復(fù)始直到對所有樣本,感知器的實際輸出與期望輸出相等。前饋神經(jīng)網(wǎng)絡(luò)--單層感知器23例三單計算節(jié)點感知器,3個輸入。給定3對訓(xùn)練樣本對如下:X1=(-1,1,-2,0)T

d1=1 X2=(-1,0,1.5,-0.5)T

d2=1X3=(-1,-1,1,0.5)T

d3=1設(shè)初始權(quán)向量W(0)=(0.5,1,-1,0)T,η=0.1。注意,輸入向量中第一個分量x0恒等于-1,權(quán)向量中第一個分量為閾值,試根據(jù)以上學(xué)習(xí)規(guī)則訓(xùn)練該感知器。前饋神經(jīng)網(wǎng)絡(luò)--單層感知器3.1.4感知器的學(xué)習(xí)算法24解:第一步輸入X1,得

WT(0)X1=(0.5,1,-1,0)(-1,1,-2,0)T=2.5

o1(0)=sgn(2.5)=1

W(1)=W(0)+η[d1-o1(0)]X1=(0.5,1,-1,0)T+0.1(-1-1)(-1,1,-2,0)T=(0.7,0.8,-0.6,0)T前饋神經(jīng)網(wǎng)絡(luò)--單層感知器3.1.4感知器的學(xué)習(xí)算法25第二步輸入X2,得

WT(1)X2=(0.7,0.8,-0.6,0)(-1,0,1.5,-0.5)T=-1.6

o2(1)=sgn(-1.6)=-1

W(2)=W(1)+η[d2-o2(1)]X2=(0.7,0.8,-0.6,0)T+0.1[-1-(-1)](-1,0,1.5,-0.5)T=(0.7,0.8,-0.6,0)T由于d2=o2(1),所以W(2)=W(1)。前饋神經(jīng)網(wǎng)絡(luò)--單層感知器3.1.4感知器的學(xué)習(xí)算法26第三步輸入X3,得

WT(2)X3=(0.7,0.8,-0.6,0)(-1,-1,1,0.5)T=-2.1

O3(2)=sgn(-2.1=-1W(3)=W(2)+η[d3-o3(2)]X3=(0.7,0.8,-0.6,0)T+0.1[1-(-1)](-1,-1,1,0.5)T=(0.5,0.6,-0.4,0.1)T第四步返回到第一步,繼續(xù)訓(xùn)練直到dp-op=0,p=1,2,3。前饋神經(jīng)網(wǎng)絡(luò)--單層感知器3.1.4感知器的學(xué)習(xí)算法27PerceptronClassification28293031323.1.3單層感知器的局限性問題:能否用感知器解決如下問題?333.1.3單層感知器的局限性無法解決“異或”問題只能解決線性可分問題“異或”的真值表x1 x2 y 0 0 0 0 1 1 1 0 1

1 1 034雙層感知器“異或”問題分類例四用兩計算層感知器解決“異或”問題。“異或”的真值表x1x2

y1y2

o

00

11

001

10

110

01

111

11

0前饋神經(jīng)網(wǎng)絡(luò)—多層感知器3.2多層感知器353.2.1多層感知器的提出提出的動因單計算層感知器的局限性:只能解決線性可分問題,而大量的分類問題是線性不可分的。解決的有效辦法在輸入層與輸出層之間引入隱層作為輸入模式的“內(nèi)部表示”,將單

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論