BP人工神經網絡及matlab實現_第1頁
BP人工神經網絡及matlab實現_第2頁
BP人工神經網絡及matlab實現_第3頁
BP人工神經網絡及matlab實現_第4頁
BP人工神經網絡及matlab實現_第5頁
已閱讀5頁,還剩185頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

BP人工神經網絡1BP人工神經網絡及matlab實現5/9/2024本章的基本內容BP網絡結構與模型

BP網絡的學習算法

BP神經網絡的重要函數和基本功能一個簡單的例子

BP網絡的幾個問題改進的BP網絡的學習算法

BP網絡的應用示例2BP人工神經網絡及matlab實現5/9/2024Rumelhart,McClelland于1985年提出了BP網絡的誤差反向后傳BP(BackPropagation)學習算法BP算法基本原理利用輸出后的誤差來估計輸出層的直接前導層的誤差,再用這個誤差估計更前一層的誤差,如此一層一層的反傳下去,就獲得了所有其他各層的誤差估計。J.McClellandDavidRumelhart

概述3BP人工神經網絡及matlab實現5/9/2024

BP網絡是一種前向映射網絡。網絡的結構見下一頁的圖形。其中:u是網絡的輸入向量,y是網絡的輸出向量。神經元用節點表示,網絡由輸入層、隱層和輸出層節點組成,隱層可一層,也可多層(圖中是單隱層)。前層節點至后層節點通過權聯接。由于這種網絡常常用BP學習算法后的網絡權值,所以常稱BP人工神經網絡。5-1網絡結構和模型4BP人工神經網絡及matlab實現5/9/20245-1網絡結構和模型5BP人工神經網絡及matlab實現5/9/20245-1網絡結構與模型6BP人工神經網絡及matlab實現5/9/20245-1網絡結構和模型BP網絡的神經元模型是改進了感知器神經元模型得到的。輸入層:

隱層:輸出層:fxex()=+-11fxeexx()=-+--11fxeexx()=-+--11fxex()=+-117BP人工神經網絡及matlab實現5/9/20245-2BP網絡的學習算法

多層前饋網絡的反向傳播(BP)學習算法,簡稱BP學習算法,這是一種有導師的學習算法,是梯度下降法在多層前饋網中的應用。

BP學習算法可以看成是線性自適應神經元學習算法的進一步推廣。BP學習算法=前向計算過程+誤差反向傳播過程前向計算過程:也是網絡應用時的實現過程。誤差反向傳播過程:是BP網絡權值的學習和訓練過程。5-2-1BP學習算法概述8BP人工神經網絡及matlab實現5/9/2024學習的類型:有導師學習核心思想:將輸出誤差以某種形式通過隱層向輸入層逐層反傳學習的過程:信號的正向傳播誤差的反向傳播將誤差分攤給各層的所有單元---各層單元的誤差信號修正各單元權值5-2BP網絡的學習算法5-2-1BP學習算法概述9BP人工神經網絡及matlab實現5/9/2024正向傳播:輸入樣本---輸入層---各隱層---輸出層判斷是否轉入反向傳播階段:若輸出層的實際輸出與期望的輸出(教師信號)不符誤差反傳誤差以某種形式在各層表示----修正各層單元的權值網絡輸出的誤差減少到可接受的程度或者進行到預先設定的學習次數為止5-2BP網絡的學習算法5-2-1BP學習算法概述10BP人工神經網絡及matlab實現5/9/2024網絡結構輸入層有n個神經元,隱含層有p個神經元,輸出層有q個神經元。變量定義輸入向量;隱含層輸入向量;隱含層輸出向量;輸出層輸入向量;輸出層輸出向量;期望輸出向量;5-2BP網絡的學習算法5-2-2BP學習算法的描述11BP人工神經網絡及matlab實現5/9/2024輸入層與中間層的連接權值:隱含層與輸出層的連接權值:隱含層各神經元的閾值:輸出層各神經元的閾值:樣本數據個數:激活函數:誤差函數:5-2BP網絡的學習算法5-2-2BP學習算法的描述12BP人工神經網絡及matlab實現5/9/2024第一步,網絡初始化

給各連接權值分別賦一個區間(-1,1)內的隨機數,設定誤差函數e,給定計算精度值和最大學習次數M。第二步,隨機選取第個輸入樣本及對應期望輸出

5-2BP網絡的學習算法5-2-2BP學習算法的描述13BP人工神經網絡及matlab實現5/9/2024第三步,計算隱含層各神經元的輸入和輸出5-2BP網絡的學習算法5-2-2BP學習算法的描述14BP人工神經網絡及matlab實現5/9/2024第四步,利用網絡期望輸出和實際輸出,計算誤差函數對輸出層的各神經元的偏導數。5-2BP網絡的學習算法5-2-2BP學習算法的描述15BP人工神經網絡及matlab實現5/9/2024第五步,利用隱含層到輸出層的連接權值、輸出層的和隱含層的輸出計算誤差函數對隱含層各神經元的偏導數。5-2BP網絡的學習算法5-2-2BP學習算法的描述16BP人工神經網絡及matlab實現5/9/20245-2BP網絡的學習算法5-2-2BP學習算法的描述17BP人工神經網絡及matlab實現5/9/2024第六步,利用輸出層各神經元的和隱含層各神經元的輸出來修正連接權值。第七步,利用隱含層各神經元的和輸入層各神經元的輸入修正連接權。5-2BP網絡的學習算法5-2-2BP學習算法的描述18BP人工神經網絡及matlab實現5/9/2024第八步,計算全局誤差第九步,判斷網絡誤差是否滿足要求。當誤差達到預設精度或學習次數大于設定的最大次數,則結束算法。否則,選取下一個學習樣本及對應的期望輸出,返回到第三步,進入下一輪學習。5-2BP網絡的學習算法5-2-2BP學習算法的描述19BP人工神經網絡及matlab實現5/9/2024

情況一的直觀表達當誤差對權值的偏導數大于零時,權值調整量為負,實際輸出大于期望輸出,權值向減少方向調整,使得實際輸出與期望輸出的差減少。whoe>0,此時Δwho<05-2BP網絡的學習算法5-2-3BP學習算法的直觀解釋20BP人工神經網絡及matlab實現5/9/2024

情況二的直觀表達當誤差對權值的偏導數小于零時,權值調整量為正,實際輸出少于期望輸出,權值向增大方向調整,使得實際輸出與期望輸出的差減少。e<0,此時Δwho>0who5-2BP網絡的學習算法5-2-3BP學習算法的直觀解釋21BP人工神經網絡及matlab實現5/9/2024BP算法

手控演示22BP人工神經網絡及matlab實現5/9/2024函數名功能newff()生成一個前饋BP網絡tansig()雙曲正切S型(Tan-Sigmoid)傳輸函數logsig()對數S型(Log-Sigmoid)傳輸函數traingd()梯度下降BP訓練函數5-3-1BP神經網絡的重要函數5-3BP神經網絡的重要函數和基本功能23BP人工神經網絡及matlab實現5/9/2024newff()功能建立一個前向BP網絡格式net=newff(PR,[S1S2...SN1],{TF1TF2...TFN1},BTF,BLF,PF)說明net為創建的新BP神經網絡;PR為網絡輸入取向量取值范圍的矩陣;[S1S2…SNl]表示網絡隱含層和輸出層神經元的個數;{TFlTF2…TFN1}表示網絡隱含層和輸出層的傳輸函數,默認為‘tansig’;BTF表示網絡的訓練函數,默認為‘trainlm’;BLF表示網絡的權值學習函數,默認為‘learngdm’;PF表示性能數,默認為‘mse’。5-3BP神經網絡的重要函數和基本功能5-3-2BP神經網絡中函數的基本功能

24BP人工神經網絡及matlab實現5/9/2024tansig()功能正切sigmoid激活函數格式a=tansig(n)說明雙曲正切Sigmoid函數把神經元的輸入范圍從(-∞,+∞)映射到(-1,1)。它是可導函數,適用于BP訓練的神經元。logsig()功能對數Sigmoid激活函數格式a=logsig(N)說明對數Sigmoid函數把神經元的輸入范圍從(-∞,+∞)映射到(0,1)。它是可導函數,適用于BP訓練的神經元。5-3BP神經網絡的重要函數和基本功能5-3-2BP神經網絡中函數的基本功能

25BP人工神經網絡及matlab實現5/9/2024

下表為某藥品的銷售情況,現構建一個如下的三層BP神經網絡對藥品的銷售進行預測:輸入層有三個結點,隱含層結點數為5,隱含層的激活函數為tansig;輸出層結點數為1個,輸出層的激活函數為logsig,并利用此網絡對藥品的銷售量進行預測,預測方法采用滾動預測方式,即用前三個月的銷售量來預測第四個月的銷售量,如用1、2、3月的銷售量為輸入預測第4個月的銷售量,用2、3、4月的銷售量為輸入預測第5個月的銷售量.如此反復直至滿足預測精度要求為止。月份123456銷量205623952600229816341600月份789101112銷量1873147819001500204615565-4一個簡單的例子26BP人工神經網絡及matlab實現5/9/2024%以每三個月的銷售量經歸一化處理后作為輸入P=[0.5152 0.8173 1.0000;0.8173 1.0000 0.7308;1.0000 0.7308 0.1390;0.7308 0.1390 0.1087;0.1390 0.1087 0.3520;0.1087 0.3520 0.0000;]';%以第四個月的銷售量歸一化處理后作為目標向量T=[0.73080.13900.10870.35200.00000.3761];%創建一個BP神經網絡,每個輸入向量的取值范圍為[0,1],5個隱層神經元,一個輸出層神經元,隱層的激活函數tansig,輸出層激活函數logsig,訓練函數為梯度下降函數。net=newff([01;01;01],[5,1],{'tansig','logsig'},'traingd');net.trainParam.epochs=15000;net.trainParam.goal=0.01;LP.lr=0.1;%設置學習速率為0.1net=train(net,P,T);5-4一個簡單的例子27BP人工神經網絡及matlab實現5/9/2024

由對比圖可以看出預測效果與實際存在一定誤差,此誤差可以通過增加運行步數和提高預設誤差精度業進一步縮小。BP網絡應用于藥品預測對比圖5-4一個簡單的例子28BP人工神經網絡及matlab實現5/9/2024非線性映射能力能學習和存貯大量輸入-輸出模式映射關系,無需事先了解描述這種映射關系的數學方程。只要能提供足夠多的樣本模式供網絡進行學習訓練,它便能完成由n維輸入空間到m維輸出空間的非線性映射。泛化能力當向網絡輸入訓練時未曾見過的非樣本數據時,網絡也能完成由輸入空間向輸出空間的正確映射。這種能力稱為泛化能力。容錯能力輸入樣本中帶有較大的誤差甚至個別錯誤對網絡的輸入輸出規律影響很小。5-5BP網絡有關的幾個問題29BP人工神經網絡及matlab實現5/9/20245-5BP網絡有關的幾個問題30BP人工神經網絡及matlab實現5/9/20245-5BP網絡有關的幾個問題31BP人工神經網絡及matlab實現5/9/2024

(5)改進的BP算法梯度下降法的不足,是BP算法收斂速度慢的原因,有改進的BP算法克服其不足,如:5-5BP網絡有關的幾個問題32BP人工神經網絡及matlab實現5/9/20245-5BP網絡有關的幾個問題33BP人工神經網絡及matlab實現5/9/202434BP人工神經網絡及matlab實現5/9/202435BP人工神經網絡及matlab實現5/9/20245-6改進的BP網絡的學習算法單權值雙權值

標準BP算法的誤差空間是N維空間中一個形狀極為復雜的曲面,該曲面上的每個點的“高度”對應于一個誤差值,每個點的坐標向量對應著N個權值5-6-1問題的描述36BP人工神經網絡及matlab實現5/9/20245-6改進的BP網絡的學習算法BP網絡學習算法存在的問題存在平坦區域影響--------誤差下降緩慢,影響收斂速度。原因--------誤差對權值的梯度變化小--接近于零由各節點的凈輸入過大而引起。分析:激活函數為Sigmod函數5-6-1問題的描述37BP人工神經網絡及matlab實現5/9/20245-6改進的BP網絡的學習算法存在平坦區域的原因分析權值修正量:輸出的導數:5-6-1問題的描述38BP人工神經網絡及matlab實現5/9/2024對應著誤差的某個谷點對應著誤差的平坦區

存在平坦區域的原因分析:第一種可能是充分接近第二種可能是充分接近0么三種可能是充分接近1

造成平坦區的原因:各節點的凈輸入過大。5-6改進的BP網絡的學習算法5-6-1問題的描述39BP人工神經網絡及matlab實現5/9/20245-6改進的BP網絡的學習算法存在多個極小點影響------易陷入局部最小點。原因:以誤差梯度下降為權值調整原則;誤差曲面上可能存在多個梯度為0的點,多數極小點都是局部極小,即使是全局極小往往也不是唯一的,使之無法辨別極小點的性質導致的結果:使得訓練經常陷入某個局部極小點而不能自拔,從而使訓練無法收斂于給定誤差。5-6-1問題的描述40BP人工神經網絡及matlab實現5/9/2024

BP算法缺陷小結⑴易形成局部極小而得不到全局最優;⑵訓練次數多使得學習效率低,收斂速度慢;⑶隱節點的選取缺乏理論指導;⑷訓練時學習新樣本有遺忘舊樣本的趨勢。針對上述問題,國內外已提出不少有效的改進算法,下面將介紹其中幾種較常用的方法。5-6改進的BP網絡的學習算法5-6-1問題的描述41BP人工神經網絡及matlab實現5/9/2024在線學習方式時,網絡受后面輸入樣本的影響較大,嚴重時,會影響用戶要求的訓練精度。為了消除這種樣本順序對結果的影響,可以采用批處理學習方式,即使用一批學習樣本產生的總誤差來調整權值,用公式表示如下:解決了因樣本輸入順序引起的精度問題和訓練的抖動問題。但是,該算法的收斂速度相對來說還是比較慢的。5-6改進的BP網絡的學習算法5-6-2消除樣本輸入順序影響的改進算法42BP人工神經網絡及matlab實現5/9/2024算法流程圖網絡初始化計算輸出層權值調值計算隱含層權值調值計算全局誤差是結束判斷是否結束?否更新權值5-6改進的BP網絡的學習算法5-6-2消除樣本輸入順序影響的改進算法43BP人工神經網絡及matlab實現5/9/2024在反向傳播法的基礎上在每一個權值(或閾值)的變化上加上一項正比于上一次權值(或閾值)變化量的值,并根據反向傳播法來產生新的權值(或閾值)變化帶有附加動量因子的權值調節公式為:可以防止的出現即最后一次權值的變化量為0,有助于使網絡從誤差曲面的局部極小值中跳出。但對于大多數實際應用問題,該法訓練速度仍然很慢。MATLAB中的工具函數traingdm()即對應于附加動量法。5-6改進的BP網絡的學習算法5-6-3附加動量的改進算法44BP人工神經網絡及matlab實現5/9/2024采用自適應調整參數的改進算法的基本設想是學習率應根據誤差變化而自適應調整,以使權系數調整向誤差減小的方向變化,其迭代過程可表示為:在很小的情況下,采用自適應調整參數的改進算法仍然存在權值的修正量很小的問題,致使學習率降低。MATLAB中的工具函數traingda()即對應于自適應調整參數法。5-6改進的BP網絡的學習算法5-6-3采用自適應調整參數的改進算法45BP人工神經網絡及matlab實現5/9/2024BP網絡通常采用Sigmoid隱含層。當輸入的函數很大時,斜率接近于零,這將導致算法中的梯度幅值很小,可能使網絡權值的修正過程幾乎停頓下來。彈性方法只取偏導數的符號,而不考慮偏導數的幅值。其權值修正的迭代過程可表示為:在彈性BP算法中,當訓練發生振蕩時,權值的變化量將減小;當在幾次迭代過程中權值均朝一個方向變化時,權值的變化量將增大。因此,使用彈性方法的改進算法,其收斂速度要比前幾種方法快得多5-6改進的BP網絡的學習算法5-6-3使用彈性方法的改進算法46BP人工神經網絡及matlab實現5/9/2024梯度法的缺點是搜索過程收斂速度較慢,牛頓法在搜索方向上比梯度法有改進,它不僅利用了準則函數在搜索點的梯度,而且還利用了它的二次導數,就是說利用了搜索點所能提供的更多信息,使搜索方向能更好地指向最優點。它的迭代方程為:收斂速度比一階梯度快,但計算又較復雜,比較典型的有BFGS擬牛頓法和一步正切擬牛頓法。MATLAB中的工具函數trainbfg()、trainoss()即對應擬牛頓法中的BFGS擬牛頓法和一步正切擬牛頓法。5-6改進的BP網絡的學習算法5-6-3使用擬牛頓法的改進算法47BP人工神經網絡及matlab實現5/9/2024梯度下降法收斂速度較慢,而擬牛頓法計算又較復雜,共軛梯度法則力圖避免兩者的缺點。共軛梯度法也是一種改進搜索方向的方法,它是把前一點的梯度乘以適當的系數,加到該點的梯度上,得到新的搜索方向。其迭代方程為:5-6改進的BP網絡的學習算法5-6-7基于共軛梯度法的改進算法48BP人工神經網絡及matlab實現5/9/2024共軛梯度法比大多數常規的梯度下降法收斂快,并且只需增加很少的存儲量和計算量。對于權值很多的網絡,采用共軛梯度法不失為一種較好的選擇。MATLAB中的工具函數traincgb()、traincgf()、traincgp()即對應于共軛梯度法。5-6改進的BP網絡的學習算法5-6-7基于共軛梯度法的改進算法49BP人工神經網絡及matlab實現5/9/2024演示梯度下降法與改進算法的幾何意義BP算法在多層前饋網絡中的應用5-6改進的BP網絡的學習算法50BP人工神經網絡及matlab實現5/9/202451BP人工神經網絡及matlab實現5/9/202452BP人工神經網絡及matlab實現5/9/2024圖2-4-4

BP網絡訓練例53BP人工神經網絡及matlab實現5/9/2024例2-4-1用BP網絡逼近非線性函數

手控

自控演示54BP人工神經網絡及matlab實現5/9/2024BP網絡55BP人工神經網絡及matlab實現5/9/2024網絡結構56BP人工神經網絡及matlab實現5/9/2024網絡結構57BP人工神經網絡及matlab實現5/9/2024網絡結構58BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法59BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法三層前饋網絡:輸入/輸出樣本對:

up/dpp=1~L

updp60BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法反向傳播(BP)學習算法:

正向傳播輸入---輸出

61BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法反向傳播(BP)學習算法:

正向傳播輸入---輸出

62BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法反向傳播(BP)學習算法:

正向傳播

反向傳播

調整權系值

63BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法反向傳播(BP)學習算法:

正向傳播

反向傳播

調整權系值64BP人工神經網絡及matlab實現5/9/2024正向傳播:由輸入uP

輸出yP=Ng(up)反向傳播(BP)學習算法updp65BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法正向傳播:由輸入uP

輸出yP=Ng(up)updp66BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法正向傳播:由輸入uP

輸出yP=Ng(up)updp67BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法正向傳播:由輸入uP

輸出yP=Ng(up)updp68BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法正向傳播:由輸入uP

輸出yP=Ng(up)updp69BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法正向傳播:由輸入uP

輸出yP=Ng(up)updp70BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法正向傳播:由輸入uP

輸出yP=Ng(up)updp71BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法反向傳播:

調整權系值

72BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法反向傳播:

調整權系值

73BP人工神經網絡及matlab實現5/9/2024反向傳播(BP)學習算法74BP人工神經網絡及matlab實現5/9/2024正向75BP人工神經網絡及matlab實現5/9/2024正向76BP人工神經網絡及matlab實現5/9/2024正向77BP人工神經網絡及matlab實現5/9/2024正向78BP人工神經網絡及matlab實現5/9/2024正向79BP人工神經網絡及matlab實現5/9/2024正向80BP人工神經網絡及matlab實現5/9/2024正向81BP人工神經網絡及matlab實現5/9/2024正向82BP人工神經網絡及matlab實現5/9/2024反向83BP人工神經網絡及matlab實現5/9/2024反向返回84BP人工神經網絡及matlab實現5/9/2024BP網絡例6-185BP人工神經網絡及matlab實現5/9/2024非線性函數86BP人工神經網絡及matlab實現5/9/2024輸入輸出樣本集87BP人工神經網絡及matlab實現5/9/2024輸入輸出測試集88BP人工神經網絡及matlab實現5/9/2024樣本集測試集89BP人工神經網絡及matlab實現5/9/2024網絡結構90BP人工神經網絡及matlab實現5/9/2024網絡學習091BP人工神經網絡及matlab實現5/9/2024網絡學習192BP人工神經網絡及matlab實現5/9/2024網絡學習293BP人工神經網絡及matlab實現5/9/2024網絡學習394BP人工神經網絡及matlab實現5/9/2024網絡學習495BP人工神經網絡及matlab實現5/9/2024網絡學習596BP人工神經網絡及matlab實現5/9/2024網絡學習697BP人工神經網絡及matlab實現5/9/2024網絡學習798BP人工神經網絡及matlab實現5/9/2024網絡學習899BP人工神經網絡及matlab實現5/9/2024網絡學習9100BP人工神經網絡及matlab實現5/9/2024學習結束101BP人工神經網絡及matlab實現5/9/2024J

102BP人工神經網絡及matlab實現5/9/2024J

J1103BP人工神經網絡及matlab實現5/9/2024梯度下降法與改進算法搜索尋優104BP人工神經網絡及matlab實現5/9/2024J(W)105BP人工神經網絡及matlab實現5/9/2024J(W)局部極小點全局極小點106BP人工神經網絡及matlab實現5/9/2024J(W)--初始狀態107BP人工神經網絡及matlab實現5/9/2024梯度下降--搜索108BP人工神經網絡及matlab實現5/9/2024梯度下降--搜索109BP人工神經網絡及matlab實現5/9/2024梯度下降--搜索110BP人工神經網絡及matlab實現5/9/2024梯度下降--搜索111BP人工神經網絡及matlab實現5/9/2024梯度下降--搜索112BP人工神經網絡及matlab實現5/9/2024梯度下降--搜索113BP人工神經網絡及matlab實現5/9/2024梯度下降--搜索114BP人工神經網絡及matlab實現5/9/2024J(W)--局部極小點115BP人工神經網絡及matlab實現5/9/2024J(W)--局部極小點116BP人工神經網絡及matlab實現5/9/2024J(W)--局部極小點117BP人工神經網絡及matlab實現5/9/2024J(W)--局部極小點118BP人工神經網絡及matlab實現5/9/2024改進算法搜索119BP人工神經網絡及matlab實現5/9/2024J(W)120BP人工神經網絡及matlab實現5/9/2024J(W)--初始狀態121BP人工神經網絡及matlab實現5/9/2024梯度下降--搜索122BP人工神經網絡及matlab實現5/9/2024梯度下降--搜索123BP人工神經網絡及matlab實現5/9/2024梯度下降--搜索124BP人工神經網絡及matlab實現5/9/2024梯度下降--搜索125BP人工神經網絡及matlab實現5/9/2024梯度下降--搜索126BP人工神經網絡及matlab實現5/9/2024改進算法--搜索127BP人工神經網絡及matlab實現5/9/2024改進算法--搜索128BP人工神經網絡及matlab實現5/9/2024改進算法--搜索129BP人工神經網絡及matlab實現5/9/2024改進算法--搜索130BP人工神經網絡及matlab實現5/9/2024改進算法--搜索131BP人工神經網絡及matlab實現5/9/2024改進算法--搜索132BP人工神經網絡及matlab實現5/9/2024改進算法--搜索133BP人工神經網絡及matlab實現5/9/2024改進算法--搜索134BP人工神經網絡及matlab實現5/9/2024改進算法--搜索135BP人工神經網絡及matlab實現5/9/2024改進算法--搜索136BP人工神經網絡及matlab實現5/9/2024改進算法--搜索137BP人工神經網絡及matlab實現5/9/2024改進算法--搜索138BP人工神經網絡及matlab實現5/9/2024改進算法--搜索139BP人工神經網絡及matlab實現5/9/2024改進算法--搜索140BP人工神經網絡及matlab實現5/9/2024改進算法--搜索141BP人工神經網絡及matlab實現5/9/2024改進算法--搜索142BP人工神經網絡及matlab實現5/9/2024改進算法--搜索143BP人工神經網絡及matlab實現5/9/2024改進算法--搜索144BP人工神經網絡及matlab實現5/9/2024改進算法--搜索145BP人工神經網絡及matlab實現5/9/2024改進算法--搜索146BP人工神經網絡及matlab實現5/9/2024全局極小點147BP人工神經網絡及matlab實現5/9/2024全局極小點148BP人工神經網絡及matlab實現5/9/2024全局極小點返回149BP人工神經網絡及matlab實現5/9/2024梯度下降法搜索尋優原理150BP人工神經網絡及matlab實現5/9/2024由初始狀態搜索尋優151BP人工神經網絡及matlab實現5/9/2024目標函數曲面J(W)--連續、可微152BP人工神經網絡及matlab實現5/9/2024全局極小點153BP人工神經網絡及matlab實現5/9/2024局部極小點1154BP人工神經網絡及matlab實現5/9/2

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論