MATLAB程序代碼--神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問題整理教學(xué)資料_第1頁
MATLAB程序代碼--神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問題整理教學(xué)資料_第2頁
MATLAB程序代碼--神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問題整理教學(xué)資料_第3頁
MATLAB程序代碼--神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問題整理教學(xué)資料_第4頁
MATLAB程序代碼--神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問題整理教學(xué)資料_第5頁
已閱讀5頁,還剩19頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、Good is good, but better carries it.精益求精,善益求善。MATLAB程序代碼-神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問題整理MATLAB程序代碼-神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問題整理所選問題及解答大部分來源于HYPERLINK/bbs/bbs/資料大部分為江南一紀(jì)收集整理對其他參與整理的版友(不一一列舉)及資料的原創(chuàng)者一并表示感謝因江南對神經(jīng)網(wǎng)絡(luò)的理解也不是很多錯(cuò)誤之處難勉請諒解有什么問題可以來HYPERLINK/bbs/bbs/的HYPERLINK/bbs/thread.php?fid=60人工神經(jīng)網(wǎng)絡(luò)專區(qū)交流*1神經(jīng)網(wǎng)絡(luò)的教材哪本比較經(jīng)典神經(jīng)網(wǎng)絡(luò)原理SimonHaykin?葉世?史忠植譯神經(jīng)網(wǎng)絡(luò)

2、設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)書籍神經(jīng)網(wǎng)絡(luò)模型及其matlab仿真程序設(shè)計(jì)周開利(對神經(jīng)網(wǎng)絡(luò)工具箱函數(shù)及里面神經(jīng)網(wǎng)絡(luò)工具箱的神經(jīng)網(wǎng)絡(luò)模型的網(wǎng)絡(luò)對象及其屬性做了詳細(xì)的論述,后者在神經(jīng)網(wǎng)絡(luò)理論與matlab7實(shí)現(xiàn)那本書里面是沒有的)神經(jīng)網(wǎng)絡(luò)理論與matlab7實(shí)現(xiàn)(這本書對初學(xué)這入門還是挺不錯(cuò)的,看過了,就對matlab神經(jīng)網(wǎng)絡(luò)工具箱有教好的了解)神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)(我認(rèn)為這是一本很好的書,講理論不是很多,看過之后就會對神經(jīng)網(wǎng)絡(luò)的原理有更好的了解)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)的理論與方法(這本書對提高網(wǎng)絡(luò)的泛化能力的一些方法做了講述,并且書后有程序,對網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)應(yīng)該是挺有幫助的)摘自給初學(xué)matlab神經(jīng)網(wǎng)絡(luò)的一點(diǎn)建議HYPER

3、LINK/bbs/read.php?tid=1111&keyword=t_blank/bbs/read.php?tid=1111&keyword=2神經(jīng)網(wǎng)絡(luò)理論的發(fā)展與前沿問題神經(jīng)網(wǎng)絡(luò)理論的發(fā)展與前沿問題劉永?摘要系統(tǒng)地論述了神經(jīng)網(wǎng)絡(luò)理論發(fā)展的歷史和現(xiàn)狀,在此基礎(chǔ)上,對其主要發(fā)展趨向和所涉及的前沿問題進(jìn)行了闡述文中還作了一定的評論,并提出了新的觀點(diǎn)關(guān)鍵詞神經(jīng)網(wǎng)絡(luò)理論,神經(jīng)計(jì)算,進(jìn)化計(jì)算,基于神經(jīng)科學(xué)和數(shù)學(xué)的研?查看原文HYPERLINK/bbs/read.php?tid=5374&keyword=%C9%F1%BE%AD%CD%F8%C2%E7t_blank/bbs/read.php?tid=

4、5374&keyword=%C9%F1%BE%AD%CD%F8%C2%E73神經(jīng)網(wǎng)絡(luò)的權(quán)值和閾值分別是個(gè)什么概念?權(quán)值和閾值是神經(jīng)元之間的連接,將數(shù)據(jù)輸入計(jì)算出一個(gè)輸出,然后與實(shí)際輸出比較,誤差反傳,不斷調(diào)整權(quán)值和閾值假如p1=11-1;p2=1-1-1;屬于不同的類須設(shè)計(jì)分類器將他們分開這里用單層神經(jīng)元感知器初始權(quán)值w=b=-0.3輸出a1a2a1=hardlims(w*p1+b)a2=hardlims(w*p2+b)如果不能分開,還須不斷調(diào)整w,b這里說明一下權(quán)值w閾值b而已簡單地說,閾值也可以看作一維權(quán)值,只不過它所對應(yīng)的那一維樣本永遠(yuǎn)是-1(也有的書上說是1),這樣就把輸入樣本增加了一

5、維,更有利于解決問題.HYPERLINK/bbs/read.php?tid=6078&keyword=%C9%F1%BE%AD%CD%F8%C2%E7t_blank/bbs/read.php?tid=6078&keyword=%C9%F1%BE%AD%CD%F8%C2%E74神經(jīng)網(wǎng)絡(luò)歸一化看了研學(xué)和ai創(chuàng)業(yè)研發(fā)俱樂部神經(jīng)網(wǎng)絡(luò)版及振動(dòng)論壇部分帖子內(nèi)容,對歸一化做一下整理,冒昧引用了一些他人的觀點(diǎn),有的未列出其名,請諒解關(guān)于神經(jīng)網(wǎng)絡(luò)歸一化方法的整理由于采集的各數(shù)據(jù)單位不一致,因而須對數(shù)據(jù)進(jìn)行-1,1歸一化處理,歸一化方法主要有如下幾種,供大家參考:(byjames)1、線性函數(shù)轉(zhuǎn)換,表達(dá)式如下:y

6、=(x-MinValue)/(MaxValue-MinValue)說明:x、y分別為轉(zhuǎn)換前、后的值,MaxValue、MinValue分別為樣本的最大值和最小值。2、對數(shù)函數(shù)轉(zhuǎn)換,表達(dá)式如下:y=log10(x)說明:以10為底的對數(shù)函數(shù)轉(zhuǎn)換。3、反余切函數(shù)轉(zhuǎn)換,表達(dá)式如下:y=atan(x)*2/PI歸一化是為了加快訓(xùn)練網(wǎng)絡(luò)的收斂性,可以不進(jìn)行歸一化處理歸一化的具體作用是歸納統(tǒng)一樣本的統(tǒng)計(jì)分布性。歸一化在0-1之間是統(tǒng)計(jì)的概率分布,歸一化在-1-+1之間是統(tǒng)計(jì)的坐標(biāo)分布。歸一化有同一、統(tǒng)一和合一的意思。無論是為了建模還是為了計(jì)算,首先基本度量單位要同一,神經(jīng)網(wǎng)絡(luò)是以樣本在事件中的統(tǒng)計(jì)分別幾率

7、來進(jìn)行訓(xùn)練(概率計(jì)算)和預(yù)測的,歸一化是同一在0-1之間的統(tǒng)計(jì)概率分布;當(dāng)所有樣本的輸入信號都為正值時(shí),與第一隱含層神經(jīng)元相連的權(quán)值只能同時(shí)增加或減小,從而導(dǎo)致學(xué)習(xí)速度很慢。為了避免出現(xiàn)這種情況,加快網(wǎng)絡(luò)學(xué)習(xí)速度,可以對輸入信號進(jìn)行歸一化,使得所有樣本的輸入信號其均值接近于0或與其均方差相比很小。歸一化是因?yàn)閟igmoid函數(shù)的取值是0到1之間的,網(wǎng)絡(luò)最后一個(gè)節(jié)點(diǎn)的輸出也是如此,所以經(jīng)常要對樣本的輸出歸一化處理。所以這樣做分類的問題時(shí)用就要比用100要好。但是歸一化處理并不總是合適的,根據(jù)輸出值的分布情況,標(biāo)準(zhǔn)化等其它統(tǒng)計(jì)變換方法有時(shí)可能更好。關(guān)于用premnmx語句進(jìn)行歸一化:premnmx

8、語句的語法格式是:Pn,minp,maxp,Tn,mint,maxt=premnmx(P,T)其中P,T分別為原始輸入和輸出數(shù)據(jù),minp和maxp分別為P中的最小值和最大值。mint和maxt分別為T的最小值和最大值。premnmx函數(shù)用于將網(wǎng)絡(luò)的輸入數(shù)據(jù)或輸出數(shù)據(jù)進(jìn)行歸一化,歸一化后的數(shù)據(jù)將分布在-1,1區(qū)間內(nèi)。我們在訓(xùn)練網(wǎng)絡(luò)時(shí)如果所用的是經(jīng)過歸一化的樣本數(shù)據(jù),那么以后使用網(wǎng)絡(luò)時(shí)所用的新數(shù)據(jù)也應(yīng)該和樣本數(shù)據(jù)接受相同的預(yù)處理,這就要用到tramnmx。下面介紹tramnmx函數(shù):Pn=tramnmx(P,minp,maxp)其中P和Pn分別為變換前、后的輸入數(shù)據(jù),maxp和minp分別為pr

9、emnmx函數(shù)找到的最大值和最小值。(byterry2008)matlab中的歸一化處理有三種方法1.premnmx、postmnmx、tramnmx2.restd、poststd、trastd3.自己編程具體用那種方法就和你的具體問題有關(guān)了(byhappy)pm=max(abs(p(i,:);p(i,:)=p(i,:)/pm;和fori=1:27p(i,:)=(p(i,:)-min(p(i,:)/(max(p(i,:)-min(p(i,:);end可以歸一到01之間0.1+(x-min)/(max-min)*(0.9-0.1)其中max和min分別表示樣本最大值和最小值。這個(gè)可以歸一到0.1

10、-0.95如何查看BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練后的權(quán)值和閾值呀!訓(xùn)練好的權(quán)值、閾值的輸出方法是:輸入到隱層權(quán)值:w1=net.iw1,1隱層閾值:theta1=net.b1隱層到輸出層權(quán)值:w2=net.lw2,1;輸出層閾值:theta2=net.b26訓(xùn)練好的BP神經(jīng)網(wǎng)絡(luò)如何保存呀用命令savefilenamenet;保存網(wǎng)絡(luò),調(diào)用時(shí)用命令loadfilenamenet;7用BP逼近非線性函數(shù),如何提高訓(xùn)練精度啊(1)調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)增加網(wǎng)絡(luò)的層數(shù)可以進(jìn)一步降低誤差,提高精度但會使網(wǎng)絡(luò)復(fù)雜化,從而增加網(wǎng)絡(luò)的訓(xùn)練時(shí)間。精度的提高實(shí)際上也可以通過增加隱層神經(jīng)元的數(shù)目來獲得,其效果更容易觀察和掌握,所以應(yīng)優(yōu)先考

11、慮。(2)初始值選取為了使誤差盡可能小,需要合理選擇初始權(quán)重和偏置,如果太大就容易陷入飽和區(qū),導(dǎo)致停頓。一般應(yīng)選為均勻分布的小數(shù),介于(一1,1)。(3)學(xué)習(xí)速率調(diào)整學(xué)習(xí)速率的選取很重要,大了可能導(dǎo)致系統(tǒng)不穩(wěn)定,小了會導(dǎo)致訓(xùn)練周期過長、收斂慢,達(dá)不到要求的誤差。一般傾向于選取較小的學(xué)習(xí)速率以保持系統(tǒng)穩(wěn)定,通過觀察誤差下降曲線來判斷。下降較快說明學(xué)習(xí)率比較合適,若有較大振蕩則說明學(xué)習(xí)率偏大。同時(shí),由于網(wǎng)絡(luò)規(guī)模大小的不同,學(xué)習(xí)率選擇應(yīng)當(dāng)針對其進(jìn)行調(diào)整。(4)期望誤差期望誤差當(dāng)然希望越小越好,但是也要有合適值。8關(guān)于BP網(wǎng)絡(luò)優(yōu)缺點(diǎn)的討論HYPERLINK/bbs/read.php?tid=340t_

12、blank/bbs/read.php?tid=3409對初學(xué)神經(jīng)網(wǎng)絡(luò)者的小提示HYPERLINK/bbs/read.php?tid=427&fpage=3t_blank/bbs/read.php?tid=427&fpage=310神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的討論HYPERLINK/bbs/read.php?tid=2980t_blank/bbs/read.php?tid=298011權(quán)威!BP網(wǎng)絡(luò)中隱層結(jié)點(diǎn)個(gè)數(shù)的確定!HYPERLINK/bbs/read.php?tid=269&fpage=2t_blank/bbs/read.php?tid=269&fpage=212神經(jīng)網(wǎng)絡(luò)混合編程VB6.0中調(diào)用nnTo

13、olKit工具包程序HYPERLINK/bbs/read.php?tid=1209t_blank/bbs/read.php?tid=1209在VC中使用nntoolkit工具箱HYPERLINK/bbs/read.php?tid=1236t_blank/bbs/read.php?tid=1236cb6.0中調(diào)用nnToolKit工具包程序HYPERLINK/bbs/read.php?tid=1210t_blank/bbs/read.php?tid=121013用遺傳算法優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的Matlab編程由于BP網(wǎng)絡(luò)的權(quán)值優(yōu)化是一個(gè)無約束優(yōu)化問題,而且權(quán)值要采用實(shí)數(shù)編碼,所以直接利用Matlab

14、遺傳算法工具箱。以下貼出的代碼是為一個(gè)19輸入變量,1個(gè)輸出變量情況下的非線性回歸而設(shè)計(jì)的,如果要應(yīng)用于其它情況,只需改動(dòng)編解碼函數(shù)即可。具體請查看HYPERLINK/bbs/read.php?tid=2925t_blank/bbs/read.php?tid=292514幫我看一下BP神經(jīng)網(wǎng)絡(luò)程序出錯(cuò)在哪里,愁死我了p=1,15,25;2,15,25;3,15,25;4,15,25;1,15,25;2,5,25;2,7.5,25;2,10,25;2,15,25;t=0.6169;0.7068;0.7998;0.9052;1.0881;3.4255;1.0509;0.8835;0.7068;pn

15、,minp,maxp=premnmx(p);net=newff(minmax(pn),9,12,1,tansig,tansig,purelin,traingdm);net.trainparam.show=25;net.trainparam.mc=0.9;net.trainparam.lr=0.05;net.trainparam.epochs=1000;net.trainparam.goal=0.00001;net=init(net);net,tr=train(net,p,t);出錯(cuò)的原因是Errorusing=network/trainTargetsareincorrectlysizedfor

16、network.Matrixmusthave1rows.pt的列數(shù)要相等在pn,minp,maxp=premnmx(p);前面加入:p=p;t=t。在使用工具箱進(jìn)行網(wǎng)絡(luò)訓(xùn)練時(shí),要求訓(xùn)練樣本的個(gè)體是列向量。HYPERLINK/bbs/read.php?tid=5847&keyword=%C9%F1%BE%AD%CD%F8%C2%E7t_blank/bbs/read.php?tid=5847&keyword=%C9%F1%BE%AD%CD%F8%C2%E715問各位一個(gè)問題,我用一個(gè)前向神經(jīng)網(wǎng)絡(luò)作分類,希望輸出1;0;0表示一類;但是輸出的是0.9997;0.0001;0諸如此類,我該怎么判斷分類

17、的成功與否?判斷一下:如果三個(gè)數(shù)中最大的一個(gè)在第一位置,就用1;0;0表示表示分類正確16能不能給解釋一下這些分別是設(shè)定一個(gè)網(wǎng)絡(luò)的什么參數(shù)?net.trainParam.show=50;net.trainParam.lr=0.05;net.trainParam.epochs=10000;net.trainParam.goal=1e-5;net.trainParam.show=50;/訓(xùn)練50次刷新一下訓(xùn)練圖net.trainParam.lr=0.05;/學(xué)習(xí)率net.trainParam.epochs=10000;/訓(xùn)練次數(shù)net.trainParam.goal=1e-5;/訓(xùn)練結(jié)束的目標(biāo)17

18、神經(jīng)網(wǎng)絡(luò)的文件如何轉(zhuǎn)為simulinkhelpgensimhelpfornetwork/gensim.mGENSIMGenerateaSIMULINKblocktosimulateaneuralnetwork.Syntaxgensim(net,st)18ann如何做預(yù)測一個(gè)不錯(cuò)的例子HYPERLINK/bbs/read.php?tid=5809t_blank/bbs/read.php?tid=580919小波神經(jīng)網(wǎng)絡(luò)小波神經(jīng)網(wǎng)絡(luò)就是小波分析理論與神經(jīng)網(wǎng)絡(luò)理論相結(jié)合的產(chǎn)物。從結(jié)構(gòu)形式分有兩大類:1、小波分析與神經(jīng)網(wǎng)絡(luò)的松散型結(jié)合;2、小波分析與神經(jīng)網(wǎng)絡(luò)的嵌入式結(jié)合。前者是指彼此雖緊密結(jié)合但卻又相

19、對獨(dú)立,采集到的信號先經(jīng)過小波變換后輸入到常規(guī)神經(jīng)網(wǎng)絡(luò)以完成分類、函數(shù)逼近等。后者是指將常規(guī)單隱層的神經(jīng)網(wǎng)絡(luò)的隱節(jié)點(diǎn)激勵(lì)函數(shù)用小波函數(shù)代替,相應(yīng)的輸入到隱層的圈值及閾值分別由小波函數(shù)的伸縮因子和平移因子代替,這也是我們通常所說的小波網(wǎng)絡(luò)。小波網(wǎng)絡(luò)在訓(xùn)練的過程中同樣采用普通BP算法,但是它對參數(shù)的初始化表現(xiàn)敏感,所以參數(shù)的初始在小波網(wǎng)絡(luò)的訓(xùn)練中也是很重要的。20那位有人工神經(jīng)網(wǎng)絡(luò)導(dǎo)論高教出版社出版的蔣宗禮編的電子版書啊?HYPERLINK/bbs/read.php?tid=1278&keyword=%C8%CB%B9%A4%C9%F1%BE%AD%CD%F8%C2%E7%B5%BC%C2%DBt

20、_blank/bbs/read.php?tid=1278&keyword=%C8%CB%B9%A4%C9%F1%BE%AD%CD%F8%C2%E7%B5%BC%C2%DB21:網(wǎng)絡(luò)的結(jié)構(gòu)選擇輸入層和輸出層節(jié)點(diǎn)數(shù)選擇由應(yīng)用要求決定。輸入節(jié)點(diǎn)數(shù)一般等于要訓(xùn)練的樣本矢量維數(shù),可以是原始數(shù)據(jù)的維數(shù)或提取的特征維數(shù);輸出單元數(shù)在分類網(wǎng)絡(luò)中取類別數(shù)m或log2m,在逼近網(wǎng)絡(luò)中取要逼近的函數(shù)輸出空間維數(shù)。當(dāng)網(wǎng)絡(luò)用于工業(yè)過程辨識或時(shí)間序列預(yù)測建模時(shí),輸入節(jié)點(diǎn)數(shù)的選擇應(yīng)由非線性系統(tǒng)定階的結(jié)果確定。網(wǎng)絡(luò)的隱層數(shù)和隱節(jié)點(diǎn)數(shù)決定了網(wǎng)絡(luò)的規(guī)模,而網(wǎng)絡(luò)的規(guī)模與其性能密切相關(guān)。神經(jīng)網(wǎng)絡(luò)的規(guī)模越大,網(wǎng)絡(luò)中的自由參數(shù)就越多;反

21、之,網(wǎng)絡(luò)中的自由參數(shù)就越少。如果神經(jīng)網(wǎng)絡(luò)用于逼近一個(gè)目標(biāo)函數(shù)(分類可以看成函數(shù)逼近的特殊情況),則當(dāng)網(wǎng)絡(luò)規(guī)模過小,神經(jīng)網(wǎng)絡(luò)逼近能力不足,容易導(dǎo)致欠擬合;網(wǎng)絡(luò)規(guī)模過大,神經(jīng)網(wǎng)絡(luò)逼近能力過剩,則容易導(dǎo)致過擬合;因此,確定網(wǎng)絡(luò)規(guī)模是神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的一項(xiàng)重要內(nèi)容。22網(wǎng)絡(luò)不穩(wěn)定性問題我對次發(fā)表點(diǎn)個(gè)人看法吧,我覺的網(wǎng)絡(luò)不穩(wěn)定屬于正常現(xiàn)象,我以大家用的最多的BP網(wǎng)絡(luò)為例,比如網(wǎng)絡(luò)隱含層節(jié)點(diǎn)的數(shù)目和網(wǎng)絡(luò)訓(xùn)練算法選取的不同,都也可能導(dǎo)致同一網(wǎng)絡(luò)結(jié)構(gòu)針對同一測試樣本的數(shù)據(jù)有著截然不同的解,原因是多方面的,與樣本有關(guān),與BP算法自身也有關(guān)系,在網(wǎng)絡(luò)初始化時(shí),BP采用rand函數(shù)初始化權(quán)值,這樣不同時(shí)間訓(xùn)練對于ran

22、d當(dāng)然會有不同的取值,BP是按照梯度最大方向修正誤差平方和的,網(wǎng)絡(luò)自身算法就有一定的局限性。如果要保留現(xiàn)有的節(jié)點(diǎn)之間的值可以用net.iw,net.b,net.lw保留,這樣網(wǎng)絡(luò)的值就可以保留下來了。不過有時(shí)與樣本特征,數(shù)目也有關(guān)系,樣本太少訓(xùn)練的結(jié)果也不會令人滿意。個(gè)人觀點(diǎn),僅供參考。HYPERLINK/bbs/read.php?tid=5389&page=e&lat_blank/bbs/read.php?tid=5389&page=e保存網(wǎng)絡(luò),可使預(yù)測的結(jié)果不會變化,調(diào)用時(shí)用命令loadfilenamenet;HYPERLINK/bbs/read.php?tid=6319&keyword=

23、t_blank/bbs/read.php?tid=6319&keyword=30在用MATLAB實(shí)現(xiàn)BP反向?qū)W習(xí)時(shí)需要不需要用deltalin()、learnbp()、sumsqr()這樣的函數(shù)啊?deltalin()、learnbp()是比較舊的版本函數(shù).如果不是做神經(jīng)網(wǎng)絡(luò)函數(shù),直接應(yīng)用newff,bptrain等工具箱函數(shù)就可以了.32人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn)人工神經(jīng)網(wǎng)絡(luò)的以下幾個(gè)突出的優(yōu)點(diǎn)使它近年來引起人們的極大關(guān)注:(1)可以充分逼近任意復(fù)雜的非線性關(guān)系;(2)所有定量或定性的信息都等勢分布貯存于網(wǎng)絡(luò)內(nèi)的各神經(jīng)元,故有很強(qiáng)的魯棒性和容錯(cuò)性;(3)采用并行分布處理方法,使得快速進(jìn)行大量運(yùn)算成為

24、可能;(4)可學(xué)習(xí)和自適應(yīng)不知道或不確定的系統(tǒng);(5)能夠同時(shí)處理定量、定性知識。人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn)和優(yōu)越性,主要表現(xiàn)在三個(gè)方面:第一,具有自學(xué)習(xí)功能。例如實(shí)現(xiàn)圖像識別時(shí),只在先把許多不同的圖像樣板和對應(yīng)的應(yīng)識別的結(jié)果輸入人工神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)就會通過自學(xué)習(xí)功能,慢慢學(xué)會識別類似的圖像。自學(xué)習(xí)功能對于預(yù)測有特別重要的意義。預(yù)期未來的人工神經(jīng)網(wǎng)絡(luò)計(jì)算機(jī)將為人類提供經(jīng)濟(jì)預(yù)測、市場預(yù)測、效益預(yù)測,其應(yīng)用前途是很遠(yuǎn)大的。第二,具有聯(lián)想存儲功能。用人工神經(jīng)網(wǎng)絡(luò)的反饋網(wǎng)絡(luò)就可以實(shí)現(xiàn)這種聯(lián)想。第三,具有高速尋找優(yōu)化解的能力。尋找一個(gè)復(fù)雜問題的優(yōu)化解,往往需要很大的計(jì)算量,利用一個(gè)針對某問題而設(shè)計(jì)的反饋型人工神經(jīng)

25、網(wǎng)絡(luò),發(fā)揮計(jì)算機(jī)的高速運(yùn)算能力,可能很快找到優(yōu)化解。33人工神經(jīng)網(wǎng)絡(luò)的主要方向神經(jīng)網(wǎng)絡(luò)的研究可以分為理論研究和應(yīng)用研究兩大方面。理論研究可分為以下兩類:1)利用神經(jīng)生理與認(rèn)知科學(xué)研究人類思維以及智能機(jī)理。2)利用神經(jīng)基礎(chǔ)理論的研究成果,用數(shù)理方法探索功能更加完善、性能更加優(yōu)越的神經(jīng)網(wǎng)絡(luò)模型,深入研究網(wǎng)絡(luò)算法和性能,如:穩(wěn)定性、收斂性、容錯(cuò)性、魯棒性等;開發(fā)新的網(wǎng)絡(luò)數(shù)理理論,如:神經(jīng)網(wǎng)絡(luò)動(dòng)力學(xué)、非線性神經(jīng)場等。應(yīng)用研究可分為以下兩類:1)神經(jīng)網(wǎng)絡(luò)的軟件模擬和硬件實(shí)現(xiàn)的研究。2)神經(jīng)網(wǎng)絡(luò)在各個(gè)領(lǐng)域中應(yīng)用的研究。這些領(lǐng)域主要包括:模式識別、信號處理、知識工程、專家系統(tǒng)、優(yōu)化組合、機(jī)器人控制等。隨著神

26、經(jīng)網(wǎng)絡(luò)理論本身以及相關(guān)理論、相關(guān)技術(shù)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)的應(yīng)用定將更加深入。34如何選擇訓(xùn)練集和測試集數(shù)據(jù)?一般需要將樣本分成獨(dú)立的三部分訓(xùn)練集(trainset),驗(yàn)證集(validationset)和測試集(testset)。其中訓(xùn)練集用來估計(jì)模型,驗(yàn)證集用來確定網(wǎng)絡(luò)結(jié)構(gòu)或者控制模型復(fù)雜程度的參數(shù),而測試集則檢驗(yàn)最終選擇最優(yōu)的模型的性能如何。一個(gè)典型的劃分是訓(xùn)練集占總樣本的50,而其它各占25,三部分都是從樣本中隨機(jī)抽取。樣本少的時(shí)候,上面的劃分就不合適了。常用的是留少部分做測試集。然后對其余N個(gè)樣本采用K折交叉驗(yàn)證法。就是將樣本打亂,然后均勻分成K份,輪流選擇其中K1份訓(xùn)練,剩余的一份做

27、驗(yàn)證,計(jì)算預(yù)測誤差平方和,最后把K次的預(yù)測誤差平方和再做平均作為選擇最優(yōu)模型結(jié)構(gòu)的依據(jù)。特別的K取N,就是留一法(leaveoneout)。35神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)(七種C實(shí)現(xiàn)).HYPERLINK/bbs/read.php?tid=5343t_blank/bbs/read.php?tid=534336SOM的優(yōu)點(diǎn)請問與神經(jīng)網(wǎng)絡(luò)的其他分類方法,比如Hamming,MLP相比,SOM有什么優(yōu)點(diǎn)?.快速性(無隱含層).無監(jiān)督性.可視化效果.37神經(jīng)網(wǎng)絡(luò)的應(yīng)用我想問一下要應(yīng)用實(shí)際中,神經(jīng)網(wǎng)絡(luò)技術(shù)最關(guān)鍵的地方在哪?我個(gè)人認(rèn)為首先是對實(shí)際問題分析,看傳統(tǒng)的方法行不行,如果行就用傳統(tǒng)方法解決,如果傳統(tǒng)方法

28、解決的不理想,然后嘗試用神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)用于求解問題是因?yàn)樗哂小皩W(xué)習(xí)”能力,對于非線性、有噪、模式識別等問題有著得天獨(dú)厚的優(yōu)勢,對于問題分析以后,重在選擇相應(yīng)的模型求解,嘗試模型的求解過程同時(shí)也涉及到模型的優(yōu)化等問題,最后編制程序運(yùn)行。我個(gè)人認(rèn)為選擇什么樣的模型求解實(shí)際問題是最關(guān)鍵的,用什么語言編程實(shí)現(xiàn)或者怎么實(shí)現(xiàn)好象都不是那么難。個(gè)人觀點(diǎn),歡迎補(bǔ)充。HYPERLINK/bbs/read.php?tid=4771&fpage=4t_blank/bbs/read.php?tid=4771&fpage=4我眼中的神經(jīng)網(wǎng)絡(luò)給初學(xué)者我覺得目前論壇里的新手很多,呵呵,問的問題很多都是重復(fù)的,首先希望你們能先找找時(shí)不時(shí)有人問過了,是不是有人已經(jīng)回答過了。下面我把我的一點(diǎn)體會和看法說出來,可能有很多是不正確或者不深刻的,希望各位指出來,謝謝1、我知道的目前一般的神經(jīng)網(wǎng)絡(luò),尤其是前饋網(wǎng)絡(luò)可以做的是兩方面的問題:分類和函數(shù)擬合(包括預(yù)測)。當(dāng)然,hopfield網(wǎng)絡(luò)還具有聯(lián)想記憶功能,可以做一些相關(guān)的事情。2、我覺得神經(jīng)網(wǎng)絡(luò)還處于初期階段,很多問題,尤其是規(guī)模大或者要求精度高的問題,還是解決

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論