數(shù)據(jù)分析崗位筆試題目總結(jié)_第1頁
數(shù)據(jù)分析崗位筆試題目總結(jié)_第2頁
數(shù)據(jù)分析崗位筆試題目總結(jié)_第3頁
數(shù)據(jù)分析崗位筆試題目總結(jié)_第4頁
免費(fèi)預(yù)覽已結(jié)束,剩余18頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、.阿里巴巴1、異常值是指什么 ?請(qǐng)列舉 1 種識(shí)別連續(xù)型變量異常值的方法?異常值 (Outlier) 是指樣本中的個(gè)別值, 其數(shù)值明顯偏離所屬樣本的其余觀測(cè)值。在數(shù)理統(tǒng)計(jì)里一般是指 一組觀測(cè)值中與平均值的偏差超過兩倍標(biāo)準(zhǔn)差的測(cè)定值 .常見的異常值檢驗(yàn)方法如下:基于統(tǒng)計(jì)的方法基于距離的方法基于密度的方法基于聚類的方法基于偏差的方法基于深度的方法t 檢驗(yàn):按照 t 分布的實(shí)際誤差分布范圍來判別異常值 ,首先剔除一個(gè)可疑值,然后按 t 分布來檢驗(yàn)剔除的值是否為異常值。狄克遜檢驗(yàn)法 :假設(shè)一組數(shù)據(jù)有序 x1<x2< <xn,且服從正態(tài)分布,則異常值最有可能出現(xiàn)在兩端 x1 和 xn。

2、格拉布斯檢驗(yàn)法 :與狄克遜檢驗(yàn)法思想一樣,其檢驗(yàn)公式為:.指數(shù)分布檢驗(yàn):SPSS和 R 語言中通過繪制箱圖可以找到異常值,分布在箱邊框外部;2、什么是聚類分析 ?聚類算法有哪幾種 ?請(qǐng)選擇一種詳細(xì)描述其計(jì)算原理和步驟。聚類分析 (cluster analysis)是一組將研究對(duì)象分為相對(duì)同質(zhì)的群組(clusters) 的統(tǒng)計(jì)分析技術(shù)。 聚類分析也叫分類分析 (classification analysis) 或數(shù)值分類 (numerical taxonomy) 。聚類與分類的不同在于,聚類所要求劃分的類是未知的。聚類分析計(jì)算方法主要有:層次 的方法 (hierarchicalmethod) 、

3、劃分 方法 (partitioningmethod) 、基于 密度 的方法 (density-based method) 、基于 網(wǎng)格 的方法 (grid-based method) 、基于模型 的方法 (model-based method) 等。其中,前兩種算法是利用統(tǒng)計(jì)學(xué)定義的距離進(jìn)行度量。 常見的聚類方法有:K-pototypes算法,K-Means算法,CLARANS算法(劃分方法) ,BIRCH 算法(層次方法) ,CURE算法(層次方法) , DBSCAN算法(基于密度的方法),CLIQUE 算法(綜合了基于密度和基于網(wǎng)格的算法);k-means 算法的工作過程說明如下:首先從

4、n 個(gè)數(shù)據(jù)對(duì)象任意選擇 k 個(gè)對(duì)象作為初始聚類中心 ; 而對(duì)于所剩下其它對(duì)象,則根據(jù)它們與這些聚類中心的相似度 ( 距離 ) ,分別將它們分配給與其最相似的 ( 聚類中心所代表的 ) 聚類 ; 然后再計(jì)算每個(gè)所獲新聚類的聚類中心 ( 該聚類中所有對(duì)象的均值 ); 不斷重復(fù)這一過程直到標(biāo)準(zhǔn)測(cè)度函數(shù)開始收斂為止。一般都采用均方差作為標(biāo)準(zhǔn)測(cè)度函數(shù) . k 個(gè)聚類具有以下特點(diǎn):各聚類本身盡可能的緊湊,而各聚類之間盡可能的分開。其流程如下:(1) 從 n 個(gè)數(shù)據(jù)對(duì)象任意選擇 k 個(gè)對(duì)象作為初始聚類中心 ;(2) 根據(jù)每個(gè)聚類對(duì)象的均值 ( 中心對(duì)象 ) ,計(jì)算每個(gè)對(duì)象與這些中心對(duì)象的距離 ; 并根據(jù)最小

5、距離重新對(duì)相應(yīng)對(duì)象進(jìn)行劃分 ;.(3) 重新計(jì)算每個(gè) ( 有變化 ) 聚類的均值 ( 中心對(duì)象 );(4) 循環(huán) (2) 、(3) 直到每個(gè)聚類不再發(fā)生變化為止 ( 標(biāo)準(zhǔn)測(cè)量函數(shù)收斂 ) 。優(yōu)點(diǎn):本算法確定的 K 個(gè)劃分到達(dá)平方誤差最小。當(dāng)聚類是密集的,且類與類之間區(qū)別明顯時(shí), 效果較好。 對(duì)于處理大數(shù)據(jù)集, 這個(gè)算法是相對(duì)可伸縮和高效的,計(jì)算的復(fù)雜度為 O(NKt) ,其中 N是數(shù)據(jù)對(duì)象的數(shù)目, K 是聚類中心, t 是迭代的次數(shù)。缺點(diǎn): 1. K 是事先給定的,但非常難以選定 ;2. 初始聚類中心的選擇對(duì)聚類結(jié)果有較大的影響。3. 數(shù)據(jù)標(biāo)準(zhǔn)化技術(shù)是將數(shù)據(jù)按比例縮放,使之落入一個(gè)小的特定區(qū)間

6、。去除數(shù)據(jù)的單位限制,將其轉(zhuǎn)化為無量綱的純數(shù)值,便于不同單位或量級(jí)的指標(biāo)能夠進(jìn)行比較和加權(quán)。常用的方法有:( 1)總和標(biāo)準(zhǔn)化。分別求出各要素所對(duì)應(yīng)的數(shù)據(jù)的總和,以各要素的數(shù)據(jù)除以該要素的數(shù)據(jù)的總和,即.4. 缺失值處理方法1) 直接丟棄含缺失數(shù)據(jù)的記錄如:個(gè)案剔除法, 這種方法卻有很大的局限性。 它是以減少樣本量來換取信息的完備,會(huì)造成資源的大量浪費(fèi), 丟棄了大量隱藏在這些對(duì)象中的信息。 當(dāng)缺失數(shù)據(jù)所占比例較大, 特別是當(dāng)缺數(shù)據(jù)非隨機(jī)分布時(shí), 這種方法可能導(dǎo)致數(shù)據(jù)發(fā)生偏離,從而得出錯(cuò)誤的結(jié)論。2)補(bǔ)缺A. 用平均值來代替所有缺失數(shù)據(jù) :均值替換法,均值替換法也是一種簡(jiǎn)便、快速的缺失數(shù)據(jù)處理方法

7、。 使用均值替換法插補(bǔ)缺失數(shù)據(jù), 對(duì)該變量的均值估計(jì)不會(huì)產(chǎn)生影響。但這種方法是建立在完全隨機(jī)缺失( MCAR)的假設(shè)之上的,而且會(huì)造成變量的方差和標(biāo)準(zhǔn)差變小。B. K - 最近距離鄰居法 :先根據(jù)歐式距離或相關(guān)分析來確定距離具有缺失數(shù)據(jù)樣本最近的 K 個(gè)樣本,將這 K 個(gè)值加權(quán)平均來估計(jì)該樣本的缺失數(shù)據(jù)。C.用預(yù)測(cè)模型來預(yù)測(cè)每一個(gè)缺失數(shù)據(jù):該方法最大限度地利用已知的相關(guān)數(shù)據(jù),是比較流行的缺失數(shù)據(jù)處理技術(shù)。 如:回歸替換法 ,該方法也有諸多弊端,第一,容易忽視隨機(jī)誤差, 低估標(biāo)準(zhǔn)差和其他未知性質(zhì)的測(cè)量值, 而且這一問題會(huì)隨著缺失信息的增多而變得更加嚴(yán)重。 第二,研究者必須假設(shè)存在缺失值所在的變量

8、與其他變量存在線性關(guān)系,很多時(shí)候這種關(guān)系是不存在的。.5.Apriori 算法和信息熵信息熵是數(shù)學(xué)中一個(gè)抽象的概念, 他表示了信息源的不確定度, 這里不妨把信息熵理解成某種特定信息的出現(xiàn)概率, 當(dāng)一種信息出現(xiàn)概率更高的時(shí)候, 表明它被傳播得更廣泛,或者說,被引用的程度更高。我們可以認(rèn)為, 從信息傳播的角度來看,信息熵可以表示信息的價(jià)值 。支持度: Support(A->B)=P(A U B) 。支持度揭示了 A 與 B 同時(shí)出現(xiàn)的概率 。如果 A 與 B 同時(shí)出現(xiàn)的概率小,說明 A 與 B 的關(guān)系不大;如果 A 與 B 同時(shí)出現(xiàn)的非常頻繁,則說明 A與 B 總是相關(guān)的。置信度 (Conf

9、idence) 的公式式: Confidence(A->B)=P(A | B)。置信度揭示了A 出現(xiàn)時(shí), B 是否也會(huì)出現(xiàn)或有多大概率出現(xiàn)。如果置信度度為100%,則 A 和 B 可以捆綁銷售了。如果置信度太低,則說明A 的出現(xiàn)與B 是否出現(xiàn)關(guān)系不大。H(x) = EI(xi) = E log(2,1/p(xi) =- p(xi)log(2,p(xi)(i=1,2,.n),單位是 bit.其中, x 表示隨機(jī)變量,與之相對(duì)應(yīng)的是所有可能輸出的集合,定義為符號(hào)集 , 隨機(jī)變量的輸出用 x 表示。 P(x) 表示輸出概率函數(shù)。變量的不確定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大

10、.以頻繁項(xiàng)集 I1 ,I2 , I3 為例產(chǎn)生強(qiáng)關(guān)聯(lián)規(guī)則,最小置信度為40%(1)頻繁項(xiàng)集 I1 ,I2 ,I3 的非空子集有 I1 ,I2,I1,I3,I2,I3,I1,I2,I3(2) 產(chǎn)生強(qiáng)關(guān)聯(lián)規(guī)則I1 ,I2=>I3confidence=support(I1,I2,I3)/support(I1,I2)=2/4=0.5I1,I3=>I2 confidence=support(I1 ,I2 , I3 )/support(I1,I3)=2/4=0.5I2,I3=>I1 confidence=support(I1 ,I2 , I3 )/support(I2,I3)=2/4=0

11、.5I1=>I2,I3 confidence=support(I1 ,I2 , I3 )/support(I1)=2/6=0.33I2=>I1,I3 confidence=support(I1 ,I2 , I3 )/support(I2)=2/7=0.29I3=>I1,I2 confidence=support(I1 ,I2 , I3 )/support(I3)=2/6=0.33則強(qiáng)關(guān)聯(lián)規(guī)則為: I1 , I2=>I3 ; I1,I3; I2,I3=>I13、根據(jù)要求寫出 SQL (沒有學(xué)習(xí)過,之后的學(xué)習(xí)中需要補(bǔ))表 A 結(jié)構(gòu)如下:Member_ID (用戶的 I

12、D ,字符型 )Log_time ( 用戶訪問頁面時(shí)間,日期型( 只有一天的數(shù)據(jù) ).URL (訪問的頁面地址,字符型)要求:提取出每個(gè)用戶訪問的第一個(gè) URL(按時(shí)間最早 ) ,形成一個(gè)新表 ( 新表名為 B,表結(jié)構(gòu)和表 A 一致 )參考答案:create table B as select Member_ID, min(Log_time), URL from A group by Member_ID ;5、用戶調(diào)研某公司針對(duì) A、B、C 三類客戶,提出了一種統(tǒng)一的改進(jìn)計(jì)劃,用于提升客戶的周消費(fèi)次數(shù), 需要你來制定一個(gè)事前試驗(yàn)方案, 來支持決策, 請(qǐng)你思考下列問題:a) 試驗(yàn)需要為決策提供什

13、么樣的信息 ?c) 按照上述目的,請(qǐng)寫出你的數(shù)據(jù)抽樣方法、需要采集的數(shù)據(jù)指標(biāo)項(xiàng),以及你選擇的統(tǒng)計(jì)方法。a) 試驗(yàn)要能證明該改進(jìn)計(jì)劃能顯著提升 A、B、C 三類客戶的周消費(fèi)次數(shù)。b) 根據(jù)三類客戶的數(shù)量,采用分層比例抽樣 ;需要采集的數(shù)據(jù)指標(biāo)項(xiàng)有: 客戶類別, 改進(jìn)計(jì)劃前周消費(fèi)次數(shù), 改進(jìn)計(jì)劃后周消費(fèi)次數(shù) ;選用統(tǒng)計(jì)方法為:分別針對(duì) A、B、C三類客戶,進(jìn)行改進(jìn)前和后的周消費(fèi)次數(shù)的,兩獨(dú)立樣本 T- 檢驗(yàn)6.常見的抽樣方法有哪些?常用的有以下六種類型:簡(jiǎn)單抽樣 ( Simple sampling)即簡(jiǎn)單隨機(jī)抽樣,指保證大小為 n 的每個(gè)可能的樣本都有相同的被抽中的概率。例如:按照 “抽簽法 ”、

14、 “隨機(jī)表 ”法抽取訪問對(duì)象,從單位人名目錄中抽取對(duì)象。優(yōu)點(diǎn):隨機(jī)度高,在特質(zhì)較均一的總體中, 具有很高的總體代表度; 是最簡(jiǎn)單的抽樣技術(shù),有標(biāo)準(zhǔn)而且簡(jiǎn)單的統(tǒng)計(jì)公式。缺點(diǎn):未使用可能有用的抽樣框輔助信息抽取樣本, 可能導(dǎo)致統(tǒng)計(jì)效率低; 有可能抽到一個(gè) “差”的樣本,使抽出的樣本分布不好,不能很好地代表總體。系統(tǒng)抽樣 ( Systematic random sampling)將總體中的各單元先按一定順序排列, 并編號(hào),然后按照不一定的規(guī)則抽樣。.其中最常采用的是等距離抽樣,即根據(jù)總體單位數(shù)和樣本單位計(jì)算出抽樣距離(即相同的間隔),然后按相同的距離或間隔抽選樣本單位。 例如:從 1000 個(gè)電話號(hào)

15、碼中抽取 10 個(gè)訪問號(hào)碼,間距為 100,確定起點(diǎn)(起點(diǎn)間距)后每 100 號(hào)碼抽一訪問號(hào)碼。優(yōu)點(diǎn):兼具操作的簡(jiǎn)便性和統(tǒng)計(jì)推斷功能,是目前最為廣泛運(yùn)用的一種抽樣方法。如果起點(diǎn)是隨機(jī)確定的, 總體中單元排列是隨機(jī)的, 等距抽樣的效果近似簡(jiǎn)單抽樣;與簡(jiǎn)單抽樣相比,在一定條件下,樣本的分布較好。缺點(diǎn):抽樣間隔可能遇到總體中某種未知的周期性,導(dǎo)致 “差”的樣本;未使用可能有用的抽樣框輔助信息抽取樣本,可能導(dǎo)致統(tǒng)計(jì)效率低。分層抽樣 ( Stratified random sampling)是把調(diào)查總體分為同質(zhì)的、 互不交叉的層(或類型),然后在各層(或類型)中獨(dú)立抽取樣本。例如:調(diào)查零售店時(shí),按照其規(guī)

16、模大小或庫存額大小分層,然后在每層中按簡(jiǎn)單隨機(jī)方法抽取大型零售店若干、 中型若干、小型若干; 調(diào)查城市時(shí),按城市總?cè)丝诨蚬I(yè)生產(chǎn)額分出超 大型城市、中型城市、小型城市 等,再抽出具體的各類型城市若干。優(yōu)點(diǎn):適用于層間有較大的異質(zhì)性, 而每層內(nèi)的個(gè)體具有同質(zhì)性的總體, 能提高總體估計(jì)的精確度, 在樣本量相同的情況下, 其精度高于簡(jiǎn)單抽樣和系統(tǒng)抽樣; 能保證 “層 ”的代表性,避免抽到 “差”的樣本;同時(shí),不同層可以依據(jù)情況采用不同的抽樣框和抽樣方法。缺點(diǎn):要求有高質(zhì)量的、 能用于分層的輔助信息; 由于需要輔助信息, 抽樣框的創(chuàng)建需要更多的費(fèi)用,更為復(fù)雜;抽樣誤差估計(jì)比簡(jiǎn)單抽樣和系統(tǒng)抽樣更復(fù)雜。整

17、群抽樣( Cluster sampling)(層層深入抽樣,不斷縮小抽樣的范圍)是先將調(diào)查總體分為群, 然后從中抽取群,對(duì)被抽中群的全部單元進(jìn)行調(diào)查。例如:入戶調(diào)查,按地塊或居委會(huì)抽樣, 以地塊或居委會(huì)等有地域邊界的群體為第一抽樣單位, 在選出的地塊或居委會(huì)實(shí)施逐戶抽樣; 市場(chǎng)調(diào)查中, 最后一級(jí)抽樣時(shí),從居委會(huì)中抽取若干戶,然后調(diào)查抽中戶家中所有18 歲以上成年人。優(yōu)點(diǎn):適用于群間差異小、 群內(nèi)各個(gè)體差異大、 可以依據(jù)外觀的或地域的差異來劃分的群體。缺點(diǎn):群內(nèi)單位有趨同性,其精度比簡(jiǎn)單抽樣為低。前面談到抽樣方法的一些基本分類和各自特點(diǎn),需要注意的是, 在實(shí)際的運(yùn)用中,一個(gè)調(diào)查方案 常常不是只局

18、限于使用某一種抽樣方式,而根據(jù)研究時(shí)段的不同采用多種抽樣方法的組鴿為實(shí)現(xiàn)不同的研究目的, 有時(shí)甚至在同一時(shí)段綜合運(yùn)用幾種抽樣方法。例如,設(shè)計(jì)一個(gè)全國(guó)城市的入戶項(xiàng)目,在抽樣上可以分為幾個(gè)不同的步驟,包括:1)在項(xiàng)目正式開始前,可以采用 判斷抽樣法選出某一城市先作試點(diǎn) ,在問卷設(shè)計(jì)初期可以采用任意抽樣法選出部分人群進(jìn)行問卷試訪。2)采用分層隨機(jī)抽樣法 ,確定全國(guó)要分別在多少個(gè)超大型市、多少個(gè)中型.市、多少個(gè)小型市實(shí)施(先分出城市的幾個(gè)層次,再依據(jù)研究需要在各層用 PPS 法選取具體城市)3)采用簡(jiǎn)單抽樣法 或 PPS抽樣法,確定抽出城市中應(yīng)抽的地塊或居委會(huì);4)采用整群抽樣 法,確定抽出地塊或居委

19、會(huì)應(yīng)訪問的家庭戶;5)在項(xiàng)目后期,可以采用判斷抽樣法 選取某城市進(jìn)行深入研究。8. 置信度與置信區(qū)間P(x1<x<x2)=1-a, 稱 1-a 為置信度, x1,x2為置信區(qū)間置信度越大,置信區(qū)間越寬;置信區(qū)間越寬,置信度越大;置信度越小,置信區(qū)間越窄9.ROC曲線及含義ROC曲線指受試者工作特征曲線(receiver operating characteristic curve),是反映 敏感性和特異性連續(xù)變量的綜合指標(biāo) ,是用構(gòu)圖法揭示敏感性和特異性的相互關(guān)系,它通過將連續(xù)變量設(shè)定出多個(gè)不同的臨界值,從而計(jì)算出一系列敏感性和特異性,再以敏感性為縱坐標(biāo)、(1-特異性)為橫坐標(biāo)繪制

20、成曲線,曲線下面積越大,診斷準(zhǔn)確性越高。在ROC曲線上,最靠近坐標(biāo)圖左上方的點(diǎn)為敏感性和特異性均較高的臨界值。10.數(shù)據(jù)挖掘步驟 理解數(shù)據(jù)和數(shù)據(jù)的來源(understanding)。 獲取相關(guān)知識(shí)與技術(shù)( acquisition)。 整合與檢查數(shù)據(jù)( integration and checking)。 去除錯(cuò)誤或不一致的數(shù)據(jù)(data cleaning)。 建立模型和假設(shè)( model and hypothesis development)。 實(shí)際數(shù)據(jù)挖掘工作( data mining)。 測(cè)試和驗(yàn)證挖掘結(jié)果( testing and verfication)。 解釋和應(yīng)用( interpr

21、etation and use)。11.如何評(píng)估促銷活動(dòng)?.11. Bayes公式(全概率公式)探索在已知結(jié)果的情況下,是由哪種原因引起的概率;.p( Bi A)p(Bi ) p( A | Bi )p( Bi | A)p( B j ) p( A | B j )p( A)12. 邏輯回歸(分類問題)邏輯回歸適合求解哪些問題:邏輯回歸本質(zhì)上解決的是分類問題,Logistic回歸的主要用途:.? 尋找危險(xiǎn)因素:尋找某一疾病的危險(xiǎn)因素等;? 預(yù)測(cè):根據(jù)模型,預(yù)測(cè)在不同的自變量情況下,發(fā)生某病或某種情況的概率有多大;? 判別:實(shí)際上跟預(yù)測(cè)有些類似,也是根據(jù)模型,判斷某人屬于某病或?qū)儆谀撤N情況的概率有多大

22、,也就是看一下這個(gè)人有多大的可能性是屬于某病。11. 線性回歸線性回歸(一元和多元) 中對(duì)誤差的假設(shè)都是假定服從均值為0 方差為定值的正態(tài)分布,擬合系數(shù)的求解方法可以有最小二乘法梯度下降法等。關(guān)于殘差的假設(shè)為:零均值,同方差,正態(tài)性,不相關(guān),樣本隨機(jī)?;貧w分析的自變量為連續(xù)性變量,而方差分析的自變量為離散型分類變量;廣義線性回歸于線性回歸的最大區(qū)別是隨機(jī)誤差的分布不一定是正態(tài)分布,與非線性模型的最大區(qū)別是非線性回歸無明確的隨機(jī)誤差分布假定。12. 過擬合現(xiàn)象以及避免的方法所謂過擬合問題:過擬合反映的是在學(xué)習(xí)訓(xùn)練中,模型對(duì)訓(xùn)練樣本達(dá)到非常高的逼近精度,為了能夠?qū)颖就耆_的分類,使得它的構(gòu)造如

23、此精細(xì)復(fù)雜,規(guī)則如此嚴(yán)格, 以至于任何與樣本數(shù)據(jù)稍有不同的文檔它全都認(rèn)為不屬于這個(gè)類別,在測(cè)試數(shù)據(jù)上往往顯示出很差的效果.產(chǎn)生過擬合是因?yàn)椋?.由于對(duì)樣本數(shù)據(jù), 可能存在隱單元的表示不唯一,即產(chǎn)生的分類的決策面不唯一.2.權(quán)值學(xué)習(xí)迭代次數(shù)足夠多(Overtraining),擬合了訓(xùn)練數(shù)據(jù)中的噪聲和訓(xùn)練樣例中沒有代表性的特征 .過度擬合解決方法:1.權(quán)值衰減 .它在每次迭代過程中以某個(gè)小因子降低每個(gè)權(quán)值,此方法的動(dòng)機(jī)是保持權(quán)值較小, 避免weight decay, 從而使學(xué)習(xí)過程向著復(fù)雜決策面的反方向偏。2. 減少特征的數(shù)量,有人工選擇,或者采用模型選擇算法3.驗(yàn)證數(shù)據(jù)一個(gè)最成功的方法是在訓(xùn)練數(shù)

24、據(jù)外再為算法提供一套驗(yàn)證數(shù)據(jù), 應(yīng)該使用在驗(yàn)證集合上產(chǎn)生最小誤差的迭代次數(shù),不是總能明顯地確定驗(yàn)證集合何時(shí)達(dá)到最小誤差.4.Cross-validation with some patterns交叉驗(yàn)證方法在可獲得額外的數(shù)據(jù)提供驗(yàn)證集合時(shí)工作得很好, 但是小訓(xùn)練集合的過度擬合問題更為嚴(yán)重.k-fold 交叉方法 :把訓(xùn)練樣例分成k 份 , 然后進(jìn)行 k 次交叉驗(yàn)證過程, 每次使用不同的一份作為驗(yàn)證集合,其余k-1 份合并作為訓(xùn)練集合.每個(gè)樣例會(huì)在一次實(shí)驗(yàn)中被用作驗(yàn)證樣例,在 k-1 次實(shí)驗(yàn)中被用作訓(xùn)練樣例 ;5.正則化方法.正則化是結(jié)構(gòu)風(fēng)險(xiǎn)最小化策略的實(shí)現(xiàn),是在經(jīng)驗(yàn)風(fēng)險(xiǎn)上加一個(gè)正則化項(xiàng)或懲罰項(xiàng)。正則化項(xiàng)一般是模型復(fù)雜度的單調(diào)遞增函數(shù),模型越復(fù)雜,正則化項(xiàng)就越大,正則化方法的作用是:保留所有特征但減小參數(shù)的取值。13. 監(jiān)督學(xué)習(xí)與非監(jiān)督學(xué)習(xí)有監(jiān)督學(xué)習(xí):對(duì)具有概念標(biāo)記(分類)的訓(xùn)練樣本進(jìn)行學(xué)習(xí), 以盡可能對(duì)訓(xùn)練樣本集外的數(shù)據(jù)進(jìn)行標(biāo)記(

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論