《數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘》復(fù)習(xí)題_第1頁(yè)
《數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘》復(fù)習(xí)題_第2頁(yè)
《數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘》復(fù)習(xí)題_第3頁(yè)
《數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘》復(fù)習(xí)題_第4頁(yè)
《數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘》復(fù)習(xí)題_第5頁(yè)
已閱讀5頁(yè),還剩32頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

《數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘》復(fù)習(xí)題2014-2015-1《數(shù)據(jù)倉(cāng)庫(kù)與數(shù)據(jù)挖掘》期末考試題型一、 單項(xiàng)選擇題(每小題2分,共20分)二、 填空題(每空1分,共20分)三、 簡(jiǎn)答題(每題6分,共30分)四、 析題與計(jì)算題(共3U分)請(qǐng)同學(xué)們?cè)诳荚嚂r(shí)不要將復(fù)習(xí)資料帶入考場(chǎng)?。?!單選題某超市研究銷(xiāo)售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買(mǎi)啤酒的人很大概率也會(huì)購(gòu)買(mǎi)尿布,這種屬于數(shù)據(jù)挖掘的哪類(lèi)問(wèn)題?(A)c.分類(lèi)D.自然語(yǔ)言處理A.關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B.聚類(lèi)以下兩種描述分別對(duì)應(yīng)哪兩種對(duì)分類(lèi)算法的評(píng)價(jià)標(biāo)準(zhǔn)?(A)(町警察抓小偷,描述警察抓的人中有多少個(gè)是小偷的標(biāo)準(zhǔn)。(b)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。Precision,RecallB.Recall,PrecisionPrecision,ROCD.Recall,ROC將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個(gè)步驟的任務(wù)?A.頻繁模式挖掘B.值規(guī)約是在以下哪個(gè)步驟的任務(wù)?A.頻繁模式挖掘B.分類(lèi)和預(yù)測(cè)C.數(shù)據(jù)預(yù)處理 D.數(shù)據(jù)流挖掘當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用哪種技術(shù)促使帶同類(lèi)標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離?(B)A.分類(lèi) B.聚類(lèi)C.關(guān)聯(lián)分析D.隱馬爾可夫鏈5?什么是KDD?(A)A.數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)B.領(lǐng)域知識(shí)發(fā)現(xiàn)C.文檔知識(shí)發(fā)現(xiàn) D.動(dòng)態(tài)知識(shí)發(fā)現(xiàn)使用交互式的和可視化的技術(shù),對(duì)數(shù)據(jù)進(jìn)行探索屬于數(shù)據(jù)挖掘的哪一類(lèi)任務(wù)?(A)A.探索性數(shù)據(jù)分析 B.建模描述C.預(yù)測(cè)建模D.尋找模式和規(guī)則為數(shù)據(jù)的總體分布建模;把多維空間劃分成組等問(wèn)題屬于數(shù)據(jù)挖掘的哪一類(lèi)任務(wù)?(B)組等問(wèn)題屬于數(shù)據(jù)挖掘的哪一類(lèi)任務(wù)?(B)A.探索性數(shù)據(jù)分析 B.建模描述C.預(yù)測(cè)建模D.尋找模式和規(guī)則建立一個(gè)模型,通過(guò)這個(gè)模型根據(jù)已知的變量值來(lái)預(yù)測(cè)其他某個(gè)變量值屬于數(shù)據(jù)挖掘的哪一類(lèi)任務(wù)?(C)根據(jù)內(nèi)容檢索 B.建模描述C.預(yù)測(cè)建模D.尋找模式和規(guī)則用戶(hù)有一種感興趣的模式并且希望在數(shù)據(jù)集中找到相似的模式,屬于數(shù)據(jù)挖掘哪一類(lèi)任務(wù)?(A)根據(jù)內(nèi)容檢索 B.建模描述C.預(yù)測(cè)建模D.尋找模式和規(guī)則下面哪種不屬于數(shù)據(jù)預(yù)處理的方法?(D)A變量代換 B離散化C聚集D估計(jì)遺漏值假設(shè)12個(gè)銷(xiāo)售價(jià)格記錄組已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,204,215使用如下每種方法將它們劃分成四個(gè)箱。等頻(等深)劃分時(shí),15在第幾個(gè)箱子內(nèi)?(B)B第二個(gè)CB第二個(gè)C第三個(gè)D上題中,等寬劃分時(shí)(寬度為50),15又在哪個(gè)箱子里?(A)A第一個(gè)B第二個(gè)C第三個(gè)第四個(gè)14?下面哪個(gè)不屬于數(shù)據(jù)的屬性類(lèi)型:(D)A標(biāo)稱(chēng)C區(qū)間A標(biāo)稱(chēng)C區(qū)間D相異在上題中,屬于定量的屬性類(lèi)型是:(C)A標(biāo)稱(chēng)B序數(shù)C區(qū)間D相異只有非零值才重要的二元屬性被稱(chēng)作:(C)A計(jì)數(shù)屬性B離散屬性C非對(duì)稱(chēng)的二元屬性D對(duì)稱(chēng)屬性以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:(D)A嵌入B過(guò)濾C包裝D抽樣下面不屬于創(chuàng)建新屬性的相關(guān)方法的是:(B)A特征提取B特征修改 C映射數(shù)據(jù)到新的空間D特征構(gòu)造考慮值集{1、2、3、4、5、90},其截?cái)嗑?p=20%)是(C)A2B3C3.5D5下面哪個(gè)屬于映射數(shù)據(jù)到新的空間的方法?(A)A傅立葉變換BA傅立葉變換B特征加權(quán)inC漸進(jìn)抽樣D維歸約爛是為消除不確定性所需要獲得的信息量,投擲均勻正六面體骰子的爛是:(B)A1比特B2.6比特C3.2比特D3.8比22.假設(shè)屬性income的最大最小值分別是12000元和98000元。利用最大最小規(guī)范化的方法將屬性的值映射到0至1的范圍內(nèi)。對(duì)屬性income的73600元將被轉(zhuǎn)化為:(D)A0.821B1.224C1.458D0.71623?假定用于分析的數(shù)據(jù)包含屬性昭數(shù)據(jù)元組中age的值如下(按遞增序):13,15,16,16,20,20,21,22,22,25,25,25,30,33,33,35,35,36,40,45,46,52,70,問(wèn)題:使用按箱平均值平滑方法對(duì)上述數(shù)據(jù)進(jìn)行平滑,箱的深度為3。第二個(gè)箱子值為:(A)A18.3B22.6C26.8D27.9考慮值集{12243324556826},其四分位數(shù)極差是:(A)A31 B24 C55D3一所大學(xué)內(nèi)的各年紀(jì)人數(shù)分別為:一年級(jí)200人,二年級(jí)160人,三年級(jí)130人,四年級(jí)110人。則年級(jí)屬性的眾數(shù)是:(A)A一年級(jí)B二年級(jí)C三年級(jí)D四年級(jí)

下列哪個(gè)不是專(zhuān)門(mén)用于可視化時(shí)間空間數(shù)據(jù)的技術(shù):(B)A等高線(xiàn)圖A等高線(xiàn)圖B餅圖C曲面圖D矢量場(chǎng)在抽樣方法中,當(dāng)合適的樣本容量很難確定時(shí),可以使用的抽樣方法是:(D)A有放回的簡(jiǎn)單隨機(jī)抽樣B無(wú)放回的簡(jiǎn)單隨機(jī)抽樣C分層抽樣D漸進(jìn)抽樣2&數(shù)據(jù)倉(cāng)庫(kù)是隨著時(shí)間變化的,下面的描述不正確的是(C)數(shù)據(jù)倉(cāng)庫(kù)隨時(shí)間的變化不斷增加新的數(shù)據(jù)內(nèi)容;捕捉到的新數(shù)據(jù)會(huì)覆蓋原來(lái)的快照;數(shù)據(jù)倉(cāng)庫(kù)隨事件變化不斷刪去舊的數(shù)據(jù)內(nèi)容;D數(shù)據(jù)倉(cāng)庫(kù)中包含大量的綜合數(shù)據(jù),這些綜合數(shù)據(jù)會(huì)隨著時(shí)間的變化不斷地進(jìn)行重新綜合.29.關(guān)于基本數(shù)據(jù)的元數(shù)據(jù)是指:(D)基本元數(shù)據(jù)與數(shù)據(jù)源,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)集市和應(yīng)用程序等結(jié)構(gòu)相關(guān)的信息;基本元數(shù)據(jù)包括與企業(yè)相關(guān)的管理方面的數(shù)據(jù)和信息;基本元數(shù)據(jù)包括日志文件和簡(jiǎn)歷執(zhí)行處理的時(shí)序調(diào)度信息;基本元數(shù)據(jù)包括關(guān)于裝載和更新處理,分析處理以及管理方面的信息.下面關(guān)于數(shù)據(jù)粒度的描述不正確的是:(C)粒度是指數(shù)據(jù)倉(cāng)庫(kù)小數(shù)據(jù)單元的詳細(xì)程度和級(jí)別;數(shù)據(jù)越詳細(xì),粒度就越小,級(jí)別也就越高;數(shù)據(jù)綜合度越高,粒度也就越大,級(jí)別也就越高;粒度的具體劃分將直接影響數(shù)據(jù)倉(cāng)庫(kù)中的數(shù)據(jù)量以及查詢(xún)質(zhì)量.有關(guān)數(shù)據(jù)倉(cāng)庫(kù)的開(kāi)發(fā)特點(diǎn),不正確的描述是:(A)數(shù)據(jù)倉(cāng)庫(kù)開(kāi)發(fā)要從數(shù)據(jù)出發(fā);數(shù)據(jù)倉(cāng)庫(kù)使用的需求在開(kāi)發(fā)出去就要明確;數(shù)據(jù)倉(cāng)庫(kù)的開(kāi)發(fā)是一個(gè)不斷循環(huán)的過(guò)程,是啟發(fā)式的開(kāi)發(fā);在數(shù)據(jù)倉(cāng)庫(kù)環(huán)境中,并不存在操作型環(huán)境中所固定的和較確切的處理流,數(shù)據(jù)倉(cāng)庫(kù)中數(shù)據(jù)分析和處理更靈活,且沒(méi)有固定的模式在有關(guān)數(shù)據(jù)倉(cāng)庫(kù)測(cè)試,下列說(shuō)法不正確的是:(D)在完成數(shù)據(jù)倉(cāng)庫(kù)的實(shí)施過(guò)程中,需要對(duì)數(shù)據(jù)倉(cāng)庫(kù)進(jìn)行各種測(cè)試?測(cè)試工作中要包括單元測(cè)試和系統(tǒng)測(cè)試.當(dāng)數(shù)據(jù)倉(cāng)庫(kù)的每個(gè)單獨(dú)組件完成后,就需要對(duì)他們進(jìn)行單元測(cè)試.系統(tǒng)的集成測(cè)試需要對(duì)數(shù)據(jù)倉(cāng)庫(kù)的所有組件進(jìn)行大量的功能測(cè)試和回歸測(cè)試.在測(cè)試之前沒(méi)必要制定詳細(xì)的測(cè)試計(jì)劃.33.OLAP技術(shù)的核心是:(D)在線(xiàn)性;對(duì)用戶(hù)的快速響應(yīng);互操作性.多維分析;34.關(guān)于OLAP的特性,下面正確的是:(D)(1)快速性(2)可分析性(3)多維性⑷信息性⑸共享性(1)⑵(3)⑵⑶(4)(1)⑵⑶(4)(1)⑵⑶⑷(5)35.關(guān)于OLAP和OLTP的區(qū)別描述,不正確的是:(C)OLAP主要是關(guān)于如何理解聚集的大量不同的數(shù)據(jù).它與OTAP應(yīng)用程序不同.與OLAP應(yīng)用程序不同,OLTP應(yīng)用程序包含大量相對(duì)簡(jiǎn)單的事務(wù).OLAP的特點(diǎn)在于事務(wù)量大,但事務(wù)內(nèi)容比較簡(jiǎn)單且重復(fù)率高.OLAP是以數(shù)據(jù)倉(cāng)庫(kù)為基礎(chǔ)的,但其最終數(shù)據(jù)來(lái)源與OLTP—樣均來(lái)自底層的數(shù)據(jù)庫(kù)系統(tǒng),兩者面對(duì)的用戶(hù)是相同的.36.OLAM技術(shù)一般簡(jiǎn)稱(chēng)為”數(shù)據(jù)聯(lián)機(jī)分析挖掘”,下面說(shuō)法正確的是:(D)OLAP和OLAM都基于客戶(hù)機(jī)/服務(wù)器模式,只有后者有與用戶(hù)的交互性;由于OLAM的立方體和用于OLAP的立方體有本質(zhì)的區(qū)別.基于WEB的OLAM是WEB技術(shù)與OLAM技術(shù)的結(jié)合.OLAM服務(wù)器通過(guò)用戶(hù)圖形借口接收用戶(hù)的分析指令,在元數(shù)據(jù)的知道下,對(duì)超級(jí)立方體作一定的操作.37.關(guān)于OLAP和OLTP的說(shuō)法,下列不正確的是:(A)OLAP事務(wù)量大,但事務(wù)內(nèi)容比較簡(jiǎn)單且重復(fù)率高.OLAP的最終數(shù)據(jù)來(lái)源與OLTP不一樣.1=IW1OLTP1=IW1OLTP以應(yīng)用為核心,是應(yīng)用驅(qū)動(dòng)的.38.設(shè)X={1,2,3}是頻繁項(xiàng)集,則可由X產(chǎn)生—(C)—個(gè)關(guān)聯(lián)規(guī)則。A、4B、5C、6D、7概念分層圖是_(B)_圖。A、無(wú)向無(wú)環(huán)B、有向無(wú)環(huán)C、有向有環(huán)D、無(wú)向有環(huán)頻繁項(xiàng)集、頻繁閉項(xiàng)集、最大頻繁項(xiàng)集之間的關(guān)系是:(C)A、 頻繁項(xiàng)集頻繁閉項(xiàng)集二最大頻繁項(xiàng)集B、 頻繁項(xiàng)集=頻繁閉項(xiàng)集最大頻繁項(xiàng)集C、 頻繁項(xiàng)集頻繁閉項(xiàng)集最大頻繁項(xiàng)集D、 頻繁項(xiàng)集=頻繁閉項(xiàng)集=最大頻繁項(xiàng)集考慮下面的頻繁3-項(xiàng)集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個(gè)項(xiàng),采用合并策略,由候選產(chǎn)生過(guò)程得到4?項(xiàng)集不包含(C)

A、1,2,3,4B、1,2,3,5C、1,2,4,5D、3,4,543?下面選項(xiàng)中43?下面選項(xiàng)中t不是s的子序列的是(C)A、 s=v{2,4},{3,5,6},{8}>t=v{2},{3,6},{8}>B、 s=v{2,4},{3,5,6},{8}>t=v{2},{8}>C、s=<{l,2M3,4}>t=<{lM2}>D、s=v{2,4},{2,4}>t=<{2},{4}>44.在圖集合中發(fā)現(xiàn)一組公共子結(jié)構(gòu),這樣的任務(wù)稱(chēng)為(B)A、A、頻繁子集挖掘B、頻繁子圖挖掘C、頻繁數(shù)據(jù)項(xiàng)挖掘D、頻繁模式挖掘45.下列度量不具有反演性的是(D)A、A、系數(shù)B、幾率C、Cohen度量D、興趣因46.下列—(A)—不是將主觀信息加入到模式發(fā)現(xiàn)任務(wù)中的方法。A、與同一時(shí)期其他數(shù)據(jù)對(duì)比B、可視化C、基于模板的方法D、主觀興趣度量47.下面購(gòu)物籃能夠提取的3■項(xiàng)集的最大數(shù)量是多少(C)ID購(gòu)買(mǎi)項(xiàng)1牛奶,啤酒,2面包,黃油,3牛奶,尿布,4面包,黃油,啤酒,餅干,61牛奶,啤酒,2面包,黃油,3牛奶,尿布,4面包,黃油,啤酒,餅干,6牛奶,尿布,7面包,黃油,尿布牛奶餅干餅干尿布面包,黃油尿布啤酒,尿布9牛奶,尿布,面包,黃油10啤酒,餅干A、IB、2C、3D、44&以下哪些算法是分類(lèi)算法,A,DBSCANC4.5C,K-MeanD,EM(B)以下哪些分類(lèi)方法可以較好地避免樣本的不平衡問(wèn)題,A,KNNB,SVMC,BayesD,神經(jīng)網(wǎng)絡(luò)(A)神經(jīng)網(wǎng)絡(luò)(A)決策樹(shù)中不包含一下哪種結(jié)點(diǎn),A,根結(jié)點(diǎn)(rootnode)內(nèi)部結(jié)點(diǎn)(internalnode)C,外部結(jié)點(diǎn)(externalnode)D,葉結(jié)點(diǎn)(leafnode)(C)不純性度量中Gini計(jì)算公式為(其中c是類(lèi)

的個(gè)數(shù))(A)A,B,C,D, (A)以下哪項(xiàng)關(guān)于決策樹(shù)的說(shuō)法是錯(cuò)誤的(C)A.冗余屬性不會(huì)對(duì)決策樹(shù)的準(zhǔn)確率造成不利的影響子樹(shù)可能在決策樹(shù)中重復(fù)多次決策樹(shù)算法對(duì)于噪聲的干擾非常敏感尋找最佳決策樹(shù)是NP完全問(wèn)題在基于規(guī)則分類(lèi)器的中,依據(jù)規(guī)則質(zhì)量的某種度量對(duì)規(guī)則排序,保證每_個(gè)測(cè)試記錄都是由覆蓋它的“最好的”規(guī)格來(lái)分類(lèi),這種方案稱(chēng)為(B)A.基于類(lèi)的排序方案A.基于類(lèi)的排序方案B.基于規(guī)則的排序方案基于度量的排序方案D.C.基于度量的排序方案D.以下哪些算法是基于規(guī)則的分類(lèi)器(A)A.C4.5B.KNNC.Na?veBayesD.ANN56.以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)(ANN)的描述錯(cuò)誤的有(A)A,神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練數(shù)據(jù)中的噪聲非常魯棒B,可以處理冗余特征C,訓(xùn)練ANN是一個(gè)很耗

時(shí)的過(guò)程D,至少含有一個(gè)隱藏層的多層神經(jīng)網(wǎng)絡(luò)57.通過(guò)聚集多個(gè)分類(lèi)器的預(yù)測(cè)來(lái)提高分類(lèi)準(zhǔn)確率的技術(shù)稱(chēng)為(A)A,組合(ensemble) B,聚集(aggregate)C,合并(combination)D,投票(voting)5&簡(jiǎn)單地將數(shù)據(jù)對(duì)象集劃分成不重疊的子集,使得每個(gè)數(shù)據(jù)對(duì)象恰在一個(gè)子集中,這種聚類(lèi)類(lèi)型稱(chēng)作(B)A、層次聚類(lèi) B、劃分聚類(lèi) C、非互斥聚類(lèi) D、模糊聚類(lèi)59在基本K均值算法里,當(dāng)鄰近度函數(shù)采用(A)的時(shí)候,合適的質(zhì)心是簇中各點(diǎn)的中位數(shù)。A、曼哈頓距離 B、平方歐幾里德距離C、余弦距離 D.Bregman散度60.(C)是一個(gè)觀測(cè)值,它與其他觀測(cè)值的差別如此之大,以至于懷疑它是由不同的機(jī)制產(chǎn)生的。A、邊界點(diǎn)A、邊界點(diǎn)D、核心點(diǎn)B、質(zhì)心C、離群點(diǎn)填空題第一章(1)數(shù)據(jù)庫(kù)中的知識(shí)挖掘(KDD)包括以下七個(gè)步驟: 和 (2)數(shù)據(jù)挖掘的性能問(wèn)題主要包括: 、 和 當(dāng)前的數(shù)據(jù)挖掘研究中,最主要的三個(gè)研究方向是: 、 和(4)在萬(wàn)維網(wǎng)(WWW)上應(yīng)用的數(shù)據(jù)挖掘技術(shù)常被稱(chēng)為: 孤立點(diǎn)是指: 答案:數(shù)據(jù)清理,數(shù)據(jù)集成,數(shù)據(jù)選擇,數(shù)據(jù)變換,數(shù)據(jù)挖掘,模式評(píng)估,知識(shí)表示(2)算法的效率.可擴(kuò)展性和并行處理(2)算法的效率.可擴(kuò)展性和并行處理統(tǒng)計(jì)學(xué)、數(shù)據(jù)庫(kù)技術(shù)和機(jī)器學(xué)習(xí)(4)WEB(4)WEB挖掘(5)一些與數(shù)據(jù)的一般行為或模型不一致的孤立數(shù)據(jù)第二章(1)進(jìn)行數(shù)據(jù)預(yù)處理時(shí)所使用的主要方法包括: 、 、 和 (2)處理噪聲數(shù)據(jù)的方法主要包括: 、 、 和 (3)模式集成的主要問(wèn)題包括:和 (4)數(shù)據(jù)概化是指:(5) 數(shù)據(jù)壓縮可分為: 和兩種類(lèi)型。(6) 進(jìn)行數(shù)值歸約時(shí),三種常用的有參方法是: 和 (7)數(shù)據(jù)離散度的最常用度量是和 答案:(1)數(shù)據(jù)清理、數(shù)據(jù)集成、數(shù)據(jù)變換、數(shù)據(jù)規(guī)(2)分箱、聚類(lèi)、計(jì)算機(jī)和人工檢査結(jié)合、I

歸整合不同數(shù)據(jù)源中的元數(shù)據(jù),實(shí)體識(shí)別問(wèn)(4)沿概念分層向上概化(4)沿概念分層向上概化(5)有損壓縮,無(wú)損壓縮線(xiàn)性回歸方法,多元回歸,對(duì)數(shù)線(xiàn)性模型(7)五數(shù)概括、中間四分位數(shù)區(qū)間、標(biāo)準(zhǔn)差(7)五數(shù)概括、中間四分位數(shù)區(qū)間、標(biāo)準(zhǔn)差第三章概念分層有四種類(lèi)型,分別是: 和常用的四種興趣度的客觀度量是: 和(3)同時(shí)滿(mǎn)足 和的關(guān)聯(lián)規(guī)則稱(chēng)為強(qiáng)關(guān)聯(lián)規(guī)則。答案:(1)模式分層,集合分組分層,操作導(dǎo)出的分層,基于規(guī)則的分層簡(jiǎn)單性、確定性、實(shí)用性、新穎性最小置信度臨界值、最小支持度臨界值第四章(1)關(guān)聯(lián)規(guī)則挖掘中,兩個(gè)主要的興趣度度量是: 和—(2)Aprior算法包括兩個(gè)基本步驟項(xiàng)集的頻率是指—大型數(shù)據(jù)庫(kù)中的關(guān)聯(lián)規(guī)則挖掘包含兩個(gè)過(guò)程: 和 根據(jù)規(guī)則中所處理的值類(lèi)型,關(guān)聯(lián)規(guī)則可分為: 和 Apriori性質(zhì)是指: 挖掘多維關(guān)聯(lián)規(guī)則的技術(shù)可以根據(jù)量化屬性的處理分為三種基本方法: 、 和 對(duì)于頻繁項(xiàng)集挖掘,在挖掘過(guò)程中使用的約束包括以下五種類(lèi)型: 、和 在多維關(guān)聯(lián)規(guī)則挖掘中,我們搜索的不是頻繁項(xiàng)集,而是 答案:(1)支持度和置信度連接和剪枝(3)包含項(xiàng)集的事務(wù)數(shù)找出所有頻繁項(xiàng)集、由頻繁項(xiàng)集產(chǎn)生強(qiáng)關(guān)聯(lián)規(guī)則布爾關(guān)聯(lián)規(guī)則、量化關(guān)聯(lián)規(guī)則頻繁項(xiàng)集的所有非空子集也必須是頻繁的量化屬性的靜態(tài)離散化、量化關(guān)聯(lián)規(guī)則、基于距離的關(guān)聯(lián)規(guī)則反單調(diào)的、單調(diào)的、簡(jiǎn)潔的、可轉(zhuǎn)變的、不可轉(zhuǎn)變的頻繁謂詞集第五章(1)通過(guò)對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,可以提高分類(lèi)和預(yù)測(cè)過(guò)程的 、 和 防止分類(lèi)中的過(guò)分適應(yīng)的兩種方法分別是:和 答案(1)準(zhǔn)確性、有效性和可伸縮性(2)(2)先剪枝、后剪枝IDID第八章(1)在數(shù)據(jù)挖掘中,常用的聚類(lèi)算法包括: 、 、_、基于網(wǎng)格的方法和基于模型的方法。聚類(lèi)分析常作為一個(gè)獨(dú)立的工具來(lái)獲得_一個(gè)好的聚類(lèi)分析方法會(huì)產(chǎn)生高質(zhì)量的聚類(lèi),具有兩個(gè)特征: 和 許多基于內(nèi)存的聚類(lèi)算法所常用的兩種數(shù)據(jù)結(jié)構(gòu)是 和 基于網(wǎng)格的聚類(lèi)方法的優(yōu)點(diǎn)是: (6)孤立點(diǎn)產(chǎn)生的主要原因包括:和 (7)在基于統(tǒng)計(jì)的孤立點(diǎn)檢測(cè)中,常用于不一致性檢驗(yàn)的參數(shù)包括:致性檢驗(yàn)的參數(shù)包括: 和 答案:劃分方法、層次的方法、基于密度的方法數(shù)據(jù)分布的情況(3) 高類(lèi)內(nèi)相似度、低類(lèi)間相似度(4) 數(shù)據(jù)矩陣、相異度矩陣(5)處理數(shù)度快(6)度量或執(zhí)行錯(cuò)誤、數(shù)據(jù)變異的結(jié)果(7)數(shù)據(jù)分布、分布參數(shù)、預(yù)期的孤立點(diǎn)數(shù)問(wèn)答題1?何謂數(shù)據(jù)挖掘?它有哪些方面的功能?從大量的、不完全的、有噪聲的、模糊的、隨機(jī)的數(shù)據(jù)中,提取隱含在其中的、人們事先不知道的、但又是潛在有用的信息和知識(shí)的過(guò)程稱(chēng)為數(shù)據(jù)挖掘。相關(guān)的名稱(chēng)有知識(shí)發(fā)現(xiàn)、數(shù)據(jù)分析、數(shù)據(jù)融合、決策支持等。數(shù)據(jù)挖掘的功能包括:概念描述、關(guān)聯(lián)分析、分類(lèi)與預(yù)測(cè)、聚類(lèi)分析、趨勢(shì)分析、孤立點(diǎn)分析以及偏差分析等。何謂數(shù)據(jù)倉(cāng)庫(kù)?為什么要建立數(shù)據(jù)倉(cāng)庫(kù)?數(shù)據(jù)倉(cāng)庫(kù)是一種新的數(shù)據(jù)處理體系結(jié)構(gòu),是面向主題的、集成的、不可更新的(穩(wěn)定性)、隨時(shí)間不斷變化(不同時(shí)間)的數(shù)據(jù)集合,為企業(yè)決策支持系統(tǒng)提供所需的集成信息0建立數(shù)據(jù)倉(cāng)庫(kù)的目的有3個(gè):一是為了解決企業(yè)決策分析中的系統(tǒng)響應(yīng)問(wèn)題,數(shù)據(jù)倉(cāng)庫(kù)能提供比傳統(tǒng)事務(wù)數(shù)據(jù)庫(kù)更快的大規(guī)模決策分析的響應(yīng)速度。二是解決決策分析對(duì)數(shù)據(jù)的特殊需求問(wèn)題。決策分析需要全面的、正確的集成數(shù)據(jù),這是傳統(tǒng)事務(wù)數(shù)據(jù)庫(kù)不能直接提供的。三是解決決策分析對(duì)數(shù)據(jù)的特殊操作要求。決策分析是面向?qū)I(yè)用戶(hù)而非一般業(yè)務(wù)員,需要使用專(zhuān)業(yè)的分析工具,對(duì)分析結(jié)果還要以商業(yè)智能的方式進(jìn)行表現(xiàn),這是事務(wù)數(shù)據(jù)庫(kù)不能提供的。何謂粒度?它對(duì)數(shù)據(jù)倉(cāng)庫(kù)有什么影響?按粒度組織數(shù)據(jù)的方式有哪些?粒度是指數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)單位中保存數(shù)據(jù)細(xì)化或綜合程度的級(jí)別。粒度影響存放在數(shù)據(jù)倉(cāng)庫(kù)中的數(shù)據(jù)量的大小,同時(shí)影響數(shù)據(jù)倉(cāng)庫(kù)所能回答查詢(xún)問(wèn)題的細(xì)節(jié)程度。按粒度組織數(shù)據(jù)的方式主要有:簡(jiǎn)單堆積結(jié)構(gòu)輪轉(zhuǎn)綜合結(jié)構(gòu)簡(jiǎn)單直接結(jié)構(gòu)連續(xù)結(jié)構(gòu)何謂聚類(lèi)?它與分類(lèi)有什么異同?聚類(lèi)是將物理或抽象對(duì)象的集合分組成為多個(gè)類(lèi)或簇(cluster)的過(guò)程,使得在同一個(gè)簇中的對(duì)象之間具有較高的相似度,而不同簇中的對(duì)象差別較大。聚類(lèi)與分類(lèi)不同,聚類(lèi)要?jiǎng)澐值念?lèi)是未知的,分類(lèi)則可按已知規(guī)則進(jìn)行;聚類(lèi)是一種無(wú)指導(dǎo)學(xué)習(xí),它不依賴(lài)預(yù)先定義的類(lèi)和帶類(lèi)標(biāo)號(hào)的訓(xùn)練實(shí)例,屬于觀察式學(xué)習(xí),分類(lèi)則屬于有指導(dǎo)的學(xué)習(xí),是示例式學(xué)習(xí)。分類(lèi)知識(shí)的發(fā)現(xiàn)方法主要有哪些?分類(lèi)過(guò)程通常包括哪兩個(gè)步驟?分類(lèi)規(guī)則的挖掘方法通常有:決策樹(shù)法、貝葉斯法、人工神經(jīng)網(wǎng)絡(luò)法.粗糙集法和遺傳算法。分類(lèi)的過(guò)程包括2步:首先在已知訓(xùn)練數(shù)據(jù)集上,根據(jù)屬性特征,為每一種類(lèi)別找到一個(gè)合理的描述或模型,即分類(lèi)規(guī)則;然后根據(jù)規(guī)則對(duì)新數(shù)據(jù)進(jìn)行分類(lèi)。6?什么是決策樹(shù)?如何用決策樹(shù)進(jìn)行分類(lèi)?決策樹(shù)是用樣本的屬性作為結(jié)點(diǎn),用屬性的取值作為分支的樹(shù)結(jié)構(gòu)。它是利用信息論原理對(duì)大量樣本的屬性進(jìn)行分析和歸納而產(chǎn)生的。決策樹(shù)的根結(jié)點(diǎn)是所有樣本中信息量最大的屬性。樹(shù)的中間結(jié)點(diǎn)是以該結(jié)點(diǎn)為根的子樹(shù)所包含的樣本子集中信息量最大的屬性。決策樹(shù)的葉結(jié)點(diǎn)是樣本的類(lèi)別值。決策樹(shù)用于對(duì)新樣本的分類(lèi),即通過(guò)決策樹(shù)對(duì)新樣本屬性值的測(cè)試,從樹(shù)的根結(jié)點(diǎn)開(kāi)始,按照樣本屬性的取值,逐漸沿著決策樹(shù)向下,直到樹(shù)的葉結(jié)點(diǎn),該葉結(jié)點(diǎn)表示的類(lèi)別就是新樣本的類(lèi)別。決策樹(shù)方法是數(shù)據(jù)挖掘中非常有效的分類(lèi)方法。7.簡(jiǎn)述ID3算法的基本思想及其主算法的基本步驟。首先找出最有判別力的因素,然后把數(shù)據(jù)分成多個(gè)子集,每個(gè)子集又選擇最有判別力的因素進(jìn)一步劃分,一直進(jìn)行到所有子集僅包含同一類(lèi)型的數(shù)據(jù)為止。最后得到一棵決策樹(shù),可以用它來(lái)對(duì)新的樣例進(jìn)行分類(lèi)。主算法包括如下幾步:從訓(xùn)練集中隨機(jī)選擇一個(gè)既含正例又含反例的子集(稱(chēng)為窗口);用“建樹(shù)算法”對(duì)當(dāng)前窗口形成一棵決對(duì)訓(xùn)練集(窗口除外)中例子用所得決策樹(shù)進(jìn)行類(lèi)別判定,找出錯(cuò)判的例子;若存在錯(cuò)判的例子,把它們插入窗口,重復(fù)步驟②,否則結(jié)束。&噪聲數(shù)據(jù)的產(chǎn)生原因有哪些?數(shù)據(jù)采集設(shè)備有問(wèn)題在數(shù)據(jù)錄入過(guò)程中發(fā)生了人為或計(jì)算機(jī)錯(cuò)誤數(shù)據(jù)傳輸過(guò)程中發(fā)生錯(cuò)誤由于命名規(guī)則或數(shù)據(jù)代碼不同而引起的不一致。遺傳算法與傳統(tǒng)尋優(yōu)算法相比有什么特點(diǎn)?遺傳算法為群體搜索,有利于尋找到全局最優(yōu)解;遺傳算法采用高效有方向的隨機(jī)搜索,搜索效率高;遺傳算法處理的對(duì)象是個(gè)體而不是參變量,具有廣泛的應(yīng)用領(lǐng)域;遺傳算法使用適應(yīng)值信息評(píng)估個(gè)體,不需要導(dǎo)數(shù)或其他輔助信息,運(yùn)算速度快,適應(yīng)性好;遺傳算法具有隱含并行性,具有更高的運(yùn)行效率。請(qǐng)解釋一下在數(shù)據(jù)挖掘關(guān)聯(lián)規(guī)則中什么是支持度和可信度,以及關(guān)聯(lián)規(guī)則。支持度:規(guī)則A-B的支持度指的是所有事件中A與B同地發(fā)生的的概率,即P(AUB),是AB同時(shí)發(fā)生的次數(shù)與事件總次數(shù)之比。支持度是對(duì)關(guān)聯(lián)規(guī)則重要性的衡量??尚哦龋阂?guī)則A-B的可信度指的是包含A項(xiàng)集的同時(shí)也包含B項(xiàng)集的條件概率P(BIA),是AB同時(shí)發(fā)生的次數(shù)與A發(fā)生的所有次數(shù)之比??尚哦仁菍?duì)關(guān)聯(lián)規(guī)則的準(zhǔn)確度的衡量。關(guān)聯(lián)規(guī)則:同時(shí)滿(mǎn)足最小支持度閾值和最小可信度閾值的規(guī)則稱(chēng)之為關(guān)聯(lián)規(guī)則。分析與計(jì)算題1.假定用于分析的數(shù)據(jù)包含屬性age。數(shù)據(jù)元組中age的值如下(按遞增序):13J5J6J6,19,2O,2O,21,22,22,25,25,25,25,3O,33,33,33,35,35,35,35,36,40,45,46,52,70。使用按箱平均值平滑對(duì)以上數(shù)據(jù)進(jìn)行平滑,箱的深度為3。該數(shù)據(jù)的均值是多少,中位數(shù)是多少?使用min-max規(guī)范化,將age值35轉(zhuǎn)換到[0.0,1.0]區(qū)間。答:(a)已知數(shù)據(jù)元組中age的值如下(按遞增序):13J5J6J6,19,2O,2O,21,22,22,25,25,25,25,3O,33,33,33,35,35,35,35,36,40,45,46,52,70。且箱的深度為3,劃分為(等頻)箱:箱1:13,15,16箱2:16,19,20箱3:20,21,22箱4:22,25,25箱5:25,25,30箱6:33,33,33箱7:35,35,35箱8:35,36,40箱9:45,46,52

箱10:70用箱均值光滑:箱1:15,15,15箱2:18,18,18箱3:21,21,21箱4:24,24,24箱5:27,27,37箱6:33,33,33箱7:35,35,35箱8:37,37,37箱9:48,48,48箱10:70;(b)答:均值足,x- -RO9/27-29.96-30《公式2.1>.中位數(shù)心足處14個(gè)"HPA-14-25-^2-(C)答:(a)便用min-max規(guī)范化將agefit35變換到[0.0,1.0]區(qū)間.TminA-13.niaxA-70.new_minA-O.0.new_niaxA-1.0?而v-35.f匚(new_ -加忙mi—)+max^-min4^_(1.0-0.0)+0.0=0.38602?給定兩個(gè)向量對(duì)象,分別表示為pl(22,1,42,10),p2(20,0,36,8):(a)計(jì)算兩個(gè)對(duì)象之間的歐幾里得距離;(b)計(jì)算兩個(gè)對(duì)象之間的曼哈頓距離:(b)計(jì)算兩個(gè)對(duì)象之間的曼哈頓距離:計(jì)算兩個(gè)對(duì)象之間的切比雪夫距離;(d)計(jì)算兩個(gè)對(duì)象之間的閔可夫斯基距離,用(d)計(jì)算兩個(gè)對(duì)象之間的閔可夫斯基距離,用答:(a)計(jì)算兩個(gè)對(duì)象之間的歐幾里得距離:必2=J(22—20尸+"—0尸號(hào)(42—36產(chǎn)號(hào)(10—?5/=阿(b)計(jì)算兩個(gè)對(duì)象之間的曼哈頓距離:l=j(b)計(jì)算兩個(gè)對(duì)象之間的曼哈頓距離:l=j?■?t/12=i22^20-r|l-0十42-36|-|lO^8=ll(C)計(jì)算兩個(gè)對(duì)象之間的閔可夫斯基距離,其中參數(shù)r=3:d}2二— +11—Of于42—36?令|10—8】=^23S3?數(shù)據(jù)庫(kù)有4筆交易,設(shè)minsup=6Q%,minconf=8G%。T1DDATEITEMSBOUGHTT1003/5/200$T2003/5/2009T3004/5/2010T4004/5/2010(A,C,T1DDATEITEMSBOUGHTT1003/5/200$T2003/5/2009T3004/5/2010T4004/5/2010(A,C,8,L}{D,A,C,E,B}{盤(pán),B,C}{C,A,B,E)用Apriori算

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論