《機器學習-Python實踐》試卷6_第1頁
《機器學習-Python實踐》試卷6_第2頁
《機器學習-Python實踐》試卷6_第3頁
《機器學習-Python實踐》試卷6_第4頁
《機器學習-Python實踐》試卷6_第5頁
已閱讀5頁,還剩2頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

第1頁,共1頁一、單項選擇題(本大題共10小題,每題3分,共30分)試卷(2021試卷(2021-2022學年第1學期)考試科目機器學習-Python實踐(A卷)適用專業(yè)班級(年級)得分命題人:審閱人:班級學號姓名考試科目裝訂線1、下列哪一項能反映出X和Y之間的強相關(guān)性?()A.相關(guān)系數(shù)為0.9B.對于無效假設(shè)β=0的p值為0.0001C.對于無效假設(shè)β=0的t值為30D.以上說法都不對2、機器學習中做特征選擇時,可能用到的方法有?(多選)()A.卡方B.信息增益C.平均互信息D.期望交叉熵3、以下說法中正確的是()A.SVM對噪聲(如來自其他分部的噪聲樣本)具備魯棒性B.在adaboost算法中,所有被分錯樣本的權(quán)重更新比例相同C.boosting和bagging都是組合多個分類器投票的方法,二者都是根據(jù)單個分類器的正確率確定其權(quán)重D.給定n個數(shù)據(jù)點,如果其中一半用于訓練,一半用戶測試,則訓練 誤差和測試誤差之間的差別會隨著n的增加而減少4、以下描述錯誤的是()A.SVM是這樣一個分類器,它尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱為最小邊緣分類器B.在聚類分析當中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差C.在決策樹中,隨著樹中結(jié)點輸變得太大,即使模型的訓練誤差還在繼續(xù)降低,但是檢驗誤差開始增大,這是出現(xiàn)了模型擬合不足的原因D.聚類分析可以看作是一種非監(jiān)督的分類5、若在二維空間中線性不可分,SVM算法會通過()方法解決。A.核函數(shù)B.激活函數(shù)C.剪枝D.特征選擇6、線性回歸能完成的任務(wù)是()A.預(yù)測離散值B.預(yù)測連續(xù)值C.分類D.聚類7、產(chǎn)量(X,臺)與單位產(chǎn)品成本(y,元/臺)之家你的回歸方程為y=356-1.5x,這說明()A.產(chǎn)量每增加一臺,單位產(chǎn)品成本增加356元B.產(chǎn)品每增加一臺,單位產(chǎn)品的成本減少1.5元C.產(chǎn)量每增加一臺,單位產(chǎn)品的成本平均增加356元D.產(chǎn)量每增加一臺,單位產(chǎn)品成本平均減少1.5元8、下面哪個是通用的模型逼近器?

()

A.KernelSVM

B.NeuralNetworks

C.BoostedDecisionTrees

D.Alloftheabove

9、下面那個問題可以用深度學習來解決?()

A.蛋白質(zhì)結(jié)構(gòu)預(yù)測

B.化學反應(yīng)的預(yù)測

C.外來粒子的檢測

D.以上所有

10、當您在CNN中使用1×1卷積時,以下哪個語句是真實的?()A.Itcanhelpindimensionalityreduction

B.Itcanbeusedforfeaturepooling

C.Itsufferslessoverfittingduetosmallkernelsize

D.Alloftheabove

二、判斷題(本大題共10小題,每題1分,共10分)1、邏輯回歸的目的就是提高二分類的效率。()2、SGD計算根據(jù)全部樣本構(gòu)造出來的代價函數(shù)的梯度。()3、用線性代數(shù)的方式描述函數(shù)或者方程的好處之一是書寫方便。()4、Π是求積符號。()5、Σ是求和符號。()6、回歸任務(wù)是預(yù)測連續(xù)值。()7、分類任務(wù)是預(yù)測連續(xù)值。()8、集成學習:可以用作抽樣分布,從原始數(shù)據(jù)集中提取出自主樣本集。 ()9、基學習器可以使用權(quán)值學習有利于高權(quán)值樣本的模型。()10、Boosting:每一輪的訓練集不變,只是訓練集中每個樣本的權(quán)重發(fā)生變化,權(quán)值根據(jù)上一輪的預(yù)測結(jié)果進行調(diào)整。()三、填空(本大題共10小題,每題3分,共30分)1、求函數(shù)機制的方法有兩大類,分別是和。2、機器學習中做特征選擇時,可能用到的、、、。3、算法在決策樹生成的過程中,用信息增益比來選擇特征。4、Gini指數(shù)越小表示集合中被選中的樣本被分錯的概率越小,也就是說集合的純度。5、p(x|θ)是給定參數(shù)θ的概率分布:。6、馬式距離的特征則是:。7、一個表示一組有序排列的數(shù)。通過次序中的索引,我們可以確定每個單獨的數(shù)。8、Adaboost算法不需要預(yù)先知道的錯誤率上限,且最后得到的的分類精度依賴于所有弱分類器的分類精度,可以深挖分類器的能力,Adaboost可以根據(jù)弱分類器的反饋,自適應(yīng)地調(diào)整假定的錯誤率,執(zhí)行的效率高。9、Adaboost可以在不改變訓練數(shù)據(jù),只改變,使得數(shù)據(jù)在不同學習器中產(chǎn)生不同作用,類似于重采樣。10、關(guān)聯(lián)規(guī)則挖掘問題可以劃分成兩個子問題:發(fā)現(xiàn)和生成。四、簡答題(本大題共3小題,共30分)1、有數(shù)據(jù)集D1,其中樣本的特征是離

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論