《機器學習-Python實踐》試卷及答案 卷8_第1頁
《機器學習-Python實踐》試卷及答案 卷8_第2頁
《機器學習-Python實踐》試卷及答案 卷8_第3頁
《機器學習-Python實踐》試卷及答案 卷8_第4頁
《機器學習-Python實踐》試卷及答案 卷8_第5頁
已閱讀5頁,還剩3頁未讀, 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

第1頁,共1頁一、單項選擇題(本大題共10小題,每題3分,共30分)試卷(試卷(學年第1學期)考試科目機器學習-Python實踐(A卷)適用專業班級(年級)得分命題人:審閱人:班級學號姓名考試科目裝訂線1、產量(X,臺)與單位產品成本(y,元/臺)之家你的回歸方程為y=356-1.5x,這說明()A。產量每增加一臺,單位產品成本增加356元B。產品每增加一臺,單位產品的成本減少1.5元C.產量每增加一臺,單位產品的成本平均增加356元D。產量每增加一臺,單位產品成本平均減少1.5元2、直線方程y=wx+b,其中b表示()A.系數B截距C.斜率D權重3、以下描述中,對梯度解釋正確的是(多選)()A梯度是一個向量,有方向有大小B求梯度就是對梯度向量的各個元素求偏導C梯度只有大小沒有方向D梯度只有方向沒有大小4、關于誤差ε的說法正確的是(多選)()A誤差可以看做隨機比變量B誤差的概率分布符合正態分布C誤差的概率分布符合均勻分布D如果模型設計優良,誤差可以避免5、標準差與方差的關系是(多選)()A標準差是方差的算術平方根B標準差可以反映離散程度,也可以反映出樣本的量綱C方差只能反映離散程度D標準差的平方是方差6、SVM中的核技巧(Kernaltrick)的作用包括以下哪項?()A.特征升維B.特征降維C.防止過擬合D.處理離散數據7、在數據預處理階段,我們常常對數值特征進行歸一化或標準化 (standardization,normalization)處理。這種處理方式理論上不會對下列 哪個模型產生很大影響?()A.k-MeansB.k-NNC.決策樹D.譜聚類8、下面哪個激活函數在圖像分類中不能作為輸出層?()

A.sigmoid

B.Tanh

C.ReLU

D.If(x>5,1,0)

9、使用batchnormalization可以解決以下哪一個神經網絡訓練中的 問題?

()

A.防止梯度消失

B.防止激活過高或者過低

C.網絡訓練太慢

D.B和C10、感知器不包括下面那個結構:()A.輸入層B.隱藏層C.輸出層D.計算層二、判斷題(本大題共10小題,每題1分,共10分)1、預剪枝是在決策樹生成過程中,對樹進行剪枝,提前結束樹的分支 生長。()2、決策樹的剪枝基本策略有預剪枝(Pre-Pruning)和后剪枝。()3、常見的決策樹算法是ID3,C4.5,CART樹。()4、決策樹的剪枝是為了簡化決策樹模型,避免過擬合。()5、最小二乘法(又稱最小平方法)是一種數學優化技術。它通過最小化誤差的平方和尋找數據的最佳函數匹配。()6、樸素貝葉斯(分類器)是一種生成模型,它會基于訓練樣本對每個可能的類別建模。()7、P(A|B)表示事件B已經發生的前提下,事件A發生的概率,叫做事件B發生下事件A的條件概率。()8、Boosting:串行,各個及學習器順序生成,因為后一個模型參數依賴于前一輪模型的預測結果。()9、Bagging:各個學習器可以并行生成。()10、Adaboost采用迭代的思想,繼承了Boosting算法,每次迭代只訓練一個弱學習器,訓練好的弱學習器將參與下一次迭代。()三、填空(本大題共10小題,每題3分,共30分)1、在某些情況下,我們會討論坐標超過兩維的數組。一般地,一個數組中的元素分布在若干維坐標的規則網格中,我們將其稱之為。2、回歸常用評估方法:,,。3、信息越有序,信息熵越。4、訓練用到的每個樣本叫。5、模型沒有很好地捕捉到數據特征,不能夠很好地擬合數據叫。6、提取出的正確信息條數/提取出的信息條數是。7、回歸問題對數值型連續隨機變量進行預測和建模的監督學習算法?;貧w往往會通過計算來確定模型的精確性。8、AdaBoost很好的利用了進行級聯。9、AdaBoost可以將不同的作為弱分類器。10、AdaBoost具有很高的精度;相對于和,AdaBoost充分考慮的每個分類器的權重。四、簡答題(本大題共3小題,共30分)1、SVM、LR、決策樹的對比?2、樸素貝葉斯的特點是?3、討論目前機器學習應用中存在的主要問題?一、選擇題1.D 2.B 3.AB 4.AB 5.ABC 6.C 7.C 8.D 9.A 10.D二、判斷題1.對 2.對 3.對 4.對 5.對 6.對 7.對 8.對 9.對 10.對 三、填空題1.張量 2.平均誤差絕對值誤差R2 3.低 4.訓練樣本 5.欠擬合 6.正確率 7.誤差(Error) 8.弱分類器 9.分類算法 10.bagging算法RandomForest算法四、簡答題1、模型復雜度:SVM支持核函數,可處理線性非線性問題;LR模型簡單,訓練速度快,適合處理線性問題;決策樹容易過擬合,需要進行剪枝。損失函數:SVMhingeloss;LRL2正則化;Adaboost指數損失。數據敏感度:SVM添加容忍度對outlier不敏感,只關心支持向量,且需要先做歸一化;LR對遠點敏感。數據量:數據量大就用LR,數據量小且特征少就

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論