Python數(shù)據(jù)分析實戰(zhàn)智慧樹知到課后章節(jié)答案2023年下魯東大學_第1頁
Python數(shù)據(jù)分析實戰(zhàn)智慧樹知到課后章節(jié)答案2023年下魯東大學_第2頁
Python數(shù)據(jù)分析實戰(zhàn)智慧樹知到課后章節(jié)答案2023年下魯東大學_第3頁
Python數(shù)據(jù)分析實戰(zhàn)智慧樹知到課后章節(jié)答案2023年下魯東大學_第4頁
免費預覽已結束,剩余5頁可下載查看

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

Python數(shù)據(jù)分析實戰(zhàn)智慧樹知到課后章節(jié)答案2023年下魯東大學魯東大學

第一章測試

本課程特色包括

A:精析數(shù)據(jù)分析算法,培養(yǎng)數(shù)據(jù)分析意識B:嵌入Python軟件,培養(yǎng)算法落地能力C:剖析20+精彩案例,培養(yǎng)綜合實戰(zhàn)技能

答案:精析數(shù)據(jù)分析算法,培養(yǎng)數(shù)據(jù)分析意識;嵌入Python軟件,培養(yǎng)算法落地能力;剖析20+精彩案例,培養(yǎng)綜合實戰(zhàn)技能

本課程包括的知識點包括

A:Python入門B:Python數(shù)據(jù)分析高級實戰(zhàn)

C:Python基本數(shù)據(jù)分析實戰(zhàn)

答案:Python入門;Python數(shù)據(jù)分析高級實戰(zhàn)

;Python基本數(shù)據(jù)分析實戰(zhàn)

本課程的Python入門部分中您將學習到的內容包括

A:Python三劍客(numpy,pandas,matplotlib)B:Python基本編程C:Python簡介D:Python基本語法

答案:Python三劍客(numpy,pandas,matplotlib);Python基本編程;Python簡介;Python基本語法

本課程的Python高級數(shù)據(jù)分析部分中您將學習到的內容包括

A:有監(jiān)督學習(回歸問題)B:有監(jiān)督學習(分類問題)C:無監(jiān)督學習D:高級話題

答案:有監(jiān)督學習(回歸問題);有監(jiān)督學習(分類問題);無監(jiān)督學習;高級話題

本課程講授六步法的基本目標是

A:落地精準B:算法清楚C:軟件熟練D:理論扎實

答案:落地精準;算法清楚;軟件熟練;理論扎實

第二章測試

下列關于Python語法敘述錯誤的是

A:Python句尾不需要分號

B:for循環(huán)中,冒號為縮進代碼塊的開始,冒號之后的所有代碼的縮進量必須相同,直到代碼塊結束C:Python使用括號組織代碼

D:Python中使用#號注釋語句

答案:Python使用括號組織代碼

下述代碼的返回結果是

deffun(k):

y=2*k+k**2

returny

print(fun(3))

A:12B:14C:13D:15

答案:15

Python語句中用于注釋代碼的符號是

A:%號B:#號C:$號D:!號

答案:#號

下述代碼返回的結果是

importnumpyasnpt=2.5868print(np.round(t,2))

A:2.60B:2.5C:2.59D:2.58

答案:2.59

下述說法錯誤的是

A:可對字典數(shù)據(jù)類型進行查、增、刪、改B:可對列表數(shù)據(jù)類型進行查、增、刪、改C:元組是一個不可變型的序列,由{}完成D:列表是一個可變型的序列,由[]完成

答案:元組是一個不可變型的序列,由{}完成

下述列表計算的結果是a=[1,11,10,10001,10001]a.append(2.5)print(a)

A:[1,11,10,10001,10001,2.5]B:[2.5,1,11,10,10001,10001]

答案:[1,11,10,10001,10001,2.5]

下述代碼返回的結果是x=-3.5ifx<0:

print(x+2)else:

print(-1*x-5)

A:1.5B:0C:-1.5

答案:-1.5

下述代碼返回的結果是

m=[2,5,4,1,3]n=[]forkinm:

t=k**2-2

n.append(t)print(n)

A:[4,25,16,1,9]B:[2,23,14,-1,7]C:[5,26,17,2,10]

答案:[2,23,14,-1,7]

第三章測試

下列不屬于數(shù)據(jù)預處理常用方法的是

A:離散變量重編碼B:異常值的發(fā)現(xiàn)與處理C:相關分析

D:缺失值的發(fā)現(xiàn)與處理

答案:相關分析

常用描述統(tǒng)計方法包括

A:數(shù)據(jù)可視化B:描述離散程度C:描述偏差和相關程度D:描述集中程度

答案:數(shù)據(jù)可視化;描述離散程度;描述偏差和相關程度;描述集中程度

下列參數(shù)類假設檢驗方法中可以用于比較3種不同教學方法之間是否存在顯著差異的是

A:配對樣本T檢驗B:獨立樣本T檢驗C:單因素方差分析

答案:單因素方差分析

可以用于直觀展示數(shù)據(jù)值的大小或變化趨勢(即比較)的可視化工具有

A:條形圖B:柱形圖C:餅圖D:折線圖

答案:條形圖;柱形圖;折線圖

按照可視化專家AndrewAbela的圖表使用建議,散點圖可以用于展示數(shù)據(jù)間的聯(lián)系。

A:錯B:對

答案:對

第四章測試

下述機器學習方法中可以用于降維的是

A:決策樹B:KNNC:Kmeans聚類D:PCA

答案:PCA

如果研究者想探討影響小麥畝產(chǎn)量的因素,采集了若干個樣本的各個指標(溫度、灌溉量、光照強度、施肥量),則下列哪種方法適合研究本問題?

A:PCAB:多元線性回歸分析C:聚類分析D:一元線性回歸

答案:多元線性回歸分析

隨機森林算法敘述正確的是

A:采用投票法(少數(shù)服從多數(shù))確定最終類別歸屬B:隨機選擇訓練樣本(行采樣)C:是一種集成學習算法D:隨機選擇部分特征(列采樣)

答案:采用投票法(少數(shù)服從多數(shù))確定最終類別歸屬;隨機選擇訓練樣本(行采樣);是一種集成學習算法;隨機選擇部分特征(列采樣)

下列關于決策樹算法的論述錯誤的是

A:條件熵H(Y|X)表示在已知特征X的條件下,類別Y的不確定性的度量B:決策樹基本思想是貪心算法,它以自頂(根節(jié)點)向下遞推生成的方式構造決策樹。C:熵可用于描述信息的不確定性或混亂程度,信息的不確定性越大則熵越大,反之越小D:ID3算法的屬性選擇度量就是使用信息增益,選擇最小信息增益的屬性作為當前節(jié)點的測試屬性。

答案:ID3算法的屬性選擇度量就是使用信息增益,選擇最小信息增益的屬性作為當前節(jié)點的測試屬性。

下列關于判別分析敘述正確的是

A:

利用已知類別的樣本建立判別模型,對未知類別的樣本進行分類B:Fishser線性判別分析(LinearDiscriminantanalysis,LDA)由R.A.Fisher于1936年提出C:是多元分析中用于判別樣本所屬類型的一種統(tǒng)計分析方法D:Fishser線性判別分析的基本思想是投影

答案:

利用已知類別的樣本建立判別模型,對未知類別的樣本進行分類;Fishser線性判別分析(LinearDiscriminantanalysis,LDA)由R.A.Fisher于1936年提出;是多元分析中用于判別樣本所屬類型的一種統(tǒng)計分析方法;Fishser線性判別分析的基本思想是投影

樸素貝葉斯分類器的基本算法步驟包括

A:比大小:計算后驗概率,歸入最大后驗概率類B:算概率:計算所有樸素貝葉斯公式中的“零部件”概率C:定問題:確定為分類(類標簽已知)問題

答案:比大小:計算后驗概率,歸入最大后驗概率類;算概率:計算所有樸素貝葉斯公式中的“零部件”概率;定問題:確定為分類(類標簽已知)問題

K最近鄰(KNN)分類器的基本算法步驟包括

A:算距離:給定測試對象,計算它與訓練集中的每個對象的距離B:找鄰居:圈定距離最近的k個訓練對象,作為測試對象的近鄰

C:做分類:根據(jù)這k個近鄰歸屬的主

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論