




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
第五屆“高新匠領”職業技能大賽(人工智能算法應用賽項)
理論試題庫(含答案)
一、單選題
1.在其他條件不變的前提下,以下哪種做法容易引起機器學習中的過擬合問題()。
A、增加訓練集量
B、減少神經網絡隱藏層節點數
C、刪除稀疏的特征
D、SVM算法中使用高斯核/RBF核代替線性核
答案:D
2.下列屬于無監督學習的是:()。
A、k-means
B、SVM
C、最大炳
D、CRF
答案:A
3.Logit函數(給定為I(x))是幾率函數的對數。域x=[0,1]中logit函數的范圍
是多少?()
A、(-8,8)
B\(0,1)
C、(0,8)
D\(-8,o)
答案:A
4.在深度學習中,涉及到大量的矩陣相乘,現在需要計算三個稠密矩陣A,B,C的
乘積ABC,假設三個矩陣的尺寸分別為m*n,n*p,p*q,且m<n<p<q,以下計算順
序效率最高的是()。
A、(AB)C
B、AC(B)
C、A(BC)
D、效率都相同
答案:A
5.下面哪種不屬于數據預處理的方法?()
A、變量代換
B、離散化
C、聚集
D、估計遺漏值
答案:D
6.下列哪一項在神經網絡中引入了非線性?()
A、隨機梯度下降
B、修正線性單元(ReLU)
C、卷積函數
D、以上都不正確
答案:B
7.使用以下哪種算法進行變量選擇?0
A、LASSO
B、Ridge
C\兩者
D、都不是
答案:A
8.模型的高bias是什么意思,我們如何降低它?()
A、在特征空間中減少特征
B、在特征空間中增加特征
C、增加數據點
D、B和C
答案:B
9.哪一個是機器學習的合理定義?()
A、機器學習從標記的數據中學習
B、機器學習能使計算機能夠在沒有明確編程的情況下學習
C、機器學習是計算機編程的科學
D、機器學習是允許機器人智能行動的領域
答案:B
10.當不知道數據所帶標簽時,可以使用哪種技術促使帶同類標簽的數據與帶其
他標簽的數據相分離?()
A、分類
B、聚類
C、關聯分析
D、隱馬爾可夫鏈
答案:B
11.分析邏輯回歸表現的一個良好的方法是AIC,它與線性回歸中的R平方相似。
有關AIC,以下哪項是正確的?()
A、具有最小AIC值的模型更好
B、具有最大AIC值的模型更好
C、視情況而定
D、以上都不是
答案:A
12.請選擇下面可以應用隱馬爾科夫(HMM)模型的選項。()
A、基因序列數據集
B、電影瀏覽數據集
C、股票市場數據集
D、所有以上
答案:D
13.下列關于回歸分析中的殘差表述正確的是()。
A、殘差的平均值總為零
B、殘差的平均值總小于零
C、殘差的平均值總大于零
D、殘差沒有此類規律
答案:A
14.基于統計的分詞方法為()。
A\正向量最大匹配法
B、逆向量最大匹配法
C、最少切分
D、條件隨機場
答案:D
15.在數據清理中,下面哪個不是處理缺失值的方法?0
A、估算
B、整例刪除
G變量刪除
D、成對刪除
答案:D
16.深度學習是當前很熱門的機器學習算法,在深度學習中,涉及到大量的矩陣相
乘,現在需要計算三個稠密矩陣A,B,C的乘積ABC,假設三個矩陣的尺寸分別為m
*n,n*p,p*q,且m<n<p<q,以下計算順序效率最高的是()。
A、(AB)C
B、AC(B)
C、A(BC)
D、所以效率都相同
答案:A
17.下面兩張圖展示了兩個擬合回歸線(A和B),原始數據是隨機產生的。現在,
我想要計算A和B各自的殘差之和。注意:兩種圖中的坐標尺度一樣。關于A和
B各自的殘差之和,下列說法正確的是?0
AB
A、比B禺
B、A比B小
C、A與B相同
D、以上說法都不對
答案:C
18.下列哪一種操作實現了和神經網絡中Dropout類似的效果?()
A、Bagging
B\oosting
C、堆疊
D、以上都不正確
答案:A
19.下列的代碼片段,說法不正確的是:()。
A、表達式[1,2,3]*3的執行結果為[1,2,3,1,2,3,1,2,3]。
B、語句x=3==3,5執行結束后,變量x的值為(True,5)。
G已知x=3,那么執行語句x+=6之后,x的值為9o
D、已知x=3,并且id(x)的返回值為496103280,那么執行語句x+=6之后,表達式
id(x)==496103280的值為true。
答案:D
20.基于二次準則函數的H-K算法較之于感知器算法的優點是()?
A、計算量小
B、不可以判別問題是否線性可分
C、其解完全適用于非線性可分的情況
D、其解的適應性更好
答案:D
21.假設你有5個大小為7x7、邊界值為0的卷積核,同時卷積神經網絡第一層的
深度為1。此時如果你向這一層傳入一個維度為224x224x3的數據,那么神經網
絡下一層所接收到的數據維度是多少?0
A、218x218x5
B、217x217x8
C、217x217x3
D、220x220x5
答案:A
22.下列哪些不特別適合用來對高維數據進行降維。()
A、LASSO
B、主成分分析法
C、聚類分析
D、小波分析法
答案:C
23.當數據過大以至于無法在RAM中同時處理時,哪種梯度下降方法更加有效?()
A、隨機梯度下降法(StochasticGradientDescent)
B、不知道
G整批梯度下降法(FuIIBatchGradientDescent)
D、都不是
答案:A
24.()是職業道德認識和職業道德情感的統一。
A、職業道德技能
B、職業道德義務
C、職業道德信念
D、職業道德素養
答案:D
25.以下哪個圖是KNN算法的訓練邊界()。
輸入數據ABCD
A、B
B、A
C、D
D、C
答案:B
26.一個二進制源X發出符號集為{-1,1},經過離散無記憶信道傳輸,由于信道中
噪音的存在,接收端Y收到符號集為{7,1,0}。已知P(x=-1)=1/4,P(x=1)=3/4,P
(y=-1|x=-1)=4/5,P(y=O|x=-1)=1/5,P(y=1|x=1)=3/4,P(y=O|x=1)=1/4,求條件
炳H(Y|X)()。
A、0.2375
B、0.3275
C、0.5273
D、0.5372
答案:A
27.一個計算機程序從經驗E中學習任務T,并用P來衡量表現。并且,T的表現P
隨著經驗E的增加而提高。假設我們給一個學習算法輸入了很多歷史天氣的數據,
讓它學會預測天氣。什么是P的合理選擇?0
A、計算大量歷史氣象數據的過程
B、正確預測未來日期天氣的概率
C、天氣預報任務
D、以上都不
答案:B
28.關于"回歸(Regression)"和"相關(CorreIation)”,下列說法正確的是?
注意:x是自變量,y是因變量0。
A、回歸和相關在x和y之間都是互為對稱的
B、回歸和相關在x和y之間都是非對稱的
C、回歸在x和y之間是非對稱的,相關在x和y之間是互為對稱的
D、回歸在x和y之間是對稱的,相關在x和y之間是非對稱的
答案:C
29.被譽為國際“人工智能之父”的是0。
A、圖靈(Turing)
B\費根鮑姆(Feigenbaum)
G傅京孫(K、S、Fu)
D、尼爾遜(NiIsson)
答案:A
30.要想讓機器具有智能,必須讓機器具有知識。因此,在人工智能中有一個研究
領域,主要研究計算機如何自動獲取知識與技能,實現自我完善,這門研究分支學
科叫()。
A、專家系統
B、機器學習
C、神經網絡
D、模式識別
答案:B
31.以下關于誠實守信的認識和判斷中,正確的選項是()。
A、誠實守信應以追求利益最大化為準則
B、是否誠實守信要視具體對象而定
C、誠實守信是市場經濟應有的法則
D、誠實守信與經濟發展相矛盾
答案:C
32.假設你訓練了一個基于線性核的SVM,多項式階數為2,在訓練集和測試集上
準確率都為100%。如果增加模型復雜度或核函數的多項式階數,將會發生什么?
0
A、導致過擬合
B、導致欠擬合
C、無影響,因為模型已達100%準確率
D、以上均不正確
答案:A
33.假設你使用log-loss函數作為評估標準。下面這些選項,哪些是對作為評估
標準的log-loss的正確解釋()。
A、如果一個分類器對不正確的分類很自信,log-loss會嚴重的批評它
B、對一個特別的觀察而言,分類器為正確的類別分配非常小的概率,然后對log-
Ioss的相應分布會非常大
C、Iog-loss越低,模型越好
D、以上都是
答案:D
34.語言模型的參數估計經常使用MLE(最大似然估計)。面臨的一個問題是沒有
出現的項概率為0,這樣會導致語言模型的效果不好。為了解決這個問題,需要使
用:()。
A、平滑
B、去噪
C、隨機插值
D、增加白噪音
答案:A
35.下列哪個神經網絡結構會發生權重共享?()
A、卷積神經網絡
B、循環神經網絡
C、全連接神經網絡
D、選項A和B
答案:D
36.SVM中使用高斯核函數之前通常會進行特征歸一化,以下關于特征歸一化描
述不正確的是?()
A、經過特征正則化得到的新特征優于舊特征
B、特征歸一化無法處理類別變量
C、SVM中使用高斯核函數時,特征歸一化總是有用的
D、以上都是不正確的
答案:C
37.向量X=[1,2,3,4,-9,0]的L1范數為?()
A、1
B、19
C、6
D、V111
答案:B
38.你正在使用帶有L1正則化的Iogistic回歸做二分類,其中C是正則化參數,
w1和w2是x1和x2的系數。當你把C值從0增加至非常大的值時,下面哪個選
項是正確的?()
A、第一?"t'w2成了0,接著w1也成了0
B、第一個w1成了0.接著w2也成了0
Gw1和w2同時成了0
D、即使在C成為大值之后,w1和w2都不能成0
答案:B
39.下列選擇中,說法是正確的是:()。
A、在Python中nulI表示空類型。
B、列表、元組、字符串是Python的無序序列。
C、查看變量類型的Python內置函數是type。。
D、查看變量內存地址的Python內置函數是ids()。
答案:C
40.下面的python代碼片段,定義了函數fun()并調用了該函數,輸出結果是0。
A、報錯
B、123
C、1
D、23
答案:A
41.假設你需要調整參數來最小化代價函數(costfunction),可以使用下列哪項
技術?()
A、窮舉搜索
B、隨機搜索
GBayesian優化
D、以上任意一種
答案:D
42.下列哪一項說明了X,Y之間的較強關系。()
A、相關系數為0、9
B、eta系數為0的空假設的p-value是0、0001
C、Beta系數為0的空假設的t統計量是30
D、都不對
答案:A
43.類域界面方程法中,不能求線性不可分情況下分類問題近似或精確解的方法
是?()
A、偽逆法-徑向基神經網絡的訓練算法,就是解決線性不可分的情況
B、基于二次準則的H-K算法:最小均方差準則下求得權矢量,二次準則解決非線
性問題
C、勢函數法-非線性
D、感知器算法-線性分類算法
答案:D
44.微機系統中的系統總線(如PCI)用來連接各功能部件以構成一個完整的系統,
它需包括三種不同功能的總線,即()。
A、數據總線'地址總線和控制總線
B、同步總線、異步總線和通信總線
C、內部總線、外部總線和片內總線
D、并行總線、串行總線和USB總線
答案:A
45.對于一個分類任務,如果開始時神經網絡的權重不是隨機賦值的,而是都設成
0,下面哪個敘述是正確的?()
A、其他選項都不對
B、沒啥問題,神經網絡會正常開始訓練
C、神經網絡可以訓練,但是所有的神經元最后都會變成識別同樣的東西
D、神經網絡不會開始訓練,因為沒有梯度改變
答案:C
46.如果以特征向量的相關系數作為模式相似性測度,則影響聚類算法結果的主
要因素有()。
A、已知類別樣本質量
B、分類準則
C、量綱
D、其他
答案:B
47.以P(w)表示詞條w的概率,假設已知P(南京)=0.8,P(市長)=0.6,P(長江大橋)
=0.4:P(南京市)=0.3,P(長江大橋)=0.5:假設前后兩個詞的出現是獨立的,那么
分詞結果就是0。
A、南京市*長江*大橋
B、南京*市長*江大橋
C、南京市長*江大橋
D、南京市*長江大橋
答案:B
48.關于Logit回歸和SVM不正確的是0。
AvLogit回歸目標函數是最小化后驗概率
BxLogit回歸可以用于預測事件發生概率的大小
C、SVM目標是結構風險最小化
D、SVM可以有效避免模型過擬合
答案:A
49.Fisher線性判別函數的求解過程是將M維特征矢量投影在(B)中進行求解。
A、M-1維空間
B、一維空間
C、三維空間
D、二維空間
答案:B
50.與法律相比,道德0。
A、產生的時間晚
B、適用范圍更廣
C、內容上顯得十分籠統
D、評價標準難以確定
答案:B
51.人工智能的目的是讓機器能夠0,以實現某些腦力勞動的機械化。
A、和人一樣工作
B、完全代替人的大腦
C、模擬、延伸和擴展人的智能
D、具有智能
答案:D
52.下面哪句話是正確的?()
A、機器學習模型的精準度越高,則模型的性能越好
B、增加模型的復雜度,總能減小測試樣本誤差
C、增加模型的復雜度,總能減小訓練樣本誤差
D、以上說法都不對
答案:D
53.在當前的人工智能領域,機器學習,或者更準確地說,()的技術路線已經成為
研究的主流。
A、“大數據+深度學習”
B、“數據+學習”
C、“大數據+去計算”
D、“云計算+去中心化”
答案:A
54.在LogisticRegression中,如果同時加入L1和L2范數,會產生什么效果()。
A、可以做特征選擇,并在一定程度上防止過擬合
B、能解決維度災難問題
C、能加快計算速度
D、可以獲得更準確的結果
答案:A
55.已知:大腦是有很多個叫做神經元的東西構成,神經網絡是對大腦的簡單的數
學表達。每一個神經元都有輸入、處理函數和輸出。神經元組合起來形成了網絡,
可以擬合任何函數。為了得到最佳的神經網絡,我們用梯度下降方法不斷更新模
型,給定上述關于神經網絡的描述,什么情況下神經網絡模型被稱為深度學習模
型?0
A、加入更多層,使神經網絡的深度增加
B、有維度更高的數據
C、當這是一個圖形識別的問題時
D、以上都不正確
答案:A
56.下面哪些是基于核的機器學習算法?()1ExpectationMaximization(EM)(最大
期望算法)2RadiaIBasisFunction(RBF)(徑向基核函數)3LinearDiscrimimateAn
alysis(LDA)(主成分分析法)4Suppor_tVec_torMachine(SVM)(支持向量機)
A、1,2,3
B、2,3和4
C、3和4
D、全部都是
答案:B
57.下面關于線性分類器與非線性分類器的區別以及優劣的說法正確的是()。(1)
如果模型是參數的線性函數,并且存在線性分類面,那么就是線性分類器,否則不
是。(2)常見的線性分類器有:LR,貝葉斯分類,單層感知機、線性回歸。常見的非
線性分類器:決策樹、RF、GBDT、多層感知機⑶線性分類器速度快、編程方便,
但是可能擬合效果會很好⑷非線性分類器編程復雜,但是效果擬合能力弱
A、1,2
B、3和4
G2,3和4
D、全部正確
答案:A
58.下列時間序列模型中,哪一個模型可以較好地擬合波動性的分析和預測。(D)
A、R模型
B、MA模型
GARMA模型
D、GARCH模型
答案:D
59.在邏輯回歸輸出與目標對比的情況下,以下評估指標中哪一項不適用?()
A、UC-ROC
B、準確度
C、LogIoss
D、均方誤差
答案:D
60.E-R模型向關系模型轉換時,三個實體之間多對多的聯系應該轉換為一個獨
立的關系模式,且該關系模式的關鍵字由()組成。
A、多對多聯系的屬性
B、三個實體的關鍵字
C、任意一個實體的關鍵字1
D、任意兩個實體的關鍵字
答案:B
61.假設有這樣的一個示例:types=「娛樂,,‘體育,,’科技〕我們在使用列表時,
以下哪個選項,會引起索引錯誤?0
A、types[-1]
B\types[-2]
Gtypes[0]
D、types[3]
答案:D
62.關于道德與法律,正確的說法是0。
A、在法律健全完善的社會,不需要道德
B、由于道德不具備法律那樣的強制性,所以道德的社會功用不如法律
C、在人類歷史上,道德與法律同時產生
D、在一定條件下,道德與法律能夠相互作用、相互轉化
答案:D
63.關于道德評價,正確的說法是0。
A、每個人都能對他人進行道德評價,但不能做自我道德評價
B、道德評價是一種純粹的主觀判斷,沒有客觀依據和標準
C、領導的道德評價具有權威性
D、對一種行為進行道德評價,關鍵看其是否符合社會道德規范
答案:D
64.目標變量在訓練集上的8個實際值[0,0,0,1,1,1,1,1],目標變量的烯是多少?
0
A、-(5/81og(5/8)+3/81og(3/8))
B、5/81og(5/8)+3/81og(3/8)
G3/81og(5/8)+5/81og(3/8)
D、5/81og(3/8)-3/81og(5/8)
答案:A
65.邏輯回歸的以下模型:P(y=1|x,w)=g(w0+w1x)其中g(z)是邏輯函數。在上述
等式中,通過改變參數w可以得到的P(y=1|x;w)被視為x的函數。()
A、(0,inf)
B、(-inf,0)
C、(0,1)
D\(-inf,inf)
答案:C
66.假設使用維數降低作為預處理技術,使用PCA將數據減少到k維度。然后使用
這些PCA預測作為特征,以下哪個聲明是正確的?()
A、更高的“k”意味著更正則化
B、更高的“k”意味著較少的正則化
C、都不對
D、都是正確的
答案:B
67.如果增加神經網絡的寬度,精確度會增加到一個閾值,然后開始降低。造成這
一現象的原因可能是0。
A、只有一部分核被用于預測
B、當核數量增加,神經網絡的預測能力降低
C、當核數量增加,其相關性增加,導致過擬合
D、以上都不對
答案:C
68.()很大程度上緩解了人工收費的壓力,并且有效地降低了停車場出入口的擁
堵頻率。
A、自動停車系統
B、自動收費系統
C、自動駕駛系統
D、自動導航系統
答案:B
69.以下哪種算法不能用于降低數據的維數?()
A、t-SNE
B、PCA
C、LDA
D、都不是
答案:D
70.下列關于靜態多態實現重載的描述中正確的是0。
A、重載的方法(函數)的方法名(函數名)可以不同
B、重載的方法(函數)必須在返回值類型以及參數類型上有所不同
C、重載的方法(函數)必須在參數順序或參數類型上有所不同
D、重載的方法(函數)只需在返回值類型上有所不同
答案:C
71.輸入圖片大小為200X200,依次經過一層卷積(kerneIsize5X5,padding1,s
tride2),pooIing(kerneIsize3X3,paddingO,stridel),又一層卷積(kerneIsiz
e3X3,paddingl,stridel)之后,輸出特征圖大小為()。
A、97
B、98
C、96
D、95
答案:A
72.以下哪種方法不屬于特征選擇的標準方法:()。
A、嵌入
B、過濾
C、包裝
D、抽樣
答案:D
73.關于正態分布,下列說法錯誤的是0。
A、正態分布具有集中性和對稱性
B、正態分布的均值和方差能夠決定正態分布的位置和形態
C、正態分布的偏度為0,峰度為1
D、標準正態分布的均值為0,方差為1
答案:C
74.邏輯回歸與多元回歸分析有哪些不同?()
A、邏輯回歸預測某事件發生的概率
B、邏輯回歸有較高的擬合效果
C、邏輯回歸系數的評估
D、以上全選
答案:D
75.設有二維數組a[l、m,I、n](2<m〈n),其第一個元素為a[IJ],最后一個元素
為a[m,n],若數組元素以行為主序存放,每個元素占用k個存儲單元(k>I),則元
素a[2,2]的存儲位置相對于數組空間首地址的偏移量為()。
A、(n+l)*k
B、n*k+l
C、(m+I)*k
D、m*k+l
答案:A
76.()可以大大地解放老師的雙手和工作量,提升教學的效率。
A、智能搜題
B、智能批改
C、智能答題
D、智能命題
答案:B
77.下面python內置int()函數使用,不能得到預期值的是()。
A、int('12',l6)的值為16
B、int('12',8)的值為10
C、int('12')的值為12
D、int(10「,2)的值為5
答案:A
78.關于SVM泛化誤差描述正確的是()。
A、超平面與支持向量之間距離
B、SVM對未知數據的預測能力
C、SVM的誤差閾值
D、以上都對
答案:D
79.在感知機中(Perceptron)的任務順序是()。(1)隨機初始化感知機的權重⑵
去到數據集的下一批(batch)(3)如果預測值和輸出不一致,則調整權重(4)對一
個輸入樣本,計算輸出值
A、1,2,3,4
B、4,3,2,1
Cx1,4,3,2
D、3,4,1,2
答案:c
80.在指令系統的各種尋址方式中,獲取操作數最快的方式是0。
A、直接尋址
B、間接尋址
C、立即尋址
D、寄存器尋址
答案:C
81.在存儲體系中,位于主存與CPU之間的高速緩存(Cache)用于存放主存中部分
信息的副本,主存地址與Cache地址之間的轉換工作0。
A、由系統軟件實現
B、由硬件自動完成
C、由應用軟件實現
D、由用戶發出指令完成
答案:B
82.下面關于Hive的說法正確的是()。
AxHive是基于Hadoop的一個數據倉庫工具,可以將結構化的數據文本映射為一
張數據庫表,并提供簡單的SQL查詢功能
B、Hive可以直接使用SQL語句進行相關操作
C、Hive能夠在大規模數據集上實現低延遲快速的查詢
D、Hivez在加載數據過程中不會對數據進行任何的修改,只是將數據移動到HDF
S中Hive設定的目錄下
答案:A
83.在一個n維的空間中,最好的檢測outlier(離群點)的方法是:()。
A、作正態分布概率圖
B、作盒形圖
C、馬氏距離
D、作散點圖
答案:C
84.為了得到和SVD一樣的投射(projection),你需要在PCA中怎樣做?()
A、將數據轉換成零均值
B、將數據轉換成零中位數
C、無法做到
D、以上方法不行
答案:A
85.人工智能數據主要分本文數據、語音數據、圖像數據、()幾大類別。
A、通訊數據
B、視頻數據
C、結構化數據
D、非結構化數據
答案:B
86.最出名的降維算法是PAC和LSNE。將這兩個算法分別應用到數據「X」上,
并得到數據集X_projected_PCA,X_projected_tSNEo下面哪一項對X_projecte
d_PCA和X_projected_tSNE的描述是正確的?()
A、X_projected_PCA在最近鄰空間能得到解釋
B\X_projected_tSNE在最近鄰空間能得到解釋
C、兩個都在最近鄰空間能得到解釋
D、兩個都不能在最近鄰空間得到解釋
答案:B
87.計算機系統中,CPU對主存的訪問方式屬于()。
A、隨機存取
B、順序存取
C、索引存取
D、哈希存取
答案:A
88.以下關于正則化的陳述哪一個是正確的?()
A、使用太大的入值可能會導致您的假設與數據過擬合;這可以通過減小人來避免
B、使用非常大的值人不會影響假設的性能;我們不將人設置為太大的唯一原因是
避免數值問題
C、考慮一個分類問題。添加正則化可能會導致分類器錯誤地分類某些訓練示例
(當不使用正則化時,即當入=0時,它正確地分類了這些示例)
D、由于邏輯回歸的輸出值OWhB(x)W1,其輸出值的范圍無論如何只能通過正
則化來“縮小”一點,因此正則化通常對其沒有幫助
答案:C
89.SVM的效率依賴于()。
A、核函數的選擇
B、核參數
C、軟間隔參數
D、以上所有
答案:D
90.下列哪一個圖片的假設與訓練集過擬合?0
答案:A
91.航空航天領域對于()和精密性有著極高的要求。
A、科技性
B、嚴謹性
C、安全性
D、精確性
答案:C
92.一般做機器學習應用的時候大部分時間是花費在特征處理上,其中很關鍵的
一步就是對特征數據進行歸一化,歸一化的作用是()。
A、歸一化后降低了梯度下降求最優解的速度,提高了精度
B、歸一化不能提高精度
C、如果機器學習模型使用梯度下降法求最優解時,不做歸一化處理,很難收斂甚
至不能收斂。
D、以上說法都不正確
答案:C
93.假如我們使用非線性可分的SVM目標函數作為最優化對象,我們怎么保證模
型線性可分?0
A、設C=1
B、設C=0
C\設c=無窮大
D、以上都不對
答案:C
94.下面哪個/些超參數的增加可能會造成隨機森林數據過擬合?0
A、樹的數量
B、樹的深度
C、學習速率
D、學習次數
答案:B
95.bootstrap數據是什么意思?0
A、有放回地從總共M個特征中抽樣m個特征
B、無放回地從總共M個特征中抽樣m個特征
C、有放回地從總共N個樣本中抽樣n個樣本
D、無放回地從總共N個樣本中抽樣n個樣本
答案:c
96.十六進制64H轉換成二進制和十進制的值分別是0。
A、1100111B96D
B、1100100B100D
G0100100B100D
D、1010110B96D
答案:B
解析:答案解析:十六進制數64H轉換為二進制時,6對應二進制的110,4對
應二進制的100,組合起來就是1100100B。轉換為十進制時,6乘以16的1次
方等于96,4乘以16的0次方等于4,相加得到100D。所以,十六進制64H轉
換成二進制和十進制的值分別是1100100B和100D,選項B是正確的。
97.我們建立一個5000個特征,100萬數據的機器學習模型。我們怎么有效地應
對這樣的大數據訓練:()。1我們隨機抽取一些樣本,在這些少量樣本之上訓練2
我們可以試用在線機器學習算法3我們應用PCA算法降維,減少特征數
A、1和2
B、2和3
C、以上都是
D、以上都不是
答案:C
98.下列哪一項屬于特征學習算法(representationIearningaIgorithm)?(C)
A、K近鄰算法
B、隨機森林
C\神經網絡
D\都不屬于
答案:C
99.樣本庫功能要求為:數據接入包括()文件導入、HDFS數據導入、FTP文件導入、
NFS數據導入和數據庫數據導入。
A、遠程
B、本地
G云端
D、SAMBA
答案:B
100.下列關于職業道德的說法中,你認為正確的是()。
A、職業道德與人格高低無關
B、職業道德的養成只能靠社會強制規定
C、職業道德從一個側面反映人的道德素質
D、職業道德素質的提高與從業人員的個人利益無關
答案:C
101.在以下不同的場景中,使用的分析方法不正確的有()。
A、根據商家最近一年經營及服務數據,用聚類算法判斷出天貓商家在各自主營類
目下所屬的商家層級
B、根據商家近幾年的成交數據,用聚類算法擬合出用戶未來一個月可能的消費金
額公式
C、用關聯規則算法分析出購買了汽車坐墊的買家,是否適合推薦汽車腳墊
D、根據用戶最近購買的商品信息,用決策樹算法識別出淘寶買家可能是男還是女
答案:B
102.如果我們用了一個過大的學習速率會發生什么?()
A、神經網絡會收斂
B、不好說
C、都不對
D、神經網絡不會收斂
答案:D
103.給定三個變量X,Y,Zo(X,Y)、(Y,Z)和(X,Z)的Pearson相關性系數分別為C
1、C2和C3。現在X的所有值加2(即X+2),Y的全部值減2(即Y-2),Z保持不變。
那么運算之后的(X,Y)、(Y,Z)和(X,Z)相關性系數分別為D1、D2和D3。現在試
問D1、D2、D3和C1、C2、C3之間的關系是什么?()
A、D1=C1,D2<C2,D3>C3
B、D1=C1,D2>C2,D3>C3
C、D1=C1,D2>C2,D3<C3
D、1=C1,D2=C2,D3=C3
答案:D
104.下列哪項關于模型能力(modeIcapacity)的描述是正確的?()(指神經網絡模
型能擬合復雜函數的能力)
A、隱藏層層數增加,模型能力增加
B、Dropout的比例增加,模型能力增加
C、學習率增加,模型能力增加
D、都不正確
答案:A
105.以下說法中錯誤的是0。
A、SVM對噪聲(如來自其他分部的噪聲樣本)具備魯棒性
B、在adaboost算法中,所有被分錯樣本的權重更新比例不相同
Cvboosting和bagging都是組合多個分類器投票的方法,二者都是根據單個分
類器的正確率確定其權重
D、給定n個數據點,如果其中一半用于訓練,一半用戶測試,則訓練誤差和測試誤
差之間的差別會隨著n的增加而減少的
答案:C
106.下列選擇中,說法正確的是:()。
A、繼承(inheritance)允許一個類獲取另一個類的所有成員和屬性。被繼承的類
稱為超類,而繼承的類稱為派生類/子類。
B、多態(Polymorphism)的意思是「多種形式」。子類可以定義自己的獨特行為,
但不能共享其父類/基類的相同功能或行為
C、Python可以不支持多重繼承。一個類只能從一個父類派生。
D、封裝(Encapsulation)意味著將數據和成員函數包裝在一起成為一個單元。不
能實現數據隱藏。
答案:A
107.Python是面向對象語言,關于類和對象的說法不正確的是:()。
A、類(Class)被視為對象的藍圖。類中的第一行字符串稱為doc字符串,包含該
類的簡短描述。
B、this表示類的實例,通過使用this關鍵字,可以在Python中訪問類的屬性和
方法
C、使用class關鍵字可以創建了一個類。一個類包含變量和成員組合,稱為類成
員。
D、對象(Object)是真實存在的實體。在Python中為類創建一個對象,我們可以
使用obj=CLASS_NAME()
答案:B
108.NaiveBayes是一種特殊的Bayes分類器,特征變量是X,類別標簽是C,它的
一個假定是:()。
A、各類別的先驗概率P(C)是相等的
B、以0為均值,sqr(2)/2為標準差的正態分布
C、特征變量X的各個維度是類別條件獨立隨機變量
D、P(X|C)是高斯分布
答案:C
109.我國公民的基本道德規范是()、團結友善、勤儉自強、敬業奉獻。
A、愛國愛企、明禮誠信
B、愛國守法、明禮誠信
C、愛崗敬業'誠實守信
D、遵紀守法、誠實信用
答案:B
110.下圖是同一個SVM模型,但是使用了不同的徑向基核函數的gamma參數,依次
是g1,g2,g3,下面大小比較正確的是()。
A、g1>g2>g3
B\g1—g2—g3
Gg1<g2<g3
D、g1>=g2>=g3
答案:C
111.隨著人工智能技術的發展,通過()、虹膜識別'指紋識別等生物識別技術已
推廣到銀行業的各大主要應用場景中。
A、人臉識別
B、DNA識別
C、聲紋識別
D、聲音識別
答案:A
112.一監獄人臉識別準入系統用來識別待進入人員的身份,此系統一共包括識別
4種不同的人員:獄警,小偷,送餐員,其他。下面哪種學習方法最適合此種應用需
求:()。
A、二分類問題
B、多分類問題
C、層次聚類問題
D、k-中心點聚類問題
答案:B
113.Python中類型轉換是指將一種數據類型轉換為另一種數據類型。下列轉換
不正確的是。()
A、int()將任何數據類型轉換為整數類型,oct()將整數轉換為十六進制
Bxtuple()函數用于轉換為元組,set0函數在轉換為set后返回類型。
C、Iist()函數用于將任何數據類型轉換為列表類型。
D、ict()函數用于將順序元組(鍵,值)轉換為字典。str()函數用于將整數轉換為
字符串。
答案:A
114.Logistic回歸分類器是否能對下列數據進行完美分類?0
A\是
B、否
C、不確定
D、都不是
答案:B
115.關于ARMA、R、MA模型的功率譜,下列說法正確的是()
A、MA模型是同一個全通濾波器產生的
B、MA模型在極點接近單位圓時,MA譜是一個深谷
C、AR模型在零點接近單位圓時,AR譜是一個尖峰
D、RMA譜既有尖峰又有深谷
答案:D
116.模型庫存放訓練出的()模型或采購來的第三方算法模型。
A、實體
B、算法
C、數據
D、對象
答案:B
117.給定三個變量X,Y,Zo(X,Y)、(Y,Z)和(X,Z)的Pearson相關性系數分別為C
1、C2和C3。現在X的所有值加2(即X+2),Y的全部值減2(即Y-2),Z保持不變。
那么運算之后的(X,Y)、(Y,Z)和(X,Z)相關性系數分別為D1、D2和D3。現在試
問D1、D2、D3和C1、C2、C3之間的關系是什么?()
A、D1=C1,D2<C2,D3>C3
B、D1=C1,D2>C2,D3>C3
C、D1=C1,D2>C2,D3<C3
D、1=C1,D2=C2,D3=C3
答案:D
118.假設你使用log-loss函數作為評估標準。下面這些選項,哪些是對作為評估
標準的log-loss的正確解釋()。
A、如果一個分類器對不正確的分類很自信,log-loss會嚴重的批評它。
B、對一個特別的觀察而言,分類器為正確的類別分配非常小的概率,然后對log-
Ioss的相應分布會非常大。
C、Iog-loss越低,模型越好
D、以上都是
答案:D
119.下面關于二叉查找樹的說法正確的是0。
A、二叉查找樹,也稱有序二叉樹(orderedbinarytree),或已排序二叉樹(sorted
binarytree)
B、若任意節點的左子樹不空,則左子樹上所有結點的值均大于它的根結點的值。
C、若任意節點的右子樹不空,則右子樹上所有結點的值均小于它的根結點的值。
D、任意節點的左、右子樹不是二叉查找樹。
答案:A
120.查詢名字第二個字母為a的人()。
A、SELECT*FROMPersonsWHEREFirstName='%a%'
B、SELECT*FROMPersonsWHEREFirstNameLIKE'%_a%'
C、SELECT*FROMPersonsWHEREFirstNameLIKE'_a%'
D、SELECT*FROMPersonsWHEREFirstNameLIKE'_a_'
答案:C
解析:答案解析:在SQL查詢中,'LIKE'關鍵字用于在'WHERE'子句中搜索列中
的指定模式。表示任意數量的字符表示一個單一的字符。題目要求查詢
名字第二個字母為a的人,所以正確的模式應該是即第一個字符可以是
任意字符,第二個字符必須是a,后面可以跟任意數量的字符。因此,選項C是
正確的答案。
121.預測分析方法分為兩大類,分別是定性分析法和()。
A、回歸分析法
B、指數平滑法
C、定量分析法
D、平均法
答案:C
122.人工智能的概念最早是由哪一位科學家提出來的()?
A、麥卡錫
B、圖林
C、馮?諾依曼
D、明斯基
答案:A
123.對于投影數據為((J2),(0),(J2))。現在如果在二維空間中重建,并將它們
視為原始數據點的重建,那么重建誤差是多少?()
A、0%
B、10%
C、30%
D、40%
答案:A
124.人工智能研究的一項基本內容是機器感知。以下列()不屬于機器感知的領域。
A、使機器具有視覺、聽覺、觸覺、味覺、嗅覺等感知能力。
B、讓機器具有理解文字的能力。
C、使機器具有能夠獲取新知識、學習新技巧的能力。
D、使機器具有聽懂人類語言的能力
答案:C
125.在計算機外部設備和主存之間直接傳送而不是由CPU執行程序指令進行數
據傳送的控制方式稱為0。
A、程序查詢方式
B、中斷方式
C、并行控制方式
D、MA方式
答案:D
126.在數據庫設計的需求分析階段應完成包括()在內的文檔。
A、E-R圖
B、關系模式
C、數據字典和數據流圖
D、任務書和設計方案
答案:B
127.()是“一種規模大到在獲取、存儲、管理、分析方面大大超出了傳統數據庫
軟件工具能力范圍的數據集合”。
A、數值
B、數字
C、數據
D、大數據
答案:D
128.假設你在卷積神經網絡的第一層中有5個卷積核,每個卷積核尺寸為7X7,
具有零填充且步幅為1。該層的輸入圖片的維度是224X224X3。那么該層輸出
的維度是多少?()
A、217x217x3
B、217x217x8
G218x218x5
D、220x220x7
答案:C
129.當在卷積神經網絡中加入池化層(poolinglayer)時,變換的不變性會被保留,
是嗎?()
A、不知道
B、看情況
C、是
D、否
答案:C
130.某超市研究銷售記錄數據后發現,買啤酒的人很大概率也會購買尿布,這種
屬于數據挖掘的哪類問題?()。
A、關聯規則發現
B、聚類
C、分類
D、自然語言處理
答案:A
131.下列哪個不屬于CRF模型對于HMM和MEMM模型的優勢()。
A、特征靈活
B、速度快
C、可容納較多上下文信息
D、全局最優
答案:B
132.大數據的0與分布式計算能力也為人工智能提供了強大的儲存、計算支持,
大大推動了人工智能和發展。
A、分布式儲存
B、大量收集
C、智能傳輸
D、自動分析
答案:A
133.如果對相同的數據進行邏輯回歸,將花費更少的時間,并給出比較相似的精
度(也可能不一樣),怎么辦?假設在龐大的數據集上使用Logistic回歸模型。可
能遇到一個問題,Logistic回歸需要很長時間才能訓練。()
A、降低學習率,減少迭代次數
B、降低學習率,增加迭代次數
C、提高學習率,增加迭代次數
D、增加學習率,減少迭代次數
答案:D
134.Python內存池機制,下面的說法正確的是0。(1)Python提供了對內存的垃
圾收集機制,但是它將不用的內存放到內存池而不是返回給操作系統。(2)ymall
oc機制。為了加速Python的執行效率,Python引入了一個內存池機制,用于管理
對小塊內存的申請和釋放。⑶Python中所有大于256個字節的對象都使用pym
alloc實現的分配器,而小的對象則使用系統的malloco(4)對于Python對象
如整數,浮點數和List,都有其獨立的私有內存池,對象間不共享他們的內存池。
也就是說如果你分配又釋放了大量的整數,用于緩存這些整數的內存就不能再分
配給浮點數。
A、1,2和4
B、3和4
C、1,2和3
D、全部正確
答案:A
135.已知一組數據的協方差矩陣P,下面關于主分量說法錯誤的是0。
A、主分量分析的最佳準則是對一組數據進行按一組正交基分解,在只取相同數量
分量的條件下,以均方誤差計算截尾誤差最小
B、在經主分量分解后,協方差矩陣成為對角矩陣
C、主分量分析就是K-L變換
D、主分量是通過求協方差矩陣的特征值得到
答案:C
136.下列int()函數使用,不正確的是:()。
A、int('12',16)的值為16
B、int(12,,8)的值為10。
Gint('12')的值為12
D、int('101',2)的值為5。
答案:A
137.與傳統數據庫中的數據相比,文本數據具有其獨特性,其包括四個方面。半結
構化、高維、高數據量、()。
A、語言性
B、語義性
G語音性
D、結構化
答案:B
138.以下哪種方法能最佳地適應邏輯回歸中的數據?0
A、LeastSquareError
B、MaximumLikeIihood
C、Jaccarddistance
D、A和B
答案:B
139.作為行為規范,道德和法律的區別表現在()。
A、道德的作用沒有法律大
B、道德規范比法律規范含糊
C、道德和法律作用的范圍不同
D、道德和法律不能共同起作用
答案:C
140.智能搜題和智能批改都是OCR的文字識別和()的應用。
A、書寫識別
B、手寫識別
C、字體識別
D、文字感知
答案:B
141.什么是KDD?()
A、數據挖掘與知識發現
B、領域知識發現
C、文檔知識發現
D、動態知識發現
答案:A
142.下列關于python中的迭代器說法不正確的是:()。
A、迭代器是一個可以記住遍歷的位置的對象。
B、迭代器對象從集合的第一個元素開始訪問,直到所有的元素被訪問完結束。迭
代器既能往前,也能后退。
G迭代器有兩個基本的方法:iter()和next00
D、列表ls=[1,2,3,4],iter(ls)方法是創建迭代器對象。
答案:B
143.關于特征選擇,下列對Ridge回歸和Lasso回歸說法正確的是?0
A、Ridge回歸適用于特征選擇
BvLasso回歸適用于特征選擇
C、兩個都適用于特征選擇
D、以上說法都不對
答案:B
144.構建一個神經網絡,將前一層的輸出和它自身作為輸入。下列哪一種架構有
A、循環神經網絡
B、卷積神經網絡
C、限制玻爾茲曼機
D、都不是
答案:A
145.給定以下三個圖表(從左往右依次為1,2,3)、哪一個選項對以這三個圖表的
描述是正確的?()
A、1是tanh,2是ReLU,3是SIGMOID激活函數
B、1是SIGMOID,2是ReLU,3是tanh激活函數
C、1是ReLU,2是tanh,3是SIGMOID激活函數
D、1是tanh,2是SIGMOID,3是ReLU激活函數
答案:D
146.為了檢驗連續變量x.y之間的線性關系,下列哪種圖最合適?()
A、散點圖
B、條形圖
C、直方圖
D、都不對
答案:A
147.為了解決如何模擬人類的感性思維,例如視覺理解、直覺思維、悟性等,研究
者找到一個重要的信息處理的機制是()。
A、專家系統
B、人工神經網絡
C、模式識別
D、智能代理
答案:B
148.下圖顯示了訓練過的3層卷積神經網絡準確度,與參數數量(特征核的數量)
的關系。從圖中趨勢可見,如果增加神經網絡的寬度,精確度會增加到一個特定閾
值后,便開始降低。造成這一現象的可能原因是什么?()
(
U
E
)
mX
hm
wx
E
J
A、即使增加卷積核的數量,只有少部分的核會被用作預測
B、當卷積核數量增加時,神經網絡的預測能力(Power)會降低
C、當卷積核數量增加時,它們之間的相關性增加(correlate),導致過擬合
D、以上都不正確
答案:C
149.下面是三個散點圖(A,B,C,從左到右)和手繪的邏輯回歸決策邊界。上圖中哪
一個顯示了決策邊界過度擬合訓練數據()?
A
A、
B、
C\
D、這些都沒有
答案:C
150.在計算機中,某個圖片文件的大小1MB,指的是0。
A、1024*1024個比特(Bit)
B、1024*1024個字節(Byte)
G1000*1000個比特(Bit)
D、1000*1000個字節(Byte)
答案:B
151.建立一個模型,通過這個模型根據已知的變量值來預測其他某個變量值屬于
數據挖掘的哪一類任務?()
A、根據內容檢索
B、建模描述
C、預測建模
D、尋找模式和規則
答案:C
152.假定你正在處理類屬特征,并且沒有查看分類變量在測試集中的分布。現在
你想將onehotencoding(OHE)應用到類屬特征中。那么在訓練集中將OHE應用到
分類變量可能要面臨的困難是什么?0
A、分類變量所有的類別沒有全部出現在測試集中
B、類別的頻率分布在訓練集和測試集是不同的
C、訓練集和測試集通常會有一樣的分布
D、A和B都正確
答案:D
153.在訓練神經網絡時,損失函數(loss)在最初的幾個epochs時沒有下降,可能
的原因是?()
A、學習率(learningrate)太低
B、正則參數太高
C、陷入局部最小值
D、以上都有可能
答案:A
154.()是公民道德建設的核心。
A、集體主義
B、愛國主義
C、為人民服務
D、誠實守信
答案:C
155.對于神經網絡的說法,下面正確的是:(D)1增加神經網絡層數,可能會增加
測試數據集的分類錯誤率2減少神經網絡層數,總是能減小測試數據集的分類錯
誤率3增加神經網絡層數,總是能減小訓練數據集的分類錯誤率
A、2
B、1和3
C、1和2
D、1
答案:D
156.下列不是SVM核函數的是:()。
A、多項式核函數
B、logistic核函數
C、徑向基核函數
D、Sigmoid核函數
答案:B
157.下面關于推薦系統的說法正確的是()。
A、個性化推薦:常以“推薦”、“猜你喜歡”、“發現”等形式出現,一般放在
首頁位置
B、相關推薦:常以“相關推薦”、“看了還看”等形式出現,一般放在內容詳情
頁
C、熱門推薦:基于各種數據進行計算,得到的排行榜,支持全局排行以及分類排行
等,位置不限
D、以上都是正確的
答案:D
158.中文同義詞替換時,常用到Word2Vec,以下說法錯誤的是0。
A、Word2Vec基于概率統計
B、Word2Vec結果符合當前預料環境
C、Word2Vec得到的都是語義上的同義詞
D\Word2Vec受限于訓練語料的數量和質量
答案:C
159.下列哪個不是人工智能的研究領域()。
A、機器證明
B、模式識別
C、人工生命
D、編譯原理
答案:D
160.下列哪一項沒有違反誠實守信的要求()。
A、保守企業秘密
B、為了牟取暴利,制造偽劣商品
C、根據服務對象來決定是否遵守承諾
D、派人打進競爭對手內部,增強競爭優勢
答案:A
161.批規范化(BatchNormaIization)的好處都有啥?()
A、在將所有的輸入傳遞到下一層之前對其進行歸一化(更改)
B、它將權重的歸一化平均值和標準差
C、它是一種非常有效的反向傳播(BP)方法
D、這些均不是
答案:A
162.以下幾種模型方法屬于判別式模型(口15匚M1皿1:26初℃^1)的有0。(1)混合
高斯模型⑵條件隨機場模型⑶區分度訓練⑷隱馬爾科夫模型
A、2,3
B、3,4
C\1,4
D、1,2
答案:A
163.采用面向對象開發方法時,對象是系統運行時基本實體。以下關于對象的敘
述中,正確的是0。
A、對象只能包括數據(屬性)
B、對象只能包括操作(行為)
C、對象一定有相同的屬性和行為
D、對象通常由對象名、屬性和操作三個部分組成
答案:D
164.以下描述正確的是()。
A、SVM是這樣一個分類器,它尋找具有最小邊緣的超平面,因此它也經常被稱為
最小邊緣分類器
B、在聚類分析當中,簇內的相似性越大,簇間的差別越大,聚類的效果就越差
C、在決策樹中,隨著樹中結點樹變得太大,即使模型的訓練誤差還在繼續降低,
但是檢驗誤差開始增大,這是出現了模型擬合不足的原因
D、聚類分析可以看作是一種非監督的分類
答案:D
165.在一個神經網絡中,知道每一個神經元的權重和偏差是最重要的一步。如果
知道了神經元準確的權重和偏差,便可以近似任何函數,但怎么獲知每個神經的
權重和偏移呢?0
A、搜索每個可能的權重和偏差組合,直到得到最佳值
B、賦予一個初始值,然后檢查跟最佳值的差值,不斷迭代調整權重
C、隨機賦值,聽天由命
D、以上都不正確的
答案:B
166.如果線性回歸模型中的隨機誤差存在異方差性,那么參數的OLS估計量是0。
A、無偏的,有效的
B、無偏的,非有效的
G有偏的,有效的
D、有偏的,非有效的
答案:B
167.下面哪項操作能實現跟神經網絡中Dropout的類似效果?()
AvBoosting
B、agging
C、Stacking
D、Mapping
答案:B
168.假設我們有一個數據集,在一個深度為6的決策樹的幫助下,它可以使用100%
的精確度被訓練。現在考慮以下兩點,并基于這兩點選擇正確的選項0。1深度
為4時將有高偏差和低方差2深度為4時將有低偏差和低方差
A、只有1
B、只有2
C、1和2
D、沒有一個
答案:A
169.下面關于炳的說法正確的是()。⑴烯的概念最早起源于物理學,用于度量一
個熱力學系統的無序程度。在信息論里面,峭是對確定性的測量。(2)婚的英文原
文為entropy,最初由德國物理學家魯道夫?克勞修斯提出,表示一個系統在不受
外部干擾時,其內部最不穩定的狀態。⑶任何粒子的常態都是隨機運動,也就是"
無序運動",如果讓粒子呈現“有序化",必須耗費能量。所以,溫度(熱能)可以被看
作"有序化”的一種度量,而"端"可以看作是“無序化”的度量。⑷如果沒有外部能
量輸入,封閉系統趨向越來越混亂(炳越來越大)o比如,如果房間無人打掃,不可
能越來越干凈(有序化),只可能越來越亂(無序化)。
A、1和2
B、3和4
C、1,2和3
D、全部正確
答案:B
170.對于一個圖像識別問題(在一張照片里找出一只貓),下面哪種神經網絡可以
更好地解決這個問題?()
A、循環神經網絡
B、感知機
C、多層感知機
D、卷積神經網絡
答案:D
171.有兩個樣本點,第一個點為正樣本,它的特征向量是(0,7);第二個點為負樣
本,它的特征向量是(2,3),從這兩個樣本點組成的訓練集構建一個線性SVM分類
器的分類面方程是0。
A、2x+y=4
B、x+2y=5
C\x+2y=3
D\2x-y=0
答案:C
172.《公民道德建設實施綱要》指出我國職業道德建設規范是()。
A、求真務實、開拓創新、艱苦奮斗、服務人民、促進發展
B、愛崗敬業、誠實守信、辦事公道、服務群眾、奉獻社會
C、以人為本、解放思想、實事求是、與時俱進、促進和諧
D、文明禮貌、勤儉節約、團結互助、遵紀守法、開拓創新
答案:B
173.在k-均值算法中,以下哪個選項可用于獲得全局最小?()
A、嘗試為不同的質心(centr。id)初始化運行算法
B、調整迭代的次數
C、找到集群的最佳數量
D、以上所有
答案:D
174.假設我們使用原始的非線性可分版本的Soft-SVM優化目標函數。我們需要
做什么來保證得到的模型是線性可分離的?()
A、C=0
B、C=1
C\正無窮大
D、C負無窮大
答案:C
175.K-Means算法無法聚以下哪種形狀的樣本?()
A、圓形分布
B、螺旋分布
C、帶狀分布
D、凸多邊形分布
答案:B
176.將原始數據進行集成、變換、維度規約、數值規約是在以下哪個步驟的任務?
0
A、頻繁模式挖掘
B、分類和預測
C、數據預處理
D、數據流挖掘
答案:C
177.當數據過大以至于無法在RAM中同時處理時,哪種梯度下降方法更加有效?
0
A、隨機梯度下降法(StochasticGradientDescent)
B、不知道
G整批梯度下降法(FuIIBatchGradientDescent)
D、都不是
答案:A
178.下列關于表達式的值的說法,正確的是:()
A、表達式1<2<3的值為True
B\表達式30r5的值為5
C、表達式0or5的值為0
D、表達式3and5的值為3
答案:A
179.下面有關分類算法的準確率,召回率,F1值的描述,錯誤的是?()
A、準確率是檢索出相關文檔數與檢索出的文檔總數的比率,衡量的是檢索系統的
查準率
B、召回率是指檢索出的相關文檔數和文檔庫中所有的相關文檔數的比率,衡量的
是檢索系統查全率
C、正確率、召回率和F值取值都在0和1之間,數值越接近0,查準率或查全率
就越高
D、為了解決準確率和召回率沖突問題,引入了F1分數
答案:C
180.下面有關序列模式挖掘算法的描述,錯誤的是?()
AxprioriAII算法和GSP算法都屬于Apriori類算法,都要產生大量的候選序列
B、FreeSpan算法和PrefixSpan算法不生成大量的候選序列以及不需要反復掃
描原數據庫
C\在時空的執行效率上,FreeSpan比PrefixSpan更優
D、和AprioriAII相比,GSP的執行效率比較高
答案:C
181.考慮某個具體問題時,你可能只有少量數據來解決這個問題。不過幸運的是
你有一個類似問題已經預先訓練好的神經網絡。可以用下面哪種方法來利用這個
預先訓練好的網絡?0
A、把除了最后一層外所有的層都凍住,重新訓練最后一層
B、對新數據重新訓練整個模型
C、只對最后幾層進行調參(finetune)
D、對每一層模型進行評估,選擇其中的少數來用
答案:C
182.模型庫功能要求為:模型管理包括模型()、模型刪除、版本管理、模型標簽、
模型收藏和模型共享。
A、評估
B、導出
C、輸出
D、導入
答案:D
183.常見的生成式模型是0。
A、K近鄰、SVM、決策樹
B、感知機、線性判別分析(LDA)
C、線性回歸、傳統的神經網絡、邏輯回歸
D、樸素貝葉斯、隱馬爾可夫模型、高斯混合模型
答案:D
184.下列哪個函數不可以做激活函數?()
A、y=tanh(x)
B\y=sin(x)
Gy=max(x,0)
D、y=2x
答案:D
185.在t-SNE算法中,可以調整以下哪些超參數?0
A、維度數量
B、平穩測量有效數量的鄰居
C、最大迭代次數
D、以上所有
答案:D
186.智能語音技術具體可以分為自動語音識別、()、聲紋識別、語音分類等。
A、語音學習
B、語音分析
C、語音合成
D、語音轉寫
答案:C
187.閱讀下面的代碼,下面的選項中,不正確的是:()。Ideffun():2yieId13yieI
d24yieId356x=fun()7print(next(x))
A、生成器(generator)的定義與普通函數類似,生成器使用yield關鍵字生成值。
B、如果一個函數包含yield關鍵字,那么該函數將自動成為一個生成器。
C、第6行代碼,x是一個生成器對象。
D、第7行代碼,輸出是3。
答案:D
解析:答案解析:在Python中,生成器是一種使用簡單的語法做惰性求值的迭
代器。從給出的代碼來看:A選項正確,生成器的定義確實與普通函數類似,只
是使用yield關鍵字來生成值。B選項正確,如果一個函數包含yield關鍵字,
該函數就是一個生成器。C選項正確,第6行代碼調用函數fun(),返回一個生
成器對象賦值給x。D選項不正確,第7行代碼'print(next(X))'將會輸出生成
器產生的第一個值,即1,而不是3。因此,選項D是不正確的。
188.后綴表達式“ab+cd-*"與表達式()對應。
A、(a+b)*(c-d)
B\a+b*c-d
C\a+b*(c-d)
D、(a+b)*c-d
答案:A
189.以下哪個是判別式的模型0。
A、樸素貝葉斯
B、決策樹
C、高斯混合模型
D、文檔主題生成模型(LDA)
答案:B
190.下面選項中,正確的是:()。
A、語句x=(3,)執行后x的值為3O
B、語句x=⑶執行后x的值為(3,)。
G已知x=3和y=5,執行語句X,y=y,x后x的值是5,y的值是3。
D、假設n為整數,那么表達式n&1==n%2的值為false。
答案:C
191.在二分類問題中,當測試集的正例和負例數量不均衡時,以下評價方案哪個
是相對不合理的()(假設precision=TP/(TP+FP),recaIl=TP/(TP+FN)□)
A、ccuracy:(TP+TN)/alI
B\F-vaIue:2*recall*precision/(recaII+precision)
C、G-mean:sqrt(precision*recaII)
D、AUC:R0C曲線下面積
答案:A
192.影響基本K-均值算法的主要因素有()。1樣本輸入順序2模式相似性測度3
聚類準則4初始類中心的選取
A、1,2和4
B、3和4
C、2和4
D、全部正確
答案:A
193.Python中zip函數稱為拉鏈函數,入參是可迭代對象,語法是zip(*iterab
les),閱讀下面的代碼,輸出結果是:()°Numbers=[1,2,3]String=['one','two1,
'three']ResuIt=zip(numbers,string)Print(set(resu11))Print(Iist(resuI
t))
A、第4行代碼輸出是:{(3,1three'),(2,'two'),(1,'one'))
B、第5行代碼輸出是:[(3,'three'),(2,'two'),(1,'one')]
G第4行代碼輸出是:(3,'three'),(2,'two1),(1,'one')
D、第5行代碼輸出是:[⑶'three',2,'two1,1,'one']
答案:A
解析:'zip'函數在Python中用于將多個可迭代對象打包成一個元組的迭代器,
每個元組包含所有可迭代對象在相同位置的元素。給定的代碼中,'Numbers'和'
String'是兩
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
評論
0/150
提交評論