人工智能核心算法模擬練習題含答案_第1頁
人工智能核心算法模擬練習題含答案_第2頁
人工智能核心算法模擬練習題含答案_第3頁
人工智能核心算法模擬練習題含答案_第4頁
人工智能核心算法模擬練習題含答案_第5頁
已閱讀5頁,還剩12頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

人工智能核心算法模擬練習題含答案1、留出法直接將數據集劃分為(___)個互斥的集合。A、一B、二C、三D、四答案:B2、對于圖像分類問題,以下哪個神經網絡更適合解決這個問題?A、感知器B、循環神經網絡C、卷積神經網絡D、全連接神經網絡答案:C3、當采用K-距離的方法選擇DBSCAN的Eps和MinPts參數時,如果設置的K的值太大,則小簇(尺寸小于K的簇)可能會被標記為A、噪聲B、核心簇C、邊界簇D、以上都不對答案:A4、神經元之間的每個連接都有()權重。A、一個B、兩個C、多個D、無答案:A5、代碼arr1=np.array([[1,2,3],[4,5,6]]);arr2=2*np.ones([2,3],dtype=64);print((arr1*arr2)[1][2])的輸出結果是()?注:(已導入numpy庫)importnumpyasnpA、6B、8C、10D、12答案:D6、下屬模型是一階段網絡的是()A、YOLOv2B、rcnnC、fast-rcnnD、faster-rcnn答案:A7、下列哪些不是“子集搜索”中的搜索方式(___)A、單向搜索B、雙向搜索C、前向搜索D、后向搜索答案:A8、規則生成本質上是一個貪心搜索的過程,須有一定的機制來緩解過擬合的風險,最常見的做法是(___)A、序列化B、剪枝C、去重D、重組答案:B9、如果一個模型在測試集上偏差很大,方差很小,則說明該模型?A、過擬合B、可能過擬合可能欠擬合C、剛好擬合D、欠擬合答案:B10、關于級聯相關網絡描述錯誤的是(___)A、屬于結構自適應網絡,網絡結構也是其優化目標;B、主要成分為級聯、相關、歸約;C、無需設置網絡層數、隱層神經元數目;D、訓練速度快,但數據較小時容易陷入過擬合;答案:B11、下列哪種機器學習算法不需要歸一化處理?()A、DecisionTreeB.SVMB、KmeansC、LogisticRegression答案:A12、長短期記憶LSTM具有與循環神經網絡相似的控制流,兩者的區別在于LSTM中增加了()導致單元內的處理過程不同。A、輸入門B、記憶門C、忘記門D、輸出門答案:C13、LVW屬于哪種特征選擇方法(___)A、包裹式B、啟發式C、嵌入式D、過濾式答案:A14、獨熱編碼的缺點是:①.過于稀疏②.詞與詞的相關性比較小③.易于編碼④.容易存儲A、③④B、①②C、①③D、②④答案:B15、在多通道卷積過程中,要生成n個featuremaps,需要()個卷積核立方體。A、n-2B、n^2C、n/2]注x]表示對x取整D、n答案:D16、隨著卷積層數的增加,下面描述正確的是:①.在一定層數范圍內,效果越來越好②.能夠抽取的特征更加復雜③.層數越多越容易發生梯度消失A、①③B、①②③C、②③D、①②答案:B17、為了將特征轉變成Embedding表示,所有特征均需轉變成()A、數字B、字符C、符號D、英文答案:A18、協同過濾和基于內容的模型是兩種流行的推薦引擎,在建立這樣的算法中NLP扮演什么角色?A、從文本中提取特征B、測量特征相似度C、為學習模型的向量空間編程特征D、以上都是答案:D19、下列哪些項目是在圖像識別任務中使用的數據擴增技術(dataaugmentationtechnique)?1水平翻轉(Horizontalflipping)2隨機裁剪(Randomcropping)3隨機放縮(Randomscaling)4顏色抖動(Colorjittering)5隨機平移(Randomtranslation)6隨機剪切(Randomshearing)A、1,3,5,6B、1,2,4C、2,3,4,5,6D、所有項目答案:D20、下列哪些屬于循環神經網絡()A、LeNetB、GoogleNetC、Bi-LSTMD、BERT答案:C21、一般情況下,KNN最近鄰方法在()情況下效果最好()A、樣本呈現團狀分布B、樣本呈現鏈狀分布C、樣本較多但典型性不好D、樣本較少但典型性好答案:D22、下面對誤差反向傳播(errorbackpropagation,BP)描述不正確的是A、BP算法是一種將輸出層誤差反向傳播給隱藏層進行參數更新的方法B、BP算法將誤差從后向前傳遞,獲得各層單元所產生誤差,進而依據這個誤差來讓各層單元修正各單元參數C、對前饋神經網絡而言,BP算法可調整相鄰層神經元之間的連接權重大小D、在BP算法中,每個神經元單元可包含不可偏導的映射函數答案:D23、關于K均值和DBSCAN的比較,以下說法不正確的是()。A、K均值丟棄被它識別為噪聲的對象,而DBSCAN一般聚類所有對象。B、K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念。C、K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇。D、K均值可以發現不是明顯分離的簇,即便簇有重疊也可以發現,但是DBSCAN會合并有重疊的簇。答案:A24、邏輯回歸的損失函數是下列哪一種?()A、平方損失函數B、對數損失函數C、HingeLoss0-1損失函數D、絕對值損失函數答案:B25、Relief屬于哪種特征選擇方法(___)A、包裹式B、啟發式C、嵌入式D、過濾式答案:D26、CNN不具有以下那個特性。A、局部連接B、權值共享C、空間或時間上的下采樣D、不定長輸入答案:D27、以下關于機器學習描述正確的是?A、深度學習是機器學習的一個分支B、深度學習與機器學習是互相包含的關系C、深度學習與機器學習同屬于人工智能但相互之間沒有關系D、以上都不對答案:A28、深度學習系統訓練過程通常需要輸入:A、特征值B、標簽C、特征值和標簽D、預測值答案:C29、強化學習的回報值一個重要特點是具有()。A、客觀性B、主體性C、超前性D、滯后性答案:D30、下列哪個不屬于特征的類型(___)A、關鍵特征B、冗余特征C、相關特征D、無關特征答案:A31、下列哪一項不是常見的機器學習模型正則化方法。A、數據優化B、數據增強C、模型集成D、引入參數范數懲罰項答案:A32、規則學習中ILP的全稱是(___)A、歸納邏輯程序設計B、內部邏輯程序設計C、信息泄露防護D、引入層次程序設計答案:A33、啟發式搜索是尋求問題()解的一種方法A、最優B、一般C、滿意D、最壞答案:C34、代碼arr3=np.array([[1,2,3],[4,5,6]]).transpose();print(arr3[1,1])的輸出結果是()?A、5B、4C、3D、2答案:A35、在強化學習過程中,()表示隨機地采取某個動作,以便于嘗試各種結果;()表示采取當前認為最優的動作,以便于進一步優化評估當前認為最優的動作的值。A、探索開發B、開發探索C、探索輸出D、開發輸出答案:A36、""維數災難"指的是:()"A、因在低維情形下出現的數據樣本稀疏、距離計算困難等問題,給機器學習方法造成的障礙。B、因在高維情形下出現的數據樣本稀疏、距離計算困難等問題,給機器學習方法造成的障礙。C、因在低維情形下出現的數據樣本密集、距離計算困難等問題,給機器學習方法造成的障礙。D、因在高維情形下出現的數據樣本密集、距離計算困難等問題,給機器學習方法造成的障礙。答案:B37、對于神經網絡的說法,下面正確的是:1.增加神經網絡層數,可能會增加測試數據集的分類錯誤率2.減少神經網絡層數,總是能減小測試數據集的分類錯誤率3.增加神經網絡層數,總是能減小訓練數據集的分類錯誤率A、1B、1和3C、1和2D、2答案:A38、有關機器學習分類算法的Precision和Recall,以下定義中正確的是(假定tp=truepositive,tn=truenegative,fp=falsepositive,fn=falsenegative)()A、Precision=tp/tp+fp,Recall=tp/tp+fnB、Precision=tp/tn+fp,Recall=tp/tp+fnC、Precision=tp/tn+fn,Recall=tp/tp+fpD、Precision=tp/tp+fp,Recall=tp/tn+fn答案:A39、ResNet-50:depth=[3,4,6,3]代表()A、C3有3個殘差塊B、C4有4個殘差塊C、C5有4個殘差塊D、C2有3個殘差塊答案:D40、根據邊的性質不同,概率圖模型可大致分為兩類:第一類是使用有向無環圖表示變量間的依賴關系,稱為有向圖模型或貝葉斯網(Bayesiannetwork);第二類是使用無向圖表示變量間的相關關系,稱為(___)。A、赫布網B、拉普拉斯網C、馬爾科夫網D、塞繆爾網答案:C41、無監督學習常常被用于(),用于在大量無標簽數據中發現些什么。A、數據挖掘B、數據分析C、數據讀取D、數據整理答案:A42、Inception模塊可以并行執行多個具有不同尺度的卷積運算或池化操作,下列網絡運用Inception的是()A、VGGB、GoogLeNetC、fast-RCNND、faster-RCNN答案:B43、numpy數組的ndim屬性是()?A、數組的維度B、各維度大小的元組C、行數D、列數答案:A44、下面哪句話正確描述了馬爾科夫鏈中定義的馬爾可夫性A、t+1時刻狀態取決于t時刻狀態B、t-1時刻狀態取決于t+1時刻狀態C、t+2時刻狀態取決于t時刻狀態D、t+1時刻狀態和t時刻狀態相互獨立答案:A45、深度學習中的不同最優化方式,如SGD,ADAM下列說法中正確的是A、在實際場景下,應盡量使用ADAM,避免使用SGDB、同樣的初始學習率情況下,ADAM的收斂速度總是快于SGD方法C、相同超參數數量情況下,比起自適應的學習率調整方式,SGD加手動調節通常會取得更好效果D、同樣的初始學習率情況下,ADAM比SGD容易過擬合答案:C46、關于SMO神經網絡描述錯誤的是(___)A、一種競爭學習型的無監督神經網絡;B、將高維輸入數據映射到低維空間,保持輸入數據在高維空間的拓撲結構;C、SMO尋優目標為每個輸出神經元找到合適的權重;D、輸出層神經元以矩陣方式排列在二維空間;答案:C47、Bagging集成學習中,每個基學習器之間的關系是A、相加關系B、相關關系C、后面的模型必須建立在前面的模型之上D、相互獨立答案:B48、強化學習的基礎模型是()模型A、馬可夫決策B、貝葉斯C、HMMD、最大后驗概率答案:A49、以下算法中可以用于圖像平滑的是()。A、均值濾波;B、對比度增強C、二值化D、動態范圍壓縮答案:A50、下列哪個神經網絡結構會發生權重共享A、卷積神經網絡B、循環神經網絡C、全連接神經網絡D、卷積和循環神經網絡答案:D51、下列算法,哪項能處理非線性問題()A、標準SVMB、多項式回歸C、線性回歸D、神經元模型答案:B52、我們在訓練神經網絡過程中,使用梯度下降法不斷更新哪種數值,進而使得損失函數最小化?A、樣本數目B、特征值C、超參數D、參數答案:D53、模型出現過擬合,以下何種措施無法降低過擬合現象A、添加正則化項B、降低模型復雜度C、減少訓練數據量D、使用Dropout答案:C54、機器學習中,模型需要輸入什么來訓練自身,預測未知?A、人工程序B、神經網絡C、訓練算法D、歷史數據答案:D55、深度學習是當前很熱門的機器學習算法,在深度學習中,涉及到大量的矩陣相乘,現在需要計算三個稠密矩陣A,B,C的乘積ABC,假設三個矩陣的尺寸分別為m?n,n?p,p?q,且mA、ABCB、ACBC、ABCD、所有效率都相同答案:A56、監督學習的學習數據既有特征(feature),也有標簽(label)A、正確B、錯誤答案:A57、知識發現方法中沒有機器學習方法。()A、正確B、錯誤答案:B58、混合高斯分布通過使用多個高斯分布的線性組合來實現聚類A、正確B、錯誤答案:A59、神經網絡中,前向計算是指從輸入計算輸出的過程,順序從網絡后至前A、正確B、錯誤答案:B60、Boosting和Bagging都是組合多個分類器投票的方法,二者都是根據單個分類器的正確率決定其權重A、正確B、錯誤答案:B61、梯度下降算法的收斂點取決于代價函數。A、正確B、錯誤答案:B62、蟻群優化算法中,每個人工螞蟻都需要構建自己的解。()A、正確B、錯誤答案:A63、強化學習在某種意義上可看作具有“延遲標記信息”的監督學習問題。A、正確B、錯誤答案:A64、語義網絡、框架和劇本等知識表示方法,均是對知識和事實的一種靜止的表示方法。()A、正確B、錯誤答案:A65、1986年,Hinton等人提出了長短期記憶模型(LSTM)。A、正確B、錯誤答案:B66、VGG的主要思想是通過重復使用簡單的基礎塊來構建深度模型為深度神經網絡的構建提供了方向A、正確B、錯誤答案:A67、DSSM模型總的來說可以分成三層結構,分別是輸入層、表示層和匹配層A、正確B、錯誤答案:A68、PCA(PrincipalComponentAnalysis)算法通過計算特征之間的相關性,以少量的特征表示具有較多特征的數據,降低多特征數據分析的復雜度A、正確B、錯誤答案:A69、對于神經網絡,減少神經網絡層數,總是能減小測試數據集的分類錯誤率A、正確B、錯誤答案:B70、邏輯回歸是一種用于有監督學習的回歸任務的簡單算法A、正確B、錯誤答案:B71、"若網絡結構已知,即屬性間的依賴關系已知,則貝葉斯網的學習過程相對簡單,只需通過對訓練樣本"計數"。"A、正確B、錯誤答案:A72、不確定性知識的事實與結論的關系不是簡單的“是”或“不是”A、正確B、錯誤答案:A73、LSTM用加和的方式取代了乘積,使得很難出現梯度彌散。A、正確B、錯誤答案:A74、fasttext利用了全局范圍的詞相關性。A、正確B、錯誤答案:B75、采用one-hot編碼對離散特征進行轉換,會增加特征維度A、正確B、錯誤答案:A76、樹構造階段決策樹采用自項向下的遞歸方式從根節點開始在每個節點上按照給定標準選擇測試屬性,然后按照相應屬性的所有可能取值向下建立分枝、劃分訓練樣本,直到一個節點上的所有樣本都被劃分到同一個類,或者某一節點中的樣本數量低于給定值時為止。A、正確B、錯誤答案:A77、在卷積神經網絡訓練時,可以對輸入進行旋轉、平移、縮放等操作,從而提高模型泛化能力。A、正確B、錯誤答案:A78、卷積神經網絡(ConvolutionalNeuralNetwork,CNN)是一種前饋神經網絡A、正確B、錯誤答案:A79、給定三個點(1,4)、(2,3)、(2,4),它們的歐氏距離最小值是1A、正確B、錯誤答案:A80、Bayes法是一種在已知后驗概率與類條件概率的情況下的模式分類方法,待分樣本的分類結果取決于各類域中樣本的全體A、正確B、錯誤答案:B81、降維是通過獲得一組基本上是重要特征的主變量來減少所考慮的特征變量的過程。A、正確B、錯誤答案:A82、線性支持向量機可以處理復雜的決策邊界A、正確B、錯誤答案:B83、自然語言處理是計算機科學領域與人工智能領域中的一個重要方向,它研究能實現人與計算機之間用自然語言進行有效通信的各種理論和方法A、正確B、錯誤答案:A84、AlphaBeta剪枝的效率一定比單純的minimax算法效率高。()A、正確B、錯誤答案:B85、HSV顏色空間中H的取值范圍為(0,1)A、正確B、錯誤答案:B86、決策樹是一種采用測量不同特征值之間的距離方法進行分類的算法。A、正

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論