人工智能核心算法模擬題+答案_第1頁
人工智能核心算法模擬題+答案_第2頁
人工智能核心算法模擬題+答案_第3頁
人工智能核心算法模擬題+答案_第4頁
人工智能核心算法模擬題+答案_第5頁
已閱讀5頁,還剩22頁未讀, 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

人工智能核心算法模擬題+答案一、單選題(共44題,每題1分,共44分)1.根據操作的反饋總結更好的策略,這個過程抽象出來,就是(___)A、強化學習B、強化訓練C、加強訓練D、加強學習正確答案:A2.下面關于隨機森林和集成學習的說法,正確的是()A、隨機森林只能用于解決分類問題B、集成學習通過構建多個模型,并將各個模型的結果使用求平均數的方法集成起來,作為最終的預測結果,提高分類問題的準確率C、隨機森林由隨機數量的決策樹組成D、隨機森林的弱分類器(基分類器)的特征選擇不是隨機的正確答案:B3.以下不是貝葉斯回歸的優點的是哪一項A、貝葉斯回歸的推斷速度快B、它能根據已有的數據進行改變C、它能在估計過程中引入正則項正確答案:A4.某超市研究銷售紀錄數據后發現,買啤酒的人很大概率也會購買尿布,這種屬于數據挖掘的哪類問題()A、聚類B、分類C、自然語言處理D、關聯規則發現正確答案:D5.假設我們有一個使用ReLU激活函數(ReLUactivationfunction)的神經網絡,假如我們把ReLU激活替換為線性激活,那么這個神經網絡能夠模擬出同或函數(XNORfunction)嗎A、可以B、不好說C、不一定D、不能正確答案:D6.假設我們已經在ImageNet數據集(物體識別)上訓練好了一個卷積神經網絡。然后給這張卷積神經網絡輸入一張全白的圖片。對于這個輸入的輸出結果為任何種類的物體的可能性都是一樣的,對嗎?A、不對B、對的C、不知道D、看情況正確答案:A7.在一個神經網絡中,下面哪種方法可以用來處理過擬合?A、DropoutB、分批歸一化(BatchNormalization)C、正則化(regularization)D、都可以正確答案:D8.下列哪一個不是無約束算法。A、啟發式優化方法B、擬牛頓法C、梯度下降法D、EM算法正確答案:D9.在pytorch中,如果主機有1塊TitanX顯卡,以下哪個選項中的代碼都可以將變量名為var的tensor放在GPU上運行A、var=var.to("cuda:1")B、var=var.to("cuda:0")、var=var.to("cuda:1")C、var=var.cuda()、var=var.to("cuda:1")D、var=var.cuda()、var=var.to("cuda:0")正確答案:D10.DilatedConvolution意思是?A、空洞卷積B、黑洞卷積C、細節卷積D、返向卷積正確答案:A11.Relu在零點不可導,那么在反向傳播中怎么處理()A、設為0B、設為任意值C、不定義D、設為無窮大正確答案:A12.強化學習是()領域的一類學習問題A、機器學習B、自然語言處理C、nlpD、cv正確答案:A13.語句np.sum(arr3,axis=1)的作用是()?注:(已導入numpy庫)importnumpyasnpA、對每一行求和B、對第1列求和C、對整個數組求和D、對每一列求和正確答案:A14.ResNet-50有多少個卷積層?()A、51B、49C、48D、50正確答案:B15.支持向量機(SVM)中的代價參數C表示什么?()A、交叉驗證的次數B、用到的核函數C、在分類準確性和模型復雜度之間的權衡D、以上都不對正確答案:C16.與生成方法、半監督SVM、圖半監督學習等基于單學習機器利用未標記數據不同,基于分歧的方法(disagreement-basedmethods)使用多學習器,而學習器之間的“分歧”(disagreement)對未標記數據的利用至關重要。(___)是此類方法的重要代表A、陪同訓練B、協同訓練C、組合訓練D、配合訓練正確答案:B17.獨熱編碼的缺點是:①.過于稀疏②.詞與詞的相關性比較?、?易于編碼④.容易存儲A、②④B、①③C、①②D、③④正確答案:C18.GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一個,使用GAP的優點是()A、提供更好的分類B、減少參數量,實現任意大小的輸入C、加速模型收斂D、增加網絡深度正確答案:B19.考慮某個具體問題時,你可能只有少量數據來解決這個問題。不過幸運的是你有一個類似問題已經預先訓練好的神經網絡??梢杂孟旅婺姆N方法來利用這個預先訓練好的網絡?A、把除了最后一層外所有的層都凍結,重新訓練最后一層B、對新數據重新訓練整個模型C、只對最后幾層進行調參(finetune)D、對每一層模型進行評估,選擇其中的少數來用正確答案:C20.神經網絡訓練過程中,一般會遇到停滯期,即神經網絡在進入全局最小值之前陷入局部最小值。以下哪個策略可以避免上述情況?A、減少參數數量B、改變幾個時期的學習率C、在開始時將學習率降低10倍D、增加參數數量正確答案:B21.以下哪一個不屬于分類算法A、XGBoostB、RandomForestC、SVMD、Fp-Growth正確答案:D22.用Tensorflow處理圖像識別任務時,若輸入數據的形狀為[64,224,224,3],下面說法正確的是A、每一張圖片都是二值圖片B、每一張圖片都是三通道圖片C、模型一次處理224張圖片(batchsize為224)D、以上選項均不正確正確答案:B23.每一棵決策樹擬合的是之前迭代得到的模型的()A、標準差B、均方差C、殘差D、方差正確答案:C24.人工神經元內部運算包含哪兩個部分:A、非線性變換和激活變換B、向量變換和標量變換C、線性變換和非線性變換D、化學變換和電變換正確答案:C25.DNN不是適合處理圖像問題是因為“維數災難”,那么“維數災難”會帶來什么問題呢:A、網絡結構過于復雜B、DNN根本不能處理圖像問題C、內存、計算量巨大、訓練困難D、神經元數量下降,所以精度下降正確答案:C26.在K-mean或Knn中,是采用哪種距離計算方法?A、曼哈頓距離B、切比雪夫距離C、歐式距離D、閔氏距離正確答案:C27.下列哪項屬于集成學習()A、決策樹模型B、kNN分類C、AdaboostD、k-means正確答案:C28.下面對梯度下降方法描述不正確的是A、梯度方向是函數值下降最快方向B、梯度下降算法是一種使得損失函數最小化的方法C、梯度反方向是函數值下降最快方向D、梯度下降算法用來優化深度學習模型的參數正確答案:A29.搜索可以分為盲從搜索與A、精確搜索B、模糊搜索C、關鍵詞搜索D、啟發式搜索正確答案:D30.欠擬合通常是由于(___)而造成的。A、訓練集過多模型復雜B、權值學習迭代次數足夠多C、學習能力低下D、數據有噪聲正確答案:C31.下面對前饋神經網絡描述不正確的是A、同一層內的神經元相互不連接B、各個神經元接受前一級神經元的輸入,并輸出到下一級C、同一層內神經元之間存在全連接D、層與層之間通過“全連接”進行連接,即兩個相鄰層之間神經元完全成對連接正確答案:C32.下列不屬于樹模型的是A、GBDT梯度提升樹B、XGBoostC、RF隨機森林D、LR線性回歸正確答案:D33.當在卷積神經網絡中加入池化層(poolinglayer)時,變換的不變性會被保留,是嗎?A、否B、不知道C、看情況D、是正確答案:D34.使用一個滑動窗口對語料()掃描,在每個窗口內,中心詞需要預測它的上下文,并形成訓練數據A、從左到右B、從下到上C、從上到下D、從右到左正確答案:A35.在線性回歸算法中,我們認為誤差項是符合什么分布的()A、高斯分布B、均勻分布C、二項分布D、泊松分布正確答案:A36.半監督學習不包括A、純半監督學習B、直推學習C、圖半監督學習D、主動學習正確答案:D37.以下關于算法的說法中,不正確的是A、卷積神經網絡是重要的遷移學習算法B、機器學習算法分為有監督、半監督和無監督三種C、K-Means是屬于無監督學習算法D、決策樹算法屬于監督學習類別正確答案:A38.多義現象可以被定義為在文本對象中一個單詞或短語的多種含義共存。下列哪一種方法可能是解決此問題的最好選擇?A、隨機森林分類器B、卷積神經網絡C、梯度爆炸D、上述所有方法正確答案:B39.在下列哪些應用中,我們可以使用深度學習來解決問題?A、蛋白質結構預測B、化學反應的預測C、外來粒子的檢測D、所有這些正確答案:D40.關于SMO神經網絡描述錯誤的是(___)A、一種競爭學習型的無監督神經網絡;B、SMO尋優目標為每個輸出神經元找到合適的權重;C、輸出層神經元以矩陣方式排列在二維空間;D、將高維輸入數據映射到低維空間,保持輸入數據在高維空間的拓撲結構;正確答案:B41.欠擬合會出現高()問題A、方差B、平方差C、偏差D、標準差正確答案:C42.深度學習系統訓練過程通常需要輸入:A、標簽B、特征值C、預測值D、特征值和標簽正確答案:D43.半監督學習包括。A、回歸學習B、聚類學習C、主動學習D、直推學習正確答案:D44.隱馬爾可夫模型(HMM)是結構最簡單的動態貝葉斯網絡,是一種著名的()模型。A、有向圖B、無向圖C、雙向圖D、單向圖正確答案:A二、多選題(共24題,每題1分,共24分)1.在深度學習任務中,遇到數據不平衡問題時,我們可以用以下哪些方法進行解訣?A、合成采樣B、隨機欠采樣C、批量刪除D、隨機過采樣正確答案:ABD2.機器學習的一般流程包括()A、數據獲取B、模型驗證C、模型訓練D、分析案例正確答案:ABCD3.專家系統知識表示的方法主要有哪些?A、產生式B、語義網絡C、框架D、邏輯表示法(謂詞表示法)正確答案:ABCD4.生成對抗網絡GAN的基本結構主要包括以下哪些A、觸發器B、生成器C、判別器D、聚合器正確答案:BC5.在機器學習中,如果單純去提高訓練數據的預測能力,所選模型的復雜度往往會很高,這種現象稱為過擬合對于產生這種現象以下說法正確的是()A、模型太復雜B、樣本數量太少C、樣本數量過多D、模型太簡單正確答案:AB6.CRF模型對于HMM和MEMM模型的優勢包括以下哪些?A、特征靈活B、速度快C、可容納較多上下文信息D、全局最優正確答案:ACD7.考慮智能體函數與智能體程序的差異,從下列陳述中選擇正確的答案A、一個智能體程序實現一個智能體函數B、智能體程序包含智能體函數C、智能體程序與智能體函數沒有任何關系D、一個智能體函數實現一個智能體程序正確答案:AB8.下列哪些模型可以E2E訓練()A、YOLOv3B、YOLOv2C、RCNND、fastRCNN正確答案:ABD9.支持向量機的求解通常是借助于凸優化技術,針對線性核SVM來說,主要的求解提升效率方法為(____)。A、快速采樣法B、割平面法C、隨機梯度下降D、坐標下降法正確答案:BCD10.深度學習中的激活函數需要具有哪些屬性?A、幾乎處處可微B、非線性C、計算簡單D、具有飽和區正確答案:BCD11.word2vec包含兩個經典模型:()和()A、MBOWB、CBOWC、Stop-gramD、Skip-gram正確答案:BD12.以下關于機器學習算法與傳統基于規則方法的區別中正確的是?A、傳統的基于規則的方法,其中的規律可以人工顯性的明確出來B、傳統基于規則的方法使用顯性編程來解決問題C、機器學習中模型的映射關系是自動學習的D、機器學習所中模型的映射關系必須是隱性的正確答案:ABC13.在隨機森林中,最終的集成模型是通過什么策略決定模型結果的?A、累加制B、求平均數C、投票制D、累乘制正確答案:BC14.按照處理文本的粒度不同,情感分析大致可分為()、()、()三個研究層次。A、篇章級B、章節級C、句子級D、詞語級正確答案:ACD15.數據挖掘的挖掘方法包括:()()A、回歸分析B、聚類分析C、神經網絡D、決策樹算法正確答案:ABCD16.針對聚類的性能度量指標,說法正確的是()A、Jaccard系數越大越好B、DB指數的值越大越好C、Dunn指數的值越大越好D、Rand系數越大越好正確答案:ACD17.Scikit-Learn中,()可以實現對類別特征進行one-hot編碼。A、DictvectorzierB、pandasC、OneHotEncoderD、CountVectorizer正確答案:ABC18.下列哪些部分是專家系統的組成部分?A、知識庫B、用戶C、綜合數據庫D、推理機正確答案:ACD19.分類問題的評估方法包括A、正確率B、精確率C、召回率D、均方誤差正確答案:ABC20.在數據清理中,下面哪個屬于處理缺失值的方法?A、變量刪除B、整例刪除C、估算D、成對刪除正確答案:ABC21.常見的聚類算法有哪些?A、密度聚類B、層次聚類C、譜聚類D、Kmeans正確答案:ABCD22.下面關于隨機森林和集成學習的說法,正確的是:A、隨機森林只能用于解決分類問題B、隨機森林由隨機數量的決策樹組成C、集成學習通過構建多個模型,并將各個模型的結果使用求平均數的方法集成起來,作為最終的預測結果,提高分類問題的準確率D、隨機森林的弱分類器(基分類器)的特征選擇是隨機的正確答案:CD23.面向對象的三大特性A、多態B、獨立C、繼承D、封裝正確答案:ABCD24.以下模型中,會用到隨機梯度下降法的分別是()A、CNNB、RNNC、KNND、C4.5正確答案:AB三、判斷題(共36題,每題1分,共36分)1.XGBoost使用了一階和二階偏導,二階導數有利于梯度下降的更快更準。使用泰勒展開取得二階倒數形式,可以在不選定損失函數具體形式的情況下用于算法優化分析。A、正確B、錯誤正確答案:A2.人工智能的一個重要分支是PatternRecognition,中文名稱是模式識別它主要研究視覺和聽覺的識別()A、正確B、錯誤正確答案:A3.感受野是輸出特征圖上的像素點所能感受到的輸入數據的范圍A、正確B、錯誤正確答案:A4.深度優先與寬度優先搜索算法的區別是:深度優先將新擴展出來的節點放在OPEN表的前端,寬度優先將新擴展出來的節點放在OPEN表的后端A、正確B、錯誤正確答案:A5.在模型優化中,正則化項的目標是防止模型欠擬合A、正確B、錯誤正確答案:B6.時序預測回歸預測一樣,也是用已知的數據預測未來的值,但這些數據的區別是變量所處時間的不同A、正確B、錯誤正確答案:B7.通過計算一個特征在森林中所有樹上的平均深度,可以估算出一個特征的重要程度。A、正確B、錯誤正確答案:A8.asttext利用了全局范圍的詞相關性A、正確B、錯誤正確答案:B9.回歸分析法屬于外推法A、正確B、錯誤正確答案:B10.多層非線性映射(multi-layernonlinearprojection):表示深度學習網絡的隱層,DSSM使用三個全連接層,每一層神經元的個數是300,然后最后一層的維度是128維度,激活函數采用tanhA、正確B、錯誤正確答案:B11.KNN(K-NearestNeighbor)算法由于需要同時存儲大量的已知標簽數據,故其一般不適合處理大規模的訓練數據A、正確B、錯誤正確答案:A12.遺傳算法不能用于知識發現。A、正確B、錯誤正確答案:B13.k-means機器學習算法是無監督學習算法A、正確B、錯誤正確答案:A14.如果SVM模型欠擬合,可以通過減小核系數(gamma參數)來改進模型A、正確B、錯誤正確答案:B15.經典的全連接神經網絡來包含四層網絡:輸入層、兩個隱含層和輸出層A、正確B、錯誤正確答案:A16.監督學習的數據必須要帶標簽等人為標注信息A、正確B、錯誤正確答案:A17.詞向量(Wordembedding),即把詞語表示成整數向量。A、正確B、錯誤正確答案:B18.Dropout率和正則化有什么關系是Dropout率越高,正則化程度越低A、正確B、錯誤正確答案:A19.隨機森林的收斂性與Bagging相似,隨機森林的起始性能往往相對較好,隨著個體學習器數目的增加,隨機森林通常會收斂到更低的泛化誤差。A、正確B、錯誤正確答案:B20.網格搜索是一種參數調節的方法。A、正確B、錯誤正確答案:B21.樹剪枝階段。構造過程得到的并不是最簡單、緊湊的決策樹,因為許多分枝反映的可能是訓練數據中的噪聲或孤立點。樹剪枝過程主要檢測和去掉這種分枝,以提高對未知數據集進行分類時的準確性。A、正確B、錯誤正確答案:A22.計算學習理論研究的是關于通過“計算”來進行“學習”的理論A、正確B、錯誤正確答案:A23.在普通的全連接網絡或CNN中,每層神經元的信號只能向上一層傳播,樣本的處理在各個時刻獨立,因此又被成為前向神經網絡(Feed-forward+Neural+Net

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論