人工智能深度學習技術練習(習題卷17)_第1頁
人工智能深度學習技術練習(習題卷17)_第2頁
人工智能深度學習技術練習(習題卷17)_第3頁
人工智能深度學習技術練習(習題卷17)_第4頁
人工智能深度學習技術練習(習題卷17)_第5頁
已閱讀5頁,還剩17頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

試卷科目:人工智能深度學習技術練習人工智能深度學習技術練習(習題卷17)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學習技術練習第1部分:單項選擇題,共47題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.(euclideanmetric歐幾里得度量)是一個通常采用的距離定義,在二維和三維空間中的歐氏距離就是兩點之間的實際()。A)誤差B)線段C)距離D)坐標答案:C解析:[單選題]2.在keras的自帶模型中,MobileNet模型的默認輸入尺寸是()A)224x224B)244x244C)299x299D)229x229答案:A解析:[單選題]3.年Rumelhart等人發展了()理論A)BP算法B)求偏導C)激活函數D)前向算法答案:A解析:[單選題]4.為什么將數據分為訓練集和測試集?A)使訓練更快B)用以前看不見的數據訓練網絡C)用以前看不見的數據測試網絡D)加快測試速度答案:C解析:[單選題]5.在TF框架中,激活函數tf.nn.relu的作用是?A)用于卷積后數據B)用于卷積核C)用于步長D)不能用到全連接層答案:A解析:[單選題]6.在TensorFlow中使用tf.log函數可以計算元素的自然對數,自然對數以常數()為底數的對數,A)eB)10C)2D)10^^答案:A解析:[單選題]7.有多個卷積核的原因是:A)同時提取多個圖像的特征B)提取某些圖像多個特征C)圖像有多個通道D)與多特征無關答案:B解析:[單選題]8.importtensorflowastfS=tf.constant([1,2,3,4,6,1,2,3],dtype=tf.float32,name=?s?)S1=tf.reshape(s,(2,4))Withtf.Session()assess:Sess.run(tf.global_variables_initializer())Print(sess.run(s1))該程序輸出結果為A)[3,6]B)[[1,2,3,4],[6,1,2,3]]C)[3]D)[6]答案:B解析:[單選題]9.梯度下降法的關鍵是()。A)找到損失函數最小值B)找到損失函數平均值C)找到損失函數中間值D)找到損失函數均方誤差值答案:A解析:難易程度:易題型:[單選題]10.RMSprop算法的特點是A)指數加權平均數求和B)指數加權平均數先平方再開方C)指數加權平均數求微分D)指數加權平均數求均方誤差答案:B解析:[單選題]11.你用手機拍攝的垃圾圖片是A)灰度圖B)紅色圖C)綠色圖D)彩色圖答案:D解析:[單選題]12.上圖中激活函數屬于哪一個?A)SigmoidB)LeakyReLUC)tanhD)Relu答案:C解析:tanh[單選題]13.將26x26的圖像做2x2的最大池化,輸出將是多少?A)26x26B)13x13C)56x56D)28x28答案:B解析:[單選題]14.在keras.layers.Conv2D(filters,kernel_size,strides=(1,1),padding='valid',data_format=None,dilation_rate=(1,1),activation=None,use_bias=True,kernel_initializer='glorot_uniform',bias_initializer='zeros',kernel_regularizer=None,bias_regularizer=None,activity_regularizer=None,kernel_constraint=None,bias_constraint=None)方法中,指明卷積沿寬度和高度方向的步長是哪個參數?A)filtersB)stridesC)use_biasD)kernel_size答案:B解析:[單選題]15.關于mini-batch說法錯誤的是A)指的是批量梯度下降B)適用于樣本量小的數據集C)每一次只運算部分數據,最后將全部數據進行運算D)適用于樣本量大的數據答案:B解析:[單選題]16.連接主義的主要原理為神經網絡及神經網絡間的連接機制與學習算法。其英文縮寫為()A)symbolicismB)actionismC)connectionismD)AI答案:C解析:[單選題]17.在課堂中使用預測器對那個單位進行互相轉換()A)英里和海里B)英里和千米C)海里和千米D)公里和千米答案:B解析:難易程度:易題型:[單選題]18.在卷積神經網絡中,卷積層與全連接層的先后順序通常為?A)先卷積、池化后全連接B)先全連接、卷積后池化C)先池化、全連接再卷積D)先卷積、全連接、池化后答案:A解析:[單選題]19.下面哪一項不能解決模型過擬合的問題?()A)調小模型復雜度,使其適合自己訓練集的數量級(縮小寬度和減小深度)B)dataaugmentationC)regularizationD)添加多項式項答案:D解析:[單選題]20.編碼器-解碼器模式屬于以下哪種模式?A)一對一B)一對多C)多對一D)多對多答案:D解析:[單選題]21.如果我們用了一個過大的學習速率會發生什么?()A)神經網絡會收斂B)不好說C)都不對D)神經網絡不會收斂答案:D解析:[單選題]22.什么是卷積?A)縮小圖像的技術B)放大圖像的技術C)隔離圖像特征的技術D)過濾掉不需要的圖像的技術答案:C解析:[單選題]23.merge函數用于主鍵合并,下列說法錯誤的是()。A)on參數用于指定主鍵B)sort參數為True時將對合并的數據進行排序C)suffixes參數用于對重疊列加尾綴D)join參數表示表連接的方式答案:D解析:難易程度:中題型:[單選題]24.深度學習典型應用:自然語言處理主要指應用了()神經網絡A)ANNB)CNNC)RNND)XNN答案:C解析:[單選題]25.水平翻轉的函數是A)RandomHorizontalFlip()B)RandomVerticalFlip()C)RandomRotationD)RandomCrop答案:A解析:[單選題]26.下面哪個命令是Linux下?刪除非空目錄?命令?A)chmodu+xB)rm-frdirC)passwdD)cp-Rdir答案:B解析:rm-frdir:刪除非空目錄[單選題]27.如果我將dropout參數設置為0.2,我將丟失多少個節點?A)其中20%B)其中2%C)未經訓練的20%D)未經訓練的2%答案:A解析:[單選題]28.自頂向下設計主要由下列哪個語法元素實現?()。A)面向對象B)函數C)循環結構D)過程答案:B解析:難易程度:易題型:[單選題]29.對于以下線性運算的結果向量,如果要映射成概率結果,需要函數:A)tf.nn.softmaxB)tf.nn.dropoutC)tf.nn.maxpoolD)tf.nn.cov2d答案:A解析:[單選題]30.廢紙屬于什么類別的垃圾A)有害垃圾B)易腐垃圾C)可回收物D)不清楚答案:C解析:[單選題]31.Sigmoid函數會把輸入的數值映射到()區間內。A)[-1,0]B)[-1,1]C)[0,1]D)以上都不對答案:C解析:[單選題]32.pytorch導入numpy數據的方式A)from_numpyB)into_numpyC)numpyD)data.numpy答案:A解析:[單選題]33.關于聚類,下列說法錯誤的是()。A)聚類屬于無監督算法B)聚類可用于數據預處理中的數據離散化C)聚類的劃分原則是樣本距離最小化D)聚類是根據數據相似度進行樣本分組的方法答案:C解析:難易程度:中題型:[單選題]34.在Keras中有兩類主要的模型:Sequential順序模型和使用函數式API的Model類模型。這些模型有許多共同的方法和屬性,其中?以JSON字符串的形式返回模型的表示?的方法是:A)model.to_json()B)model.to_yaml()C)model.get_weights()D)model.get_config()答案:A解析:[單選題]35.在BP算法的過程中,error項逐漸變小,使得越靠前的網絡層的學習速率越來越低,這種現象被稱為vanishinggradientproblem即A)梯度上升問題B)梯度優化C)梯度消失問題D)梯度下降法答案:C解析:[單選題]36.Matplotlib畫圖導入庫正確的命令是()。A)ImportB)ImportC)ImportD)Import答案:A解析:難易程度:易題型:[單選題]37.深度學習屬于人工智能三大主義(symbolicism、connectionism、actionism)中的()主義A)連接主義B)符號主義C)行為主義D)CAD答案:A解析:[單選題]38.手寫數字的神經網絡訓練時,沒有訓練下列哪個參數()。A)學習速率B)循環次數C)隱藏節點D)隱藏節點與學習速率答案:D解析:難易程度:易題型:[單選題]39.輸入圖像有2個,經過10個卷積核卷積后,輸出圖像有()個A)2B)5C)10D)不確定答案:C解析:[單選題]40.通過試驗超參數的不同取值不可以A)選擇對訓練集目標而言的最優解B)對于開發集而言的最優解C)超參搜索過程中最想優化的東西D)簡化參數調試答案:D解析:[單選題]41.早期的機器學習算法中,如果有兩個超參數,通常通過什么方式來選擇參數A)網格中取樣點,然后系統的研究這些數值B)比較參數的大小C)對參數進行迭代選擇D)對參數進行平均答案:A解析:[單選題]42.在h_fc1=tf.nn.relu(tf.matmul(h_flat,W_fc1)+b_fc1)操作,b_fc1是A)對圖像池化B)偏置項C)激活函數D)平均答案:B解析:[單選題]43.面部識別軟件可歸入名為生物識別的一大類技術。生物識別技術使用()來驗證身份A)生物信息B)特征點C)算法D)標識答案:A解析:[單選題]44.用e表示詞向量,根據詞嵌入的特性,e(男人)-e(女人)約等于e(國王)-e(?)A)男人B)女人C)國王D)王后答案:D解析:[單選題]45.下面不屬于Python特性的是()。A)解釋型B)靜態C)動態D)面向對象答案:B解析:難易程度:中題型:[單選題]46.MNIST訓練集的第一個數據是()。A)4B)2C)0D)5答案:D解析:難易程度:易題型:[單選題]47.Mini-batch下降的效果是:A)損失函數值一直下降B)損失函數值總體趨勢下降C)比梯度下降速度快D)梯度下降不明顯答案:B解析:第2部分:多項選擇題,共15題,每題至少兩個正確答案,多選或少選均不得分。[多選題]48.在程序中y_predict和y_actual的意義A)y_predict來自神經網絡輸出B)y_predict必從softmax函數出來。C)y_actual從標簽集合來的。D)兩者的維度屬性一致。答案:ABCD解析:[多選題]49.長短期記憶中的門有A)遺忘門B)輸入門C)輸出門D)更新門答案:ABC解析:[多選題]50.下列屬于dropout特性的有:A)具有正則化功能B)具有激活函數功能C)常用于圖像處理D)機器學習算法答案:AC解析:[多選題]51.Dataset創建數據集常用的方法有:A)torch.utils.data.TensorDatasetB)torchvision.datasets.ImageFolderC)繼承torch.utils.data.DatasetD)dataloder答案:ABC解析:[多選題]52.TensorFlow框架可用于多個領域,例如:A)語音識別B)NLPC)計算機視覺D)自動駕駛答案:ABCD解析:[多選題]53.TensorFlow程序的核心是:A)變量B)常量C)張量數據結構D)計算圖算法語言答案:CD解析:[多選題]54.在語句tf.truncated_normal(U,stddev=0.1)和tf.constant(V)中,正確說法是:A)U是shape向量B)V是數值或列表C)U和V意義相同D)U和V意義不相同答案:ABD解析:[多選題]55.請選出常用的三種梯度下降的方法()A)批量梯度下降B)大批量梯度下降C)隨機梯度下降D)小批量梯度下降答案:ACD解析:[多選題]56.搜索參數的兩種重要方式是A)沒有足夠計算資源,通過每天觀察,不斷調整參數B)同時試驗多種模型,獲得學習曲線C)沒有足夠計算資源,通過試驗多種模型,獲得學習曲線D)擁有足夠資源時,通過每天觀察一個參數,來進行調整答案:AB解析:[多選題]57.在深度神經網絡中,如果是填充后求卷積,圖像尺寸保持不變,以下哪些參數是正確的A)以0填充一圈B)以1填充一圈C)步長為1D)圖像尺寸變小答案:AC解析:[多選題]58.騰訊云是騰訊公司旗下的產品,為開發者及企業提供云服務、云數據、云運營等整體一站式服務方案。具體包括()A)基礎云服務B)整體大數據能力C)體育建設D)云端鏈接社交體系答案:ABD解析:騰訊云是騰訊公司旗下的產品,為開發者及企業提供云服務、云數據、云運營等整體一站式服務方案。具體包括云服務器、云存儲、云數據庫和彈性web引擎等基礎云服務;騰訊云分析(MTA)、騰訊云推送(信鴿)等騰訊整體大數據能力;以及QQ互聯、QQ空間、微云、微社區等云端鏈接社交體系。[多選題]59.能進行正則化功能的處理有A)dropoutB)l1C)l2D)數據增強答案:ABCD解析:[多選題]60.訓練模型的三種方式:A)內置fitB)內置train_on_batchC)自定義訓練循環D)內置compile答案:ABC解析:[多選題]61.不涉及隱藏層時,分類算法中,會用到激活函數有A)reluB)tanhC)softmaxD)sigmoid答案:CD解析:[多選題]62.請選擇有關Tensorflow基本概念正確的描述()A)使用圖(graphs)來表示計算任務,用于搭建神經網絡的計算過程B)在被稱之為會話(Session)的上下文(context)中執行圖C)使用張量(tensor)表示數據,用?階?表示張量的維度,通過變量(Variable)維護狀態D)使用feed和fetch可以為任意的操作賦值或者從其中獲取數據答案:ABCD解析:第3部分:判斷題,共22題,請判斷題目是否正確。[判斷題]63.框架TensorFlow?最初是由GoogleBrain團隊(隸屬于Google的AI部門)中的研究人員和工程師聯合開發的A)正確B)錯誤答案:對解析:[判斷題]64.深度網絡不能使用zeros創建權重A)正確B)錯誤答案:對解析:[判斷題]65.關于循環神經網絡,GRU中有兩個門A)正確B)錯誤答案:對解析:[判斷題]66.通常將TripletLoss翻譯為三元組損失,其中的三元也就是Anchor、Negative負樣例、Positive正樣例A)正確B)錯誤答案:對解析:[判斷題]67.全連接層無法實現卷積運算,他們互有分工。A)正確B)錯誤答案:對解析:[判斷題]68.LSTM可以解決梯度消失問題A)正確B)錯誤答案:對解析:[判斷題]69.卷積神經網絡中,其中,卷積層是分類的,全連接層是特征提取的。A)正確B)錯誤答案:錯解析:[判斷題]70.全連接層用來處理多分類結果A)正確B)錯誤答案:對解析:[判斷題]71.Sess=tf.Session()Writer=tf.summary.FileWriter(TB_SUMMARY_DIR)Writer.add_graph(sess.graph)以上語句為實現可視化界面展示tensorboard移植語句A)正確B)錯誤答案:對解析:[判斷題]72.BP算法是由學習過程由信號的正向傳播與誤差的反向傳播兩個過程組成。由于多層前饋網絡的訓練經常采用誤差反向傳播算法,人們也常把將多層前饋網絡直接稱為BP網絡A)正確B)錯誤答案:對解析:[判斷題]73.批量梯度下降算法是每次考慮整個訓練集進行權重更新。A)正確B)錯誤答案:對解析:[判斷題]74.神經網絡中超參數的調試中最重要的參數是選擇層數A)正確B)錯誤答案:錯解析:[判斷題]75.深度學習在人工智能領域的表現并不突出。()A)正確B)錯誤答案:錯解析:[判斷題]76.如果增加神經網絡的寬度,精確度會增加到一個閾值,然后開始降低。造成這一現象的原因可能是當核數量增加,其相關性增加,導致過擬合。A)正確B)錯誤答案:對解析:[判斷題]77.神經網絡都要經過線性處理A)正確B)錯誤答案:對解析:[判斷題]78.nn.CrossEntropyLoss中y_pred未經過nn.Softmax激活。A)正確B)錯誤答案:對解析:[判斷題]79.人臉識別數據集通常是2分類圖片A)正確B)錯誤答案:對解析:[判斷題]80.句子向量表示有監督和無監督學習都可以獲得。A)正確B)錯誤答案:對解析:[判斷題]81.執行完語句tf.assign(start,new_value)后可以將變量start的值傳遞給新的變量new_valueA)正確B)錯誤答案:錯解析:第4部分:問答題,共16題,請在空白處填寫正確答案。[問答題]82.下面的紅色曲線表示關于深度學習算法中每個時期的訓練精度。綠色和藍色曲線都表示驗證的準確性。哪條曲線表示過擬合overfitting?BA)綠色線B)色曲線答案:B解析:[問答題]83.np.array中查看類型的屬性為_______答案:dtype解析:[問答題]84.有模型構建如下所示:model=Sequential([Dense(units=100,input_dim=784,bias_initializer='zeros',activation='tanh'),#雙曲正切激活函數Dropout(0.4),#百分之40的神經元不工作Dense(units=200,bias_initializer='zeros',activation='tanh'),#雙曲正切激活函數Dropout(0.4),#百分之40的神經元不工作Dense(units=10,bias_initializer='zeros',activation='softmax')])該模型需要計算的參數數量是多少?答案:100710解析:[問答題]85.權值的初始值應設定為較_______值答案:小解析:[問答題]86.不能使用_______數據評估超參數的性能答案:測試解析:[問答題]87.簡述正則化的物理意義。答案:正則化在神經網絡計算損失值的過程中,在損失項后面加一項。這項損失表示網絡的輸出與標準結果受到干擾,導致學習參數無法按照目標方向來調整,從而達到防止過擬合的效果。解析:[問答題]88.繪制折線圖的方法_______答案:plot()解析:[問答題]89.如果W的形狀是

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論