




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
試卷科目:人工智能深度學習技術練習人工智能深度學習技術練習(習題卷3)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學習技術練習第1部分:單項選擇題,共132題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.樣本點數量相同的概率空間,可以等價互換。A)是B)不能C)部分能D)部分不能答案:A解析:[單選題]2.多層前饋網絡也稱為()A)BP網絡B)隱藏層網絡C)輸入層網絡D)輸出層網絡答案:A解析:[單選題]3.pytorch中批量歸一化使用的是A)nn.LinearB)nn.FlattenC)nn.DropoutD)nn.BatchNorm2d答案:D解析:[單選題]4.resnet中,放棄使用池化降采樣,使用()方式進行降采樣處理A)調整步長B)調整卷積尺寸C)均值濾波D)高斯濾波答案:A解析:[單選題]5.Session是Tensorflow為了控制,和輸出文件的執(zhí)行的語句.運行session.run()可以獲得你要得知的運算結果,或者是你所要運算的部分通常要創(chuàng)建Session對象,對應的編程語句為:A)sess=tf.Session()B)sess.close()C)tf.add()D)tf.equal()答案:A解析:[單選題]6.步長張量strides=[1,2,2,1]能橫向縱向移動A)1像素B)2像素C)3像素D)4像素答案:B解析:[單選題]7.代碼啟動tensorboard的代碼是A)loss.backwardB)writer.add_graphC)notebook.startD)notebook.list答案:C解析:[單選題]8.c=tf.constant([3,2.0,5],[1,6,0],[9,0,0]]),print(c.dtype),該程序輸出結果為A)<dtype:?int32?>B)<dtype:?float32?>C)<dtype:?string?>D)<dtype:?int64?>答案:B解析:[單選題]9.Inception中,不管并聯卷積池化如何改變,合并后特征圖的()必須相同A)通道B)尺寸C)維度D)色差答案:B解析:[單選題]10.從20世紀()人工智能開始出現了A)50年代B)60年代C)70年代D)80年代答案:A解析:[單選題]11.從官網中下載的手寫數字數據集是什么類型文件()。A)二進制B)八進制C)十進制D)圖片文件答案:A解析:難易程度:易題型:[單選題]12.實現矩陣與標量乘法的命令是()。A)np.doc()B)np.matmul()C)np.dot()D)以上都不是答案:D解析:難易程度:易題型:[單選題]13.長短期記憶網絡是RNN的一種變體,RNN由于梯度消失的原因只能有()記憶A)長期B)短期C)中期D)后期答案:B解析:[單選題]14.卷積定理指出,函數卷積的傅里葉變換是函數傅里葉變換的()。即,一個域中的卷積相當于另一個域中的(),例如時域中的卷積就對應于頻域中的乘積。A)乘積,乘積B)乘積,范數C)范數,乘積D)范數,距離答案:A解析:[單選題]15.在有監(jiān)督學習中,標簽起的一個作用是A)監(jiān)督B)度量C)觀察D)學習答案:A解析:[單選題]16.()是序列模型處理的基礎單元A)時間步B)樣本C)一句話D)一個數據集答案:A解析:[單選題]17.深度學習是當前很熱門的機器學習算法,在深度學習中,涉及到大量的矩陣相乘,現在需要計算個稠密矩陣A,B.C的乘積ABC,假設三個矩陣的尺寸分別為mn,np,pq,且m<n<p<q,以下計算順序效率最高的是(()A)(AB)CB)AC(B)C)A(BC)D)所有效率都相同答案:A解析:[單選題]18.假設一個具有3個神經元和輸入為[1,2,3]的簡單MLP模型。輸入神經元的權重分別為4,5和6。假設激活函數是一個線性常數值3(激活函數為:y=3x)。輸出是什么?()A)32B)643C)96D)48答案:C解析:[單選題]19.定義一個卷積核filter,它的張量定義為filter=tf.Variable(tf.random_normal([20,10,3,16]))則卷積核的高度是:A)10B)20C)16D)3答案:B解析:[單選題]20.Keras中進行獨熱處理的代碼是A)to_categorical()B)OneHotEncoder()C)eye()D)diag()答案:A解析:[單選題]21.Tf.nn.conv2d是TensorFlow里面實現卷積的函數,使用這樣函數的網絡層的作用是()A)增強圖像B)簡化圖像C)特征提取D)圖像處理答案:C解析:[單選題]22.()只是單CPU模擬雙CPU來平衡程序運行性能,這兩個模擬出來的CPU是不能分離的,只能協同工作。A)多任務B)超線程技術C)虛擬化D)多線程答案:B解析:超線程技術只是單CPU模擬雙CPU來平衡程序運行性能,這兩個模擬出來的CPU是不能分離的,只能協同工作。[單選題]23.以下哪個關于梯度消失的描述是正確的?A)通過優(yōu)化算法,處理梯度,可以更快做梯度下降,獲取最優(yōu)解B)由于數據處理或者激活函數選擇不合理等原因,無法獲取梯度,從而不能獲得最優(yōu)解C)由于隱藏層數量過少,無法獲取梯度,從而不能獲得最優(yōu)解D)通過更多隱藏層,減少梯度迭代,從而更快的進行計算,獲取最優(yōu)解答案:B解析:[單選題]24.當數據過大以至于無法在RAM中同時處理時,哪種梯度下降方法更加有效?A)隨機梯度下降法(StochasticGradientDescent)B)不知道C)整批梯度下降法(FullBatchGradientDescent)D)都不是答案:A解析:[單選題]25.通常歐幾里得距離,也叫A)非負距離B)平面距離C)絕對值距離D)平方范數距離答案:D解析:[單選題]26.關于Series索引方式錯誤的是()。A)s[0:2]B)s[2]C)s[s>2]D)s[s=2]答案:D解析:難易程度:中題型:[單選題]27.在keras中,函數按batch獲得輸入數據對應的輸出。A)predict()B)predict_classes()C)predict_proba()D)train_on_batch()答案:A解析:在keras中,predict()函數按batch獲得輸入數據對應的輸出。[單選題]28.符號主義屬于現代人工智能范疇,基于邏輯推理的智能模擬方法()A)模擬人的智能行為B)計算機視覺C)卷積神經網絡D)openCV答案:A解析:[單選題]29.本學期的大作業(yè),手寫數字識別性能的最低要求是多少()。A)90%B)95%C)97%D)99%答案:B解析:難易程度:易題型:[單選題]30.下面能夠實現激活函數操作的語句是:A)h_conv1=tf.nn.relu(conv_ret1)B)h_conv1=tf.nn.dropout(conv_ret1)C)h_conv1=tf.nn.lrn(conv_ret1)D)h_conv1=tf.nn.l2_loss(conv_ret1)答案:A解析:[單選題]31.在keras中,也可以調用框架提供的模型,請問這些模型包含在下面哪個庫中?A)keras.applicationsB)keras.layersC)keras.preprocessingD)keras.models答案:A解析:[單選題]32.pytorch向下取整的函數是A)roundB)floorC)ceilD)trunc答案:B解析:floor意思為地板,是向下取整[單選題]33.依據函數的曲線分布而命名的()激活函數中,就是指Sigmoid函數A)U型B)M型C)X型D)S型答案:D解析:[單選題]34.在繪圖時?-?表示那種風格字符()。A)虛線B)實線C)點劃線D)點虛線答案:B解析:難易程度:易題型:[單選題]35.動態(tài)圖處理中,無序開啟A)求導B)會話C)自動微分D)反向傳播答案:B解析:[單選題]36.三元運算符是以下哪個命令()。A)np.all()B)np.any()C)np.where()D)np.std答案:C解析:難易程度:易題型:[單選題]37.假設一個具有3個神經元和輸入為「1.2.3]的簡單MLP模型。輸入神經元的權重分別為4,5和6。假設激活函數是一個線性常數值3(激活函數為:y=3x)。輸出是什么?CA)32B)643C)96D)48答案:C解析:[單選題]38.Tf.reshape(tensor,shape,name=None)函數的作用是將tensor變換為參數shape形式,其中的shape為一個()形式。-1所代表的含義是我們不用親自去指定這一維的大小,函數會自動進行計算A)矢量B)向量C)列表D)凸集答案:C解析:[單選題]39.Tf的文件讀入前,需要定義reader=tf.WholeFileReader(),該語句是A)讀入文件B)定義文件操作對象C)定義讀入模式D)定義數據對象答案:B解析:[單選題]40.從()到AlexNet。進化之路一:網絡結構加深;進化之路二:加強卷積功能;進化之路三:從分類到檢測;進化之路四:新增功能模塊。A)LeNetB)AlexNetC)VGGD)ResNet答案:A解析:[單選題]41.神經網絡中神經元的說法正確的是()A)一個神經元有多個輸入輸出B)一個神經元有多個輸入和一個輸出C)一個神經元有一個輸入和多個輸出D)以上都正確答案:D解析:難易程度:易題型:[單選題]42.定義張量類型為32位浮點數,下列代碼正確的是A)Tf.constant([1],32)B)Tf.constant([1],32.0)C)Tf.constant([1],type=tf.float32)D)Tf.constant([1],dtype=tf.float32)答案:D解析:[單選題]43.Mini-batch的原理是A)選取數據中部分數據進行梯度下降B)和批量梯度下降相同,只是將算法進行優(yōu)化C)將數據每次進行一小批次處理,通過迭代將數據全部處理D)隨機選取一些數據,計算梯度進行下降,每次將學習率降低一點答案:C解析:[單選題]44.梯度下降算法的正確步驟是什么?1計算預測值和真實值之間的誤差2重復迭代,直至得到網絡權重的最佳值3把輸入傳入網絡,得到輸出值4用隨機值初始化權重和偏差5對每一個產生誤差的神經元,調整相應的(權重)值以減小誤差A)3,2,1,5,4B)5,4,3,2,1C)4,3,1,5,2D)1,2,3,4,5答案:C解析:[單選題]45.下列不屬于Lasso對象屬性的是()。A)coef_B)sparse_coef_C)intercept_D)n_features_答案:D解析:難易程度:中題型:[單選題]46.pytorch執(zhí)行參數更新的函數是A)optimizer.zero_grad()B)zero.autoC)cost.backward()D)optimizer.step()答案:D解析:[單選題]47.在監(jiān)督學習中,標簽起監(jiān)督作用,監(jiān)督的目的是指導A)修正權重參數B)求出信息熵C)特征提取D)預處理數據答案:A解析:[單選題]48.初始化時通常使用()隨機數給各權值和閾值賦初值。A)偏導數B)大的C)小的D)均方根答案:C解析:[單選題]49.(e^x)*x^2的導數是A)(e^x)(x^2+2x)B)(e^x)C)(e^x)*cos(x)D)cosx答案:A解析:[單選題]50.在Keras中,fit函數的參數:validation_split:0~1之間的浮點數,用來指定訓練集的一定比例數據作為驗證集。驗證集將不參與訓練,并在每個epoch結束后測試的模型的指標,如損失函數、精確度等。其不指定時默認值是()A)1B)0.5C)0.2D)0答案:D解析:在Keras中,fit函數的參數:validation_split:0~1之間的浮點數,用來指定訓練集的一定比例數據作為驗證集。驗證集將不參與訓練,并在每個epoch結束后測試的模型的指標,如損失函數、精確度等。其不指定時默認值是0[單選題]51.tf.transpose常用的情景為A)獨熱編碼B)數據勤奮C)邏輯回歸D)圖片處理答案:D解析:[單選題]52.循環(huán)神經網絡比較擅長()A)列相關問題。B)圖像分類。C)圖像檢索。D)圖像去燥。答案:A解析:[單選題]53.飛槳框架的經典應用案例有()。A)國網山東B)商湯圖像C)平安醫(yī)療D)中科院遙感所答案:A解析:難易程度:易題型:[單選題]54.神經網絡的向前傳輸過程需要3部分信息,分別是神經網絡輸入、神經網絡的連接以及()。A)神經網絡參數B)神經網絡權重C)神經網絡閾值D)以上都不對答案:A解析:[單選題]55.T=tf.Variable([1,2,3]),tf.multiply(t,2)的結果是A)[1,2,3]B)[2,3,4]C)[2,4,6]D)[2,4,3]答案:C解析:[單選題]56.可以使用后面的時間步預測前面時間步含義的單元是A)RNNB)LSTMC)GRUD)BRNN答案:D解析:[單選題]57.人工智能三大主義之符號主義的?符號?是指A)字符串B)符號邏輯C)字符串的推廣D)字節(jié)答案:B解析:[單選題]58.Maxpooling是CNN當中的最大值池化操作,其實用法和卷積很類似,()仍然是[batch,height,width,channels]這種形式A)valueB)shapeC)stridesD)padding答案:B解析:[單選題]59.循環(huán)神經網絡的英文全稱是?A)RecurrentNeuralNetworkB)RepeatNeuralNetworkC)RoundNeuralNetworkD)RecurseNeuralNetwork答案:A解析:[單選題]60.假設我們擁有一個已完成訓練的、用來解決車輛檢測問題的深度神經網絡模型,訓練所用的數據集由汽車和卡車的照片構成,而訓練目標是檢測出每種車輛的名稱(車輛共有10種類型)。現在想要使用這個模型來解決另外-個問題,問題數據集中僅包含一種車(福特野馬)而目標變?yōu)槎ㄎ卉囕v在照片中的位置。我們應該如何操作?()A)除去神經網絡中的最后一層,凍結所有層然后重新訓練B)對神經網絡中的最后幾層進行微調,同時將最后一層(分類層)更改為回歸層C)使用新的數據集重新訓練模型D)所有答案均不對答案:B解析:[單選題]61.卷積函數中,參數strides的作用是()A)設置卷積核B)設置卷積步長C)設置卷積層數D)以上都不對答案:B解析:[單選題]62.對于擬合的問題,下列說法正確的是:A)過擬合的現象是訓練集準確率低,而測試集準確率高B)欠擬合的現象是訓練集和測試集準確率相近C)盡量不要出現適度擬合,會造成新數據準確率低D)欠擬合是指驗證集和測試集的準確率都無法保證正常業(yè)務使用答案:D解析:[單選題]63.在tf中,構建交叉熵損失函數的語句是:A)cross_entropy=-tf.reduce_sum(y_actual*tf.log(y_predict))B)cross_entropy=-tf.reduce_all(y_actual*tf.log(y_predict))C)cross_entropy=-tf.reduce_max(y_actual*tf.log(y_predict))D)cross_entropy=-tf.reduce_s(y_actual*tf.log(y_predict))答案:A解析:[單選題]64.以下選項中,不屬于軟件調試技術的是()。A)強行排錯法B)集成測試法C)回溯法D)原因排除法答案:B解析:難易程度:易題型:[單選題]65.對數坐標下,在[a,b]區(qū)間隨機隨機均勻地給r取值的說法錯誤的是A)取最小值的對數得到a的值B)取最小值的對數得到b的值C)取最大值的對數得到b的值D)取任意值r,則超參數設置為10的r次方答案:B解析:[單選題]66.Alex在2012年提出的()網絡結構模型引爆了神經網絡的應用熱潮,并贏得了2012屆圖像識別大賽的冠軍,使得CNN成為在圖像分類上的核心算法模型。AlexNet該模型一共分為八層,5個卷積層,,以及3個全連接層A)LeNetB)AlexNetC)VGGD)ResNet答案:B解析:[單選題]67.神經網絡中的損失函數是使用那兩個值衡量()。A)計算值與目標值B)期望值與目標值C)預測值與目標值D)計算值與實際值答案:A解析:難易程度:易題型:[單選題]68.以下四個mini-batch選取樣本數量,哪一個效果最好A)58B)60C)62D)64答案:D解析:[單選題]69.簡單來說,Siamesenetwork就是?連體的神經網絡?神經網絡的?連體?是通過()來實現的A)獨有權值B)最大權值C)共享權值D)最小權值答案:C解析:[單選題]70.深度學習中的卷積神經網絡屬于機器學習中的那哪種模型A)深度監(jiān)督學習B)深度無監(jiān)督學習C)深度半監(jiān)督學習D)深度強化學習答案:A解析:[單選題]71.Dataset數據結構中,映射元素的函數是A)mapB)zipC)shuffleD)reduce答案:A解析:[單選題]72.()年,幾個計算機科學家相聚在達特茅斯會議,提出了?人工智能?的概念。A)1955B)1957C)1956D)1954答案:C解析:1956年,幾個計算機科學家相聚在達特茅斯會議,提出了?人工智能?的概念[單選題]73.pytorch中,LSTM輸入尺寸參數為A)input_sizeB)batch_firstC)biasD)hidden_size答案:A解析:[單選題]74.下列使用歸一化操作的激活函數有:A)reluB)softmaxC)tanhD)leakrelu答案:B解析:[單選題]75.關于正則化,說法錯誤的是:A)過擬合可以通過正則化方式消除B)常用的正則化方式由L1,L2,以及dropoutC)欠擬合可以通過正則化方式消除D)正則化是損失函數的一個補償項答案:C解析:[單選題]76.創(chuàng)建一個3x3的ndarray,下列代碼錯誤的是()。A)np.arange(0,9).reshape(3,3)B)np.eye(3)C)np.random.random([3,3,3])D)np.mat(?1答案:C解析:難易程度:中題型:[單選題]77.Word2vec主要包含兩個模型Skip-gram和()?A)GRUB)CCOWC)CBOWD)CBOM答案:C解析:[單選題]78.矩陣100010001又稱為什么矩陣()。A)1階矩陣B)對角矩陣C)三角矩陣D)3維矩陣答案:B解析:難易程度:易題型:[單選題]79.對于概率空間,集合的劃分,與下列最有關系的是A)距離空間B)概率空間C)向量空間D)排序答案:B解析:[單選題]80.對于tf函數tf.all_variables()。A)能夠打印所有變量B)能夠打印部分變量C)能定義所有變量D)能夠定義任意變量答案:A解析:[單選題]81.Mini-batch下降的效果是:A)損失函數值一直下降B)損失函數值總體趨勢下降C)比梯度下降速度快D)梯度下降不明顯答案:B解析:[單選題]82.A是3階方陣,且A=-2,則2A=()。A)4B)-4C)16D)-16答案:D解析:難易程度:難題型:[單選題]83.Linux繼承了()以網絡為核心的設計思想,是一個性能穩(wěn)定的多用戶網絡操作系統(tǒng)。A)windowsB)ubuntuC)UnixD)redhat答案:C解析:Linux繼承了Unix以網絡為核心的設計思想,是一個性能穩(wěn)定的多用戶網絡操作系統(tǒng)。[單選題]84.不屬于卷積內部性質的有A)步長B)卷積核C)0填充D)池化核答案:D解析:[單選題]85.F=tf.Variable([[2.,5.,4.],[1.,3.,6.]]),tf.reduce_sum(f,axis=1)的值是A)[10.,11.]B)[10.,10.]C)[11.,11.]D)[11.,10.]答案:D解析:[單選題]86.將numpy轉成tensor的方式是:A)cloneB)tensorC)from_numpyD)view答案:C解析:[單選題]87.keras中只保留模型的權重可以通過()方法實現A)model.save_weight()B)model.save_weights()C)model.save()D)model.json()答案:B解析:[單選題]88.在卷積神經網絡中,函數tf.argmax()可以返回vector中的最大值的索引號或者是最大值的()A)上標B)下標C)坐標D)內積答案:B解析:[單選題]89.輸入圖像有2個,經過10個卷積核卷積后,輸出圖像有()個A)2B)5C)10D)不確定答案:C解析:[單選題]90.對于神經網絡的說法,下面正確的是:1.增加神經網絡層數,可能會增加測試數據集的分類錯誤率2.減少神經網絡層數,總是能減小測試數據集的分類錯誤率3.增經網絡層數,總是能減小訓練數據集的分類錯誤率A)1B)1和3C)1和2D)2答案:A解析:[單選題]91.在一個簡單的MLP模型中,輸入層有8個神經元,隱藏層有5個神經元,輸出層有1個神經元。隱藏輸出層和輸入隱藏層之間的權重矩陣的大小是多少?()A)[1X5],[5X8]B)[8×5],[1×5]C)[5×8],[5×1]D)[5×1],[8×5]答案:D解析:[單選題]92.使用1*1卷積思想的網絡模型是A)lenetB)alexnetC)resnetD)inception答案:D解析:[單選題]93.Dropout運行原理:A)隨機取消一些節(jié)點,只是用部分節(jié)點進行擬合運算,防止過擬合B)dropout能增加新樣本防止過擬合C)dropout進行歸一化操作,防止過擬合D)dropout通過給損失函數增加懲罰項,防止過擬合答案:A解析:[單選題]94.面向對象編程類使用哪個保留字定義()。A)classB)defC)DogD)cat答案:A解析:難易程度:易題型:[單選題]95.設計為8層的卷積神經網絡AlexNet網絡成功使用()函數,其效果遠遠地超過了Sigmoid函數A)RelU函數B)sigmoid函數C)tanh函數D)sin函數答案:A解析:[單選題]96.在卷積神經網絡中,卷積層與全連接層的先后順序通常為?A)先卷積、池化后全連接B)先全連接、卷積后池化C)先池化、全連接再卷積D)先卷積、全連接、池化后答案:A解析:[單選題]97.與傳統(tǒng)機器學習方法相比,深度學習的優(yōu)勢在于A)深度學習可以自動學習特征B)深度學習完全不需要做數據預處理C)深度學習完全不提取底層特征,如圖像邊緣、紋理等D)深度學習不需要調參答案:A解析:[單選題]98.根據垃圾分類條例,以下屬于可回收垃圾的是()。A)舊電腦、舊電視、舊冰箱B)油漆桶C)廢蓄電池D)廢X光片答案:A解析:[單選題]99.如果一個神經網絡用于預測一種事物的分類,例如分為A,B,C,D四類,那么下列哪一個激活函數適用于該神經網絡的輸出層?A)SigmoidB)TanHC)SoftmaxD)Relu答案:C解析:[單選題]100.optimizer.zero_grad()的作用是A)梯度初始化B)重新計算迭代次數C)重新計算代價D)優(yōu)化器優(yōu)化結果到0答案:A解析:[單選題]101.垂直翻轉的函數是A)RandomHorizontalFlip()B)RandomVerticalFlip()C)RandomRotationD)RandomCrop答案:B解析:[單選題]102.均方誤差損失函數用來處理()問題A)分類B)預測C)過擬合D)以上都不對答案:B解析:[單選題]103.Keras的缺點是A)需要啟動會話B)入門簡單C)必須配合其他框架使用D)過度封裝導致喪失靈活性答案:D解析:[單選題]104.卷積是圖像處理的一種常用的()方法。A)非線性濾波B)線性濾波C)均值濾波D)非均值濾波答案:B解析:[單選題]105.圖片修復是需要人類專家來進行修復的,這對于修復受損照片和視頻非常有幫助。下圖是一個終像修復的例子。現在人們在研究如何用深度學習來解決圖片修復的問題。對于這個問題,哪種損失函數適用于計算像素區(qū)域的修復?CA)負對數似然度損失函數(Negative-logLikelihoodloss)B)歐式距離損失函數(Euclideanloss)C)兩種方法皆可D)兩種法不可答案:C解析:[單選題]106.關于面向對象的繼承,以下選項中描述正確的是()A)繼承是指一組對象所具有的相似性質B)繼承是指類之間共享屬性和操作的機制C)繼承是指各對象之間的共同性質D)繼承是指一個對象具有另一個對象的性質答案:B解析:難易程度:易題型:[單選題]107.權重學習理論是在那個年代提出()。A)1940年代B)50-60年代C)70年代D)1986年答案:B解析:難易程度:易題型:[單選題]108.Adam算法的tensorflow代碼是:A)tf.example.AdamOptimizerB)tf.train.AdamOptimizerC)tf.nn.AdamOptimizerD)tf.AdamOptimizer答案:B解析:[單選題]109.在AI領域,被譽為三駕馬車的代表人物提出了()框架。A)機器學習B)深度學習C)開源D)tensorflow答案:B解析:[單選題]110.在M-P神經元模型中,每個神經元的值為()A)所有輸入值的加權和B)所有輸入值的和C)所有輸入值的乘積D)所有輸入值的加權乘積答案:A解析:[單選題]111.計算機視覺,主要研究方法是A)機器學習B)數據挖掘C)卷積神經網絡D)openCV答案:C解析:[單選題]112.pandas的常用類不包括()。A)SeriesB)DataFrameC)PanelD)Index答案:C解析:難易程度:中題型:[單選題]113.當神經網絡的調參效果不好時,需要從哪些角度考慮?1是否找到合適的損失函數2是否過擬合3是否選擇了和是的激活函數4是否選擇合適的學習率A)12B)234C)34D)1234答案:D解析:[單選題]114.連續(xù)特征數據離散化的處理方法不包括()。A)等寬法B)等頻法C)使用聚類算法D)使用Apriori算法答案:D解析:難易程度:中題型:[單選題]115.混沌度(Perplexitv)是一種常見的應用在使用深度學習處理NLP問題過程中的評估技術,關于混沌度,哪種說法是正確的?BA)度沒什么影響B(tài))混沌度越低越好C)混度越高越好D)于果的影響不一定答案:B解析:[單選題]116.在tf中My_var_times_two=my_var.assign(2*my_var)A)讓my_var對應變量翻倍賦值給My_var_times_twoB)沒有賦值C)賦值不翻倍D)my_var對應變量翻倍答案:D解析:[單選題]117.下面代碼的輸出結果是()d={"大海":"藍色","天空":"灰色","大地":"黑色"}print(d["大地"],d.get("大海"))A)大地B)大地C)黑的D)黑色答案:D解析:難易程度:易題型:[單選題]118.多分類處理流程中,不屬于softmax特點的是A)輸出結果的數量和類別數相同B)輸出結果對應了別概率C)輸出求和為1D)概率值大于0.5的是最終的預測結果答案:D解析:[單選題]119.相對復雜的模型,建議使用()方式創(chuàng)建A)SequentialB)函數式API創(chuàng)建任意結構模型C)Model子類化創(chuàng)建自定義模型D)自定義函數答案:C解析:[單選題]120.以下不是LSTM中包含的門A)遺忘門B)輸入門C)輸出門D)更新門答案:D解析:[單選題]121.tensorboard一般用于對loss和metric的變化進行可視化分析的函數是A)writer.add_graphB)writer.add_scalarC)writer.add_histogramD)writer.add_figure答案:B解析:[單選題]122.卷積過程中,輸入圖像為RGB彩色圖像,采用5x5的卷積核,此時卷積核有()個通道。A)3B)5C)7D)1答案:A解析:[單選題]123.騰訊云提供三種類型的云服務器購買方式,分別適用于不同場景下的用戶需求,下列哪一項不是騰訊云服務器購買方式:()A)包年包月B)按量計費C)部分免費D)競價實例答案:C解析:[單選題]124.ImporttensorflowastfInput=tf.variable(tf.random_normal([1,3,3,1]))Filter=tf.variable(tf.random_normal([3,3,1,1]))Result=tf.nn.conv2d(input,filter,strides=[1,1,1,1]),padding='VALID')該程序中,填充方式為()A)使用0填充B)不使用0填充C)無論怎樣都不填充D)使用1填充答案:B解析:[單選題]125.以下不是激活函數的是:A)reluB)sigmoidC)tanhD)dropout答案:D解析:[單選題]126.優(yōu)化算法計算用到了:A)標準差加權平均B)方差加權平均C)對數加權平均D)指數加權平均答案:D解析:[單選題]127.自定義循環(huán)訓練模型模式,無需()過程A)編譯B)求導C)計算梯度D)計算得分答案:A解析:[單選題]128.(e^x)*sin(x)的導數是A)(e^x)((sin(x)+cos(x))B)(e^x)C)(e^x)*cos(x)D)cosx答案:A解析:[單選題]129.在會話中運行計算圖使用的函數是A)Session()B)Sess()C)Constant()D)Tf.constant()答案:A解析:[單選題]130.激活函數X。在給定輸入后,其輸出為-0.01。則X可能是以下哪一個激活函數?()A)ReLUB)tanhC)SigmoidD)其他選項都有可能答案:B解析:[單選題]131.編程中,通常要進行全局變量初始化操作,可以使用下列那一個語句()A)init_op=tf.global_variables_initializer()B)init_op=tf.variables_initializer()C)init_op=tf.initializer()D)init_op=np.global_variables_initializer()答案:A解析:[單選題]132.我們可以采取哪些措施來防止神經網絡中的過擬合?A)數據增強B)權重共享C)提前停止D)DropoutE)以上全部F)全部答案:E解析:第2部分:多項選擇題,共41題,每題至少兩個正確答案,多選或少選均不得分。[多選題]133.分別加載模型結構和權重,就是分別加載模型結構文件和模型權重文件,下面哪些方法能實現上述功能?A)model_from_json()B)model.from_weights()C)model_from_yaml()D)load_weights()答案:ACD解析:[多選題]134.在tensorflow平臺中,可以實現兩個向量內積運算的語句包括:A)tf.reduce_sumB)tf.multiplyC)tf.reduce_meanD)tf.norm答案:AB解析:[多選題]135.由深度神經網絡構成的網絡結構中,其構成通常會包括那些層?A)輸入層B)卷積層(激活函數)C)池化層D)全連接層答案:ABCD解析:[多選題]136.以下哪些屬于獨熱編碼?A)[0,1,0,0]B)[0,1,1,0]C)[1,0,0,0]D)[0,0,0,1]答案:ACD解析:[多選題]137.語句tf.transpose(x).eval()的意義是:A)對x進行轉置B)從tf環(huán)境中獲取x的數據交給python環(huán)境C)不對x轉置D)不能獲知x的內容答案:AB解析:[多選題]138.需要循環(huán)迭代的算法有A)k-meansB)線性回歸C)svmD)邏輯回歸答案:ABD解析:[多選題]139.深度學習是一類模式分析方法的統(tǒng)稱,就具體研究內容而言,主要涉及三類方法:A)基于卷積運算的神經網絡系統(tǒng),即卷積神經網絡(CNN)。B)以多層自編碼神經網絡的方式進行預訓練,進而結合鑒別信息進一步優(yōu)化神經網絡權值的深度置信網絡(DBN)C)基于多層神經元的自編碼神經網絡,包括自編碼(Autoencoder)以及近年來受到廣泛關注的稀疏編碼兩類(SparseCoding)D)以機器學習為主的多種神經網絡算法答案:ABC解析:深度學習是一類模式分析方法的統(tǒng)稱,就具體研究內容而言,主要涉及三類方法:[2](1)基于卷積運算的神經網絡系統(tǒng),即卷積神經網絡(CNN)。[2](2)基于多層神經元的自編碼神經網絡,包括自編碼(Autoencoder)以及近年來受到廣泛關注的稀疏編碼兩類(SparseCoding)。[2](3)以多層自編碼神經網絡的方式進行預訓練,進而結合鑒別信息進一步優(yōu)化神經網絡權值的深度置信網絡(DBN)。[多選題]140.圖像歸一化的好處包括()A)減小幾何變換的影響B(tài))轉換成標準模式,防止仿射變換的影響C)減小噪聲影響D)加快梯度下降求最優(yōu)解的速度答案:ABD解析:一、圖像歸一化的好處:1、轉換成標準模式,防止仿射變換的影響。2、減小幾何變換的影響。3、加快梯度下降求最優(yōu)解的速度。[多選題]141.TensorFlow程序的核心是:A)變量B)常量C)張量數據結構D)計算圖算法語言答案:CD解析:[多選題]142.下面哪些語句哪些函數是優(yōu)化器?A)tf.train.GradientDescentOptimizer()B)tf.train.AdamOptimizer()C)tf.train.Optimizer()基本的優(yōu)化類D)tf.train.AdadeltaOptimizer()答案:ABCD解析:[多選題]143.語句a=tf.Variable([1,2,3])和b=tf.Variable(a)這條語句:A)合法B)非法C)合法但a需要提前初始化D)合法但不夠安全答案:ACD解析:[多選題]144.張量結構操作A)張量創(chuàng)建B)索引切片C)維度變換D)合并分割答案:ABCD解析:[多選題]145.假定一個全連接網絡有三個權重矩陣維度為W1[a,b],W2[c,d],W3[e,f],該網絡A)輸入維度為[M,a]B)輸出維度[M,f]C)輸入數據維度為[a,b]D)輸出數據維度為[e,f]答案:AB解析:[多選題]146.keras中包含的庫有A)activationB)layersC)lossesD)metrics答案:ABCD解析:[多選題]147.交叉熵為-1/m∑[y(i)log(hθ(x(i)))+(1?y(i))log(1?hθ(x(i)))]A)m是訓練輸入元素個數B)∑的加和長度是輸入個數C)y(i)來自標簽的onehot表D)hθ(x(i))和標簽one-hot表維度一致答案:ABCD解析:[多選題]148.隨著深度學習的興起,越來越多的人從事算法工程師這一崗位。有時候他們自嘲自己為?天橋調參師?。但是,算法工程師的工作內容并沒有那么簡單,因為設置超參數的過程需要專業(yè)知識和廣泛的試驗和試錯過程。尤其是針對()這些超參數而言,沒有簡單易行的方法來設置。A)學習率(learningrate)B)批量大小(batchsize)C)動量(momentum)D)權重衰減(weightdecay)答案:ABCD解析:[多選題]149.關于訓練,驗證集劃分,下列正確的是:A)不一定需要驗證集B)數據集數量較少時,訓練集和測試集比例可以是7:3C)任何數量的數據集,都應遵守訓練集和測試集比例7:3的鐵則D)大數據量的驗證集,可以不遵循訓練集和測試集比例7:3的原則答案:ABD解析:[多選題]150.語句My_var_times_two=my_var.assign(2*my_var)A)讓my_var對應變量翻倍B)有賦值C)My_var_times_two是一個節(jié)點D)需要先對my_var初始化答案:ABCD解析:[多選題]151.關于梯度的問題,以下說法錯誤的是:A)梯度下降會增加學習次數B)多使用梯度爆炸,增加計算效率提升模型準確率C)梯度下降可以減少計算量,建議使用D)梯度爆炸會增大計算量,編寫代碼時避免梯度爆炸答案:BC解析:[多選題]152.計算圖由()和()組成A)節(jié)點B)線C)張量D)變量答案:AB解析:[多選題]153.做作為分類損失函數的有A)binary_crossentropyB)categorical_crossentropyC)sparse_categorical_crossentropyD)hinge答案:ABC解析:D為SVM中的合頁損失[多選題]154.在深度學習中,模型出現過擬合的現象可能是()A)訓練集的數量級和模型的復雜度不匹配。訓練集的數量級要小于模型的復雜度;B)訓練集和測試集特征分布不一致;C)樣本里的噪音數據干擾過大,大到模型過分記住了噪音特征,反而忽略了真實的輸入輸出間的關系D)權值學習迭代次數足夠多(Overtraining),擬合了訓練數據中的噪聲和訓練樣例中沒有代表性的特征答案:ABCD解析:[多選題]155.人工智能被分為三大學派或者三大主義,請從以下選項中選擇出()?A)symbolicismB)connectionismC)actionismD)機器學習答案:ABC解析:[多選題]156.Dataset創(chuàng)建數據集常用的方法有:A)torch.utils.data.TensorDatasetB)torchvision.datasets.ImageFolderC)繼承torch.utils.data.DatasetD)dataloder答案:ABC解析:[多選題]157.Tf.slice(image,input,size)從,image取出局部A)image是輸入張量B)input是定位點C)size是取出數據描述D)image只能有四維張量答案:ABC解析:[多選題]158.屬于卷積網絡相關的函數是:A)nn.Conv1dB)nn.MaxPool2dC)nn.AvgPool2dD)nn.Embedding答案:ABC解析:[多選題]159.cnn網絡常用的步驟有A)卷積B)池化C)激活D)全連接答案:ABCD解析:[多選題]160.淺層神經網絡與深度神經網絡比較,其區(qū)別之處是?A)淺層結構算法:其局限性在于有限樣本和計算單元情況下對復雜函數的表示能力有限,針對復雜分類問題其泛化能力受到一定制約B)深度學習可通過學習一種深層非線性網絡結構,實現復雜函數逼近,表征輸入數據分布式表示,并展現了強大的從少數樣本集中學習數據集本質特征的能力。C)深度學習多層的好處是可以用較少的參數表示復雜的函數D)深度學習的實質,是通過構建具有很多隱層的機器學習模型和海量的訓練數據,來學習更有用的特征,從而最終提升分類或預測的準確性。答案:ABCD解析:[多選題]161.數學建模過程中,引入距離空間,可以:A)度量任意兩個點的接近程度B)可以實現線性運算C)可以度量點到集合距離D)度量凸集合到凸集合的距離答案:ACD解析:[多選題]162.()模型是2014年ILSVRC競賽的第二名,第一名是()。但是VGG模型在多個遷移學習任務中的表現要優(yōu)于googLeNetA)VGGB)GoogLeNetC)ResNetD)AlexNet答案:AB解析:[多選題]163.池化的方式有:A)平均池化B)最大池化C)中值池化D)最小池化答案:AB解析:[多選題]164.tensorflow2.0常用的三種計算圖是A)靜態(tài)計算圖B)動態(tài)計算圖C)AutographD)4維動態(tài)圖答案:ABC解析:[多選題]165.在循環(huán)神經網絡中,GRU中有幾個門?A)輸入門B)遺忘門C)重置門D)更新門答案:CD解析:[多選題]166.反向算法BP網絡學習包括以下()個過程A)組成輸入模式由輸入層經過隱含層向輸出層的?模式順傳播?過程B)網絡的期望輸出與實際輸出之差的誤差信號由輸出層經過隱含層逐層修正連接權的?誤差逆?zhèn)鞑?過程C)由?模式順傳播?與?誤差逆?zhèn)鞑?的反復進行的網絡?記憶訓練?過程D)網絡趨向收斂即網絡的總體誤差趨向極小值的?學習收斂?過程答案:ABCD解析:[多選題]167.下面哪些序列數據屬于多對多(多個輸入,多個輸出)的關系A)音樂生成B)情感分類C)編碼器-解碼器D)機器翻譯答案:CD解析:[多選題]168.歸一化的特點:A)更容易收斂得到最優(yōu)解B)權重值較小C)權重值大D)無特點答案:AB解析:[多選題]169.對于距離空間,以下說法正確的是:A)求兩個量的差別B)距離表示有多樣C)距離必須大于等于0D)數軸是距離空間答案:ABCD解析:[多選題]170.TensorFlow框架可用于多個領域,例如:A)語音識別B)NLPC)計算機視覺D)自動駕駛答案:ABCD解析:[多選題]171.對數坐標下,在[a,b]區(qū)間隨機隨機均勻地給r取值的說法正確的是A)取最小值的對數得到a的值B)取最小值的對數得到b的值C)取最大值的對數得到a的值D)取最大值的對數得到b的值答案:AD解析:[多選題]172.圖像歸一化就是通過一系列變換(即利用圖像的不變矩尋找一組參數使其能夠消除其他變換函數對圖像變換的影響),將待處理的原始圖像轉換成相應的唯一標準形式(該標準形式圖像對()等仿射變換具有不變特性。A)平移B)噪聲C)旋轉D)縮放答案:ACD解析:圖像歸一化就是通過一系列變換(即利用圖像的不變矩尋找一組參數使其能夠消除其他變換函數對圖像變換的影響),將待處理的原始圖像轉換成相應的唯一標準形式(該標準形式圖像對平移、旋轉、縮放等仿射變換具有不變特性。[多選題]173.Momentum和RMSprop算法的特點是:A)RMSprop可以取更大學習率B)RMSprop是將指數平均值平方再開發(fā)C)RMSprop下降更好消除擺動D)RMSprop和Momentum都可以優(yōu)化算法答案:ABCD解析:第3部分:判斷題,共54題,請判斷題目是否正確。[判斷題]174.平均池化取得是池化核的平均值A)正確B)錯誤答案:對解析:[判斷題]175.在步長迭代運算中,連續(xù)函數與間斷函數比較,好處在于,能夠不間斷運算。A)正確B)錯誤答案:對解析:[判斷題]176.nn.CrossEntropyLoss中y_pred未經過nn.Softmax激活。A)正確B)錯誤答案:對解析:[判斷題]177.對交叉熵的損失函數求偏導數的結果,得到一個梯度向量。A)正確B)錯誤答案:對解析:[判斷題]178.神經網絡中,隱藏層如果具有足夠數量的單位,理論上它就可以近似任何連續(xù)函數。A)正確B)錯誤答案:對解析:[判斷題]179.圖像卷積就是卷積核在圖像上按行滑動遍歷像素時不斷的相乘求和的過程。A)正確B)錯誤答案:對解析:[判斷題]180.激活函數的作用是實現模型的非線性化。A)正確B)錯誤答案:對解析:[判斷題]181.無監(jiān)督學習是指利用一組已知類別的樣本調整分類器的參數,使其達到所要求性能的過程,也稱為監(jiān)督訓練或有教師學習。A)正確B)錯誤答案:錯解析:監(jiān)督學習(SupervisedLearning)是指利用一組已知類別的樣本調整分類器的參數,使其達到所要求性能的過程,也稱為監(jiān)督訓練或有教師學習。[判斷題]182.深度學習在人工智能領域的表現并不突出。()A)正確B)錯誤答案:錯解析:[判斷題]183.行為主義是研究低等生命,如昆蟲智慧的甲肢。A)正確B)錯誤答案:對解析:[判斷題]184.提升卷積核(convolutionalkernel)的大小會顯著提升卷積神經網絡的性能。A)正確B)錯誤答案:錯解析:[判斷題]185.循環(huán)神經網絡只能進行分類處理A)正確B)錯誤答案:錯解析:[判斷題]186.雙向循環(huán)神經網絡(bidirectionalrecurrentneuralnetwork,Bi-RNN)由兩層循環(huán)神經網絡組成,它們的輸入相同,只是信息傳遞的方向不同。A)正確B)錯誤答案:對解析:[判斷題]187.如果模型的訓練效果不好,可先考察是否選擇合適的損失函數。A)正確B)錯誤答案:對解析:[判斷題]188.卷積可以縮小圖像尺寸A)正確B)錯誤答案:對解析:[判斷題]189.距離的大小程度,是一個標量。A)正確B)錯誤答案:對解析:[判斷題]190.在尋優(yōu)的迭代過程中,損失函數的運算結果,從趨勢上是逐步降低的。A)正確B)錯誤答案:對解析:[判斷題]191.pytorch不支持廣播A)正確B)錯誤答案:錯解析:[判斷題]192.人工智能(ArtificialIntelligence,縮寫為AI)亦稱機器智能,指由人制造出來的機器所表現出來的智能。A)正確B)錯誤答案:對解析:人工智能(ArtificialIntelligence,縮寫為AI)亦稱機器智能,指由人制造出來的機器所表現出來的智能。[判斷題]193.卷積神經網絡的前幾層檢查提取例如邊緣這樣的簡單特征A)正確B)錯誤答案:對解析:[判斷題]194.所謂導數是個方向,所謂梯度也是個方向。維度不同而已。A)正確B)錯誤答案:對解析:[判斷題]195.人類對智能機械的研究從1千年前就開始了。A)正確B)錯誤答案:對解析:[判斷題]196.T_scope()的含義是在另外一個命名空間來定義變量A)正確B)錯誤答案:對解析:[判斷題]197.在tensorflow中,真實值和計算值之間的交叉熵越大越好。A)正確B)錯誤答案:錯解析:[判斷題]198.Linux不僅系統(tǒng)性能穩(wěn)定,而且是非開源軟件。其核心防火墻組件性能高效、配置簡單,保證了系統(tǒng)的安全。A)正確B)錯誤答案:錯解析:Linux不僅系統(tǒng)性能穩(wěn)定,而且是開源軟件。其核心防火墻組件性能高效、配置簡單,保證了系統(tǒng)的安全。[判斷題]199.如果多分類的y_pred經過了nn.LogSoftmax激活,可以使用nn.NLLLoss損失函數A)正確B)錯誤答案:對解析:[判斷題]200.zero_grad用于更新梯度A)正確B)錯誤答案:對解析:[判斷題]201.在程序中如果涉及區(qū)間條件判斷,一定在全部條件進行驗證。A)正確B)錯誤答案:對解析:[判斷題]202.訓練集準確率高,測試集準確率低是欠擬合A)正確B)錯誤答案:錯解析:[判斷題]203.有些領域,采用傳統(tǒng)的簡單的機器學習方法,可以很好地解決了,沒必要非得用復雜的深度學習方法。A)正確B)錯誤答案:對解析:[判斷題]204.風格遷移的內容可以被卷積神經網絡更靠頂部的層激活所捕捉到。A)正確B)錯誤答案:對解析:[判斷題]205.如果增加神經網絡的寬度,精確度會增加到一個閾值,然后開始降低。造成這一現象的原因可能是只有一部分核被用于預測。A)正確B)錯誤答案:錯解析:[判斷題]206.局部連接使網絡可以提取數據的局部特征。A)正確B)錯誤答案:對解析:[判斷題]207.keras模型必須通過Sequential進行創(chuàng)建A)正確B)錯誤答案:錯解析:[判斷題]208.學習率(Learningrate)作為監(jiān)督學習以及深度學習中重要的超參,其決定著目標函數能否收斂到局部最小值以及何時收斂到最小值。合適的學習率能夠使目標函數在合適的時間內收斂到局部最小值。A)正確B)錯誤答案:對解析:[判斷題]209.Frobenius范數不是一種矩陣范數A)正確B)錯誤答案:錯解析:[判斷題]210.在神經網絡框架中,常使用如下函數tf.truncated_normal(shape,mean,stddev)這個函數產生正態(tài)分布,均值和標準差自己設定A)正確B)錯誤答案:對解析:[判斷題]211.小的卷積核可以計算計算量A)正確B)錯誤答案:對解析:[判斷題]212.pytroch中,需要手動調用繼承模型類的forward方法A)正確B)錯誤答案:錯解析:[判斷題]213.全局最優(yōu)解的函數損失值最小A)正確B)錯誤答案:對解析:[判斷題]214.鏡像是一種云服務器軟件配置(操作系統(tǒng)、預安裝程序等)的模板。A)正確B)錯誤答案:對解析:鏡像是一種云服務器軟件配置(操作系統(tǒng)、預安裝程序等)的模板。[判斷題]215.彩色圖像是由多幅單色圖像組合而成的,例如,在RGB彩色系統(tǒng)中,一幅彩色圖像由紅(R),綠(G),藍(B)分量圖像組成A)正確B)錯誤答案:對解析:[判斷題]216.使用keras可以實現神經風格遷移A)正確B)錯誤答案:對解析:[判斷題]217.隨機梯度下降在神經網絡中引入了非線性。A)正確B)錯誤答案:錯解析:[判斷題]218.通常將TripletLoss翻譯為三元組損失,其中的三元也就是Anchor、Negative負樣例、Positive正樣例A)正確B)錯誤答案:對解析:[判斷題]219.對于概率空間一個任意劃分,其結果依然是概率空間。A)正確B)錯誤答案:對解析:[判斷題]220.激活函數也就是大于某個值輸出1(被激活了),小于等于則輸出0(沒有激活)。這個函數是非線性函數。A)正確B)錯誤答案:對解析:[判斷題]221.全局變量初始化語句后,變量和常量都被初始化。A)正確B)錯誤答案:錯解析:[判斷題]222.風格遷移是指創(chuàng)建一張新圖像,保留目標圖像的內容的同是還抓住了參考圖像的風格A)正確B)錯誤答案:對解析:[判斷題]223.激活函數給神經元引入了非線性因素,使得神經網絡可以任意逼近任何非線性函數,這樣神經網絡就可以應用到眾多的非線性模型中A)正確B)錯誤答案:對解析:[判斷題]224.在卷積神經網絡中實施填充是一件十分重要的事情,如果沒有填充,邊緣區(qū)域的像素值基本不會受到卷積層的影響A)正確B)錯誤答案:對解析:[判斷題]225.激活函數可以使神經網絡具有非線性變換的能力。A)正確B)錯誤答案:對解析:[判斷題]226.Tf.cast()函數的作用是執(zhí)行tensorflow中張量數據類型轉換,比如讀入的圖片如果是int8類型的,一般在要在訓練前把圖像的數據格式轉換為float32A)正確B)錯誤答案:對解析:[判斷題]227.如果增加多層感知機(MultilayerPerceptron)的隱藏層層數,分類誤差便會減小。A)正確B)錯誤答案:錯解析:第4部分:問答題,共33題,請在空白處填寫正確答案。[問答題]228.有模型構建如下所示:model=Sequential([Dense(units=100,input_dim=784,bias_initializer='zeros',activation='tanh'),#雙曲正切激活函數Dropout(0.4),#百分之40的神經元不工作Dense(units=200,bias_initializer='zeros',activation='tanh'),#雙曲正切激活函數Dropout(0.4),#百分之40的神經元不工作Dense(units=10,bias_initializer='zeros',activation='softmax')])該模型需要計算的參數數量是多少?答案:100710解析:[問答題]229.np.array中查看類型的屬性為_______答案:dtype解析:[問答題]230.批量梯度下降法首先遍歷______數集,然后計算損失函數。答案:全部;解析:[問答題]231.計算圖的數據結構是有_______和_______表示答案:節(jié)點|邊解析:[問答題]232.處理多分類問題,常使用_______激活函數答案:softmax解析:[問答題]233.importtensorflowastfC=tf.constant([[1.0,2.0,3.0],[4.0,5.0,6.0]])Print(c.get_shape())該程序輸出結果為______。答案:(2,3);解析:[問答題]234.簡述小批量梯度下降法的操作方法與優(yōu)缺點。答案:數據分為若干個批,按批來更新參數,這樣一批中的一組數據共同決定了本次梯度的方向,下降起來就不容易跑偏,減少了隨機性。解析:[問答題]235.定義一個初始值為[1,2,3]的整型變量的代碼為_______。答案:Tf.Variable([1,2,3],dtype=32);解析:[問答題]236.分析為什么加深層可以使學習更加高效?答案:①減少網絡參數的數量
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 電子出版物在終身教育中的重要性考核試卷
- 自行車運動監(jiān)測技術應用考核試卷
- 羊的飼養(yǎng)羊只飼養(yǎng)與飼養(yǎng)技術研究考核試卷
- 彈射玩具企業(yè)項目管理與進度控制技巧考核試卷
- 社會媒體在企業(yè)傳播中的應用考核試卷
- 電子元件生產線委托管理及市場拓展與技術支持合同
- 橫店影視城文化旅游地產項目景區(qū)資源合作協議
- 高品質度假村客房全權委托經營管理協議
- 文化創(chuàng)意產業(yè)數據分析師崗位長期聘用協議
- 商業(yè)步行街商業(yè)地產開發(fā)與委托運營管理合同
- 2025年昆明市高三語文三診一模考試卷附答案解析
- 診療規(guī)范考核試題及答案
- 臨沂市羅莊區(qū)興羅資本投資有限公司招聘筆試題庫2025
- 船舶動力系統(tǒng)可靠性提升-全面剖析
- 人工智能設計倫理知到智慧樹章節(jié)測試課后答案2024年秋浙江大學
- 《陸上風電場工程概算定額》NBT 31010-2019
- 新中考考試平臺-考生端V2.0使用手冊
- 電廠水處理基礎知識課件
- 青春期健康教育之拒絕吸煙酗酒
- 珠海格力電器股份有限公司融資模式分析研究金融學專業(yè)
- 王澤鑒教授:請求權基礎、法學方法與民法發(fā)展(修改版20141028)
評論
0/150
提交評論