




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
人工智能訓(xùn)練師職業(yè)技能競賽(省賽)參考試題(附答案)單選題1.自然語言處理的英文簡寫是()。2.專用與通用人工智能討論的是智能的()問題。A、分層D、語言處理3.支持向量機(jī)SVM是一種()算法。A、只有有限個間斷點(diǎn)的連續(xù)函數(shù)B、大樣本下的統(tǒng)計(jì)機(jī)器學(xué)習(xí)C、大樣本下的實(shí)例機(jī)器學(xué)習(xí)4.在自然語言處理中,transformer模型主要用于解決()問題。A、文本摘要B、機(jī)器翻譯C、情感分析D、以上都是5.在自然語言處理中,n-gram模型主要用于解決()問題。C、圖像描述生成D、機(jī)器翻譯RL)的目的是()。A、確定句子中的謂語和賓語B、根據(jù)上下文理解句子的含義C、根據(jù)謂語動詞確定句子的結(jié)構(gòu)D、根據(jù)名詞短語確定句子的主題于解決()問題。A、文本分類B、確定文獻(xiàn)間的相似性或關(guān)聯(lián)性C、生成文本摘要8.在自然語言處理任務(wù)中,自適應(yīng)學(xué)習(xí)率優(yōu)化器的一個例子是9.在自然語言處理任務(wù)中,()模型最適合實(shí)現(xiàn)情感分析。10.在自然語言處理任務(wù)中,()技術(shù)不適用于文本分類。11.在正則表達(dá)式中,匹配任意一個字符的符號是()。12.在英文閱讀中遇到生詞時,教師一般要求學(xué)生聯(lián)系上下文猜測詞義,而不是急于查字典。這體現(xiàn)了知覺的()。A、整體性B、選擇性D、恒常性沒有下降,可能的原因是()。A、學(xué)習(xí)率(learningrate)太低B、正則參數(shù)太高C、陷入局部最小值D、以上都是14.在訓(xùn)練模型之前,需要把先標(biāo)注好的數(shù)據(jù)進(jìn)行()。D、更新15.在訓(xùn)練大模型時,為了避免過擬合,()技術(shù)可能被使用。A、增加訓(xùn)練輪次B、減少網(wǎng)絡(luò)層數(shù)D、降低學(xué)習(xí)率16.在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)中,()問題容易導(dǎo)致梯度消失或梯度爆炸。A、輸入數(shù)據(jù)的維度過大B、網(wǎng)絡(luò)層數(shù)過多C、時間序列過長D、激活函數(shù)選擇不當(dāng)A、推薦系統(tǒng)能夠推薦大量冷門但優(yōu)質(zhì)的物品B、推薦系統(tǒng)總是推薦熱門的物品C、推薦系統(tǒng)推薦的物品數(shù)量很少D、推薦系統(tǒng)無法處理大量數(shù)據(jù)18.在推薦系統(tǒng)中,()是“上下文廣告”。A、根據(jù)用戶的當(dāng)前上下文信息展示相關(guān)的廣告B、根據(jù)物品的流行度展示廣告C、根據(jù)用戶的個人信息展示廣告D、根據(jù)用戶的搜索歷史展示廣告19.在梯度下降中,鞍點(diǎn)通常指的是()。A、損失函數(shù)的局部最小值點(diǎn)B、損失函數(shù)的局部最大值點(diǎn)C、損失函數(shù)的平坦區(qū)域20.在隨機(jī)森林中,為了()要隨機(jī)選擇特征和樣本。A、提高模型的穩(wěn)定性B、增加模型的多樣性C、減少計(jì)算復(fù)雜度D、提高模型的精度21.在數(shù)據(jù)預(yù)處理中,數(shù)據(jù)離散化通常用于()。A、減少計(jì)算量B、處理缺失值C、處理分類變量D、處理異常值22.在生成式人工智能模型中,零樣本學(xué)習(xí)的目的是()。A、在沒有任何樣本的情況下進(jìn)行訓(xùn)練B、僅使用少量樣本進(jìn)行訓(xùn)練C、在沒有見過的樣本上進(jìn)行推理D、使用大量樣本進(jìn)行訓(xùn)練23.在神經(jīng)網(wǎng)絡(luò)中,()是權(quán)重共享。A、不同層之間共享相同的權(quán)重B、不同神經(jīng)元之間共享相同的權(quán)重C、不同樣本之間共享相同的權(quán)重D、不同批次之間共享相同的權(quán)重24.在神經(jīng)網(wǎng)絡(luò)中,()技術(shù)用于解決過擬合。B、正則化C、批規(guī)范化參考答案:B25.在神經(jīng)網(wǎng)絡(luò)中,()操作通常用于減少模型的計(jì)算復(fù)雜度。A、增加層數(shù)C、增加神經(jīng)元數(shù)量D、使用更復(fù)雜的激活函數(shù)26.在深度學(xué)習(xí)中,卷積層主要用于()。B、序列生成C、語義分析D、決策優(yōu)化27.在深度學(xué)習(xí)中,激活函數(shù)的主要作用是()。A、對輸入數(shù)據(jù)進(jìn)行線性變換B、對輸入數(shù)據(jù)進(jìn)行非線性變換C、增加模型的復(fù)雜度D、減少模型的過擬合28.在深度學(xué)習(xí)中,“長短期記憶”(LSTM)網(wǎng)絡(luò)主要用于處理()A、圖像數(shù)據(jù)B、音頻數(shù)據(jù)C、時序數(shù)據(jù)D、文本數(shù)據(jù)29.在深度學(xué)習(xí)中,“生成對抗網(wǎng)絡(luò)”(GANs)的訓(xùn)練過程中的部分負(fù)責(zé)生成逼真的數(shù)據(jù)。參考答案:B30.在深度學(xué)習(xí)中,“生成對抗網(wǎng)絡(luò)”(GAN)的訓(xùn)練過程中,()部分負(fù)責(zé)生成逼真的數(shù)據(jù)。D、解碼器(Decoder)點(diǎn)是()。A、可以減少訓(xùn)練時間B、可以減少模型的復(fù)雜度C、可以利用預(yù)訓(xùn)練模型來提高性能D、可以減少數(shù)據(jù)需求32.在深度學(xué)習(xí)中,“卷積神經(jīng)網(wǎng)絡(luò)”(CNN)中的池化層(PoolingLayer)的作用是()。A、增強(qiáng)模型的非線性能力B、提取局部特征C、降低特征的空間維度D、增加網(wǎng)絡(luò)的深度33.在深度學(xué)習(xí)中,“卷積”(Convolution)操作主要用于()。A、圖像分類B、文本生成C、語音識別D、以上都是34.在深度學(xué)習(xí)中,“遞歸神經(jīng)網(wǎng)絡(luò)”(RNN)的一個主要A、可以減少過擬合B、可以實(shí)現(xiàn)端到端的學(xué)習(xí)C、可以減少計(jì)算量D、特別適用于處理非結(jié)構(gòu)化數(shù)據(jù)35.在深度學(xué)習(xí)中,()技術(shù)常用于避免梯度消失問題。A、ReLU激活函數(shù)B、批量歸一化36.在深度學(xué)習(xí)模型中,過擬合的一個常見解決方案是()。A、增加訓(xùn)練數(shù)據(jù)的數(shù)量B、減少模型的深度C、增加模型的寬度D、減少訓(xùn)練迭代次數(shù)37.在人機(jī)交互技術(shù)中,不屬于圖形人機(jī)交互技術(shù)的是()。A、幾何約束D、橡皮筋技術(shù)38.在強(qiáng)化學(xué)習(xí)中,智能體通過()方式與環(huán)境互動。A、發(fā)送動作并接收狀態(tài)B、接收狀態(tài)并發(fā)送動作C、接收狀態(tài)、發(fā)送動作并得到獎勵或懲罰D、僅接收環(huán)境的狀態(tài)信息39.在強(qiáng)化學(xué)習(xí)中,策略梯度方法主要用于優(yōu)化()。B、環(huán)境模型C、策略函數(shù)D、獎勵函數(shù)40.在強(qiáng)化學(xué)習(xí)中,Q-learning算法主要用于解決()問題。A、狀態(tài)估計(jì)B、動作選擇C、獎勵最大化稱之為()。42.在命名實(shí)體識別任務(wù)中,O標(biāo)簽通常代表()。A、命名實(shí)體的開始B、命名實(shí)體的內(nèi)部C、非命名實(shí)體D、命名實(shí)體的結(jié)束參考答案:C43.在課堂上,教師講課的聲音成為知覺的對象,而環(huán)境中的其他聲音成為背景音。這體現(xiàn)了知覺的()。A、理解性B、恒常性C、選擇性D、整體性參考答案:C44.在卷積神經(jīng)網(wǎng)絡(luò)(CNN)中,()主要用于提取特征并減少計(jì)算量和參數(shù)量。A、全連接層(FullyConnectedLayer)B、池化層(PoolingLayer)C、批量歸一化層(BatchNormalizationLayer)D、激活層(ActivationLayer)參考答案:B45.在聚類分析中,()指標(biāo)用于評估聚類效果的好壞。A、準(zhǔn)確率B、召回率C、輪廓系數(shù)46.在聚類分析中,()指標(biāo)用于評估聚類效果。C、輪廓系數(shù)47.在計(jì)算機(jī)視覺中,光流法通常用于估計(jì)()。A、物體的形狀B、物體的運(yùn)動C、物體的顏色D、物體的紋理48.在計(jì)算機(jī)視覺中,()任務(wù)關(guān)注從視頻序列中檢測和跟蹤物體。A、圖像分類D、圖像生成49.在計(jì)算機(jī)視覺任務(wù)中,最常用于特征提取的深度學(xué)習(xí)模型是50.在機(jī)器學(xué)習(xí)中,過擬合通常是由()引起的。A、訓(xùn)練數(shù)據(jù)不足B、模型復(fù)雜度過高C、特征選擇不當(dāng)D、使用了不合適的損失函數(shù)51.在機(jī)器學(xué)習(xí)中,超參數(shù)(Hyperparameters)的調(diào)整通常使用()B、最大似然估計(jì)D、網(wǎng)格搜索(GridSearch)52.在機(jī)器學(xué)習(xí)中,K-折交叉驗(yàn)證主要用于()。A、提高模型的訓(xùn)練速度B、評估模型的泛化能力C、減少模型的過擬合風(fēng)險D、增加數(shù)據(jù)集的大小參考答案:B53.在機(jī)器學(xué)習(xí)中,“批量歸一化”(BatchNormalization)的作用是A、加速梯度下降收斂B、降低模型的復(fù)雜度C、增加模型的容量D、改善模型的可解釋性參考答案:A54.在機(jī)器學(xué)習(xí)中,“決策樹”(DecisionTree)的一個限制是()。A、不能處理連續(xù)值B、不能用于多類分類問題C、容易過擬合D、不能處理缺失值參考答案:C55.在機(jī)器學(xué)習(xí)中,“交叉驗(yàn)證”(Cross-validation)的主要目的是A、提高模型的訓(xùn)練速度B、評估模型的泛化能力C、減少模型的過擬合D、選擇最佳的模型參數(shù)參考答案:BA、加快算法的運(yùn)行速度B、使線性算法能夠處理非線性問題C、減少模型的內(nèi)存使用D、簡化模型的結(jié)構(gòu)參考答案:B57.在機(jī)器學(xué)習(xí)中,()是特征提取。A、將原始數(shù)據(jù)轉(zhuǎn)換為新的特征空間的過程B、從原始數(shù)據(jù)中選擇最重要的特征的過程C、用于評估模型性能的指標(biāo)D、用于調(diào)整模型參數(shù)的技術(shù)58.在機(jī)器學(xué)習(xí)中,()是超參數(shù)。A、模型中學(xué)習(xí)到的參數(shù)B、用于控制模型學(xué)習(xí)過程的參數(shù)C、輸入數(shù)據(jù)的特征D、模型的輸出A、模型復(fù)雜度和訓(xùn)練時間之間的關(guān)系B、模型在訓(xùn)練數(shù)據(jù)上的表現(xiàn)和在測試數(shù)據(jù)上的表現(xiàn)之間的關(guān)系C、模型復(fù)雜度和泛化能力之間的關(guān)系D、模型準(zhǔn)確率和召回率之間的關(guān)系60.在機(jī)器學(xué)習(xí)中,()不屬于監(jiān)督學(xué)習(xí)算法。B、K-近鄰算法D、決策樹61.在機(jī)器學(xué)習(xí)領(lǐng)域中,交叉驗(yàn)證主要用來()。A、評估模型在未見過的數(shù)據(jù)上的泛化能力B、調(diào)整模型的學(xué)習(xí)率C、選擇合適的特征子集D、優(yōu)化模型的正則化參數(shù)62.在關(guān)系模型中,用來表示實(shí)體關(guān)系的是()。B、記錄D、指針63.在對話系統(tǒng)中,()不是常用的技術(shù)。A、意圖識別B、槽填充C、情感分析D、語音識別64.在大語言模型中,Transformer結(jié)構(gòu)的核心組成部分包括()。C、自注意力機(jī)制和前饋神經(jīng)網(wǎng)絡(luò)D、SVM和決策樹65.在查詢“設(shè)計(jì)視圖”中()。A、只能添加數(shù)據(jù)庫表B、可以添加數(shù)據(jù)庫表,也可以添加查詢C、只能添加查詢D、以上都不是66.在Spak的軟件棧中,用于交互式查詢的是()。67.在select語句的where子句中,使用正則表達(dá)式過濾數(shù)據(jù)的關(guān)鍵字是()。68.在PyTorch中,如果要自定義一個神經(jīng)網(wǎng)絡(luò)層,需要繼承()69.在Python中,適合實(shí)現(xiàn)多路分支的結(jié)構(gòu)是()。參考答案:B70.在K近鄰(KNN)算法中,K通常代表()。A、模型訓(xùn)練時的迭代次數(shù)B、樣本數(shù)據(jù)集中的類別數(shù)量C、用來決定新樣本所屬類別的鄰居數(shù)量D、特征空間的維度數(shù)71.在io模塊中,用()函數(shù)讀取圖片。72.在CNN的反向傳播過程中,()是特有的操作。B、池化操作C、權(quán)值共享73.在“查詢參數(shù)”窗口定義查詢參數(shù)時,除定義查詢參數(shù)的類型外,還要定義查詢參數(shù)的()。A、參數(shù)名稱C、參數(shù)值域74.與輪式里程計(jì)相比,激光里程計(jì)的主要優(yōu)勢在于()。A、計(jì)算效率高B、觀測范圍廣C、不受輪子打滑影響D、測量精度高75.用于比較觀察結(jié)果和期望結(jié)果的專家系統(tǒng)類型是()。76.用計(jì)算機(jī)管理科技情報資料,是計(jì)算機(jī)在()方面的應(yīng)用。A、科學(xué)計(jì)算D、人工智能77.隱馬爾可夫模型是一種著名的()模型。A、無向圖B、有向圖C、樹形圖D、環(huán)形圖78.遺傳算法中,從當(dāng)前群體中按照一定概率選出優(yōu)良個體,使它們有機(jī)會作為父代繁殖下一代子孫的操作是()。D、繼承79.一幅數(shù)字圖像是()。B、一個由許多像素排列而成的實(shí)體C、一個2-D數(shù)組中的元素D、一個3-D空間的場景80.一幅灰度級均勻分布的圖像,其灰度范圍在[0,255],則該圖像像素的存儲位數(shù)為()。81.要從學(xué)生關(guān)系中查詢20歲的女生進(jìn)行的查詢操作屬于()。82.現(xiàn)欲分析性別、年齡、身高、飲食習(xí)慣對體重的影響,如果這個體重是屬于實(shí)際的重量,是連續(xù)性的數(shù)據(jù)變量,這時應(yīng)采用();如果將體重分類,分成高、中、低三種體重類型作為因變量,則采用()。A、線性回歸;邏輯回歸B、邏輯回歸;線性回歸C、線性回歸;線性回歸D、邏輯回歸;邏輯回歸83.下面顯示的是查詢設(shè)計(jì)視圖的設(shè)計(jì)網(wǎng)格部分,從下圖所示的內(nèi)容中,可以判斷出要創(chuàng)建的查詢是()。A、刪除查詢B、追加查詢C、生成表查詢D、更新查詢84.文本摘要任務(wù)的主要目標(biāo)是()。A、識別文本中的關(guān)鍵詞B、生成文本的簡短描述C、對文本進(jìn)行情感分析D、對文本進(jìn)行分類參考答案:B85.為制作“磁性男聲”音色,請專業(yè)人士錄制了一批數(shù)據(jù),()A、語速均勻,發(fā)音準(zhǔn)確的片段B、兒化音時有時無的片段C、語速比平均水平快很多的片段D、情緒激昂的片段86.為數(shù)據(jù)表創(chuàng)建索引的目的是()。A、提高查詢的檢索性能B、歸類C、創(chuàng)建唯一索引D、創(chuàng)建主鍵87.為解決單個輸出的感知機(jī)無法解決的異或問題,需要用有至少()個輸出的感知機(jī)。88.圖像分割中常用的基于像素的方法是()。A、基于閾值的分割B、基于邊緣的分割C、基于區(qū)域的分割D、基于特征的分割89.通過SSML標(biāo)記()文本內(nèi)容,可以控制()語音生成的許多A、標(biāo)準(zhǔn),簡單B、標(biāo)準(zhǔn),復(fù)雜C、格式化,合成D、通用性,合成90.梯度下降算法的正確步驟是()。①計(jì)算預(yù)測值和真實(shí)值之間的誤差②迭代跟新,直到找到最佳權(quán)重③把輸入傳入網(wǎng)絡(luò),得到輸出值④初始化隨機(jī)權(quán)重和偏差⑤對每一個產(chǎn)生誤差的神經(jīng)元,改變相應(yīng)的(權(quán)重)值以減小誤差91.索價表格在30萬-70萬元之間的產(chǎn)品,可以設(shè)置條件為()。92.隨著閉源軟件在數(shù)據(jù)分析領(lǐng)域的地盤不斷縮小,老牌IT廠商正在改變商業(yè)模式,向著()靠攏。A、閉源B、開源D、封閉93.算法中屬于圖像平滑處理的是()。B、狀態(tài)法C、高通濾波D、中值濾波94.數(shù)字音頻采樣和量化過程所用的主要硬件是()。A、數(shù)字編碼器B、數(shù)字解碼器C、模擬到數(shù)字的轉(zhuǎn)換器(A/D轉(zhuǎn)換器)D、數(shù)字到模擬的轉(zhuǎn)換器(D/A轉(zhuǎn)換器)95.數(shù)據(jù)預(yù)處理中,()步驟不是針對缺失值處理的。A、刪除包含缺失值的行或列B、使用均值或中位數(shù)填充缺失值C、對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化D、使用插值法填充缺失值96.數(shù)據(jù)庫(DB)、數(shù)據(jù)庫系統(tǒng)(DBS)和數(shù)據(jù)庫管理系統(tǒng)(DBMS)之間的關(guān)系是()。A、DBS包括DB和DBMSB、DBMS包括DB和DBSD、BS就是DB,也就是DBMS97.數(shù)據(jù)標(biāo)注的最終目的是()。B、提高數(shù)據(jù)質(zhì)量C、減少人工干預(yù)D、以上都是98.屬于物聯(lián)網(wǎng)感知層關(guān)鍵技術(shù)的是()。A、通信技術(shù)D、感知與標(biāo)識技術(shù)99.屬于點(diǎn)處理的是()。A、灰度線性變換B、二值化C、傅立葉變換D、中值濾波100.屬性xlabel用于設(shè)置可視化圖表的()部分。A、橫坐標(biāo)刻度B、橫坐標(biāo)名稱C、縱坐標(biāo)刻度D、縱坐標(biāo)名稱101.使用各類型標(biāo)注工具后,標(biāo)注完成的輸出文件的格式一般不包括()。102.使用白盒測試方法時,確定測試數(shù)據(jù)應(yīng)根據(jù)()和指定的覆蓋標(biāo)準(zhǔn)。A、程序的內(nèi)部結(jié)構(gòu)B、程序的復(fù)雜性C、使用說明書D、程序的功能103.神經(jīng)網(wǎng)絡(luò)求解問題的過程中()陷入局部極值點(diǎn)。104.深度學(xué)習(xí)中,模型集成(ModelEnsemble)的主要目的是()。A、提高模型的準(zhǔn)確率B、減少模型的參數(shù)數(shù)量C、加速模型訓(xùn)練105.深度學(xué)習(xí)中,Dropout層的作用是()。A、防止過擬合B、增加模型復(fù)雜度C、加速模型收斂D、提高準(zhǔn)確率106.深度學(xué)習(xí)中,()網(wǎng)絡(luò)結(jié)構(gòu)通常用于處理序列數(shù)據(jù)并捕捉長期107.深度學(xué)習(xí)中,()是梯度爆炸問題。A、模型梯度在訓(xùn)練過程中逐漸增大B、模型梯度在訓(xùn)練過程中逐漸減小C、模型梯度在訓(xùn)練過程中保持不變D、模型梯度與損失函數(shù)無關(guān)108.深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的主要區(qū)別是()。A、深度學(xué)習(xí)使用更復(fù)雜的模型B、深度學(xué)習(xí)需要更多的計(jì)算資源C、深度學(xué)習(xí)通?;谏窠?jīng)網(wǎng)絡(luò)D、深度學(xué)習(xí)僅適用于大規(guī)模數(shù)據(jù)集109.深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種()形式。A、監(jiān)督學(xué)習(xí)B、非監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、以上都是110.深度學(xué)習(xí)模型訓(xùn)練過程中,驗(yàn)證集的主要作用是()。A、選擇超參數(shù)B、評估模型性能C、作為額外的訓(xùn)練數(shù)據(jù)D、進(jìn)行在線學(xué)習(xí)111.人工智能最早的起源可以追溯到()。A、20世紀(jì)50年代B、19世紀(jì)90年代C、21世紀(jì)10年代D、18世紀(jì)70年代112.人工智能中通常把()作為衡量機(jī)器智能的準(zhǔn)則。A、圖靈機(jī)B、圖靈測試C、中文屋思想實(shí)驗(yàn)D、人類智能113.人工智能中的策略網(wǎng)絡(luò)主要用于解決()問題。A、圖像分類B、強(qiáng)化學(xué)習(xí)C、文本生成D、數(shù)據(jù)清洗114.人工智能是一門利用計(jì)算機(jī)模擬人類智能行為科學(xué)的統(tǒng)稱,它涵蓋了訓(xùn)練計(jì)算機(jī)使其能夠完成()等人類行為的范疇。A、自主學(xué)習(xí)、判斷、執(zhí)行B、決策、判斷、執(zhí)行C、自主學(xué)習(xí)、決策、執(zhí)行D、自主學(xué)習(xí)、判斷、決策115.人工智能的本質(zhì)是()。A、取代人類智能B、電腦萬能C、人類智慧的倒退D、對人類智能的模擬116.人工智能“兩庫一平臺”邊緣側(cè)采集數(shù)據(jù)和業(yè)務(wù)系統(tǒng)數(shù)據(jù)經(jīng)過預(yù)處理和標(biāo)注后,形成可用于訓(xùn)練的樣本數(shù)據(jù),歸集至()。A、省級樣本庫B、公司樣本庫C、共享樣本庫D、云樣本庫117.人工神經(jīng)網(wǎng)絡(luò)在20世紀(jì)()年代興起,一直以來都是人工智118.樸素貝葉斯方法的優(yōu)點(diǎn)是()。①樸素貝葉斯模型具有穩(wěn)定的分類效率②在小規(guī)模數(shù)據(jù)上表現(xiàn)良好,可以處理多分類任務(wù),并且適合增量訓(xùn)練,尤其是當(dāng)數(shù)據(jù)量超過內(nèi)存時,可以分批增量訓(xùn)練③對丟失數(shù)據(jù)不是很敏感,算法比較簡單,經(jīng)常用于文本分類119.目前常見的標(biāo)注文檔存儲格式不包括()。120.某種計(jì)算機(jī)的內(nèi)存容量是640K,這里的640K容量是指()121.每個查詢都有3種視圖的是()。A、設(shè)計(jì)視圖B、模版視圖C、數(shù)據(jù)表視圖D、SQL視圖A、一個已知事實(shí)可以與知識庫中多個知識匹配成功B、多個已知事實(shí)與知識庫中的一個知識匹配成功C、多個已知事實(shí)可以與知識庫中多個知識匹配成功D、已知事實(shí)不能與知識庫中的任何知識匹配成功參考答案:D123.盲目搜索策略不包括()。A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、全局擇優(yōu)搜索124.量子計(jì)算的理論模型是()。A、希爾伯特機(jī)B、哥德爾機(jī)C、通用圖靈機(jī)D、通用羅素機(jī)125.兩種以上(不含兩種)的分類問題被稱為()。B、歸一化D、二分類參考答案:A126.客服中心是運(yùn)營商和客戶接觸較為頻繁的通道,可以利用()在后端給客服中心建立龐大的知識庫,供接線員們使用,幫他們A、大數(shù)據(jù)技術(shù)B、客戶畫像C、客戶狀態(tài)D、客戶心情127.卷積神經(jīng)網(wǎng)絡(luò)的縮寫是()。128.卷積神經(jīng)網(wǎng)絡(luò)(CNN)在計(jì)算機(jī)視覺中主要用于()。A、自然語言處理B、圖像識別C、語音識別D、情感分析129.晶體管有3個工作區(qū),在數(shù)字電路中,它工作在()區(qū)。B、截止C、放大D、飽和或截止130.今年,大數(shù)據(jù)分析將出現(xiàn)革命性的新方法,從前的很多算法和基礎(chǔ)理論可能會產(chǎn)生理論級別的突破,而()技術(shù)將繼續(xù)成為大數(shù)據(jù)智能分析的核心技術(shù)。A、機(jī)器學(xué)習(xí)B、智能物流D、智能終端131.假設(shè)某數(shù)據(jù)庫表中有一個工作時間字段,查找20天之內(nèi)參加工作的記錄的準(zhǔn)則是()。132.假設(shè)某數(shù)據(jù)庫表中有一個“學(xué)生編號”字段,查找編號第3、4個字符為“03”的記錄的準(zhǔn)則是()。A、Mid([學(xué)生編號],3,4)="03"B、Mid([學(xué)生編號],3,2)="03C、Mid("學(xué)生編號",3,4)="03"D、Mid("學(xué)生編號",3,2)="03"133.機(jī)器學(xué)習(xí)的主要研究領(lǐng)域不包括()。A、語音識別C、云計(jì)算D、軟件工程134.機(jī)器學(xué)習(xí)的實(shí)質(zhì)在于()。D、理解135.機(jī)器學(xué)習(xí)的發(fā)展分()階段。B、兩個C、三個D、四個參考答案:D136.合法的表達(dá)式是()。A、教師編號between100000And200000C、[基本工資]>=1000[基本工資]<=10000參考答案:B137.歸一化的種類有()。①線性歸一化②標(biāo)準(zhǔn)差歸一化③非線性歸一化參考答案:A138.關(guān)于支持向量回歸,說法錯誤的是()。A、支持向量回歸是將支持向量的方法應(yīng)用到回歸問題中B、支持向量回歸同樣可以應(yīng)用核函數(shù)求解線性不可分的問題C、同分類算法不同的是,支持向量回歸要最小化一個凹函數(shù)D、支持向量回歸的解是稀疏的139.關(guān)于語音識別流程,說法不正確的是()。A、語音識別通常由語音信號的采集、端點(diǎn)檢測、特征提取等步驟組成B、語音信號的預(yù)處理首先要做的是語音信號的數(shù)字化C、特征提取是分析處理語音信號的特征參數(shù),以獲得能夠表征語音信號特征的數(shù)據(jù)D、特定人語音識別系統(tǒng)一般側(cè)重提取反映語義的特征參數(shù),盡量去除說話人的個人信息140.關(guān)于刪除查詢,敘述正確的是()。A、每次操作只能刪除一條記錄B、每次只能刪除單個表中的記錄C、刪除過的記錄只能用"撤消"命令恢復(fù)D、每次刪除整個記錄,并非指定字段中的記錄141.關(guān)于人工智能概念,說法錯誤的是()。A、人工智能英文翻譯是B、人工智能使計(jì)算機(jī)能實(shí)現(xiàn)更高層次應(yīng)用C、人工智能就是機(jī)器學(xué)習(xí)D、人工智能是對人的意識、思維過程進(jìn)行模擬142.關(guān)于人工智能(AI)、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)三者的關(guān)系,敘述正確的是()。A、機(jī)器學(xué)習(xí)專門研究計(jì)算機(jī)怎樣模擬人類的學(xué)習(xí)行為,以獲取新的知識和技能,重新組織已有的知識結(jié)構(gòu)以完善自身的性能,但是機(jī)器學(xué)習(xí)能力并非AI系統(tǒng)所必須的B、人工智能研究、開發(fā)用于模擬、延伸和擴(kuò)展人類智能的理論、方法及應(yīng)用,屬于一門獨(dú)立的技術(shù)學(xué)科C、深度學(xué)習(xí)方法研究人工神經(jīng)網(wǎng)絡(luò)的單層感知器學(xué)習(xí)結(jié)構(gòu)D、人工智能是一門研究、開發(fā)用于模擬、延伸和擴(kuò)展人類智能的理論、方法及應(yīng)用的新的交叉學(xué)科,機(jī)器學(xué)習(xí)是人工智能的核心研究領(lǐng)域之一,深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的新領(lǐng)域,研究多隱層多感知器、模擬人腦進(jìn)行分析學(xué)習(xí)的人工神經(jīng)網(wǎng)絡(luò)143.關(guān)于區(qū)域形狀的特征,描述不正確的是()。A、矩形度是物體面積與其最小外接矩形面積之比B、邊界的形狀數(shù)具有平移旋轉(zhuǎn)和比例縮放不變性C、當(dāng)區(qū)域?yàn)閳A時,圓形度達(dá)到最大值1D、歸一化的中心矩具有平移旋轉(zhuǎn)比例縮放不變性144.關(guān)于模型評估,說法正確的是()。A、訓(xùn)練集上的準(zhǔn)確率越高,模型性能越好B、測試集上的準(zhǔn)確率越高,模型性能越好C、驗(yàn)證集上的準(zhǔn)確率越高,模型性能越好D、訓(xùn)練集、測試集和驗(yàn)證集上的準(zhǔn)確率越高,模型性能越好145.關(guān)于機(jī)器學(xué)習(xí)方法,說法正確的是()。A、解釋學(xué)習(xí)需要環(huán)境提供一組示例,而示例學(xué)習(xí)只要環(huán)境提供一個示例B、機(jī)械式學(xué)習(xí)有推理能力C、符號學(xué)習(xí)對模擬人類較低級的神經(jīng)活動是比較有效的D、觀察與發(fā)現(xiàn)學(xué)習(xí)是基于歸納推理的146.關(guān)于過擬合現(xiàn)象,說法正確的是()。A、訓(xùn)練誤差小,測試誤差卻大B、訓(xùn)練誤差小,測試誤差也小C、模型的泛化能力高D、以上都不正確147.關(guān)于窗體的作用,敘述錯誤的是()。A、可以接收用戶輸入的數(shù)據(jù)或命令B、可以編輯,顯示數(shù)據(jù)庫中的數(shù)據(jù)C、可以構(gòu)造方便美觀的輸入/輸出界面D、可以直接儲存數(shù)據(jù)148.關(guān)于查詢的設(shè)計(jì)視圖,說法不正確的是()。A、可以進(jìn)行數(shù)據(jù)記錄的添加B、可以進(jìn)行查詢條件的設(shè)定C、可以進(jìn)行查詢字段是否顯示的設(shè)定D、可以進(jìn)行查詢表的設(shè)定149.關(guān)于Python語言的特點(diǎn),說法正確的是()。A、Python語言不支持面向?qū)ο驜、Python語言是解釋型語言C、Python語言是編譯型語言D、Python語言是非跨平臺語言150.關(guān)于K-近鄰算法,()說法是正確的。A、K值越大,模型越簡單B、K值越小,模型越復(fù)雜C、K值的選擇對結(jié)果沒有影響D、K值必須是偶數(shù)151.關(guān)于Attention-basedModel,說法正確的是()。A、相似度度量模型B、是一種新的深度學(xué)習(xí)網(wǎng)絡(luò)C、是一種輸入對輸出的比例模型D、以上都不是152.防止欠擬合的方法是()。A、調(diào)整超參數(shù)B、早停止D、正則化153.對于圖像數(shù)據(jù),()不是常見的預(yù)處理步驟。A、灰度化B、歸一化D、文本分詞154.大模型訓(xùn)練時,通常通過()監(jiān)測模型的訓(xùn)練進(jìn)度和性能。A、精度與召回率B、損失函數(shù)曲線C、驗(yàn)證集上的準(zhǔn)確率155.創(chuàng)建視圖的命令是()。156.窗口事件是指操作窗口時引發(fā)的事件,下列不屬于窗口事件的是()。A、打開D、取消157.傳感器的輸出信號達(dá)到穩(wěn)定時,輸出信號變化與輸入信號變化的比值代表傳感器的()參數(shù)。B、精度C、線性度D、靈敏度158.處理不平衡數(shù)據(jù)集時,通常不推薦()方法。A、過采樣少數(shù)類B、欠采樣多數(shù)類C、生成合成樣本A、語音識別B、圖像識別C、文本審核C、K均值算法D、樸素貝葉斯算法163.不屬于TensorFlow20特點(diǎn)的是()。A、多核CPU加速164.不是kafka適合的應(yīng)用場景是()。A、日志收集B、消息系統(tǒng)C、業(yè)務(wù)系統(tǒng)D、流式處理165.不是Flume特點(diǎn)的是()。B、集中式架構(gòu)C、可擴(kuò)展性D、可管理性166.表格式窗體同一時刻能顯示()。C、3條記錄D、多條記錄參考答案:D167.標(biāo)注出一句話中的動詞屬于()。A、分詞標(biāo)注C、詞性標(biāo)注D、實(shí)體標(biāo)注168.阿爾法狗系列機(jī)器人曾與()出戰(zhàn)過圍棋比賽。169.ROM中的信息是()。A、生產(chǎn)廠家預(yù)先寫入的B、計(jì)算機(jī)工作時隨機(jī)寫入的C、防止計(jì)算機(jī)病毒侵入所使用的D、專門用于計(jì)算機(jī)開機(jī)時自檢的參考答案:A參考答案:B參考答案:A172.Rasa的組成中包括()。①Rasa-X②Rasa-NLU③Rasa-NLP④R173.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)經(jīng)常用來減少泛化誤差的方法,以下說法正確的是()。A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可做特征選擇174.Keras提供了一種簡潔的方法來創(chuàng)建基于TensorFlow或Theano的深度學(xué)習(xí)模型,并運(yùn)用了各種優(yōu)化技術(shù)使神經(jīng)網(wǎng)絡(luò)API調(diào)用變得輕松高效。下列功能屬于Keras特點(diǎn)的是()。A、模塊化B、用戶界面不友好175.DataFrame.dropna函數(shù)的thresh參數(shù)值為6時表示()。A、有效數(shù)據(jù)小于6的行B、有效數(shù)據(jù)大于6的行C、有效數(shù)據(jù)等于6的行D、有效數(shù)據(jù)不等于6的行176.COCO數(shù)據(jù)集是由()出資建設(shè)的。B、微軟C、谷歌D、阿里巴巴177.CNN中卷積層的主要特性是()。A、局部感知B、權(quán)值共享C、感受野D、以上都是178.Access自動創(chuàng)建窗體的方式有()種。179.“小男孩2歲了,第1次和奶奶一起旅行?!边@句話經(jīng)過文本正則歸整后的結(jié)果是()。A、小男孩兩歲了,第一次和奶奶一起旅行B、小男孩二歲了,第一次和奶奶一起旅行C、小男孩2歲了,第1次和奶奶1起旅行D、小男孩兩歲了,第1次和奶奶一起旅行180.“機(jī)器人”這一詞最早出現(xiàn)在()作家的小說中。A、德國C、瑞士D、捷克181.()用于聲明一個張量的數(shù)據(jù)格式,告訴系統(tǒng)這里會有一個這種格式的張量,但是還沒有給定具體數(shù)值,具體的數(shù)值要在正D、字符串182.()因素會影響合成語音的質(zhì)量。A、漢字的復(fù)雜程度B、拼音借用英文字母C、漢字筆畫和圖畫混淆D、語音數(shù)據(jù)的標(biāo)注質(zhì)量183.()是圖形化交互,()是語音交互,()是對話式交互。①184.()是損失函數(shù)(LossFunction)在深度學(xué)習(xí)中的作用。A、測量模型的準(zhǔn)確性B、優(yōu)化模型參數(shù)C、評估模型輸出與實(shí)際值之間的差異D、提高模型的泛化能力185.()是深度學(xué)習(xí)在自然語言處理領(lǐng)域的一個重要應(yīng)用。C、專家系統(tǒng)186.()是人以自然語言同計(jì)算機(jī)進(jìn)行交互的綜合性技術(shù),結(jié)合了語言學(xué)、心理學(xué)、工程計(jì)算機(jī)技術(shù)等領(lǐng)域的知識。B、情感交互D、腦機(jī)交互參考答案:A187.()是Hinton的DarkKnowledge。A、生成對抗網(wǎng)絡(luò)B、基于注意力的循環(huán)神經(jīng)網(wǎng)絡(luò)C、模型壓縮知識蒸餾D、元學(xué)習(xí)框架188.()可以用于加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程。A、增加訓(xùn)練樣本B、使用更復(fù)雜的模型D、使用GPU加速189.()可以包含另一個選擇或操作查詢中SQLSELECT語句,可以在查詢設(shè)計(jì)網(wǎng)格“字段”行輸入這些語句來定義新字段,或在“準(zhǔn)則”行來定義字段的準(zhǔn)則。B、傳遞查詢C、數(shù)據(jù)定義查詢D、子查詢190.()技術(shù)不是用于增強(qiáng)現(xiàn)實(shí)(AR)的關(guān)鍵組成部分。A、深度學(xué)習(xí)B、激光雷達(dá)C、頭戴式顯示設(shè)備D、傳感器191.()功能不包含在環(huán)形麥克風(fēng)陣列技術(shù)中。A、語音降噪B、回聲消除C、聲源定向D、語音合成192.()的操作不能提升項(xiàng)目質(zhì)量。A、頻繁押后不會做的題目B、直接提交預(yù)標(biāo)注結(jié)果C、及時查看標(biāo)注錯題D、人效較高同學(xué)分享標(biāo)注技巧193.()不屬于遷移學(xué)習(xí)的基本問題。B、何處遷移C、如何遷移D、遷移多少194.()不是圖像識別中常用的深度學(xué)習(xí)模型。A、CNN(卷積神經(jīng)網(wǎng)絡(luò))B、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))195.()不是數(shù)據(jù)采集和標(biāo)注的關(guān)鍵環(huán)節(jié)。C、數(shù)據(jù)標(biāo)注D、數(shù)據(jù)清洗196.()不是深度學(xué)習(xí)的基本組成。B、循環(huán)神經(jīng)網(wǎng)絡(luò)D、主成分分析197.()不是決策樹常用的剪枝方法。D、代價復(fù)雜度剪枝198.()不是聚類分析的常用算法。B、決策樹D、層次聚類參考答案:B199.()不是XGBoost相比于GBDT的改進(jìn)之處。A、使用了二階導(dǎo)數(shù)信息B、支持列子采樣C、使用了L1和L2正則化D、只能用于二分類問題200.()包含人臉檢測與屬性分析、人臉對比、人臉?biāo)阉鞯?。A、人臉識別B、數(shù)據(jù)挖掘C、機(jī)器學(xué)習(xí)D、深度學(xué)習(xí)1.最基礎(chǔ)的數(shù)據(jù)標(biāo)注團(tuán)隊(duì)至少有()等崗位角色。A、計(jì)算機(jī)維護(hù)人員B、數(shù)據(jù)標(biāo)注員C、質(zhì)檢員D、項(xiàng)目負(fù)責(zé)人2.智能的特點(diǎn)是()。A、能對環(huán)境進(jìn)行靈活的應(yīng)對C、具有十分牢固的記憶力D、經(jīng)濟(jì)高效3.智能包含的能力有()。A、感知能力B、記憶和思維能力C、學(xué)習(xí)和自適應(yīng)能力D、行為能力4.智慧教育的支撐技術(shù)包括()。A、物聯(lián)網(wǎng)D、泛在網(wǎng)絡(luò)5.在自然語言處理中,()技術(shù)可以用于提高機(jī)器翻譯的質(zhì)量。A、引入注意力機(jī)制B、數(shù)據(jù)增強(qiáng)C、使用預(yù)訓(xùn)練模型D、序列到序列模型6.在自然語言處理任務(wù)中,()技術(shù)適用于提升自動文本摘要生成、情感分析的性能和準(zhǔn)確性。A、引入預(yù)訓(xùn)練模型B、序列到序列模型C、注意力機(jī)制D、數(shù)據(jù)增強(qiáng)7.在自然語言處理任務(wù)中,()技術(shù)適用于提升文本摘要生成和機(jī)器翻譯的質(zhì)量。A、引入預(yù)訓(xùn)練模型B、注意力機(jī)制C、序列到序列模型D、數(shù)據(jù)增強(qiáng)8.在自然語言處理任務(wù)中,()技術(shù)適用于提升文本摘要生成、情感分析和機(jī)器翻譯的性能。A、序列到序列模型B、引入預(yù)訓(xùn)練模型C、注意力機(jī)制D、序列標(biāo)注9.在自然語言處理任務(wù)中,()技術(shù)可以用于提升自動對話系統(tǒng)和文本摘要生成的自然性和流暢性。A、序列到序列模型B、注意力機(jī)制C、引入預(yù)訓(xùn)練模型D、數(shù)據(jù)增強(qiáng)10.在自然語言處理任務(wù)中,()技術(shù)可以用于提升文本分類、實(shí)體識別和情感分析的準(zhǔn)確性和效率。A、引入預(yù)訓(xùn)練模型C、注意力機(jī)制11.在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,()方法可以用于防止過擬合。B、權(quán)重衰減(WeightDecay)D、學(xué)習(xí)率衰減(LearningRateDecay)12.在深度學(xué)習(xí)模型中,()技術(shù)可以用于提高圖像數(shù)據(jù)處理的效A、使用卷積神經(jīng)網(wǎng)絡(luò)C、批量歸一化D、使用Dropout13.在深度學(xué)習(xí)模型訓(xùn)練中,()技術(shù)可以用于提高模型訓(xùn)練的穩(wěn)A、批量歸一化D、數(shù)據(jù)增強(qiáng)14.在深度學(xué)習(xí)模型訓(xùn)練中,()技術(shù)可以用于提高模型的收斂速度和減輕梯度消失問題。A、梯度裁剪B、使用ReLU激活函數(shù)C、批量歸一化參考答案:ABC15.在深度學(xué)習(xí)模型訓(xùn)練中,()技術(shù)可以用于防止模型過擬合并提高模型在不同任務(wù)上的表現(xiàn)。A、使用卷積神經(jīng)網(wǎng)絡(luò)B、數(shù)據(jù)增強(qiáng)D、批量歸一化參考答案:BCD16.在深度學(xué)習(xí)模型設(shè)計(jì)中,()技術(shù)可以用于提高模型在圖像分類和文本處理任務(wù)上的泛化能力。A、數(shù)據(jù)增強(qiáng)B、使用卷積神經(jīng)網(wǎng)絡(luò)C、使用DropoutD、批量歸一化參考答案:ABCD17.在三層模式結(jié)構(gòu)中,()是數(shù)據(jù)庫的核心和關(guān)鍵,()通常是模式的子集,數(shù)據(jù)按模式的描述提供給用戶、按()的描述存儲在硬盤上。A、模式B、外模式C、內(nèi)模式D、數(shù)據(jù)結(jié)構(gòu)參考答案:ABC18.在任務(wù)欄上可以顯示的工具欄是()。A、地址B、鏈接C、桌面D、快速啟動參考答案:ABCD19.在SQL語句中,X為INT數(shù)據(jù)類型,可以用來表示"10<X<15"的是()。參考答案:ACD20.語音編碼格式是指按一定格式壓縮采樣和量化后的數(shù)值,從而降低音頻的數(shù)據(jù)量,便于音頻數(shù)據(jù)的存儲和傳輸。常用的編碼格式有()。21.語法類異常包括()。A、不規(guī)則的取值B、值域格式錯誤C、詞法錯誤D、數(shù)據(jù)中存在重復(fù)值22.以下敘述正確的是()。A、continue語句的作用是結(jié)束整個循環(huán)的執(zhí)行B、在循環(huán)體內(nèi)使用break語句或continue語句的作用相同C、只能在循環(huán)體內(nèi)使用break語句D、從多層循環(huán)嵌套中退出時,可以使用break或continue語句23.一個計(jì)算機(jī)網(wǎng)絡(luò)應(yīng)包含()等三個主要組成部分。B、若干主機(jī)C、傳輸介質(zhì)D、通信設(shè)備E、通信協(xié)議24.下列用戶的電子郵件地址中,錯誤的是()。A、用戶名,用戶口令,電子郵箱所在的主機(jī)域名B、用戶名,用戶口令C、用戶名,電子郵箱所在的主機(jī)域名D、用戶口令,電子郵箱所在的主機(jī)域名25.下列計(jì)算機(jī)部件中()包含在主機(jī)內(nèi)。D、只讀存儲器26.下列()是未來計(jì)算機(jī)的發(fā)展趨勢。A、提高性能B、縮小體積C、減少成本D、與通信技術(shù)結(jié)合E、與多媒體技術(shù)結(jié)合27.下列()是沖突操作。A、對同一個數(shù)據(jù)的讀寫操作B、對不同數(shù)據(jù)的讀寫操作C、對不同數(shù)據(jù)的寫寫操作D、對同一數(shù)據(jù)的寫寫操作28.無人超市采用了()等多種智能技術(shù),消費(fèi)者在購物流程中將依次體驗(yàn)自動身份識別。C、深度學(xué)習(xí)算法29.為了進(jìn)行分類模型的訓(xùn)練和性能評價,需要將輸入的標(biāo)注數(shù)據(jù)劃分為()。A、數(shù)據(jù)的類標(biāo)B、測試集C、數(shù)據(jù)的特征D、訓(xùn)練集30.圖像數(shù)字化需要經(jīng)過的步驟包括()。A、采樣D、旋轉(zhuǎn)31.圖像存儲格式包括()。32.通用網(wǎng)絡(luò)爬蟲基本工作流程包括()。A、打開瀏覽器C、數(shù)據(jù)存儲D、預(yù)處理33.調(diào)查用戶的具體步驟主要有()。A、調(diào)查組織機(jī)構(gòu)情況B、調(diào)查各部門的業(yè)務(wù)活動情況C、協(xié)助用戶明確對新系統(tǒng)的各種要求D、確定新系統(tǒng)的邊界34.特征向量的形成過程包括()。A、特征形成B、特征提取C、特征選擇D、特征評判35.數(shù)字圖像處理一般要完成的任務(wù)有()。A、圖像增強(qiáng)B、圖像變換C、圖像獲取D、圖像識別36.數(shù)據(jù)庫設(shè)計(jì)過程中形成數(shù)據(jù)庫的各級模式,大致可以總結(jié)為A、概念設(shè)計(jì)階段形成概念模式B、邏輯設(shè)計(jì)階段形成邏輯模式和外模式C、物理設(shè)計(jì)階段形成內(nèi)模式D、概念設(shè)計(jì)階段形成子模式37.數(shù)據(jù)庫名稱合法的是()。38.數(shù)據(jù)的完整性是指數(shù)據(jù)的()。D、有效性39.屬于小波去噪步驟的有()。A、對圖像信號進(jìn)行小波分解B、對經(jīng)過層次分解后的高頻系數(shù)進(jìn)行閾值量化C、利用二維小波重構(gòu)圖像信號D、通過長波實(shí)現(xiàn)噪聲消除40.屬于特征選擇的優(yōu)點(diǎn)有()。A、解決模型自身的缺陷B、減少過擬合C、提升模型的性能D、增強(qiáng)模型的泛化能力41.適合使用Python的有()。A、可作為腳本語言,快速編寫小型程序、腳本等B、可應(yīng)用在數(shù)據(jù)科學(xué)、交互式計(jì)算及可視化領(lǐng)域C、可作為膠水語言,整合如C++等語言代碼D、Python適用于低延時、高利用率的應(yīng)用場景42.神經(jīng)網(wǎng)絡(luò)訓(xùn)練中,()技術(shù)可以幫助防止過擬合。C、數(shù)據(jù)增強(qiáng)D、權(quán)重衰減(L2正則化)E、批量歸一化43.神經(jīng)網(wǎng)絡(luò)起源很早,但真正被大規(guī)模商用還是在本世紀(jì),阻礙神經(jīng)網(wǎng)絡(luò)在上世紀(jì)發(fā)展的主要原因是()。A、理論沒有發(fā)展起來B、科學(xué)界不重視C、計(jì)算能力跟不上D、標(biāo)注數(shù)據(jù)不足44.人們從不同的角度去觀察問題,對模式分解等價的概念形成了()的不同定義。A、分解具有無損連接性B、分解保持函數(shù)依賴C、分解既要無損連接,也要保持函數(shù)依賴D、分解既不無損連接,也不保持函數(shù)依賴45.人工智能發(fā)展的三階段是指()。C、知識期D、機(jī)器學(xué)習(xí)期46.人工智能的基礎(chǔ)包括()。B、計(jì)算機(jī)科學(xué)D、心理學(xué)47.人工智能催生新技術(shù)()。A、生產(chǎn)方式B、生活方式C、行為模式D、思維模式48.命名實(shí)體包括()。C、機(jī)構(gòu)名49.每個獨(dú)立的視頻標(biāo)簽應(yīng)包括()信息。A、標(biāo)簽編碼B、文件路標(biāo)C、置信度50.聯(lián)想存儲的特點(diǎn)是()。A、可以存儲許多相關(guān)(激勵、響應(yīng))模式B、以分布穩(wěn)健的方式存儲信息C、即使輸入激勵模式完全失真時,仍然可以產(chǎn)生正確的響應(yīng)模式D、可在原存儲中加入新的存儲模式51.可以對數(shù)據(jù)庫RDS參數(shù)模板進(jìn)行()操作。52.卷積神經(jīng)網(wǎng)絡(luò)采用了()的方式,降低了計(jì)算量和過擬合的風(fēng)A、局部連接B、全局變量C、權(quán)值共享53.進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時會將數(shù)據(jù)集劃分為()。A、訓(xùn)練集B、驗(yàn)證集C、測試集54.交換機(jī)堆疊后,主交換機(jī)的選舉方式有()。A、用戶指定B、自動選舉C、堆疊后,邏輯上是一個交換機(jī),因此堆疊成員沒有主備D、順序產(chǎn)生55.計(jì)算機(jī)按照所處理的數(shù)據(jù)類型可以分為()。A、數(shù)字計(jì)算機(jī)B、模擬計(jì)算機(jī)C、混合計(jì)算機(jī)D、通用計(jì)算機(jī)56.基因遺傳算法常用的結(jié)束條件包括()。A、達(dá)到一定的迭代次數(shù)B、適應(yīng)度函數(shù)達(dá)到一定的要求C、達(dá)到一定的變異次數(shù)D、達(dá)到一定的交叉次數(shù)57.關(guān)于自然語言處理正確的是()。A、目前最先進(jìn)的自然語言處理技術(shù)基于深度學(xué)習(xí)模型B、自然語言處理技術(shù)達(dá)到人類智能的標(biāo)準(zhǔn)是通過圖靈測試C、文本標(biāo)注的對象是自然語言文本D、文本標(biāo)注主要用于無監(jiān)督學(xué)習(xí)58.關(guān)于主鍵,說法正確的是()。A、可以是表中的一個字段B、是確定數(shù)據(jù)庫中的表的記錄的唯一標(biāo)識字段C、該字段不可為空也不可以重復(fù)D、可以是表中的多個字段組成的59.關(guān)于神經(jīng)網(wǎng)絡(luò)的組織特性,說法正確的是()。A、可以模擬生物神經(jīng)系統(tǒng)B、面向真實(shí)世界物體C、面向仿真環(huán)境物體D、做出交互反應(yīng)60.關(guān)于刪除操作,說法正確的是()。61.關(guān)于DELETE和TRUNCATETABLE的說法,正確的是()。A、兩者都可以刪除指定條目的記錄B、前者可以刪除指定條目的記錄,后者不能C、兩者都返回被刪除記錄的數(shù)目D、前者返回被刪除記錄數(shù)目,后者不返回62.關(guān)系數(shù)據(jù)庫查詢處理可分為()步驟。C、查詢優(yōu)化D、查詢執(zhí)行63.關(guān)系的完整性主要是指()。B、引用完整性C、用戶定義的完整性D、數(shù)據(jù)完整性64.谷歌相冊與傳統(tǒng)手機(jī)相冊最大的不同點(diǎn)是()。A、根據(jù)照片內(nèi)容自動添加標(biāo)記B、根據(jù)不同標(biāo)記進(jìn)行歸類和搜索C、自動對照片進(jìn)行美顏D、定時備份照片E、人臉識別和搜索65.反向傳播算法中,梯度下降的作用是()。A、計(jì)算神經(jīng)網(wǎng)絡(luò)權(quán)重的梯度B、更新網(wǎng)絡(luò)的權(quán)重和偏差C、提高模型的泛化能力66.度量泛化能力好壞的最直觀表現(xiàn)是模型的()。D、準(zhǔn)確度67.大數(shù)據(jù)的業(yè)務(wù)應(yīng)用處理需要經(jīng)過()的流程。B、數(shù)據(jù)清洗C、數(shù)據(jù)建模D、數(shù)據(jù)加工68.從機(jī)器學(xué)習(xí)預(yù)測目標(biāo)數(shù)據(jù)的離散程度,可以將機(jī)器學(xué)習(xí)分為A、回歸問題B、分類問題C、識別問題69.常用的外存貯器有()。B、隨機(jī)存取存儲器RAMC、硬盤驅(qū)動器D、掃描儀E、優(yōu)盤70.常用的圖像數(shù)據(jù)標(biāo)注工具包括()。71.不屬于強(qiáng)化學(xué)習(xí)目標(biāo)的是()。A、最小損失函數(shù)B、最大化收益C、局部最優(yōu)解D、全局最優(yōu)解72.并發(fā)操作可能會帶來的數(shù)據(jù)不一致性有()。A、丟失修改B、不可重復(fù)讀C、讀臟數(shù)據(jù)D、死鎖A、語音交互B、情感交互C、體感交互D、腦機(jī)交互74.按照智能應(yīng)用場景,語音數(shù)據(jù)標(biāo)注任務(wù)可劃分為()。A、智能家居D、智能車載75.URL組成()。A、檢索方式(協(xié)議)B、計(jì)算機(jī)服務(wù)器名稱C、文檔目錄和文件名D、任何隨意的檢索詞76.SQL中定義事務(wù)的語句主要有()。77.SQL語言的數(shù)據(jù)操縱功能通常包括()動詞。78.JSON信息概念包括()。B、對象C、屬性79.INTERNET提供的服務(wù)主要有()。80.DELETE(DEL)鍵的功能是()。A、刪除光標(biāo)前一個字符B、與CTRL和ALT合用,完成熱啟動C、刪除光標(biāo)上的字符D、與Backspace(退格鍵)功能相同E、與Shift鍵配合,可以一次刪除一行81.CSE微服務(wù)引擎支持()功能。B、服務(wù)配置D、高性能微服務(wù)框架82.BERT模型架構(gòu)的優(yōu)勢包括()。B、能夠處理長序列數(shù)據(jù)C、適合大規(guī)模數(shù)據(jù)集D、低資源消耗83.ASR在中文領(lǐng)域有很大的難度,主要原因是()。A、中文博大精深B、方言眾多C、目前ASR技術(shù)不成熟D、數(shù)據(jù)量不夠84.a=np.array([1,2,3,4,5,6,7,8]),()可以使輸出結(jié)果為([5,7])。85.()用循環(huán)神經(jīng)網(wǎng)絡(luò)處理效果比較好。A、語音識別B、自然語言處理C、圖像識別D、人臉識別86.()因素可能影響神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果。B、批量大小C、損失函數(shù)的選擇D、激活函數(shù)的選擇E、數(shù)據(jù)集的規(guī)模87.()是正確的Python字符串。88.()是圖像分割中常用的基于區(qū)域的方法。B、MeanShift算法C、分水嶺算法D、直方圖均衡化89.()是數(shù)值數(shù)據(jù)類型(即可用于算術(shù)表達(dá)式)。D、“1002”90.()是輸出設(shè)備。A、打印機(jī)C、掃描儀D、顯示器91.()是事務(wù)特性。B、持久性C、原子性D、一致性92.()是生成式人工智能模型訓(xùn)練方法的特點(diǎn)。A、使用經(jīng)典優(yōu)化器C、分布式訓(xùn)練93.()是人類特有的,而機(jī)器所不具備的。94.()是人工智能的子領(lǐng)域。A、自然語言處理B、人類行為學(xué)C、機(jī)器視覺D、電腦維護(hù)95.()是典型的自然語言處理(NLP)任務(wù)。A、語音識別B、文本分類C、圖像分割D、機(jī)器翻譯96.()是常見的機(jī)器學(xué)習(xí)算法。A、支持向量機(jī)(SVM)C、深度學(xué)習(xí)D、決策樹97.()可用于數(shù)據(jù)采集技術(shù)。98.()可以認(rèn)為是計(jì)算機(jī)視覺的任務(wù)。A、圖像存儲B、圖像/視頻中文字的檢測和識別C、視頻中感興趣目標(biāo)的檢測跟蹤和定位D、圖像中前景物體與背景的分割99.()行業(yè)需要用到數(shù)據(jù)采集。B、政府C、金融反欺詐D、教育100.()方法可以用于提高神經(jīng)網(wǎng)絡(luò)模型的泛化能力。B、正則化C、使用更大的網(wǎng)絡(luò)結(jié)構(gòu)D、批量歸一化E、交叉驗(yàn)證判斷題1.自然語言包括人類交流的語言——口語、書面語、手語、旗語等,而人造語言是在自然語言基礎(chǔ)上改良的自然語言。2.注意力機(jī)制只適用于提高機(jī)器翻譯的準(zhǔn)確性。3.注意力機(jī)制能夠提升模型對長距離依賴關(guān)系的捕捉能力。4.注意力機(jī)制能夠提高深度學(xué)習(xí)模型的泛化能力。B、錯誤5.注意力機(jī)制能夠提高模型對長距離依賴的捕捉能力。6.智能家居應(yīng)該能自動感知周圍的環(huán)境,不需要人的操控。7.針對數(shù)據(jù)標(biāo)注疑問案例分類型整理,可對項(xiàng)目質(zhì)量提升產(chǎn)生正向增益。B、錯誤8.針對電力元件故障的預(yù)測模型需要較高的泛化能力這一問題,可選用Adaboost集成算法提升性能。Adaboost算法是一種帶有自適應(yīng)功能、可以自動調(diào)整權(quán)值的Bagging集成算法。B、錯誤9.召回率(Recall)是指分類正確的正樣本個數(shù)(TP)占真正的正樣本個數(shù)(TP+FN)的比例。長期依賴問題,比標(biāo)準(zhǔn)RNN表現(xiàn)更好。11.在圖像處理中,采樣越細(xì),像素越小,越能精確地表現(xiàn)圖像。12.在搜索數(shù)據(jù)庫中的數(shù)據(jù)時,SQL通配符可以替代一個或多個字符,SQL通配符必須與LIKE運(yùn)算符一起使用。13.在數(shù)據(jù)庫的三級模式結(jié)構(gòu)中,內(nèi)模式可以有多個。14.在數(shù)據(jù)標(biāo)注中,當(dāng)標(biāo)注人員標(biāo)注的數(shù)據(jù)被質(zhì)檢人員判誤,可以15.在數(shù)據(jù)標(biāo)注過程中,“圖片非正常顯示”屬于標(biāo)注平臺可能出16.在使用子查詢時,必須使用括號把子查詢括起來,以便區(qū)分外17.在神經(jīng)網(wǎng)絡(luò)中,權(quán)重初始化對模型的訓(xùn)練速度和性能沒有影18.在深度學(xué)習(xí)模型訓(xùn)練中,學(xué)習(xí)率越大,行推理和決策的技術(shù)。20.在進(jìn)行數(shù)據(jù)查詢時,不能指定查詢結(jié)果的標(biāo)題,只能用字段名21.在機(jī)器學(xué)習(xí)中,模型選擇通常指的是從多個候選模型中選擇最B、錯誤22.在關(guān)系理論中,把能夠唯一地確定一個元組的屬性或?qū)傩越M合23.在表中創(chuàng)建一個標(biāo)識列(IDENTITY),當(dāng)用戶向表中插入新的數(shù)據(jù)行時,系統(tǒng)自動為該行標(biāo)識列賦值。24.語音識別、計(jì)算機(jī)視覺等領(lǐng)域的突破離不開深度學(xué)習(xí)算法。25.語言識別是人工智能的重要分支之一,它解決的是不僅能聽人們在說什么,而且能聽懂這些話的意思。26.與超聲傳感器相比,紅外測距的準(zhǔn)確度更高。B、錯誤27.由于不同地方有不同的文化,機(jī)器翻譯有時會出現(xiàn)歧義。28.用傳感器采集環(huán)境信息是機(jī)器人智能化的第一步。29.引入預(yù)訓(xùn)練模型可以提高深度學(xué)習(xí)模型在新任務(wù)上的表現(xiàn)。參考答案:A30.引入預(yù)訓(xùn)練模型可以縮短模型訓(xùn)練時間。31.一個數(shù)據(jù)表只能有一個唯一索引。參考答案:B32.一般優(yōu)秀的詩詞都是從真情實(shí)感出發(fā)。B、錯誤33.巡檢缺陷樣本標(biāo)注時,缺陷目標(biāo)框大小與照片的比例應(yīng)盡可能參考答案:B34.序列標(biāo)注任務(wù)適合使用注意力機(jī)制來提升性能。35.虛擬IP主要用在云服務(wù)器的主備切換,達(dá)到高可用性HA(H36.新中國第一家證券交易所創(chuàng)立于北京東城。37.相同型號的機(jī)器人面對相同的大數(shù)據(jù)、相同的算法,會做出相同的股票操作策略。38.現(xiàn)在要設(shè)計(jì)一個節(jié)點(diǎn),開發(fā)路徑規(guī)劃功能,輸入是目標(biāo)點(diǎn)和起始點(diǎn),輸出是路徑,適合用Topic通信方式。39.物聯(lián)網(wǎng)的數(shù)據(jù)處理技術(shù)主要是實(shí)現(xiàn)數(shù)據(jù)的存儲、處理、分析、決策與高效應(yīng)用。40.文本挖掘又稱信息檢索,是從大量文本數(shù)據(jù)中提取以前未知的、有用的、可理解的、可操作的知識的過程。41.文本標(biāo)注是將文字、標(biāo)點(diǎn)在內(nèi)的文本進(jìn)行標(biāo)注,是計(jì)算機(jī)能夠讀懂識別從而應(yīng)用于人類的生產(chǎn)領(lǐng)域。42.謂詞的個體,可以是一個常量,也可以是一個變元,還可以是43.位置傳感器是指能感受被測物的位置并轉(zhuǎn)換成可用輸出信號44.維修人員必須保管好機(jī)器人鑰匙,嚴(yán)禁非授權(quán)人員在手動模式下進(jìn)入機(jī)器人軟件系統(tǒng)隨意翻閱或修改程序及參數(shù)。45.為了讓MySQL較好地支持中文,在安裝MySQL時,應(yīng)該將數(shù)據(jù)庫服務(wù)器的缺省字符集設(shè)定為gb2312。46.微服務(wù)架構(gòu)模式下.開發(fā)者無法自由選擇開發(fā)技術(shù)來提供API47.圖像二值化處理是將圖像中感興趣的部分置1、背景部分置2。48.圖靈認(rèn)為人工智能應(yīng)當(dāng)是一個模擬成人成熟思維的系統(tǒng)。49.圖靈測試存在的潛臺詞是機(jī)器智能的極限可以超越人的智能,機(jī)器智能可以不與人的智能比擬。50.同一個Topic上可以有多個發(fā)布者。51.提示學(xué)習(xí)是一種通過提供大量樣本進(jìn)行學(xué)習(xí)的方法。52.梯度裁剪僅適用于卷積神經(jīng)網(wǎng)絡(luò)(CNN)。53.特征提取方式需要根據(jù)語音單元的特點(diǎn)提取。54.隨著訓(xùn)練樣本數(shù)據(jù)量的提升,模型的泛化誤差上界越小,泛化能力也隨之提升。55.數(shù)字化示范需統(tǒng)籌考慮公司數(shù)字化轉(zhuǎn)型發(fā)展戰(zhàn)略綱要和“十四五”數(shù)字化規(guī)劃,打造四層兩類示范,即縱貫(總部、省、市、縣)四個層級的專項(xiàng)示范和綜合示范。B、錯誤參考答案:B56.數(shù)據(jù)增強(qiáng)技術(shù)可以用于提高自然語言處理任務(wù)的性能。57.數(shù)據(jù)增強(qiáng)技術(shù)可以用于減輕深度學(xué)習(xí)模型的過擬合問題。58.數(shù)據(jù)增強(qiáng)技術(shù)可以通過添加噪聲來實(shí)現(xiàn)。59.數(shù)據(jù)預(yù)處理是在大數(shù)據(jù)和人工智能領(lǐng)域中常見的操作,用于清洗、轉(zhuǎn)換和歸一化原始數(shù)據(jù)。60.數(shù)據(jù)試標(biāo)只存在于短期高頻項(xiàng)目,長期項(xiàng)目不用試標(biāo)。61.數(shù)據(jù)清洗是指為了保證模型訓(xùn)練效果,利用僅有的數(shù)據(jù)樣本生成額外的人工合成的數(shù)據(jù),提升泛化能力。62.數(shù)據(jù)庫恢復(fù)是使被故障破壞掉的數(shù)據(jù)恢復(fù)到故障前的某種數(shù)據(jù)一致的狀態(tài)。63.數(shù)據(jù)庫安全審計(jì)的操作日志默認(rèn)會一直保存。64.數(shù)據(jù)科學(xué)是根據(jù)數(shù)據(jù)世界的分析結(jié)果,對現(xiàn)實(shí)世界進(jìn)行預(yù)測、洞見、解釋或決策的新興科學(xué)。65.數(shù)據(jù)科學(xué)流程的特殊性在于需要將科學(xué)家的3C精神融入業(yè)務(wù)66.視圖是一個虛擬表,并不表示任何物理數(shù)據(jù),只是用來查看數(shù)據(jù)的窗口而已。67.視覺相機(jī)可以獲取物體高度方向的位置信息。68.使用SQL語言的CREATETABLE命令可以直接建立表。69.使用Dropout技術(shù)能夠提高深度學(xué)習(xí)模型的訓(xùn)練速度。參考答案:B70.使用Dropout技術(shù)可以在一定程度上防止深度學(xué)習(xí)模型過擬71.使用Dropout技術(shù)可以有效防止深度學(xué)習(xí)模型的過擬合問題。72.使用Dropout技術(shù)會顯著增加模型的訓(xùn)練時間。73.使用Dropout技術(shù)不會影響模型的最終性能。74.省級人工智能服務(wù)門戶提供運(yùn)行環(huán)境、模型庫、樣本庫、應(yīng)用管理等統(tǒng)一入口,提供通用模型、專用模型、應(yīng)用案例等開放能力服務(wù)。75.神經(jīng)網(wǎng)絡(luò)是一種模仿人腦神經(jīng)元結(jié)構(gòu)和工作原理的計(jì)算模型。76.深度學(xué)習(xí)中的自編碼器AutoEncoder是一種無監(jiān)督學(xué)習(xí)算法,用于學(xué)習(xí)數(shù)據(jù)的壓縮表示。77.深度學(xué)習(xí)雖然是一個熱門領(lǐng)域,但是已有多年的發(fā)展歷史,主要有快速發(fā)展期和爆發(fā)期。78.深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支,主要關(guān)注如何使用神經(jīng)網(wǎng)絡(luò)79.深度學(xué)習(xí)模型中的正則化技術(shù),如L1和L2正則化,主要用于增加模型的復(fù)雜度,提高預(yù)測精度。B、錯誤80.深度學(xué)習(xí)就是一種綠色人工智能。81.申請負(fù)載均衡創(chuàng)建的負(fù)載均衡為融合ELB時,用戶可以通過添加黑名單的方式控制訪問負(fù)載均衡的監(jiān)聽器的IP。A、正確82.刪除錯誤是指實(shí)際語音中有,但識別結(jié)果里沒有。83.若使用REVOKE命令撤消某用戶創(chuàng)建表的權(quán)限,則該用戶將84.任何包含前景和背景的圖像都可以使用大津法獲得最佳閾值。85.人效和準(zhǔn)確率是影響標(biāo)注數(shù)據(jù)指標(biāo)達(dá)成的因素。86.人類智能可以和機(jī)器智能相互融合。87.人機(jī)交互是指關(guān)于設(shè)計(jì)、評價和實(shí)現(xiàn)供人們使用的交互式計(jì)算機(jī)系統(tǒng),并圍繞相關(guān)的主要現(xiàn)象進(jìn)行研究的學(xué)科。88.人工智能算法不需要數(shù)據(jù)來進(jìn)行訓(xùn)練。89.人工智能是計(jì)算機(jī)科學(xué)的一個分支,是智能計(jì)算機(jī)系統(tǒng)即人類智慧在機(jī)器上的模擬,或者說是人們使機(jī)器具有類似于人的智慧(對語言能理解、能學(xué)習(xí)、能推理)。B、錯誤90.人工智能是計(jì)算機(jī)科學(xué)的一個分支,即智能計(jì)算機(jī)系統(tǒng),也就是人類智慧在機(jī)器上的模擬,或者說是人們使機(jī)器具有類似于人的智慧(對語言能理解、能學(xué)習(xí)、能推理)。91.人工智能是20世紀(jì)50年代才開始研究的一項(xiàng)技術(shù),還沒有得到應(yīng)用。93.人工智能的發(fā)展完全依賴于算法的進(jìn)步,與數(shù)據(jù)的質(zhì)量和數(shù)量參考答案:B94.人工神經(jīng)元網(wǎng)絡(luò)只需要很少的數(shù)據(jù)便可掌握處理特定問題的97.缺省情況下,所創(chuàng)建的索引是非聚集索引。A、正確98.前三次工業(yè)革命是機(jī)器人代替人的體力勞動,正在到來的人工智能革命將開始代替腦力勞動。99.批量歸一化有助于解決梯度消失問題。B、錯誤101.批量歸一化僅在全連接網(wǎng)絡(luò)中有效。B、錯誤104.目前,學(xué)術(shù)界對人工智能已經(jīng)形成了統(tǒng)一標(biāo)準(zhǔn)的概念。105.目前,全球主要的國家和地區(qū)都已經(jīng)將人工智能視為戰(zhàn)略制高點(diǎn),加大力度進(jìn)行發(fā)展。106.目標(biāo)變量的影響因素可以是連續(xù)值也可以是離散值,自變量和目標(biāo)變量之間的關(guān)系被稱為模型。B、錯誤107.路徑規(guī)劃方法通過對空間解析離散化或者隨機(jī)采樣來確保完108.零漂引起的放大電路輸出可視為共模輸出。109.靈活理解語句的能力是人類智能的標(biāo)準(zhǔn)。110.兩個變量相關(guān),它們的相關(guān)系數(shù)r可能為0。111.空值不同于空字符串或數(shù)值0,通常表示未填寫、未知(Unknown)、不可用或?qū)⒃谝院筇砑拥臄?shù)據(jù)。112.開啟讀寫分離功能后,主實(shí)例和只讀實(shí)例均不允許修改內(nèi)網(wǎng)A、正確參考答案:A113.卷簾快門是多數(shù)CMOS使用的,特征是逐行曝光,每一行的曝光時間不一致。114.卷積神經(jīng)網(wǎng)絡(luò)是Hopfield神經(jīng)網(wǎng)絡(luò)的延伸與拓展。A、正確116.卷積神經(jīng)網(wǎng)絡(luò)(CNN)適用于圖像識別和圖像分割任務(wù)。117.卷積神經(jīng)網(wǎng)絡(luò)(CNN)適合處理具有空間關(guān)系的數(shù)據(jù),比如118.卷積神經(jīng)網(wǎng)絡(luò)(CNN)常用于處理序列數(shù)據(jù)。119.卷積神經(jīng)網(wǎng)絡(luò)(CNN)不能應(yīng)用于時間序列預(yù)測任務(wù)。A、正確120.靜態(tài)方法可以直接訪問,不需要使用類名靜態(tài)方法名調(diào)用。121.金具作為輸電線路的重要組成部分,利用深度學(xué)習(xí)模型可對金具缺陷進(jìn)行目標(biāo)檢測。122.金角銀邊草肚皮一般代表的是圍棋棋子放置的位置。123.結(jié)構(gòu)型傳感器的原理比物性型傳感器的原理比相對清晰。124.建立數(shù)據(jù)庫中的表時,將“年齡”字段值限制在18—25歲之間。這種約束屬于參照完整性約束。125.堅(jiān)持安全性、可用性、互操作性、可追溯性原則,逐步建立并完善人工智能基礎(chǔ)共性、互聯(lián)互通、行業(yè)應(yīng)用、網(wǎng)絡(luò)安全、隱私保護(hù)等技術(shù)標(biāo)準(zhǔn)。126.計(jì)算字段是指將已有的字段通過使用表達(dá)式而建立起來的新127.計(jì)算機(jī)可以在視頻畫面中識別車輛信息,幫助失主追回被盜的汽車。128.機(jī)械臂關(guān)節(jié)逆解適合用Service通信方式。129.機(jī)器語言的特點(diǎn)是有豐富的修辭手段。130.機(jī)器視覺是指用計(jì)算機(jī)實(shí)現(xiàn)人的視覺功能——對客觀世界的三維場景的感知、識別和理解。131.回歸問題和分類問題都有可能發(fā)生過擬合。132.華為微服務(wù)引擎CSE的功能包括微服務(wù)運(yùn)維生命周期管理。134.滾動角、俯仰角和偏航角進(jìn)行的一系列連續(xù)旋轉(zhuǎn)是相對于世界坐標(biāo)系進(jìn)行的,而不是相對于動坐標(biāo)系進(jìn)行的。135.軌跡規(guī)劃與控制就是按時間規(guī)劃和控制手部或工具中心走過參考答案:B關(guān)鍵字參數(shù)必須在最后面。138.根據(jù)激光測距儀數(shù)據(jù)構(gòu)建柵格
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 餐廚垃圾資源化利用的未來趨勢與市場前景分析
- 初一心理健康 教學(xué)設(shè)計(jì)+教學(xué)設(shè)計(jì) 有趣的注意力
- 透析升學(xué)規(guī)劃
- 探索自然科學(xué)
- 五年級下冊科學(xué)教學(xué)設(shè)計(jì)-10 生命從哪里來第2課時∣冀教版
- 人教版地理七下第六章第二節(jié)自然環(huán)境第一課時教學(xué)設(shè)計(jì)
- 辭退勞動合同解除協(xié)議書
- 9 寫意蔬果 (教學(xué)設(shè)計(jì))人教版(2012)美術(shù) 五年級下冊
- 城鎮(zhèn)污水管網(wǎng)建設(shè)項(xiàng)目可行性研究報告(參考模板)
- 《扇形統(tǒng)計(jì)圖》教學(xué)設(shè)計(jì)-2024-2025學(xué)年六年級上冊數(shù)學(xué)人教版
- 大數(shù)據(jù)與人工智能營銷知到智慧樹章節(jié)測試課后答案2024年秋南昌大學(xué)
- 2024中國互聯(lián)網(wǎng)養(yǎng)車市場發(fā)展報告
- UL2267標(biāo)準(zhǔn)中文版-2020工業(yè)電動卡車安裝的燃料電池動力系統(tǒng)UL中文版標(biāo)準(zhǔn)
- 【MOOC】化工安全(下)-華東理工大學(xué) 中國大學(xué)慕課MOOC答案
- 【MOOC】大學(xué)生創(chuàng)新與創(chuàng)業(yè)實(shí)踐-西南交通大學(xué) 中國大學(xué)慕課MOOC答案
- 【MOOC】電動力學(xué)-同濟(jì)大學(xué) 中國大學(xué)慕課MOOC答案
- 《數(shù)控車削編程與加工》項(xiàng)目6 酒杯的數(shù)控加工工藝文件
- 誤用藥的應(yīng)急預(yù)案
- 殘疾人照護(hù)保姆聘用合同
- 2024年招錄考試-軍轉(zhuǎn)干考試近5年真題集錦(頻考類試題)帶答案
- 2024年共青團(tuán)團(tuán)課考試測試題庫及答案
評論
0/150
提交評論