人工智能基礎(chǔ)概念模擬習(xí)題及參考答案_第1頁
人工智能基礎(chǔ)概念模擬習(xí)題及參考答案_第2頁
人工智能基礎(chǔ)概念模擬習(xí)題及參考答案_第3頁
人工智能基礎(chǔ)概念模擬習(xí)題及參考答案_第4頁
人工智能基礎(chǔ)概念模擬習(xí)題及參考答案_第5頁
已閱讀5頁,還剩37頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

人工智能基礎(chǔ)概念模擬習(xí)題及參考答案一、單選題(共59題,每題1分,共59分)1.特征選擇是一個重要的()過程,在現(xiàn)實機器學(xué)習(xí)任務(wù)中,獲得數(shù)據(jù)之后通常先進行特征選擇,此后再訓(xùn)練學(xué)習(xí)器。A、數(shù)據(jù)分析B、數(shù)據(jù)預(yù)處理C、數(shù)據(jù)清洗D、數(shù)據(jù)選擇正確答案:B答案解析:特征選擇是數(shù)據(jù)預(yù)處理的重要環(huán)節(jié)之一,它通過去除無關(guān)特征、冗余特征等,來提高數(shù)據(jù)質(zhì)量,提升模型性能。在進行機器學(xué)習(xí)任務(wù)時,獲得數(shù)據(jù)后先進行特征選擇,能減少數(shù)據(jù)維度,降低計算量,避免過擬合等問題,之后再訓(xùn)練學(xué)習(xí)器,所以它是重要的數(shù)據(jù)預(yù)處理過程。2.下列對《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》中關(guān)于到2030年人工智能發(fā)展戰(zhàn)略目標(biāo),表述錯誤的是()。A、人工智能理論、技術(shù)與應(yīng)用達到世界領(lǐng)先水平B、成為世界主要人工智能創(chuàng)新中心C、人工智能產(chǎn)業(yè)成為新的重要經(jīng)濟增長點D、智能經(jīng)濟、智能社會取得明顯成效正確答案:C答案解析:《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》中指出,到2030年人工智能理論、技術(shù)與應(yīng)用達到世界領(lǐng)先水平,成為世界主要人工智能創(chuàng)新中心,智能經(jīng)濟、智能社會取得明顯成效。人工智能產(chǎn)業(yè)成為新的重要經(jīng)濟增長點是到2025年的目標(biāo),所以C選項表述錯誤。3.Bagging是并行式集成學(xué)習(xí)方法最著名的代表,它直接基于A、自助采樣法B、富集采樣法C、自然采樣法D、填充柱采樣法正確答案:A答案解析:Bagging直接基于自助采樣法。從原始數(shù)據(jù)集D中有放回地抽取樣本,生成多個自助樣本集,基于這些自助樣本集訓(xùn)練多個基學(xué)習(xí)器,最后將這些基學(xué)習(xí)器的結(jié)果進行綜合(如分類任務(wù)中通過投票,回歸任務(wù)中通過平均等)得到最終結(jié)果。4.列算法,哪項不屬于深度學(xué)習(xí)模型?()A、支持向量機SVMB、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN正確答案:A答案解析:支持向量機SVM是一種傳統(tǒng)的機器學(xué)習(xí)算法,不屬于深度學(xué)習(xí)模型。深度殘差網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)CNN、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN都屬于深度學(xué)習(xí)模型。5.交叉驗證法將數(shù)據(jù)集劃分為k個大小相似的互斥子集,進行()次訓(xùn)練和測試A、k-1B、k+1C、kD、k-2正確答案:C6.關(guān)于“回歸(Regression)”和“相關(guān)(Correlation)”,下列說法正確的是?注意:x是自變量,y是因變量。A、回歸和相關(guān)在x和y之間都是互為對稱的B、回歸和相關(guān)在x和y之間都是非對稱的C、回歸在x和y之間是非對稱的,相關(guān)在x和y之間是互為對稱的D、回歸在x和y之間是對稱的,相關(guān)在x和y之間是非對稱的正確答案:C答案解析:回歸分析中,自變量和因變量的角色是固定的,不能隨意互換,所以回歸在x和y之間是非對稱的。而相關(guān)分析研究的是兩個變量之間的線性相關(guān)程度,x和y的地位是平等的,相關(guān)系數(shù)不會因為x和y的互換而改變,所以相關(guān)在x和y之間是互為對稱的。7.以下不是點估計中統(tǒng)計量標(biāo)準的是()A、無偏性B、一致的C、有效的D、隨機性正確答案:D答案解析:點估計中統(tǒng)計量的標(biāo)準有無偏性、一致性、有效性等,隨機性不是點估計中統(tǒng)計量的標(biāo)準。8.若一個屬性可以從其他屬性中推演出來,那這個屬性就是()A、集成屬性B、冗余屬性C、模式屬性D、結(jié)構(gòu)屬性正確答案:B答案解析:冗余屬性是指可以從其他屬性中推演出來的屬性,在數(shù)據(jù)中存在這樣的屬性會造成數(shù)據(jù)冗余等問題。而結(jié)構(gòu)屬性主要側(cè)重于數(shù)據(jù)的組織和架構(gòu)方面;模式屬性通常涉及數(shù)據(jù)的模式定義等;集成屬性強調(diào)的是數(shù)據(jù)集成過程中產(chǎn)生的相關(guān)屬性等,均不符合題意。9.在給定的數(shù)據(jù)集中,變量的取值是固定集合的是()。A、連續(xù)變量B、順序變量C、數(shù)值變量D、分類變量正確答案:D答案解析:分類變量是指其取值為固定的類別集合,例如性別(男、女)、血型(A、B、AB、O)等。連續(xù)變量的取值是連續(xù)的數(shù)值范圍;順序變量的取值有順序關(guān)系,但不是固定集合;數(shù)值變量包含連續(xù)變量和離散變量等,取值也不是固定集合這種形式。所以變量的取值是固定集合的是分類變量。10.1955年,麥卡錫、明斯基、香農(nóng)和諾切斯特四位學(xué)者首次提出“artificialintelligence(人工智能)”這個概念時,希望人工智能研究的主題是A、避免計算機控制人類B、全力研究人類大腦C、人工智能倫理D、用計算機來模擬人類智能正確答案:D答案解析:1955年,麥卡錫、明斯基、香農(nóng)和諾切斯特四位學(xué)者首次提出“artificialintelligence(人工智能)”這個概念,其初衷就是希望用計算機來模擬人類智能,讓計算機具備類似人類的智能表現(xiàn),推動人工智能領(lǐng)域的研究和發(fā)展。選項A中避免計算機控制人類并非當(dāng)時提出該概念時的主題;選項B全力研究人類大腦不是提出該概念時所希望的人工智能研究主題;選項C人工智能倫理是在人工智能發(fā)展過程中逐漸關(guān)注的問題,并非最初提出概念時的主題。11.()算法假設(shè)聚類結(jié)構(gòu)能通過樣本分布的緊密程度確定A、原型聚類B、密度聚類C、層次聚類正確答案:B答案解析:密度聚類算法假設(shè)聚類結(jié)構(gòu)能通過樣本分布的緊密程度確定。密度聚類基于密度的概念,它根據(jù)樣本點周圍的密度情況來發(fā)現(xiàn)聚類結(jié)構(gòu),密度高的區(qū)域會被劃分為一個聚類,所以該算法認為聚類結(jié)構(gòu)可由樣本分布的緊密程度來確定。而原型聚類是基于樣本到原型的某種距離度量來進行聚類;層次聚類是通過計算不同層次的簇間相似度來形成聚類樹,確定聚類結(jié)構(gòu)。12.OLAM技術(shù)一般簡稱為”數(shù)據(jù)聯(lián)機分析挖掘”,下面說法正確的是:()A、OLAP和OLAM都基于客戶機/服務(wù)器模式,只有后者有與用戶的交互性B、由于OLAM的立方體和用于OLAP的立方體有本質(zhì)的區(qū)別C、基于WEB的OLAM是WEB技術(shù)與OLAM技術(shù)的結(jié)合D、OLAM服務(wù)器通過用戶圖形借口接收用戶的分析指令,在元數(shù)據(jù)的知道下,對超級立方體作一定的操作正確答案:D13.為了解決如何模擬人類的感性思維,例如視覺理解、直覺思維、悟性等,研究者找到一個重要的信息處理的機制是()A、人工神經(jīng)網(wǎng)絡(luò)B、模式識別C、專家系統(tǒng)D、智能代理正確答案:A答案解析:人工神經(jīng)網(wǎng)絡(luò)是一種模仿人類神經(jīng)系統(tǒng)的計算模型,能夠處理復(fù)雜的非線性關(guān)系,擅長處理模式識別、分類、預(yù)測等任務(wù),對于模擬人類的感性思維如視覺理解、直覺思維、悟性等具有重要作用。專家系統(tǒng)主要基于規(guī)則進行推理,側(cè)重于解決特定領(lǐng)域的知識問題;模式識別主要是對模式進行分類和識別;智能代理是能夠自主完成特定任務(wù)的軟件或硬件實體,它們在模擬人類感性思維方面不如人工神經(jīng)網(wǎng)絡(luò)直接和有效。14.()就是讓機器通過處理和識別過程,把語音信號轉(zhuǎn)變?yōu)橄鄳?yīng)的文本或信息的高技術(shù)。A、語音轉(zhuǎn)化技術(shù)B、語音識別技術(shù)C、語音分析技術(shù)D、語音合成技術(shù)正確答案:B答案解析:語音識別技術(shù)是讓機器通過處理和識別過程,把語音信號轉(zhuǎn)變?yōu)橄鄳?yīng)的文本或信息的高技術(shù)。語音分析技術(shù)側(cè)重于對語音內(nèi)容進行分析;語音轉(zhuǎn)化技術(shù)表述不準確;語音合成技術(shù)是將文本轉(zhuǎn)化為語音,與題目中語音信號轉(zhuǎn)變?yōu)槲谋镜倪^程相反。15.規(guī)則學(xué)習(xí)的目標(biāo)是產(chǎn)生一個能覆蓋盡可能多的樣例的規(guī)則集,最直接的做法是()A、序貫覆蓋B、剪枝優(yōu)化C、假設(shè)驗證D、預(yù)測分布正確答案:A答案解析:序貫覆蓋是指在規(guī)則學(xué)習(xí)中,最直接的做法就是依次學(xué)習(xí)每一條規(guī)則,每條規(guī)則都盡可能多地覆蓋滿足其前件的樣例,最終形成一個覆蓋盡可能多樣例的規(guī)則集。剪枝優(yōu)化是對已生成的規(guī)則進行簡化等操作;假設(shè)驗證是用于驗證假設(shè)是否成立;預(yù)測分布主要是關(guān)于預(yù)測結(jié)果的分布情況,均不符合最直接產(chǎn)生覆蓋多樣例規(guī)則集的做法。16.大數(shù)據(jù)正快速發(fā)展為對數(shù)量巨大、來源分散、格式多樣的數(shù)據(jù)進行采集、存儲和關(guān)聯(lián)分析,從中發(fā)現(xiàn)新知識、創(chuàng)造新價值、提升新能力的()A、新一代技術(shù)平臺B、新一代信息技術(shù)和服務(wù)業(yè)態(tài)C、新一代服務(wù)業(yè)態(tài)D、新一代信息技術(shù)正確答案:B答案解析:大數(shù)據(jù)正快速發(fā)展為對數(shù)量巨大、來源分散、格式多樣的數(shù)據(jù)進行采集、存儲和關(guān)聯(lián)分析,從中發(fā)現(xiàn)新知識、創(chuàng)造新價值、提升新能力的新一代信息技術(shù)和服務(wù)業(yè)態(tài)。它不僅僅是新一代信息技術(shù),還涵蓋了基于這些技術(shù)所形成的服務(wù)業(yè)態(tài),A選項新一代技術(shù)平臺不夠全面,C選項新一代服務(wù)業(yè)態(tài)不完整,D選項新一代信息技術(shù)表述不準確,所以選B。17.以下對Hash函數(shù)的特征描述錯誤的是()A、容易計算B、單向性C、需要加密處理D、抗碰撞性正確答案:C答案解析:Hash函數(shù)是一種將任意長度的消息壓縮到某一固定長度的消息摘要的函數(shù)。它具有容易計算、單向性和抗碰撞性等特征。容易計算是指能夠快速得出結(jié)果;單向性是指從哈希值難以反向推出原始數(shù)據(jù);抗碰撞性是指很難找到兩個不同的輸入產(chǎn)生相同的哈希值。而哈希函數(shù)本身并不需要加密處理,它主要用于數(shù)據(jù)的完整性驗證等。18.1997年5月12日,轟動全球的人機大戰(zhàn)中,“更深的藍”戰(zhàn)勝了國際象棋之子卡斯帕羅夫,這是()。A、人工智能B、機器智能C、機器思維D、人工思維正確答案:A答案解析:“更深的藍”戰(zhàn)勝卡斯帕羅夫是人工智能領(lǐng)域的一個標(biāo)志性事件。人工智能是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)?!案畹乃{”通過復(fù)雜的算法和程序?qū)崿F(xiàn)了強大的下棋能力并戰(zhàn)勝人類頂尖棋手,這體現(xiàn)了人工智能在特定領(lǐng)域的高度發(fā)展和成就。人工思維側(cè)重于人類思維方式的模擬但表述不準確;機器思維概念較寬泛不夠精準;機器智能也沒有準確概括這一事件所代表的人工智能的特定范疇。19.以下說法中錯誤的是()A、SVM對噪聲(如來自其他分部的噪聲樣本)具備魯棒性B、在adaoost算法中,所有被分錯樣本的權(quán)重更新比例不相同C、boosting和bagging都是組合多個分類器投票的方法,二者都是根據(jù)單個分類器的正確率確定其權(quán)重D、給定n個數(shù)據(jù)點,如果其中一半用于訓(xùn)練,一半用戶測試,則訓(xùn)練誤差和測試誤差之間的差別會隨著n的增加而減少的正確答案:C答案解析:選項A,SVM對噪聲具備一定魯棒性,該說法正確;選項B,在adaoost算法中,被分錯樣本的權(quán)重更新比例確實不相同,說法正確;選項C,boosting是根據(jù)單個分類器的正確率確定其權(quán)重,而bagging是對每個分類器同等對待,該選項說法錯誤;選項D,給定n個數(shù)據(jù)點,訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)比例固定時,隨著n增加,訓(xùn)練誤差和測試誤差之間的差別會減少,說法正確。20.以下哪個不是語音識別技術(shù)的應(yīng)用場景()A、語音合成B、智能客服C、語音翻譯D、入侵檢測正確答案:D答案解析:語音識別技術(shù)是將語音信號轉(zhuǎn)換為文本的技術(shù)。語音合成是將文本轉(zhuǎn)換為語音,與語音識別方向相反,不是語音識別技術(shù)的應(yīng)用場景;語音翻譯是對語音進行識別后再翻譯,智能客服利用語音識別技術(shù)實現(xiàn)語音交互,這些都是語音識別技術(shù)的應(yīng)用場景。而入侵檢測主要是針對網(wǎng)絡(luò)安全方面檢測非法入侵行為,與語音識別技術(shù)無關(guān)。21.專家系統(tǒng)的推理機的最基本的方式是。A、邏輯推理和非邏輯推理B、準確推理和模糊推理C、正向推理和反向推理D、直接推理和間接推理正確答案:C答案解析:專家系統(tǒng)的推理機最基本的方式是正向推理和反向推理。正向推理是從已知事實出發(fā),逐步推導(dǎo)出結(jié)論;反向推理則是從目標(biāo)出發(fā),反向?qū)ふ抑С帜繕?biāo)的證據(jù)。這兩種方式是構(gòu)建推理機的基礎(chǔ),能根據(jù)不同的需求和知識表示形式選擇合適的推理策略來解決問題。22.下列()不是多艾真體系統(tǒng)的模型A、聯(lián)合規(guī)劃模型B、bdi模型C、自協(xié)調(diào)模型D、協(xié)商模型正確答案:A23.如果將數(shù)據(jù)科學(xué)比喻成“鷹”,那么,統(tǒng)計學(xué)、機器學(xué)習(xí)相當(dāng)于“鷹”的()A、頭腦B、翅膀C、軀體D、腳正確答案:B答案解析:統(tǒng)計學(xué)和機器學(xué)習(xí)在數(shù)據(jù)科學(xué)中起到了類似鷹的翅膀的作用,幫助數(shù)據(jù)科學(xué)進行數(shù)據(jù)處理、模型構(gòu)建與分析等,是實現(xiàn)數(shù)據(jù)科學(xué)目標(biāo)的重要工具和手段,如同鷹借助翅膀翱翔。而腳可類比為數(shù)據(jù)收集等基礎(chǔ)環(huán)節(jié),軀體可類比為數(shù)據(jù)整體等,頭腦可類比為數(shù)據(jù)科學(xué)整體的思維等,但翅膀更能貼切形容統(tǒng)計學(xué)和機器學(xué)習(xí)在數(shù)據(jù)科學(xué)中的關(guān)鍵作用。24.下列貝葉斯描述錯誤的是A、貝葉斯是概率框架下實施決策的基本方法B、貝葉斯基于概率和誤判損失來選擇最優(yōu)的類別標(biāo)記C、貝葉斯中期望損失定義為風(fēng)險D、貝葉斯判定準則為最大化總體風(fēng)險正確答案:D答案解析:貝葉斯判定準則為最小化總體風(fēng)險,而不是最大化總體風(fēng)險,所以選項D描述錯誤。選項A,貝葉斯是概率框架下實施決策的基本方法,該描述正確;選項B,貝葉斯基于概率和誤判損失來選擇最優(yōu)的類別標(biāo)記,表述正確;選項C,貝葉斯中期望損失定義為風(fēng)險,也是正確的。25.人工智能處在感知智能階段的表現(xiàn)是什么?A、機器開始像人類一樣能理解、思考與決策B、機器開始像人類一樣會計算,傳遞信息C、機器開始看懂和聽懂,做出判斷,采取一些簡單行動正確答案:C答案解析:人工智能處在感知智能階段主要表現(xiàn)為機器開始看懂和聽懂,做出判斷,采取一些簡單行動。A選項中像人類一樣能理解、思考與決策屬于認知智能階段的表現(xiàn);B選項中會計算、傳遞信息較為基礎(chǔ),不是感知智能階段特有的典型表現(xiàn)。人工智能的感知智能階段側(cè)重于對外部信息的感知和初步處理,使機器具備一定的感知和簡單反應(yīng)能力,C選項符合這一階段的特征。26.或圖通常稱為()。A、框架網(wǎng)絡(luò)B、語義圖C、博亦圖D、狀態(tài)圖正確答案:D答案解析:或圖通常也被稱為狀態(tài)圖,它用于表示問題求解過程中可能出現(xiàn)的各種狀態(tài)以及狀態(tài)之間的轉(zhuǎn)移關(guān)系。框架網(wǎng)絡(luò)主要用于知識表示中的框架結(jié)構(gòu)相關(guān);語義圖側(cè)重于語義關(guān)系的表達;博弈圖主要用于博弈相關(guān)場景的描述。所以答案選D。27.()是感知信息能力最強的人體器官之一A、鼻子B、眼睛C、大腦D、小腦正確答案:B答案解析:眼睛是感知信息能力最強的人體器官之一。眼睛可以通過視覺獲取大量外界信息,包括形狀、顏色、運動等,能快速準確地捕捉和識別各種視覺信號,相比其他選項中的器官,在感知信息方面具有顯著優(yōu)勢。28.下列哪部分不是專家系統(tǒng)的組成部分A、知識庫B、綜合數(shù)據(jù)庫C、推理機D、用戶正確答案:D答案解析:專家系統(tǒng)通常由知識庫、綜合數(shù)據(jù)庫、推理機等部分組成,用戶是使用專家系統(tǒng)的主體,不是專家系統(tǒng)的組成部分。29.關(guān)聯(lián)規(guī)則反映了事物之間的相互依賴性或關(guān)聯(lián)性。關(guān)聯(lián)規(guī)則主要可分為()類A、4B、6C、3D、5正確答案:C30.HDFS將文件分割成若干數(shù)據(jù)塊,每個數(shù)據(jù)塊大小為()。A、2MBB、4MBC、16MBD、64MB正確答案:D31.從加工程度看,以下()屬于數(shù)據(jù)產(chǎn)品中的決策類產(chǎn)品。A、戰(zhàn)略規(guī)劃B、咨詢報告C、AppsD、數(shù)據(jù)庫正確答案:A32.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費更少的時間來訓(xùn)練這個模型,下列哪種做法是正確的A、增加學(xué)習(xí)率B、減少樹的數(shù)量C、增加樹的深度D、減小樹的深度正確答案:D33.有關(guān)支持向量機模型的說法錯誤的是?A、對于分類問題,支持向量機需要找到與邊緣點距離最大的分界線,從而確定支持向量。B、支持向量機的核函數(shù)負責(zé)輸入變量和分類變量(輸出)之間的映射。C、支持向量機可根據(jù)主題對新聞進行分類。D、支持向量機不能處理分界線為曲線的多分類問題。正確答案:D答案解析:支持向量機能夠處理分界線為曲線的多分類問題,它通過核函數(shù)將低維空間的數(shù)據(jù)映射到高維空間,從而有可能找到更復(fù)雜的決策邊界來進行多分類。選項A中,支持向量機確實是要找到與邊緣點距離最大的分界線確定支持向量;選項B,核函數(shù)負責(zé)輸入變量和分類變量之間的映射;選項C,支持向量機可用于新聞分類等多種分類任務(wù)。所以說法錯誤的是D。34.若A與B是任意的兩個事件,且P(AB)=P(A)·P(B),則可稱事件A與B()。A、等價B、互不相容C、相互獨立D、相互對立正確答案:D35.按標(biāo)注活動的自動化程度,以下()不屬于數(shù)據(jù)標(biāo)注的類別。A、自動化標(biāo)注B、手工標(biāo)注C、半自動化標(biāo)注D、半手工標(biāo)注正確答案:D答案解析:手工標(biāo)注是完全依靠人工進行標(biāo)注,自動化標(biāo)注借助技術(shù)手段自動完成部分或全部標(biāo)注工作,半自動化標(biāo)注結(jié)合了人工與一定程度的自動化操作。而半手工標(biāo)注并不是一個被廣泛認可的數(shù)據(jù)標(biāo)注類別表述,不屬于按標(biāo)注活動自動化程度劃分的數(shù)據(jù)標(biāo)注類別。36.關(guān)于正態(tài)分布,下列說法錯誤的是A、正態(tài)分布具有集中性和對稱性B、正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)C、正態(tài)分布的偏度為0,峰度為1D、標(biāo)準正態(tài)分布的均值為0,方差為1正確答案:C答案解析:正態(tài)分布的偏度為0,峰度為3,而不是峰度為1,所以選項C說法錯誤。選項A,正態(tài)分布具有集中性和對稱性,是正確的;選項B,正態(tài)分布的均值決定其位置,方差決定其形態(tài),說法正確;選項D,標(biāo)準正態(tài)分布的均值為0,方差為1,說法正確。37.()是指數(shù)據(jù)減去一個總括統(tǒng)計量或模型擬合值時的殘余部分A、極值B、標(biāo)準值C、平均值D、殘值正確答案:D38.下面對集成學(xué)習(xí)模型中的弱學(xué)習(xí)器描述錯誤的是?A、他們經(jīng)常不會過擬合B、他們通常帶有高偏差,所以其并不能解決復(fù)雜學(xué)習(xí)問題C、他們通常會過擬合正確答案:C答案解析:集成學(xué)習(xí)中的弱學(xué)習(xí)器通常帶有高偏差,不能很好地解決復(fù)雜學(xué)習(xí)問題,經(jīng)常不會過擬合,而不是通常會過擬合。39.事務(wù)對數(shù)據(jù)對象加鎖后擁有何種控制權(quán)是由封鎖的()決定的。A、屬性B、類型C、種類D、狀態(tài)正確答案:B答案解析:封鎖的類型決定了事務(wù)對數(shù)據(jù)對象加鎖后擁有何種控制權(quán)。比如共享鎖允許事務(wù)讀取數(shù)據(jù),排他鎖則不允許其他事務(wù)同時對該數(shù)據(jù)進行讀寫操作等,不同類型的鎖賦予事務(wù)不同的操作權(quán)限。40.()算法是決策樹學(xué)習(xí)的基本算法,其他多數(shù)決策樹學(xué)習(xí)方法都是它的變體A、Find-S算法B、KNN算法C、概念算法D、ID3算法正確答案:D答案解析:ID3算法是決策樹學(xué)習(xí)的基本算法,其他多數(shù)決策樹學(xué)習(xí)方法都是它的變體。ID3算法以信息增益為準則來選擇劃分屬性,構(gòu)建決策樹。Find-S算法是一種簡單的候選消除算法;KNN算法是基于最近鄰的分類算法;概念算法表述比較寬泛不準確。41.什么是KDD?()A、數(shù)據(jù)挖掘與知識發(fā)現(xiàn)B、領(lǐng)域知識發(fā)現(xiàn)C、文檔知識發(fā)現(xiàn)D、動態(tài)知識發(fā)現(xiàn)正確答案:A答案解析:KDD(KnowledgeDiscoveryinDatabase)即數(shù)據(jù)挖掘與知識發(fā)現(xiàn),是從大量數(shù)據(jù)中提取出有效的、新穎的、潛在有用的、最終可理解的模式的非平凡過程。它涉及到數(shù)據(jù)清理、數(shù)據(jù)集成、數(shù)據(jù)選擇、數(shù)據(jù)變換、數(shù)據(jù)挖掘、模式評估和知識表示等一系列步驟,旨在從數(shù)據(jù)中發(fā)現(xiàn)有價值的知識和信息。領(lǐng)域知識發(fā)現(xiàn)、文檔知識發(fā)現(xiàn)、動態(tài)知識發(fā)現(xiàn)都不是KDD的準確含義。42.對于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是:()A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會增加測試數(shù)據(jù)集的分類錯誤率B、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯誤率C、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯誤率正確答案:A答案解析:對于選項A,增加神經(jīng)網(wǎng)絡(luò)層數(shù)可能會導(dǎo)致過擬合等問題,從而增加測試數(shù)據(jù)集的分類錯誤率,該說法合理。對于選項B,減少神經(jīng)網(wǎng)絡(luò)層數(shù)不一定總是能減小測試數(shù)據(jù)集的分類錯誤率,可能會導(dǎo)致模型表達能力不足。對于選項C,增加神經(jīng)網(wǎng)絡(luò)層數(shù)并不總是能減小訓(xùn)練數(shù)據(jù)集的分類錯誤率,也可能出現(xiàn)過擬合導(dǎo)致訓(xùn)練錯誤率上升。43.關(guān)于k折交叉驗證,下列說法正確的是?()A、k值并不是越大越好,k值過大,會降低運算速度B、選擇更大的k值,會讓偏差更小,因為k值越大,訓(xùn)練集越接近整個訓(xùn)練樣本C、選擇合適的k值,能減小驗方差D、以上說法都正確正確答案:D答案解析:逐一分析各選項。A選項,k值過大確實會增加計算量從而降低運算速度,該說法正確;B選項,k值越大,訓(xùn)練集越接近整個訓(xùn)練樣本,偏差會更小,說法正確;C選項,選擇合適的k值能減小驗證方差,說法正確。所以以上說法都正確,答案選D。44.下列不屬于數(shù)據(jù)脫敏操作必須滿足的要求的是A、無殘留B、易于實現(xiàn)C、雙向性D、單向性正確答案:C答案解析:數(shù)據(jù)脫敏操作必須滿足單向性,即脫敏后的數(shù)據(jù)不能通過反向操作恢復(fù)原始數(shù)據(jù);無殘留,確保脫敏過程中不會留下可被利用來恢復(fù)原始數(shù)據(jù)的線索;易于實現(xiàn),以便在實際應(yīng)用中能夠高效地進行操作。而雙向性不是數(shù)據(jù)脫敏操作必須滿足的要求,數(shù)據(jù)脫敏是為了保護數(shù)據(jù)隱私,不應(yīng)該具備雙向可逆的特性。45.序列節(jié)點使用()和生成序列模式兩個步驟進行序列模式的挖掘。A、最低規(guī)則置信度B、生成時間序列C、設(shè)置修剪值D、發(fā)生頻繁序列正確答案:D46.某籃運動員在三分線投球的命中率是2(1),他投球10次,恰好投進3個球的概率()。A、16(7)B、16(3)C、8(5)D、128(15)正確答案:D答案解析:投球10次,恰好投進3個球,這是一個二項分布問題。投球命中率為\(\frac{1}{2}\),投球10次,投進3個球的概率\(P=C_{10}^3\times(\frac{1}{2})^3\times(1-\frac{1}{2})^{10-3}\)\(C_{10}^3=\frac{10!}{3!(10-3)!}=\frac{10\times9\times8}{3\times2\times1}=120\)\(P=120\times(\frac{1}{2})^3\times(\frac{1}{2})^7=120\times\frac{1}{8}\times\frac{1}{128}=\frac{15}{128}\)逐一分析選項:A選項\(\frac{15}{128}\)符合;B選項\(\frac{3}{16}=\frac{24}{128}\gt\frac{15}{128}\),不符合;C選項\(\frac{5}{8}=\frac{80}{128}\gt\frac{15}{128}\),不符合;D選項\(\frac{7}{16}=\frac{56}{128}\gt\frac{15}{128}\),不符合。所以答案是A。47.ImageNet數(shù)據(jù)集包含了()幅圖片。A、1400多B、14000多C、1400多萬D、14000多萬正確答案:C答案解析:ImageNet數(shù)據(jù)集是一個非常龐大的圖像數(shù)據(jù)集,包含超過1400多萬幅圖片,這些圖片涵蓋了豐富多樣的類別,在計算機視覺領(lǐng)域有著廣泛的應(yīng)用。48.用Tensorflow處理圖像識別任務(wù)時,若輸入數(shù)據(jù)的形狀為[64,224,224,3],下面說法正確的是A、每一張圖片都是二值圖片B、每一張圖片都是三通道圖片C、模型一次處理224張圖片(batchsize為224)D、以上選項均不正確正確答案:B答案解析:輸入數(shù)據(jù)形狀為[64,224,224,3],其中最后一維的3表示通道數(shù),所以每一張圖片都是三通道圖片。A選項二值圖片通道數(shù)一般為1;C選項batchsize為64,表示模型一次處理64張圖片。49.不屬于人工智能的學(xué)派是A、符號主義B、機會主義C、連接主義D、行為主義正確答案:B答案解析:人工智能主要有符號主義、行為主義和連接主義三個學(xué)派。符號主義強調(diào)基于符號推理;行為主義關(guān)注智能系統(tǒng)與環(huán)境的交互行為;連接主義受神經(jīng)網(wǎng)絡(luò)啟發(fā)。而機會主義不屬于人工智能的學(xué)派。50.AI的是哪兩個英文單詞的縮寫A、AutomaticIntelligenceB、ArtificialIntelligenceC、AutomaticInformationD、ArtificialInformation正確答案:B答案解析:AI是ArtificialIntelligence的縮寫,意為人工智能。AutomaticIntelligence表示自動智能;AutomaticInformation表示自動信息;ArtificialInformation表示人工信息,均不符合AI的準確含義。51.Map階段的輸入是以()形式的行數(shù)據(jù)。A、字符B、鏈表C、行列式D、鍵值對正確答案:D答案解析:在MapReduce中,Map階段的輸入是以鍵值對(Key-ValuePair)形式的行數(shù)據(jù)。鍵值對是一種將數(shù)據(jù)組織成兩個相關(guān)元素的方式,其中鍵用于標(biāo)識數(shù)據(jù),值用于存儲與鍵相關(guān)的具體數(shù)據(jù)。在Map任務(wù)中,輸入數(shù)據(jù)被解析成一個個鍵值對,然后傳遞給Map函數(shù)進行處理。52.1976—1982年,人工智能的發(fā)展處于()。A、第一次低谷期B、復(fù)蘇期C、第一次繁榮期D、萌芽期正確答案:A答案解析:1976—1982年,由于專家系統(tǒng)的局限性等原因,人工智能的發(fā)展處于第一次低谷期。在這一階段,之前對人工智能過高的期望沒有達成,遭遇了諸多挫折,發(fā)展陷入停滯甚至倒退,所以處于第一次低谷期。53.()是將比較復(fù)雜的問題劃分為若干階段,通過逐段求解,最終求得全局最優(yōu)解A、線性規(guī)劃B、動態(tài)規(guī)劃C、多目標(biāo)規(guī)劃D、整數(shù)規(guī)劃正確答案:B答案解析:動態(tài)規(guī)劃是將比較復(fù)雜的問題劃分為若干階段,通過逐段求解,最終求得全局最優(yōu)解。它把一個多階段決策問題轉(zhuǎn)化為一系列相互關(guān)聯(lián)的單階段問題,依次求解這些單階段問題,從而得到整個問題的最優(yōu)解。線性規(guī)劃主要解決在一組線性約束條件下的目標(biāo)函數(shù)最優(yōu)值問題;整數(shù)規(guī)劃是要求決策變量取整數(shù)值的線性規(guī)劃問題;多目標(biāo)規(guī)劃是處理多個目標(biāo)的優(yōu)化問題,它們都沒有像動態(tài)規(guī)劃這樣明確的階段劃分和逐段求解的特點。54.為滿足數(shù)據(jù)加工的質(zhì)量要求需要對數(shù)據(jù)進行()A、數(shù)據(jù)標(biāo)注B、數(shù)據(jù)排序C、數(shù)據(jù)清洗D、數(shù)據(jù)轉(zhuǎn)換正確答案:C答案解析:數(shù)據(jù)清洗是為了去除數(shù)據(jù)中的噪聲、錯誤數(shù)據(jù)、重復(fù)數(shù)據(jù)等,以提高數(shù)據(jù)質(zhì)量,滿足數(shù)據(jù)加工的質(zhì)量要求。數(shù)據(jù)轉(zhuǎn)換主要是對數(shù)據(jù)的格式、類型等進行改變;數(shù)據(jù)排序是按照一定規(guī)則對數(shù)據(jù)進行排列;數(shù)據(jù)標(biāo)注是給數(shù)據(jù)添加特定的標(biāo)識或說明,這三者通常不是直接針對滿足數(shù)據(jù)加工質(zhì)量要求的核心操作。55.通過KMeans算法進行聚類分析后得出的聚類結(jié)果的特征是()A、同一聚類中的對象間相似度高,不同聚類中的對象間相似度高B、同一聚類中的對象間相似度高,不同聚類中的對象間相似度低C、同一聚類中的對象間相似度低,不同聚類中的對象間相似度低D、同一聚類中的對象間相似度低,不同聚類中的對象間相似度高正確答案:B答案解析:KMeans算法的目標(biāo)是將數(shù)據(jù)點劃分為不同的聚類,使得同一聚類中的對象間相似度高,不同聚類中的對象間相似度低。這樣可以將數(shù)據(jù)集中相似的數(shù)據(jù)聚集在一起,不同類的數(shù)據(jù)分開,便于對數(shù)據(jù)進行分析和理解。56.關(guān)于級聯(lián)相關(guān)網(wǎng)絡(luò)描述錯誤的是A、屬于結(jié)構(gòu)自適應(yīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)也是其優(yōu)化目標(biāo)B、主要成分為級聯(lián)、相關(guān)、歸約C、無需設(shè)置網(wǎng)絡(luò)層數(shù)、隱層神經(jīng)元數(shù)目D、訓(xùn)練速度快,但數(shù)據(jù)較小時容易陷入過擬合正確答案:B57.正式提出人工智能(artificialintelligence,AI)這個術(shù)語并把它作為一門新興科學(xué)的名稱實在哪一年。A、1956B、1960年C、1965年D、1980年正確答案:A答案解析:1956年達特茅斯會議正式提出人工智能(artificialintelligence,AI)這個術(shù)語并把它作為一門新興科學(xué)的名稱。58.下列哪個模型屬于無監(jiān)督學(xué)習(xí)A、KNN分類B、邏輯回歸C、DBSCAND、決策樹正確答案:C答案解析:DBSCAN是一種無監(jiān)督學(xué)習(xí)算法,用于對數(shù)據(jù)進行聚類。而KNN分類、邏輯回歸、決策樹都屬于有監(jiān)督學(xué)習(xí)算法。59.AI是()的英文縮寫。A、AutomaticIntelligenceB、ArtificalIntelligenceC、AutomaticeInformationD、ArtificalInformation正確答案:B答案解析:AI是ArtificialIntelligence的英文縮寫,意為人工智能。AutomaticIntelligence表示自動智能;AutomaticeInformation表示自動信息;ArtificalInformation表示人工信息,均不符合AI的正確含義。二、多選題(共21題,每題1分,共21分)1.機器學(xué)習(xí)預(yù)測類任務(wù)包括()?A、聚類B、關(guān)聯(lián)規(guī)則挖掘C、回歸D、分類正確答案:CD答案解析:機器學(xué)習(xí)預(yù)測類任務(wù)主要包括分類和回歸。分類是將數(shù)據(jù)劃分到不同的類別中,例如判斷一封郵件是垃圾郵件還是正常郵件;回歸則是預(yù)測一個連續(xù)的數(shù)值,比如預(yù)測房價。聚類是將數(shù)據(jù)分成不同的簇,屬于無監(jiān)督學(xué)習(xí),不是預(yù)測類任務(wù)。關(guān)聯(lián)規(guī)則挖掘是發(fā)現(xiàn)數(shù)據(jù)中項集之間的關(guān)聯(lián)關(guān)系,也不屬于預(yù)測類任務(wù)。2.關(guān)于信息熵,下列說法正確的是。A、信息熵是對信息源整體不確定性的度量B、信息熵也可以說是系統(tǒng)有序化程度的一個度量C、一個系統(tǒng)越是有序,信息熵就越高D、變量的不確定性越大,熵也就越大正確答案:ABD答案解析:選項A:變量的不確定性越大,熵也就越大。信息熵是用來衡量信息的不確定性程度的,不確定性越大,熵值越高,該說法正確。選項B:一個系統(tǒng)越是有序,信息熵就越低,而不是越高。有序意味著不確定性小,熵就小,該說法錯誤。選項C:信息熵可以說是系統(tǒng)有序化程度的一個度量,系統(tǒng)越無序熵越大,越有序熵越小,該說法正確。選項D:信息熵是對信息源整體不確定性的度量,準確地反映了信息源發(fā)出信息的不確定性,該說法正確。3.遷移學(xué)習(xí)是一種機器學(xué)習(xí)方法,包含以下兩種開發(fā)方法()。A、似然變換B、開發(fā)模型的方法C、預(yù)訓(xùn)練模型的方法D、數(shù)據(jù)清洗正確答案:BC答案解析:遷移學(xué)習(xí)包含開發(fā)模型的方法和預(yù)訓(xùn)練模型的方法。開發(fā)模型的方法是指直接基于新的數(shù)據(jù)進行模型開發(fā)。預(yù)訓(xùn)練模型的方法是指先在大規(guī)模數(shù)據(jù)上訓(xùn)練一個通用模型,然后在新的數(shù)據(jù)上進行微調(diào),以適應(yīng)特定的任務(wù)。數(shù)據(jù)清洗主要是對數(shù)據(jù)進行預(yù)處理,去除噪聲、缺失值等,不屬于遷移學(xué)習(xí)的開發(fā)方法。似然變換也與遷移學(xué)習(xí)的這兩種開發(fā)方法無關(guān)。4.Python支持運行的平臺有()。A、WindowsB、MacOSC、CentOSD、Ubuntu正確答案:ABCD答案解析:Python具有廣泛的跨平臺支持性。它可以在Windows操作系統(tǒng)上運行,滿足大量Windows用戶的需求;能在MacOS系統(tǒng)上穩(wěn)定運行,為蘋果用戶提供開發(fā)和使用環(huán)境;也支持在CentOS這種Linux發(fā)行版上運行,常用于服務(wù)器端開發(fā)等場景;同時在Ubuntu等其他Linux系統(tǒng)上同樣可以良好運行,用于各種不同的開發(fā)任務(wù)和應(yīng)用場景。所以ABCD四個選項所代表的平臺Python都支持運行。5.下列機器學(xué)習(xí)方法屬于基于獲取知識的表示分類的是A、決策樹B、神經(jīng)網(wǎng)絡(luò)C、產(chǎn)生式規(guī)則D、歸納推理正確答案:ABC6.“噪聲”是指測量變量中的隨機錯誤或偏差,噪聲數(shù)據(jù)的主要表現(xiàn)形式有哪些?A、虛假數(shù)據(jù)B、錯誤數(shù)據(jù)C、缺失數(shù)據(jù)D、異常數(shù)據(jù)正確答案:ABD7.決策樹剪枝的基本策略有()。A、后剪枝B、前剪枝C、先剪枝D、預(yù)剪枝E、中剪枝正確答案:AD8.NoSQL中常用的數(shù)據(jù)模型包括()A、Key-ValueB、Key-DocumentC、Key-ColumnD、圖存儲正確答案:ABCD答案解析:NoSQL中常用的數(shù)據(jù)模型包括:1.Key-Value模型:以鍵值對的形式存儲數(shù)據(jù),鍵是唯一標(biāo)識,值可以是任意類型的數(shù)據(jù)。2.Key-Document模型:文檔模型,數(shù)據(jù)以文檔的形式存儲,每個文檔可以有不同的結(jié)構(gòu),類似JSON格式。3.Key-Column模型:列族模型,數(shù)據(jù)按列族存儲,同一列族的數(shù)據(jù)存儲在一起。4.圖存儲模型:用于存儲和處理圖結(jié)構(gòu)的數(shù)據(jù),節(jié)點和邊都可以有屬性。9.區(qū)間估計有兩個重要指標(biāo),分別為()。A、置信水平B、置信概率C、臨界值D、置信區(qū)間正確答案:AD10.支持數(shù)據(jù)可視化的工具有()。A、WekaB、PandasC、KnimeD、SciPy正確答案:ABCD11.Yarn架構(gòu)在Hadoop生態(tài)圈中有哪些作用?A、資源分配B、調(diào)度C、隔離D、計算正確答案:ABC答案解析:Yarn是Hadoop的資源管理系統(tǒng),主要負責(zé)集群的資源分配、調(diào)度和隔離。它將計算資源(如CPU、內(nèi)存等)分配給各個應(yīng)用程序,根據(jù)一定的調(diào)度策略決定哪個應(yīng)用程序可以獲得資源以及何時獲得資源,同時提供資源隔離機制以確保各個應(yīng)用程序之間互不干擾。而計算并不是Yarn的主要功能,MapReduce等計算框架運行在Yarn之上利用其提供的資源進行計算。12.人工智能研究的主要因素有()。A、算法B、計算能力C、天氣D、數(shù)據(jù)正確答案:ABD答案解析:人工智能研究主要包含三個重要因素。一是計算能力,強大的計算能力是運行復(fù)雜人工智能算法和處理海量數(shù)據(jù)的基礎(chǔ)。二是算法,它是人工智能實現(xiàn)智能任務(wù)的核心邏輯和方法。三是數(shù)據(jù),豐富且高質(zhì)量的數(shù)據(jù)為人工智能模型的訓(xùn)練提供了素材,使其能夠?qū)W習(xí)到各種模式和規(guī)律。而天氣與人工智能研究并無直接關(guān)聯(lián)。13.以下對正態(tài)分布的說法正確的是()A、σ越小分布越集中在μ附近B、σ越大分布越集中C、距離μ越遠的值概率越大D、距離μ越進的值概率越大正確答案:AD14.在強化學(xué)習(xí)中,主體和環(huán)境之間交互的要素有()。A、動作B、強化C、回報D、狀態(tài)正確答案:ACD答案解析:在強化學(xué)習(xí)中,主體和環(huán)境之間交互包含狀態(tài)、動作、回報等要素。狀態(tài)是主體對環(huán)境當(dāng)前情況的感知;動作是主體在當(dāng)前狀態(tài)下采取的行為;回報是主體執(zhí)行動作后從環(huán)境中獲得的反饋信號,用于衡量主體的行為好壞。而強化是通過回報等對主體策略進行調(diào)整的過程,不是交互的直接要素。15.隨機試驗必須符合以下幾個條件?A、它可以在相同條件下重復(fù)進行B、每次試驗只出現(xiàn)這些可能結(jié)果中的一個C、預(yù)先要能斷定出現(xiàn)哪個結(jié)果D、試驗的所有結(jié)果事先已正確答案:ABD答案解析:隨機試驗必須滿足三個條件:(1)可以在相同條件下重復(fù)進行;(2)每次試驗的可能結(jié)果不止一個,并且能事先明確試驗的所有可能結(jié)果;(3)進行一次試驗之前不能確定哪一個結(jié)果會出現(xiàn)。選項A符合條件(1);選項B符合條件(3);選項D包含了條件(2)中能事先明確所有可能結(jié)果這一要點;而選項C中預(yù)先斷定出現(xiàn)哪個結(jié)果不符合隨機試驗的定義,隨機試驗是不能預(yù)先確定會出現(xiàn)哪個結(jié)果的。所以答案是ABD。16.人工智能主要分為()A、計算智能B、感知智能C、認知智能D、以上都不正確正確答案:ABC答案解析:人工智能主要分為計算智能、感知智能和認知智能。計算智能主要基于算法進行數(shù)值計算和數(shù)據(jù)處理;感知智能側(cè)重于讓機器具備像人類一樣感知外界信息的能力,如視覺、聽覺等;認知智能則使機器能夠理解、學(xué)習(xí)、推理和決策,模擬人類的高級認知過程。17.計算智能的主要內(nèi)容包括()A、神經(jīng)計算B、進化計算C、免疫計算D、蟻群算法正確答案:AB18.討論變量的關(guān)系,主要有三種方法:()。A、回歸分析B、相關(guān)分析C、數(shù)據(jù)分析D、方差分析正確答案:ABD19.計算智能的主要研究領(lǐng)域包括()。A、數(shù)字計算B、進化計算C、神經(jīng)計算D、模糊計算正確答案:BCD答案解析:計算智能是信息科學(xué)和生命科學(xué)相互交叉的前沿領(lǐng)域,主要研究領(lǐng)域包括神經(jīng)計算、進化計算、模糊計算等。神經(jīng)計算模擬人類神經(jīng)系統(tǒng)的結(jié)構(gòu)和功能進行信息處理;進化計算基于自然選擇和遺傳變異等進化機制求解問題;模糊計算則處理模糊性和不確定性的信息。而數(shù)字計算

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論