2025年度福建省職業院校技能大賽中職組(大數據應用與服務賽項)考試題(附答案)_第1頁
2025年度福建省職業院校技能大賽中職組(大數據應用與服務賽項)考試題(附答案)_第2頁
2025年度福建省職業院校技能大賽中職組(大數據應用與服務賽項)考試題(附答案)_第3頁
2025年度福建省職業院校技能大賽中職組(大數據應用與服務賽項)考試題(附答案)_第4頁
2025年度福建省職業院校技能大賽中職組(大數據應用與服務賽項)考試題(附答案)_第5頁
已閱讀5頁,還剩106頁未讀, 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

年度福建省職業院校技能大賽中職組(大數據應用與服務賽項)考試題(附答案)單選題1.制作鏡像時,復制文件到鏡像中使用的命令是()。A、DDB、COPYC、RUND、CMD參考答案:B2.在ZooKeeper中,在配置文件zoo.cfg中,請問initLimit表示的含義是()。A、Leader-Follower初始通信時限B、Leader-Follower同步通信時限C、lient-Server通信心跳時間D、Client-Server初始通信時限參考答案:A3.在ZooKeeper中,事務日志(transactionlog)用于記錄()。A、節點的數據變更操作B、節點的子節點變更操作C、節點的ACL變更操作D、所有節點的操作參考答案:D4.在ZooKeeper中,每個節點都有一個唯一的標識符,這個標識符是()。A、ZNodeB、EphemeralNodeC、PersistentNodeD、ZooNode參考答案:A5.在ZooKeeper中,節點可以設置監聽器嗎?()A、是,可以設置監聽器B、否,節點沒有監聽功能C、取決于節點的類型D、取決于節點的權限設置參考答案:A6.在ZooKeeper中,關于節點的ACL(訪問控制列表)說法錯誤的是()。A、CL可以用于控制節點的讀寫權限B、ACL可以定義多個權限組合C、ACL可以設置到子節點上并繼承父節點的權限D、ACL只能設置在持久節點上參考答案:D7.在ZooKeeper中,Watcher是在()被觸發。A、在節點數據變更之前B、在節點數據變更之后C、在節點數據變更期間D、取決于Watcher的設置參考答案:B8.在ZooKeeper中,SEQUENTIAL節點的特點是()。A、節點名稱具有順序性B、節點數據具有順序性C、節點的觸發器具有順序性D、節點的ACL具有順序性參考答案:A9.在ZooKeeper中,EPHEMERAL節點的特點是()。A、臨時創建,會話結束后自動刪除B、持久創建,會話結束后仍然保留C、只能由Leader節點創建D、只能由Follower節點創建參考答案:A10.在ZooKeeper中,ACL(訪問控制列表)可以設置為()。A、CREATOR_ALL_ACLB、OPEN_ACL_UNSAFEC、AUTH_IDSD、所有選項都正確參考答案:D11.在ZooKeeper中,()角色負責協調其他節點的工作。A、領導者(Leader)B、跟隨者(Follower)C、觀察者(Observer)D、所有角色均可參考答案:A12.在Sqoop中,哪個參數用于指定要導入的目標表?()A、–tableB、–target-dirC、–outdirD、–where參考答案:A13.在linux系統中,提交hadoop程序的命令是()。A、hadoopjarB、hadoop-submitC、hadoop-jarD、hadoopfs參考答案:A14.在Kafka中,()是ISR隊列中最小的LEO。A、LEOB、ISRC、HWD、AR參考答案:C15.在hive中下列哪個命令不可以實現去重()。A、distinctB、groupbyC、row_numberD、having參考答案:D16.在Hive中,以下哪個配置參數用于指定Hive執行計劃的輸出目錄()?A、hive.query.plan.output.directoryB、hive.exec.plan.output.directoryC、hive.plan.output.directoryD、hive.query.execution.directory參考答案:A17.在Hive中,以下哪個配置參數用于指定Hive執行計劃的緩存目錄()?A、hive.query.plan.cache.dirB、hive.exec.plan.cache.dirC、hive.cache.plan.directoryD、hive.query.cache.directory參考答案:B18.在Hive中,以下哪個配置參數用于指定Hive元數據存儲的數據庫類型()?A、hive.metastore.urisB、hive.metastore.schemaC、hive.metastore.db.typeD、hive.metastore.db.url參考答案:C19.在Hive中,以下哪個配置參數用于指定Hive的執行引擎為Spark()?A、hive.execution.engine=sparkB、hive.spark.execution.engine=trueC、hive.spark.engine.enabled=trueD、hive.query.engine=spark參考答案:A20.在Hive中,以下哪個配置參數用于指定Hive表的默認存儲格式()?A、hive.default.storage.formatB、hive.default.file.formatC、hive.default.formatD、hive.table.default.format參考答案:C21.在Hive中,以下哪個配置參數用于指定HiveCLI的歷史命令記錄文件名()?A、B、hive.cli.history.fileC、mand.log.filenameD、hive.query.log.file參考答案:B22.在Hive中,以下哪個配置參數用于指定HDFS的名稱節點地址()。A、hive.metastore.urisB、fs.defaultFSC、hive.metastore.warehouse.dirhive.server2.thrift.port參考答案:B23.在Hive中,哪個配置參數用于指定Hive的執行模式,如本地模式或MapReduce模式()?A、hive.execution.engineB、hive.execution.modeC、hive.mapred.modeD、hive.exec.mode參考答案:B24.在Hive中,哪個配置參數用于指定HiveCLI的歷史命令記錄目錄()?A、hive.history.file.directoryB、hive.query.log.dirC、hive.cli.history.directoryD、mand.log.dir參考答案:C25.在HDFS分布式文件系統中,一般采用冗余存儲,冗余因子通常設置為()。A、1.0B、2.0C、3.0D、4.0參考答案:C26.在Flink中,窗口(Window)的作用是()。A、控制數據流的速度B、對數據流進行分組C、對數據流進行時間切片D、對數據流進行過濾參考答案:C27.在Flink的配置文件中,()通常用來指定Flink任務并行度。A、parallelism.defaultB、task.parallelismC、parallelism.default-taskD、task.default-parallelism參考答案:D28.在Docker數據管理中,數據卷可以提供的特性不包括()。A、數據卷可以在容器之間共享和重用B、對數據卷內數據的修改立馬生效C、對數據卷的更新不影響鏡像D、掛載數據卷時要手工創建掛載目錄參考答案:D29.在Docker的運行過程中,對鏡像的操作不包括()。A、deleteB、searchC、pullD、push參考答案:A30.在Centos中啟動Docker服務的命令是()。A、systemstartdockerB、systemenabledockerC、systemctlstartdockerD、systemctlrundocker參考答案:C31.在()版本后,Kafka正式移除了對Zookeeper的依賴。A、Kafka1.8B、Kafka2.6C、Kafka2.8D、Kafka3.2參考答案:C32.與傳統消息系統相比,Kafka的突出特點不包括()。A、能夠持久化日志B、容錯能力強,是一個分布式系統C、支持實時的流式處理D、提供在線消息同步和離線消息緩存的能力參考答案:D33.以下選項中說法正確的是()。A、DAG是彈性分布式數據集的簡稱,是分布式內存的一個抽象概念,提供了一種高度受限的共享內存模型B、Application是運行在工作節點的一個進程,負責運行TaskC、Job是運行在Executor上的工作單元D、Stage是Job的基本調度單位,一個Job會分為多組Task,每組Task被稱為Stage參考答案:D34.以下選項哪個是HDFS的名稱節點()。A、DataNodeB、SecondaryNodeC、NodeD、NameNode參考答案:D35.以下哪種不是Hive支持的數據類型()。A、StructB、IntC、MapD、Long參考答案:D36.以下哪個選項不是Sqoop的導入模式?()A、純文本導入B、二進制導入C、Avro導入D、JSON導入參考答案:D37.以下哪個是正確的sqoop命令,用于將數據從MySQL導入到HDFS?()A、bin/sqoopimport--connectjdbc:mysql://0:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudentB、in/sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudentC、bin/sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudent--m11D、bin/sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudent--m11.3參考答案:D38.以下哪個是正確的sqoop導入數據的完整命令?()A、sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudentB、sqoopimportdata--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudentC、bin/sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudentD、bin/sqoopimportdata--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudent參考答案:C39.以下關于Spark與Hadoop對比,說法錯誤的是()。A、Spark的計算模式也屬于MapReduce,但不局限于Map和Reduce操作,還提供了多種數據集操作類型,編程模型比HadoopMapReduce更靈活B、Spark提供了內存計算,可將中間結果放到內存中,對于迭代運算效率更高C、Spark磁盤IO開銷較大,任務之間的銜接涉及IO開銷D、Spark基于DAG的任務調度執行機制,要優于HadoopMapReduce的迭代執行機制參考答案:C40.以下關于Spark計算框架,說法錯誤的是()。A、Spark支持內存計算B、Spark框架是使用Java編寫的C、Spark提供了完整而強大的技術棧,包括SQL查詢、流式計算、機器學習和圖算法組件D、Spark可運行于獨立的集群模式中,可運行于Hadoop中,也可運行于AmazonEC2等云環境中參考答案:B41.以下關于RDD的寬依賴和窄依賴的說法錯誤的是()。A、窄依賴表現為子RDD的一個分區只依賴于某個(些)父RDD的一個分區B、寬依賴則表現為子RDD的一個分區依賴于同一個父RDD的多個分區C、寬依賴的RDD之間無Shuffle操作D、窄依賴的RDD之間無Shuffle操作參考答案:C42.以下關于Hive操作描述不正確的是()。A、Hive是一個建立在hadoop文件系統上的數據倉庫架構,可以用其對HDFS上B、Hive依賴于MapReduce處理數據C、Hive的加載數據時候,可以用local進行修飾,表示從某個本地目錄下加載數據D、Hive一般可以用于實時的查詢分析參考答案:D43.以下對hive中表數據操作描述正確的是()。A、hive可以修改行值B、hive可以修改列值C、hive不可以修改特定行值、列值D、以上說法都不對參考答案:C44.要在Hive中啟用數據列級別的訪問控制(RBAC),應該設置哪個配置參數()?A、hive.column.security.enabledB、hive.rbac.enabledC、hive.security.column.enabledD、hive.access.control.columns=true參考答案:C45.下面中不屬于HIVE中的元數據信息()。A、表的名字B、表的列和分區及其屬性C、表的屬性(只存儲內部表信息)D、表的數據所在目錄參考答案:C46.下面那種情況不會觸發♂ConsumerRebalance操作()。A、某個消費者崩潰B、某個生產者崩潰C、消費者消費的多個topic中某個topic被刪除D、新增消費者參考答案:B47.下面哪個命令是創建hive表()。A、import-all-tablesB、list-databasesC、list-tablesD、create-hive-table參考答案:D48.下面哪個命令行參數可以用來刪除Kafka中的Topic?()A、listB、createC、deleteD、escribe參考答案:C49.下面()端口不是Spark自帶服務的端口。A、8080.0B、4040.0C、8090.0D、18080.0參考答案:C50.下面()不是RDD的特點。A、可分區B、可序列化C、可修改D、可持久化參考答案:C51.下列語句中,描述錯誤的是()。A、可以通過CLI方式、JavaApi方式調用SqoopB、Sqoop底層會將Sqoop命令轉換為MapReduce任務,并通過Sqoop連接器進行數據的導入導出操作C、Sqoop是獨立的數據遷移工具,可以在任何系統上執行D、如果在Hadoop分布式集群環境下,連接MySQL服務器參數不能是“localhost”或“”參考答案:C52.下列選項中,針對Spark運行的基本流程是錯誤是()。A、Driver端提交任務,向Master申請資源B、Master與Worker進行TCP通信,使得Worker啟動ExecutorC、Executor啟動會主動連接Driver,通過Driver->Master->WorkExecutor,從而得到Driver在哪D、river會產生Task,提交給Executor中啟動Task去做真正的計算參考答案:B53.下列選項中,()不屬于轉換算子操作。A、filter(func)B、map(func)C、reduce(func)D、reduceByKey(func)參考答案:C54.下列說法錯誤的是()。A、生產者和消費者面向的都是一個topicB、生產者發送數據的對象是leaderC、當集群中的某個節點發生故障時,Replica上的partition數據不會丟失D、partition是一個沒有順序的隊列參考答案:D55.下列哪種情況不會觸發到消費者分區的重新分配?A、當有新的消費者加入消費者組B、已有的消費者推出消費者組C、處于消費者所在分區最近提交的offset位置D、消費者所訂閱的主題的分區發生變化參考答案:C56.下列描述中,哪項不屬于Sqoop的缺點()。A、無法控制任務的并發度B、格式緊耦合C、安全機制不夠完善D、connector必須符合JDBC模型參考答案:A57.下列關于topic和partition的描述,錯誤的是()。A、Kafka中消息是以partition進行分類的B、與partition不同,topic是邏輯上的概念而非物理上的概念C、每個partition對應于一個log文件D、一個partition分為多個segment參考答案:A58.下列關于MapReduce說法不正確的是()。A、MapReduce是一種計算框架B、MapReduce來源于google的學術論文C、MapReduce程序只能用java語言編寫D、MapReduce隱藏了并行計算的細節,方便使用參考答案:C59.下列關于leader和follower的說法正確的是()。A、一個topic的每個分區可以沒有leaderB、一個topic的每個分區可以沒有followerC、消費者消費數據的對象都是leaderD、follower從leader中同步數據有一定延遲參考答案:C60.下列方法中,不能創建RDD的方法是()。A、makeRDDB、parallelizeC、textFileD、testFile參考答案:D61.下列不是Spark的部署模式的是()。A、單機式B、單機偽分布式C、列分布式D、完全分布式參考答案:C62.下列()不是RDD的緩存方法。A、persist()B、Cache()C、Memory()D、以上都不是參考答案:C63.下列()不是Docker項目中用于文件存儲的數據庫。A、MYSQLB、MongoDBC、RedisD、Kafka參考答案:D64.下列()不可以作為SparkStreaming的輸入數據流。A、KafkaB、TwitterC、TCP套接字D、Openstack參考答案:D65.搜索nginx引擎的操作命令是()。A、dockersearchnginxB、dockerpullnginxC、dockerpushnginxD、ockerrmnginx參考答案:A66.水位線的單位通常是()。A、秒B、毫秒C、分鐘D、小時參考答案:B67.使用Dockerrun命令運行一個容器時,通過參數()可啟動一個bash允許用戶進行交互。A、itB、iaC、ntD、na參考答案:A68.使用create命令新建容器時,指定映射到本地主機端口的命令選項是()。A、pB、hC、nD、i參考答案:A69.使用create命令新建容器時,指定容器在網絡中的別名的命令選項是()。A、net-nameB、net-aliasC、networkD、alias參考答案:B70.設用壓力測試測出機器寫入速度是20M/s一臺,峰值的業務數據的速度是100M/s,副本數為6,預估需要部署Kafka機器數量為()。A、6.0B、12.0C、13.0D、20.0參考答案:C71.若要在Hive中啟用壓縮數據存儲,應該設置哪個配置參數()?A、press.enabledB、pression.enabledC、pression.enabled參考答案:B72.啟動一個容器的操作命令是()。A、dockerstartB、dockeropenC、dockernewD、ockergo參考答案:A73.配置Hadoop文件參數時,配置項“dfs.replication”應該配置在哪個文件?()A、core-site.xmlB、hdfs-site.xmlC、mapred-site.xmlD、yarn-site.xml參考答案:B74.將一個已經創建的容器導出到一個文件使用的操作命令是()。A、dockerimportB、dockerloadC、dockeroutputD、ockerexport參考答案:D75.將nginx容器接入自定義的myops網絡的操作命令是()。A、dockernetworkjoinmyopsnginxB、dockernetworkconnmyopsnginxC、dockernetworkconnectmyopsnginxD、ockernetworkconnectnginxmyops參考答案:C76.獲取遠程倉庫中Docker鏡像的操作命令是()。A、dockergetB、dockerpushC、dockerpullD、ockerdownload參考答案:C77.關于ZooKeeper臨時節點的說法正確的是()。A、創建臨時節點的命令為:create-s/tmpmyvalueB、一旦會話結束,臨時節點將被自動刪除C、臨時節點不能手動刪除D、臨時節點允許有子節點參考答案:B78.關于SparkStreaming的優點,不包括()。A、易用性B、容錯性C、易整合性D、低吞吐量參考答案:D79.關于SparkSQL,以下說法正確的是()。A、HiveContext繼承了SqlContextB、DataFrame其實就是RDDC、HiveContext只支持SQL語法解析器D、SparkSQL的前身是Hive參考答案:A80.關于SparkSQL,以下描述錯誤的是()。A、SparkSQL使用的數據抽象并非是DataFrame,而是RDDB、在Spark的早期版本中,DataFrame被稱為SchemaRDDC、DataFrame是一種以RDD為基礎的分布式數據集D、ataFrame可以完成RDD的絕大多數功能參考答案:A81.關于SecondaryNameNode哪項是正確的?()A、它是NameNode的熱備B、它的目的是幫助NameNode合并編輯日志,減少NameNode啟動時間C、它對內存沒有要求D、SecondaryNameNode應與NameNode部署到一個節點參考答案:B82.關于MapReduce優點,下列說法不正確的是()。A、高容錯性B、適合PB級以上海量數據的離線處理C、良好的擴展性D、適合做實時計算參考答案:D83.關于Hive用戶自定義函數UDF的描述錯誤的是()。A、UDF(User-Defined-Function)一進一出B、UDAF(User-DefinedAggregationFuncation)聚集函數,多進一出C、UDTF(User-DefinedTable-GeneratingFunctions)一進多出D、上傳UDFjar包至Hive環境即可使用自定義函數參考答案:D84.關于Hive內外表描述正確的是()。A、內部表數據由HDFS自身管理,外部表數據由Hive管理;B、內部表數據存儲的位置是hive.metastore.warehouse.dir設置配置(默認:/user/hive/warehouse)C、外表存儲必須指定LOCATIOND、內外表刪除時,都會刪除元數據和存儲參考答案:B85.關于Hive描述正確的是()。A、count函數必須開窗口才能使用B、max函數是窗口函數C、lead函數是聚合函數,不是窗口函數D、min函數是聚合函數,不是窗口函數參考答案:B86.關于Hive各個格式使用場景描述錯誤的是()。A、Parquet對于大型查詢的類型是高效的,對于掃描特定表格中的特定列的查詢,Parquet特別有用B、目前Parquet默認使用gzip壓縮格式C、ORC可以支持復雜的數據結構(比如Map等)D、RCFile是一種行列存儲相結合的存儲方式參考答案:B87.關于Hive存儲的文件格式描述錯誤的是()。A、ORC格式是Hive一直支持的B、TEXTFILE是Hive的默認存儲格式C、SequenceFile是一種二進制存儲D、RC是ORC的前身參考答案:A88.關于Hive查詢通常延遲較高的原因描述錯誤的是()。A、由于沒有索引,需要掃描整個表,因此延遲較高B、由于MapReduce本身具有較高的響應延遲,因此在利用MapReduce執行Hive查詢時,也會有較高的延遲響應C、關系型數據庫較于Hive底層的文件系統實現,執行延遲較低D、Hive查詢延遲較于關系型數據庫,延遲響一直都是很高的參考答案:D89.關于Dataset,下列說法錯誤的是()。A、Dataset能從RDD中構建B、Dataset提供了特定域對象中的弱類型集合C、Dataset結合了RDD和DataFrame的優點D、ataset可以通過SparkSession中的createDataset來創建參考答案:B90.關于DataFrame與RDD在結構上的區別,以下描述錯誤的是()。A、DataFrame可以看作是分布式的Row對象的集合,在二維表數據集的每一列都帶有名稱和類型B、RDD是分布式的Java對象的集合C、RDD在轉換數據形式時效率相對較高D、ataFrame提供了比RDD更豐富的算子參考答案:C91.典型的NoSQL數據庫是()。A、HiveB、MySQLC、HbaseD、Oracle參考答案:C92.當之前下線的分區重新上線時,要執行Leader選舉,選舉策略為()。A、OfflinePartitionLeader選舉B、ReassignPartitionLeader選舉C、PreferredReplicaPartitionLeader選舉D、ControlledShutdownPartitionLeader選舉參考答案:A93.當在Sqoop中使用--target-dir參數時,它指定了哪個目錄的路徑?()A、導出數據的目錄B、導入數據的目錄C、HDFS的目標目錄D、S3的目標目錄參考答案:C94.當在Sqoop中使用--append參數時,它會將數據添加到目標表的哪個位置?()A、文件的開頭B、文件的末尾C、新文件中D、隨機位置參考答案:B95.當使用sqoop將數據從MySQL導入到HDFS時,以下哪個參數用于指定使用多個mapper?()A、-mB、-fC、-tD、-c參考答案:A96.創建一個容器的操作命令是()。A、dockeraddB、dockernewC、dockerbuildD、ockercreate參考答案:D97.查看HDFS的報告命令是()。A、bin/hdfsdfsadmin-reportB、in/hdfs-reportC、bin/hdfsdeadmin-reportD、bin/hdfsdfs-report參考答案:A98.查看Docker所有容器的命令是()。A、dockerpsB、dockerps-aC、dockerpsallD、ockerall參考答案:B99.測試Sqoop是否能夠正常連接MySQL數據庫命令是()。A、sqooplist-database--connectjdbc:mysql://:3306/--usernameroot–PB、sqooplist-databases--connectionjdbc:mysql://:3306/--usernameroot–PC、sqooplist-databases--connectjdbc:mysql://:3306/--usernameroot–LD、sqooplist-databases--connectjdbc:mysql://:3306/--usernameroot–P參考答案:D100.ZooKeeper中的一致性協議ZAB是基于()算法實現。A、2PC(Two-PhaseCommit)算法B、Raft算法C、Paxos算法D、3PC(Three-PhaseCommit)算法參考答案:C101.ZooKeeper中的一次寫操作是原子的嗎?()A、是,寫操作是原子的B、否,寫操作可能不是原子的C、取決于寫操作的類型D、取決于節點的類型參考答案:A102.ZooKeeper中的數據模型是基于()。A、關系模型B、鍵值對模型C、圖模型D、文檔模型參考答案:B103.ZooKeeper中的默認端口號是()。A、2181.0B、8080.0C、3306.0D、5432.0參考答案:A104.ZooKeeper的特點不包括()。A、順序一致性B、原子性C、可靠性D、復合系統映像參考答案:D105.yarn狀態的查詢url為()。A、http://yarn:8088B、http://yarn:50070C、http://master:8088D、http://master:50070參考答案:C106.Task運行在下面()選項中Executor上的工作單元。A、DriverprogramB、sparkmasterC、workernodeD、Clustermanager參考答案:C107.Stage的Task的數量由()決定。A、PartitionB、JobC、StageD、TaskScheduler參考答案:A108.Sqoop是Hadoop和關系數據庫服務器之間傳送數據的工具,下列哪種數據庫是不支持使用Sqoop直接進行數據傳送()。A、PostgresB、OracleC、MySQLD、Redis參考答案:D109.sqoop安裝完成后,查看sqoop版本的命令是()。A、Sqoop-versionB、SqoopversionC、Sqoop-vD、Sqoopv參考答案:B110.Spark默認的存儲級別是()。A、MEMORY_ONLYB、MEMORY_ONLY_SERC、MEMORY_AND_DISKD、MEMORY_AND_DISK_SER參考答案:A111.Spark采用RDD以后能夠實現高效計算不是因為()。A、高效的容錯性,通過血緣關系重新計算丟失分區B、中間結果持久化到內存,數據在內存中的多個RDD操作之間進行傳遞,避免了不必要的讀寫磁盤開銷C、存放的數據可以是Java對象,避免了不必要的對象序列化和反序列化D、RDD采用了高效的“轉換”和“動作”算子參考答案:D112.SparkSQL可以處理的數據源包括()。A、Hive表B、Hive表、數據文件C、Hive表、數據文件、RDDD、Hive表、數據文件、RDD、外部數據庫參考答案:D113.SparkJob默認的調度模式是()。A、FIFOB、FAIRC、無D、運行時指定參考答案:A114.namenode在()模式下hdfs文件系統無法修改和寫入文件。A、安全模式B、維護模式C、同步模式D、待機模式參考答案:A115.Linux下啟動HDFS的命令是()。A、HdfsB、startdfsC、start-dfs.shD、start-dfs.cmd參考答案:C116.Kafka是一種()。A、數據庫系統B、分布式消息隊列系統C、緩存系統D、文件系統參考答案:B117.Kafka使用的是什么類型的消息傳遞模式?()A、點對點B、發布-訂閱C、請求-響應D、廣播參考答案:B118.Kafka的主題分區數量可以根據什么進行配置?()A、生產者數量B、消費者數量C、主題的重要性D、集群的規模參考答案:D119.Kafka的消費者在處理消息時可以選擇的模式是()。A、單線程模式B、多線程模式C、分布式模式D、并行模式參考答案:B120.Kafka的核心是由哪個組件組成?()A、ProducerB、ConsumerC、BrokerD、ZooKeeper參考答案:C121.Kafka的高可用性是通過什么機制實現的?()A、數據復制B、數據壓縮C、數據分片D、數據緩存參考答案:A122.HMaster的主要作用是()。A、用于啟動任務管理多個HRegionServerB、負責響應用戶I/O請求,向HDFS文件系統讀寫數據C、負責協調集群中的分布式組件D、最終保存HBase數據行的文件參考答案:A123.Hive中以下操作不正確的是()。A、loaddatainpathintotablenameB、insertintotablenameC、insertoverwritetablenameD、upddatetablename參考答案:D124.Hive中分組的關鍵字是什么()?A、groupbyB、orderbyC、distributebyD、sortby參考答案:A125.Hive中的自動分區是通過哪個配置參數啟用的()?A、hive.auto.partitionB、hive.partition.autoC、hive.exec.dynamic.partitionD、hive.partitioning.auto參考答案:C126.Hive中的配置文件通常位于哪個目錄中()?A、/etc/hive/confB、/etc/hadoop/confC、/etc/hive/D、/etc/hive/config參考答案:A127.Hive中的哪個配置參數用于指定Hive元數據存儲的連接URL()?A、hive.metastore.db.urlB、hive.metastore.uriC、hive.metastore.connection.urlD、hive.metastore.db.connection參考答案:A128.Hive是以()技術為基礎的數據倉庫。A、HDFSB、MAPREDUCEC、HADOOPD、HBASE參考答案:C129.Hive是為了解決哪類問題()?A、海量結構化日志的數據統計B、分布式組件調度參考答案:A130.Hive的默認元數據存儲是什么()?A、MySQLB、PostgreSQLC、DerbyD、Oracle參考答案:C131.HBase依賴()技術框架提供消息通信機制。A、ZookeeperB、ChubbyC、RPCD、Socket參考答案:A132.Hadoop組件在企業應用中,能用于大數據集實時查詢的產品有()。A、HiveB、PigC、MahoutD、Hbase參考答案:D133.Hadoop集群中存在的主要性能瓶頸是()。A、CPUB、網絡C、磁盤IOD、內存參考答案:C134.HadoopMapReduce支持多種語言編程,下列說法不正確的是()。A、可以用JAVA語言編寫MapReduce應用程序B、可以用C/C++語言編寫MapReduce應用程序C、可以用Python語言編寫MapReduce應用程序D、可以用javascript語言編寫MapReduce應用程序參考答案:D135.Flume如何處理故障恢復?()A、使用事務性機制B、使用重試機制C、使用斷點續傳機制D、以上都不是參考答案:C136.Flume的事件是什么?()A、數據項,記錄,和文件B、數據流,記錄,和事件C、數據項,記錄,和消息D、數據流,記錄,和消息參考答案:D137.Flume的事件Body可以包含什么類型的數據?()A、String,Byte數組,字節流,Map<String,String>和自定義對象序列化后的數據。B、String,Map<String,String>和自定義對象序列化后的數據。C、Byte數組,字節流和自定義對象序列化后的數據。D、String和自定義對象序列化后的數據。參考答案:A138.Flume的哪個組件用于將事件數據寫入目標存儲?()A、ChannelB、SinkC、Source和ChannelD、Source和Sink參考答案:B139.Flume的哪個版本開始支持Spoolingdirectorysource?()A、Flume1.0B、Flume1.1C、Flume1.2D、Flume1.3參考答案:C140.Flume的哪個版本開始支持HTTP和HTTPS協議?()A、Flume1.0B、Flume1.1C、Flume1.2D、Flume1.3參考答案:D141.Flume的哪個版本開始支持Avro作為數據傳輸格式?()A、1.X版本B、2.X版本C、3.X版本D、4.X版本以后參考答案:D142.Flume的哪個版本加入了對Avro事件的的支持?()A、Flume1.0B、Flume1.1C、Flume1.2D、Flume1.3參考答案:C143.Flume的哪個版本加入了Kafka作為源和匯點?()A、1.X版本B、2.X版本C、3.X版本D、4.X版本參考答案:B144.Flume的默認通道類型是什么?()A、MemoryChannelB、FileChannelC、KafkaChannelD、JdbcChannel參考答案:A145.Flume的默認Avro序列化方式是什么?()A、JSONB、inaryC、SpecificD、Generic參考答案:C146.Flume的攔截器實現了哪個接口?()A、ChannelInterceptorB、EventInterceptorC、SinkInterceptorD、SourceInterceptor參考答案:B147.Flume的核心組件有哪些?()A、Source,Channel,andSinkB、Source,Channel,andReceiverC、Source,Buffer,andSinkD、Source,Router,andChannel參考答案:A148.Flume的Source組件負責什么?()A、接收數據并將其寫入ChannelB、接收數據并將其轉發到下一組件C、從數據源讀取數據并將其寫入ChannelD、從數據源讀取數據并將其寫入接收器參考答案:C149.Flume的Sink組件負責什么?()A、將數據從Channel中讀取并寫入目標位置B、將數據從Channel中讀取并發送到下一組件C、從Channel中讀取數據并將其寫入接收器D、從Channel中讀取數據并將其寫入目標位置。參考答案:D150.Flink最常用的編程語言是()。A、JavaB、PythonC、ScalaD、C++參考答案:A151.Flink支持處理各種類型的數據,包括()數據。A、結構化B、半結構化C、無結構化D、以上都是參考答案:D152.Flink任務管理器(TaskManager)的作用是()。A、管理Flink集群的任務B、管理Flink作業的狀態C、執行Flink作業的任務D、部署Flink作業到集群參考答案:C153.Flink的作業調度(JobScheduling)通常由()負責。A、ResourceManagerB、TaskManagerC、JobManagerD、ZooKeeper參考答案:C154.Flink的作業提交通常需要()來管理作業的執行。A、JobManagerB、TaskManagerC、ResourceManagerD、NameNode參考答案:A155.Flink的狀態管理用于(),以支持容錯性和狀態化的計算。A、存儲和檢索中間結果B、控制數據流速度C、定時觸發窗口操作D、執行數據清洗參考答案:A156.Flink的數據源可以是()。A、文件B、消息隊列C、數據庫D、以上都是參考答案:D157.Flink的數據源(Source)通常用于()。A、生成隨機數據B、從外部系統讀取數據C、存儲計算結果D、控制作業的并行度參考答案:B158.Flink的時間語義(TimeSemantics)中的事件時間(EventTime)和處理時間(ProcessingTime)的區別是()。A、事件時間是事件發生的時間,處理時間是事件進入Flink的時間B、事件時間是事件進入Flink的時間,處理時間是事件發生的時間C、事件時間和處理時間是相同的D、事件時間和處理時間沒有明確的定義參考答案:A159.Flink的集群部署通常需要()作為資源管理器。A、YARNB、ApacheZooKeeperC、ApacheKafkaD、HadoopHDFS參考答案:A160.Flink的核心概念之一是()。A、數據表B、數據流C、數據庫D、數據倉庫參考答案:B161.Flink的廣播狀態(BroadcastState)用于()。A、在所有任務之間共享狀態B、保持數據流的連續性C、加速數據處理D、控制數據流速度參考答案:A162.Flink的分布式部署需要的組件是()。A、JobManager和TaskManagerB、JobClient和JobTrackerC、Master和SlaveD、river和Executor參考答案:A163.Flink的窗口操作通常在()執行,以對數據進行分組、聚合和統計。A、數據產生時B、數據進入Flink時C、數據在窗口中間時D、數據離開Flink時參考答案:C164.Flink的本地模式(LocalMode)和集群模式(ClusterMode)之間的主要區別是()。A、部署方式B、編程語言C、安全性設置D、并行度設置參考答案:A165.Flink的安裝過程中,通常需要設置()來指定Flink的根目錄。A、JAVA_HOMEB、PATHC、FLINK_HOMED、FLINK_PATH參考答案:C166.Flink的Web界面通常用于()。A、編寫Flink作業B、監控Flink集群C、運行Flink作業D、調試Flink作業參考答案:B167.Flink的TableAPI和SQL用于()。A、數據可視化B、執行SQL查詢C、數據流分析D、數據清洗參考答案:B168.DStream的轉換操作方法中,()方法可以直接調用RDD上的操作方法。A、countByKey()B、updateStateByKey(func)C、ogroup(otherStream,[numTasks])D、transform(func)參考答案:D169.Docker中的每一個工作都可以抽象為一個()。A、實例B、進程C、JobD、請求參考答案:C170.Docker容器是在()層面上實現虛擬化。A、硬件層面B、操作系統層面C、應用程序層面參考答案:B171.Docker配置文件的語法格式中,代表單個字符的符號是()。A、?B、?C、!D、^參考答案:B172.Dockerfile中聲明鏡像內服務監聽的端口的指令是()。A、LISTENB、EXPOSEC、ARGD、MONITOR參考答案:B173.dockerfile文件的作用是()。A、普通文件B、用于自定義鏡像C、用于保存容器配置D、用于存放docker配置參考答案:B174.Dockerfile配置文件使用()命令指定基礎鏡像。A、IMPORTB、GETC、OPEND、FROM參考答案:D175.DataFrame和RDD最大的區別是()。A、科學統計支持B、多schemaC、存儲方式不一樣D、外部數據源支持參考答案:B176.()不是Spark的四大組件。A、SparkStreamingB、MllibC、GraphXD、SparkR參考答案:D多選題1.在Hive中,以下哪個配置屬性用于設置Hive表的默認壓縮格式()。A、press.formatB、pression.codecC、pressionD、pression.format參考答案:ACD2.在Hive中,以下哪個配置屬性用于啟用動態分區()。A、hive.exec.dynamic.partitionB、hive.optimize.dynamic.partitionC、hive.dynamic.partition.modeD、hive.partition.dynamic.enabled參考答案:ABCD3.以下是Spark中executor的作用是()。A、保存計算的RDD分區數據B、向Driver反向注冊C、接受Driver端發送來的任務Task,作用在RDD上進行執行D、做資源調度任務參考答案:ABC4.以下哪些組件屬于Hadoop生態圈()。A、MySQLB、HiveC、HDFSD、Sqoop參考答案:BCD5.以下哪些是yarn-site.xml配置文件主要參數()。A、yarn.resourcemanager.addressB、yarn.resourcemanager.scheduler.addressC、yarn.resourcemanager.admin.addressD、yarn.nodemanager.oux-services參考答案:ABC6.要在Hive中啟用LLAP(LowLatencyAnalyticalProcessing),哪個配置屬性應該設置為true()。A、hive.llap.enabledB、hive.enable.llapC、hive.execution.llap.enabledD、hive.llap.execution.enabled參考答案:ABC7.要在Hive中配置HDFS的NameNodeURI,應該設置哪個屬性()。A、node.uriB、node.uriC、D、node.uri參考答案:ABC8.要啟用Hive的壓縮功能,應該配置哪個屬性()。A、press.enableB、pressC、pression.codecD、pression參考答案:ABD9.要啟用Hive的Tez執行引擎,應該配置哪個屬性()。A、hive.execution.engineB、hive.exec.engineC、hive.tez.enableD、hive.use.tez參考答案:ABD10.要配置Hive的元數據存儲連接字符串,應該設置哪個屬性()。A、hive.metastore.uriB、hive.metastore.connectionC、hive.metastore.jdbc.urlD、hive.metastore.connection.url參考答案:ACD11.要讀取people.json文件生成DataFrame,可以使用下列()命令。A、spark.read.json("people.json")B、spark.read.text("people.json")C、spark.read.format("json").load("people.json")D、spark.read.format("csv").load("people.json")參考答案:AC12.下面哪些場景不是Flink擅長的()。A、批處理B、迭代計算C、數據存儲D、流處理參考答案:ABC13.下面哪個配置屬性用于指定Hive查詢的最大并行度()。A、hive.query.parallelismB、hive.exec.parallelC、hive.query.max.parallelD、hive.parallel.query.max參考答案:ABD14.下面哪個配置屬性用于設置Hive查詢的日志級別()。A、hive.query.log.levelB、hive.log.query.levelC、hive.logging.levelD、hive.query.logging.level參考答案:ACD15.下面關于SparkMLlib庫的描述正確的是()。A、MLlib庫從1.2版本以后分為兩個包:spark.mllib和spark.mlB、spark.mllib包含基于DataFrame的原始算法APIC、spark.mllib包含基于RDD的原始算法APID、spark.ml則提供了基于RDD的、高層次的API參考答案:AC16.下面關于Flink的描述正確的是()。A、Flink和Spark一樣,都是基于磁盤的計算框架B、當全部運行在HadoopYARN之上時,Flink的性能甚至還要略好于SparkC、Flink的流計算性能和Storm差不多,可以支持毫秒級的響應D、Spark的市場影響力和社區活躍度明顯超過Flink參考答案:BCD17.下面關于Flink窗口描述錯誤的是()。A、滾動窗口在時間上是重疊的B、滾動窗口在時間上是不重疊的C、滑動窗口之間時間點存在重疊D、滑動窗口之間時間點不存在重疊參考答案:AD18.下列有關ZooKeeper中的節點路徑說法正確的是()。A、節點路徑可以是臨時節點B、節點路徑可以是持久節點C、臨時節點會話結束后自動刪除D、臨時節點不會自動刪除參考答案:ABC19.下列選項中,屬于Sqoop命令的參數有()。A、importB、outputC、inputD、export參考答案:AD20.下列選項()是ZooKeeper的應用場景。A、Master選舉B、分布式鎖C、分布式協調/通知參考答案:ABC21.下列屬于RDD的行動算子的是()。A、count()B、first()C、take()D、filter()參考答案:ABC22.下列關于容器操作命令匹配正確的有()。A、創建容器:dockeraddB、啟動容器:dockerstartC、刪除容器:dockerrmD、導出容器:dockerexportE、暫停容器:dockerpause參考答案:BCDE23.下列關于鏡像操作命令匹配正確的有()。A、獲取鏡像:dockerpushB、查看鏡像:dockerimageC、創建鏡像:dockercreateD、上傳鏡像:dockeruploadE、查找鏡像:dockersearch參考答案:BE24.下列關于Docker的操作命令正確的有()。A、dockerdeleteB、dockerimportC、dockersearchD、ockerlistE、dockerimages參考答案:BCE25.使用dockerstats命令可以顯示的容器信息有()。A、內存B、網絡C、PUD、端口E、存儲參考答案:ABCE26.使用dockerps命令可以查看到的信息有()。A、容器IDB、鏡像名稱C、容器的端口D、生存時間E、環境變量參考答案:ABCD27.如果要在Hive中啟用用戶定義的聚合函數(UDAFs),哪個配置屬性應該設置為true()。A、hive.udaf.enableB、hive.enable.udafsC、hive.udaf.supportD、hive.use.udaf參考答案:ACD28.利用數據卷容器可以對其中的數據卷進行()操作。A、備份B、恢復C、壓縮D、遷移參考答案:ABCD29.后端容器化環境部署中使用的數據庫一般有()。A、ccessB、kafkaC、RedisD、MySQLE、MongoDB參考答案:CDE30.關于ZooKeeper順序節點的說法不正確的是()。A、創建順序節點的命令為:create/testvalue1B、創建順序節點時不能連續執行創建命令,否者報錯節點已存在C、通過順序節點,可以創建分布式系統唯一IDD、順序節點的序號能無限增加參考答案:ABD31.關于ZooKeeper的特性說法正確的是()。A、能改變ZooKeeper服務器狀態的操作稱為事務操作B、是版本機制有效避免了數據更新時出現的先后順序問題C、當節點發生變化時,通過watcher機制,可以讓客戶端得到通知D、watch能觸發多次參考答案:ABC32.關于spark中數據傾斜引發原因正確的選項有()。A、key本身分布不均衡B、計算方式有誤C、過多的數據在一個task里面D、shuffle并行度不夠參考答案:ABCD33.關于spark容錯說法錯誤的有()。A、在容錯機制中,如果一個節點死機了,而且運算窄依賴,則只要把丟失的父RDD分區重算即可,依賴于其他節點B、寬依賴開銷更大C、heckpoint可以節約大量的系統資源D、RDD的容錯機制是基于SparkStreaming的容錯機制參考答案:AD34.關于partition中的數據是如何保持到硬盤上的,說法正確的是()。A、一個topic分為好幾個partition,每一個partition是以文件夾的形式保持在broker節點上面的B、每一個分區的命名是從序號0開始遞增C、每一個partition目錄下多個segment文件(包含xx.index,xx.log),默認是1GD、每個分區里面的消息是有序的,數據是一樣的參考答案:ABC35.關于HadoopHDFS的文件操作,正確的是()。A、HDFS可以創建文件并寫入數據B、HDFS可以查看文件內容C、HDFS可以創建目錄D、HDFS可以更改文件內容參考答案:ABC36.關于Flink的架構表述正確的是()。A、Fink存儲層支持專有的文件系統B、從部署層來看,Fink不僅支持本地運行,還能在獨立集群或者在被YARN或Mesos管理的集群上運行.也能部署在云端C、Flink提供兩個核心API:DatasetAPI和DataStreamAPID、ataSetAPI做批處理,而DataStreamAPI做流處理參考答案:BCD37.關于Docker容器的run命令,下列參數匹配正確的有()。A、在后臺運行容器B、已交互模式運行容器C、隨機端口映射D、指定容器的hostname參考答案:ABD38.關于dockerbuild命令支持的選項,下列匹配正確的有()。A、network:指定run命令時網絡模式B、f:dockerfile名稱C、add-host:添加自定義的主機名到IP的映射D、label:配置鏡像的標簽參考答案:ABC39.當使用Sqoop進行數據導出時,以下哪些()選項是正確的?A、Sqoop可以使用多個mapper同時進行數據導出B、Sqoop導出的數據可以按照指定的列進行排序C、Sqoop導出的數據可以插入到已存在的HDFS目錄中D、Sqoop導出的數據可以刪除已存在的HDFS目錄參考答案:ABC40.當使用Sqoop將數據從MySQL導入到HDFS時,以下()參數可以使用?A、--connectB、--usernameC、--passwordD、--table參考答案:ABCD41.從RDD轉換得到DataFrame包含兩種典型的方法,分別是()。A、利用反射機制推斷RDD模式B、使用編程方式定義RDD模式C、利用投影機制推斷RDD模式D、利用互聯網機制推斷RDD模式參考答案:AB42.創建鏡像的主要方法有()。A、基于本地文件導入B、基于本地模板導入C、基于已有鏡像的容器創建D、基于Dockerfile創建參考答案:BCD43.查看Docker容器的子命令有()。A、displayB、statsC、inspectD、list參考答案:BC44.ZooKeeper中的數據節點可以存儲的數據類型包括()。A、字符串B、整數C、浮點數D、二進制數據參考答案:ABCD45.ZooKeeper中的節點類型包括()。A、持久節點B、臨時節點C、有序節點D、臨時有序節點參考答案:ABCD46.ZooKeeper的集群中的Leader節點的選舉是通過以下()方式實現。A、隨機選擇B、搶占式C、共識機制D、選舉算法參考答案:CD47.Task運行不在以下選項中Executor上的工作單元有()。A、DriverprogramB、sparkmasterC、workernodeD、Clustermanager參考答案:ABD48.Stage的Task的數量不是由()決定。A、PartitionB、JobC、StageD、TaskScheduler參考答案:BCD49.Sqoop中的--hive-drop-import-delims參數有什么作用?()A、在將數據從MySQL導入到Hive時,刪除MySQL中存在的所有分隔符B、在將數據從MySQL導入到Hive時,刪除MySQL中存在的所有換行符C、在將數據從MySQL導入到Hive時,刪除Hive中存在的所有分隔符D、在將數據從MySQL導入到Hive時,刪除Hive中存在的所有換行符參考答案:AC50.Sqoop是一個用于在Hadoop和結構化數據存儲(如關系型數據庫)之間傳輸數據的工具。以下哪些()是Sqoop的主要參數?A、--connectB、--usernameC、--tableD、-target-dir參考答案:ABCD51.Sqoop目前支持兩種增量導入模式,分別是()和()模式。A、lastmodifiedB、appendC、--tableD、-target-dir參考答案:AB52.spark的特點包括()。A、快速B、通用C、可延伸D、兼容性參考答案:ABD53.Sparkdriver的功能是()。A、作業的主進程B、負責了作業的調度C、負責向HDFS申請資源D、負責作業的解析參考答案:ABD54.SparkContext可以從()讀取數據。A、本地磁盤B、webC、hdfsD、內存參考答案:ACD55.RDD的操作主要是()操作。A、轉換算子操作B、分組操作C、讀寫操作D、行動算子操作參考答案:AD56.nginx可以提供的功能有()。A、作為HTTP服務器B、作為負載均衡服務器C、作為郵件代理服務器D、作為反向代理服務器參考答案:ABCD57.MLlib包括()。A、分類模型B、聚類模型C、特征抽取D、統計模型參考答案:ABCD58.Kafka相對傳統技術有什么優勢說法正確的是()。A、快速:單一的Kafka代理可以處理成千上萬的客戶端,每秒處理數兆字節的讀寫操作.B、可伸縮:在一組機器上對數據進行分區和簡化,以支持更大的數據C、持久:消息是持久性的,并在集群中進行復制,以防止數據丟失D、設計:它提供了容錯保證和持久性參考答案:ABCD59.Kafka負載均衡原理說法正確的是()。A、producer根據用戶指定的算法,將消息發送到指定的partitionB、存在多個partiiton,每個partition有自己的replica,每個replica分布在不同的Broker節點上C、多個partition需要選取出leadpartition,leadpartition負責讀寫,并由zookeeper負責failoverD、通過zookeeper管理broker與consumer的動態加入與離開參考答案:ABCD60.Kafka的消息傳遞可以使用的序列化器包括()。A、JSONB、AvroC、ProtobufD、XML參考答案:ABC61.Kafka的消費者可以以以下哪種方式進行消息的并行處理?()A、多線程B、多進程C、多節點D、多分區參考答案:ABC62.Kafka的特性()。A、高吞吐量、低延遲B、可擴展性、持久性、可靠性C、容錯性D、高并發參考答案:ABCD63.Kafka的核心組件包括()。A、ProducerB、ConsumerC、BrokerD、SchemaRegistry參考答案:ABC64.Hive中的數據類型包括哪些()。A、整數類型B、字符串類型C、時間類型D、自定義數據類型參考答案:CD65.Hive中的數據存儲是如何分區的()。A、基于文件大小B、基于日期C、基于列名D、基于文件格式參考答案:ABD66.Hive中的哪個組件負責將HQL語句翻譯成Tez或MapReduce任務()。A、QueryOptimizerB、QueryExecutorC、QueryCompilerD、QueryDriver參考答案:ACD67.Hive中的哪個組件負責將HQL語句翻譯成MapReduce任務()。A、QueryOptimizerB、QueryExecutorC、QueryCompilerD、QueryDriver參考答案:ACD68.Hive中的哪個配置屬性用于指定Hive表的默認存儲格式()。A、hive.default.storage.formatB、hive.default.file.formatC、hive.default.formatD、hive.default.serde.format參考答案:ABC69.Hive中的分區是如何定義的()。A、在表的創建時定義B、在查詢時動態定義C、在元數據存儲中定義D、在數據加載時定義參考答案:ABC70.Hive中的分區是如何定義的()。A、在表的創建時定義B、在查詢時動態定義C、在元數據存儲中定義D、在表的插入操作中定義參考答案:ABC71.Hive支持哪種數據存儲格式()。A、CSVB、JSONC、ParquetD、Avro參考答案:ABCD72.Hive的數據存儲是如何組織的()。A、表B、分區C、桶(Bucket)D、列族(ColumnFamily)參考答案:ABC73.Hive的分區和桶的主要區別是什么()。A、分區是物理存儲層面的,而桶是邏輯存儲層面的B、分區是邏輯存儲層面的,而桶是物理存儲層面的C、分區是由HiveMetastore管理的,而桶是用戶自定義的D、分區和桶在Hive中沒有區別參考答案:AC74.Hadoop集群的三大核心組件是()。A、HDFSB、MapReduceC、ZookeeperD、YARN參考答案:ABD75.Hadoop的運行模式分為以下()種。A、單機模式B、偽分布模式C、全分布模式D、主備模式參考答案:ABC76.HadoopHDFS自身的局限性包括()。A、不適合做低延遲、細粒度訪問B、無法高效存儲大量的小文件C、不支持多文件的寫入及任意修改文件D、無法實現數據的冗余備份存儲參考答案:ABC77.hadoopHA啟動后,以下哪些進程運行在master()?A、QuorumPeerMainB、SecondaryNameNodeC、NamenodeD、ResourceManager參考答案:ABCD78.Flume可以用于哪些類型的數據采集?()A、結構化數據B、非結構化數據C、日志數據D、實時數據參考答案:ABCD79.Flume可以用于哪些方面的數據處理?()A、數據集中B、數據過濾C、數據聚合D、數據分布式處理參考答案:ABCD80.Flume的攔截器可以完成哪些操作?()A、數據過濾B、數據轉換C、數據加密D、數據壓縮參考答案:ABC81.Flume的可靠性機制包括哪些內容?()A、數據備份存儲B、數據重復傳輸C、數據校驗和D、數據順序保證參考答案:ABCD82.Flume的核心組件有哪些?()A、SourceB、ChannelC、SinkD、Receiver參考答案:ABC83.Flume的Spoolingdirectorysource有何特點?()A、可處理大文件B、可處理多個文件C、可自動滾動文件D、可自動清理舊文件參考答案:ABCD84.Flume的HTTPSource和Sink組件支持哪些協議?()A、HTTPB、HTTPSC、AvroD、Thrift參考答案:ABD85.Flume的Channel類型有哪些?()A、MemoryChannelB、FileChannelC、ForwardChannelD、ReplicatorChannel參考答案:ABD86.Flink組件中流類型包括()。A、有界流B、無界流C、字符流D、文件流參考答案:AB87.Flink支持的時間操作類型包括()。A、結束時間B、處理時間C、采集時間D、事件時間參考答案:BD88.Flink支持的部署模式有()。A、Standalone模式B、Local模式C、YARN集群模式D、HDFS模式參考答案:ABC89.Flink支持的Source包括()。A、自定義數據讀取B、從集合中讀取數據C、從文件中讀取數據D、從消息列隊中讀取數據參考答案:ABCD90.Flink整個系統包含()三個部分。A、ClientB、TaskManagerC、DataSetD、JobManager參考答案:ABD91.Flink有哪些狀態存儲方式()。A、RocksDBStateBackendB、MemoryStateBackendC、KafkaD、FsStateBackend參考答案:ABD92.Flink是實時計算的代表技術之一,以下針對Flink表述正確的有()。A、Flink是構建在數據流之上的一款有狀態計算框架B、Flink可對有限數據流和無限數據流進行有狀態或無狀態的計算C、Flink無法對大規模的數據進行快速計算D、Flink能夠部署在各種集群環境參考答案:ABD93.Flink流式處理的數據源類型包括()。A、CollectionsB、JDBCC、SocketStreamsD、Files參考答案:ABCD94.Flink核心組成部分提供了面向()的接口。A、批處理B、流處理C、表處理D、復雜事件處理參考答案:AB95.Flink的主要特性包括()。A、精確一次的狀態一致性保障B、批流一體化C、精密的狀態管理D、事件時間支持參考答案:ABCD96.Flink的時間窗口有()。A、滾動窗口B、滑動窗口C、定時窗口D、會話窗口參考答案:ABD97.Flink的核心組件包括()。A、ResourceManagerB、Job

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論