判斷題由于Spark是基于內(nèi)存的計算引擎,因此,一個Spark應用可以處理的數(shù)據(jù)量不能超過分給這個Spark應用的內(nèi)存總和。()

您可能感興趣的試卷

你可能感興趣的試題

1.多項選擇題Flume寫入HDFS時,文件的生成當時有哪些?()

A.按照源文件名,直接生成文件
B.設置文件生成間隔,達到時間間隔時就關閉老文件,新數(shù)據(jù)將被寫入新文
C.設置單個文件大小,當文件大小達到所設定值時,就關閉老文件,新數(shù)據(jù)
D.設置單個文件存放在event數(shù)量,當文件所存放event數(shù)量到設定值時

2.單項選擇題FusionlnsightHD系統(tǒng)中,關于HIve的JDBC接口類型,以下哪種敘述是正確的?()

A.組網(wǎng)隔離環(huán)境下,ZooKeeper的IP既可以配置成業(yè)務IP,也可以配置成管理IP
B.Hive與傳統(tǒng)數(shù)據(jù)庫不同,因此JDBC建立的連接不需要關閉
C.安全集群環(huán)境下,建立與Hive的連接前,需要使用統(tǒng)一認證方式進行登陸
D.使用JDBCᨀ交SQL時,可以再SQL語句后面加上分號“;”

5.多項選擇題關于Kafka的Producer,如下說法正確的是?()

A.Producer是消息生產(chǎn)者
B.Producer生產(chǎn)數(shù)據(jù)需要制定Topic
C.可以同時引起多個Producer進程向同一個Topic進行數(shù)據(jù)發(fā)送
D.Producer生產(chǎn)數(shù)據(jù)時需要先連接ZooKeeper,而后才連接Broker