A.按照源文件名,直接生成文件
B.設(shè)置文件生成間隔,達到時間間隔時就關(guān)閉老文件,新數(shù)據(jù)將被寫入新文
C.設(shè)置單個文件大小,當文件大小達到所設(shè)定值時,就關(guān)閉老文件,新數(shù)據(jù)
D.設(shè)置單個文件存放在event數(shù)量,當文件所存放event數(shù)量到設(shè)定值時
您可能感興趣的試卷
你可能感興趣的試題
A.組網(wǎng)隔離環(huán)境下,ZooKeeper的IP既可以配置成業(yè)務(wù)IP,也可以配置成管理IP
B.Hive與傳統(tǒng)數(shù)據(jù)庫不同,因此JDBC建立的連接不需要關(guān)閉
C.安全集群環(huán)境下,建立與Hive的連接前,需要使用統(tǒng)一認證方式進行登陸
D.使用JDBCᨀ交SQL時,可以再SQL語句后面加上分號“;”
A.C
B.Scala
C.Java
D.Python
A.HBase
B.Spark
C.MapReduce
D.Streaming
A.Producer是消息生產(chǎn)者
B.Producer生產(chǎn)數(shù)據(jù)需要制定Topic
C.可以同時引起多個Producer進程向同一個Topic進行數(shù)據(jù)發(fā)送
D.Producer生產(chǎn)數(shù)據(jù)時需要先連接ZooKeeper,而后才連接Broker
A.廣播變量在每Task中保存一份
B.廣播變量在每個Executor中保村一份
C.廣播變量是只讀的
D.廣播變量通過SparkContext.broadcast()方法生成
最新試題
Fusionlnsight HD中,一個部署在Tomcat上的應(yīng)用,需訪問HBase服務(wù),這種場景下推薦使用機機賬號。()
在Kafka中,如下關(guān)于Producer發(fā)送數(shù)據(jù)的說法錯誤的是?()
Flume寫入HDFS時,文件的生成當時有哪些?()
在MapReduce應(yīng)用程序開發(fā)中,setMapOutputCompressorClass類的作用是什么?()
在集群正常的情況下,Redis客戶端發(fā)起一次get調(diào)用,客戶端跟服務(wù)端有()次消息交互。
在通過Fusionlnsight manager界面創(chuàng)建用戶時,想要該用戶對所有Topic具有讀寫權(quán)限,但不具有常見Topic的權(quán)限,應(yīng)該加入Kafka服務(wù)的那個組?()
Fusionlnsight HD支持通過哪些方式ᨀ交Oozie作業(yè)?()
由于Spark是基于內(nèi)存的計算引擎,因此,一個Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過分給這個Spark應(yīng)用的內(nèi)存總和。()
Fiume支持實時采集數(shù)據(jù)的source類型是哪項?()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進行計算,計算結(jié)果只能存入HDFS,不能再寫回Kafka。()