存在如下業(yè)務場景:用戶上網(wǎng)日志文件已經(jīng)存放在HDFS上,日志文件內(nèi)容格式是:每條上網(wǎng)記錄三個字段,分別是姓名,性別,上網(wǎng)時間,字段之間用“,”護分隔;要求打印輸出所有上網(wǎng)總時間大于兩小時的女性網(wǎng)友。請問如下哪些代碼片段能實現(xiàn)上述業(yè)務場景?()
A.A
B.B
C.C
D.D
您可能感興趣的試卷
你可能感興趣的試題
A.Producer負責生產(chǎn)數(shù)據(jù),Consumer負責消費數(shù)據(jù),Producer和Consumer之間需要建立Socket鏈接
B.Producer既可以發(fā)送數(shù)據(jù)到Broker上,又可以發(fā)送數(shù)據(jù)到Consumer上
C.Producer作為消息生產(chǎn)者,可以直接將數(shù)據(jù)寫入Zookeeper
D.Producer連接任意一個正常的Broker實例就可以生產(chǎn)數(shù)據(jù)
A.必須對查詢字段進行排序
B.必須對uniqueKey字段進行排序
C.第一次查詢請求時,需指定查詢參數(shù),操作方法如下,solrQuery.set(CursorMarkParams.CURSOR_MARK_PARAMCursorMarkParams.CURSOR_MARK_START)
D.查詢時,請求中不能帶有start參數(shù),Solr的返回結果中會有nextCursorMark,在下次調(diào)動使用這個值為oursorMark
A.valcounts=textFile.map(line=>line.split(“”)).map(-rd=>(word,1)).reduceByKey(_+_)
B.valcounts=textFile.flatMap(line=>line.split(“”)).map(word=>(word,1)).reduceByKey(_+_)
C.valcounts=textFile.map(line=>line.split(“”)).map(word=>(word,1)).groupByKey(_+_)
D.valcounts=textFile.flatMap(line=>line.split(“”)).map(word=>(word,1)).groupByKey(_+_)
最新試題
Fusionlnsight HD大數(shù)據(jù)平臺提供了哪些分布式計算框架?()
Fusionlnsight HD中,屬于Streaming的數(shù)據(jù)分發(fā)方式有哪些?()
關于Kafka的Producer,如下說法正確的是?()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進行計算,計算結果只能存入HDFS,不能再寫回Kafka。()
由于Spark是基于內(nèi)存的計算引擎,因此,一個Spark應用可以處理的數(shù)據(jù)量不能超過分給這個Spark應用的內(nèi)存總和。()
Fusionlnsight HD中,關于Hive的數(shù)據(jù)加載功能(通過Hivede LOAD命令導入數(shù)據(jù)),以下敘述錯誤的是?()
Redis不適用與下面那些場景?()
Fusionlnsight HD中,Streaming的特點?()
FusionLnsigh HD,Oozie支持HDFS Action。()
在Spark中,關于廣播變量以下說法正確的是?()