判斷題在一個(gè)MapReduce應(yīng)用程序中,map函數(shù)的輸出由MapReduce框架處理后,發(fā)送到reduce函數(shù)。這個(gè)處理過程是基于鍵值對(duì)進(jìn)行排序和分組。()

您可能感興趣的試卷

你可能感興趣的試題

1.多項(xiàng)選擇題在FusionLnsight HD集群中,關(guān)于kinit操作命令,如下那些說法是錯(cuò)誤的?()

A.只能使用人機(jī)賬號(hào)
B.只能使用機(jī)機(jī)賬號(hào)
C.一個(gè)客戶端不支持多個(gè)賬號(hào)同時(shí)使用
D.執(zhí)行此命令得到的票據(jù)在24小時(shí)會(huì)超時(shí),需要再次執(zhí)行kinit命令去重新登錄

5.多項(xiàng)選擇題以下哪些措施能ᨀ高HBase的查詢性能?()

A.預(yù)分region,使region分布均勻,ᨀ高并發(fā)
B.查詢頻繁屬性放在rowkey前面部分
C.使用二級(jí)索引,適應(yīng)更多查詢場景
D.同時(shí)讀取的數(shù)據(jù)存放在同一個(gè)cell中

最新試題

Fusionlnsight HD中,關(guān)于Hive的數(shù)據(jù)加載功能(通過Hivede LOAD命令導(dǎo)入數(shù)據(jù)),以下敘述錯(cuò)誤的是?()

題型:單項(xiàng)選擇題

Fusionlnsight HD中,一個(gè)部署在Tomcat上的應(yīng)用,需訪問HBase服務(wù),這種場景下推薦使用機(jī)機(jī)賬號(hào)。()

題型:判斷題

由于Spark是基于內(nèi)存的計(jì)算引擎,因此,一個(gè)Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過分給這個(gè)Spark應(yīng)用的內(nèi)存總和。()

題型:判斷題

在Solr的應(yīng)用查詢場景中,當(dāng)對(duì)查詢結(jié)果深度翻頁時(shí),需使用游標(biāo)進(jìn)行深度翻頁。下面對(duì)游標(biāo)說法正確的是?()

題型:多項(xiàng)選擇題

關(guān)于Kafka的特點(diǎn)如下᧿述正確的是?()

題型:多項(xiàng)選擇題

在Kafka中,關(guān)于Consumer說法正確的是()。

題型:多項(xiàng)選擇題

Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計(jì)算,計(jì)算結(jié)果只能存入HDFS,不能再寫回Kafka。()

題型:判斷題

在Spark中,關(guān)于廣播變量以下說法正確的是?()

題型:多項(xiàng)選擇題

Fusionlnsight HD中,Streaming打包工具用于將業(yè)務(wù)代碼jar包和其他所依賴的jar包等,打包成一個(gè)完整的Streaming應(yīng)用的jar包。()

題型:判斷題

Fusionlnsight HD中,屬于Streaming的數(shù)據(jù)分發(fā)方式有哪些?()

題型:多項(xiàng)選擇題