多項(xiàng)選擇題數(shù)據(jù)倉庫的三層架構(gòu)主要包括以下哪三部分?()

A.數(shù)據(jù)源
B.數(shù)據(jù)倉庫服務(wù)器
C.OLAP服務(wù)器
D.前端工具


您可能感興趣的試卷

你可能感興趣的試題

1.多項(xiàng)選擇題以下哪些是數(shù)據(jù)倉庫的主要應(yīng)用?()

A.信息處理
B.互聯(lián)網(wǎng)搜索
C.分析處理
D.數(shù)據(jù)挖掘

2.單項(xiàng)選擇題以下哪個(gè)范圍是數(shù)據(jù)倉庫的數(shù)據(jù)庫規(guī)模的一個(gè)合理范圍?()

A.1-100M
B.100M-10G
C.10-1000G
D.100GB-數(shù)TB

3.單項(xiàng)選擇題存放最低層匯總的方體稱為()。

A.頂點(diǎn)方體
B.方體的格
C.基本方體
D.維

4.單項(xiàng)選擇題下面的數(shù)據(jù)操作中,哪些操作不是多維數(shù)據(jù)模型上的OLAP操作?()

A.上卷(roll-up)
B.選擇(select)
C.切片(slice)
D.轉(zhuǎn)軸(pivot)

5.單項(xiàng)選擇題哪種OLAP操作可以讓用戶在更高的抽象層,更概化的審視數(shù)據(jù)?()

A.上卷
B.下鉆
C.切塊
D.轉(zhuǎn)軸

最新試題

使用偏差較小的模型總是比偏差較大的模型更好。

題型:判斷題

當(dāng)數(shù)據(jù)集標(biāo)簽錯(cuò)誤的數(shù)據(jù)點(diǎn)時(shí),隨機(jī)森林通常比AdaBoost更好。

題型:判斷題

隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。

題型:判斷題

當(dāng)反向傳播算法運(yùn)行到達(dá)到最小值時(shí),無論初始權(quán)重是什么,總是會(huì)找到相同的解(即權(quán)重)。

題型:判斷題

數(shù)據(jù)復(fù)制或者備份均是為了從提高數(shù)據(jù)并發(fā)這個(gè)角度來設(shè)計(jì)和實(shí)現(xiàn)的。

題型:判斷題

最大似然估計(jì)的一個(gè)缺點(diǎn)是,在某些情況下(例如,多項(xiàng)式分布),它可能會(huì)返回零的概率估計(jì)。

題型:判斷題

任何對(duì)數(shù)據(jù)處理與存儲(chǔ)系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。

題型:判斷題

數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問是線性訪問,但是做了索引的數(shù)據(jù)訪問會(huì)成倍的降低訪問時(shí)間。

題型:判斷題

通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時(shí),我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。

題型:判斷題

對(duì)于文本數(shù)據(jù)和多媒體數(shù)據(jù)進(jìn)行特征提取是為了方便對(duì)于這類數(shù)據(jù)的觀察和理解。

題型:判斷題