A.企業(yè)倉(cāng)庫(kù)
B.數(shù)據(jù)集市
C.虛擬倉(cāng)庫(kù)
D.信息倉(cāng)庫(kù)
您可能感興趣的試卷
你可能感興趣的試題
A.數(shù)據(jù)源
B.數(shù)據(jù)倉(cāng)庫(kù)服務(wù)器
C.OLAP服務(wù)器
D.前端工具
A.信息處理
B.互聯(lián)網(wǎng)搜索
C.分析處理
D.數(shù)據(jù)挖掘
A.1-100M
B.100M-10G
C.10-1000G
D.100GB-數(shù)TB
A.頂點(diǎn)方體
B.方體的格
C.基本方體
D.維
A.上卷(roll-up)
B.選擇(select)
C.切片(slice)
D.轉(zhuǎn)軸(pivot)
最新試題
支持向量機(jī)不適合大規(guī)模數(shù)據(jù)。
隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。
由于決策樹學(xué)會(huì)了對(duì)離散值輸出而不是實(shí)值函數(shù)進(jìn)行分類,因此它們不可能過度擬合。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個(gè)值,并選擇最小化失真度量的值。
如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。
數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問是線性訪問,但是做了索引的數(shù)據(jù)訪問會(huì)成倍的降低訪問時(shí)間。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過度擬合訓(xùn)練數(shù)據(jù)的潛在問題。
數(shù)據(jù)收集中的拉模式需要通過定時(shí)的方式不斷地觸發(fā),才能源源不斷地獲取對(duì)應(yīng)的數(shù)據(jù)。
數(shù)據(jù)存儲(chǔ)體系中并不牽扯計(jì)算機(jī)網(wǎng)絡(luò)這一環(huán)節(jié)。
當(dāng)反向傳播算法運(yùn)行到達(dá)到最小值時(shí),無論初始權(quán)重是什么,總是會(huì)找到相同的解(即權(quán)重)。