圖中0預(yù)測(cè)的準(zhǔn)確率和召回率是多少?()
A.0.81
B.0.77
C.0.80
D.0.78
您可能感興趣的試卷
你可能感興趣的試題
如下表student中,如何篩選type為包含數(shù)學(xué)或語(yǔ)文的記錄?()
A.select*from student where type=“數(shù)學(xué)” and type=“語(yǔ)文”
B.select*from student where type=“數(shù)學(xué)” or type=“語(yǔ)文”
C.select*from student where type in(“數(shù)學(xué)”,“語(yǔ)文”)
D.select*from student where type in(“數(shù)學(xué)”、“語(yǔ)文”)
A.大數(shù)據(jù)是數(shù)據(jù)量變積累達(dá)到質(zhì)變的結(jié)果
B.數(shù)據(jù)的產(chǎn)生需要經(jīng)歷很長(zhǎng)時(shí)間
C.我們每個(gè)人都是數(shù)據(jù)的制造者
D.當(dāng)今的世界,基本上一切都可以用數(shù)字表達(dá),所以叫數(shù)字化的世界
A.每個(gè)節(jié)點(diǎn)的分支度都不相同
B.使用Information Gain作為節(jié)點(diǎn)分割的依據(jù)
C.可以處理數(shù)值型態(tài)的字段
D.無(wú)法處理空值的字段
A.潛在客戶
B.響應(yīng)客戶
C.即得客戶
D.流失客戶
A.利用修剪法來(lái)限制樹(shù)的深度
B.利用盆栽法規(guī)定每個(gè)節(jié)點(diǎn)下的最小的記錄數(shù)目
C.利用逐步回歸法來(lái)刪除部分?jǐn)?shù)據(jù)
D.目前并無(wú)適合的方法來(lái)處理這問(wèn)題
最新試題
用邏輯回歸方法得到的分析結(jié)果中,其中預(yù)測(cè)為正類的有102個(gè),其中78個(gè)預(yù)測(cè)正確。預(yù)測(cè)為負(fù)類的有115個(gè),其中83個(gè)預(yù)測(cè)正確。那么正類的precision和recall各是多少()。
判斷下列各個(gè)量,哪些是隨機(jī)變量()。
戰(zhàn)略集團(tuán)的三種用途()
決策樹(shù)模型的缺點(diǎn)有()。
在訓(xùn)練樣本集中,對(duì)于訓(xùn)練樣本數(shù)目不均衡的情況,處理方法妥當(dāng)?shù)氖牵ǎ?/p>
下列戰(zhàn)略中屬于合資經(jīng)營(yíng)中的基本戰(zhàn)略的是()。
相比其他決策分類模型,隨機(jī)森林算法模型的優(yōu)點(diǎn)有()。
選擇渠道成員的標(biāo)準(zhǔn)包括()。
測(cè)度數(shù)據(jù)集中趨勢(shì)的指標(biāo)可分為()兩大類。
關(guān)于logistic回歸的說(shuō)法中不正確的是()。