A.準(zhǔn)確率
B.信息增益比
C.信息增益
D.基尼系數(shù)
您可能感興趣的試卷
你可能感興趣的試題
A.適用于小樣本、高維數(shù)據(jù)
B.適用于非線性分類問(wèn)題
C.是一種基于概率的分類方法
D.對(duì)噪聲數(shù)據(jù)不敏感
A.PCA著重于保留數(shù)據(jù)的方差信息,而LDA著重于保留數(shù)據(jù)的類別信息
B.PCA只能應(yīng)用于分類數(shù)據(jù),而LDA可以應(yīng)用于數(shù)值型數(shù)據(jù)
C.PCA采用監(jiān)督學(xué)習(xí)方式,而LDA采用無(wú)監(jiān)督學(xué)習(xí)方式
D.PCA通過(guò)正交變換獲取新的特征向量,而LDA采用線性變換獲取新的特征向量
A.缺點(diǎn):LDA降維最多可以到k-1維
B.優(yōu)點(diǎn):可以處理非高斯分布的樣本
C.優(yōu)點(diǎn):可以使用類別的先驗(yàn)知識(shí)
D.缺點(diǎn):對(duì)噪聲和異常值敏感
A.優(yōu)點(diǎn):降低數(shù)據(jù)的維度,提高計(jì)算效率
B.缺點(diǎn):可能丟失重要信息
C.優(yōu)點(diǎn):去除數(shù)據(jù)中的噪聲和冗余信息
D.缺點(diǎn):對(duì)數(shù)據(jù)的分布有嚴(yán)格要求
A.聚類是無(wú)監(jiān)督學(xué)習(xí)方法,而分類是監(jiān)督學(xué)習(xí)方法
B.聚類的結(jié)果需要進(jìn)一步的解釋和分析,而分類的結(jié)果通常更容易解釋
C.聚類常用于市場(chǎng)細(xì)分、社交網(wǎng)絡(luò)分析,而分類常用于圖像識(shí)別、疾病預(yù)測(cè)
D.聚類算法復(fù)雜度通常高于分類算法
![](https://static.ppkao.com/ppmg/img/appqrcode.png)
最新試題
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。
在強(qiáng)化學(xué)習(xí)中,什么是“馬爾可夫性質(zhì)”()?
屬性值約束主要有()。
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于提升文本分類的性能()?
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識(shí)別和關(guān)系抽取的效果()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
依存句法分析(DependencyParsing)主要用于分析什么()?
反向傳播算法的主要目的是什么()?
在自然語(yǔ)言處理中,哪些技術(shù)可以用于改善實(shí)體識(shí)別和文本生成任務(wù)的性能()?