A.激活函數(shù)
B.卷積核大小
C.步長(stride)
D.填充(padding)
您可能感興趣的試卷
你可能感興趣的試題
A.L1正則化計算效率高
B.L2正則化可以用來進(jìn)行特征選擇
C.L1正則化可以得到稀疏的權(quán)重向量
D.L2正則化使用了與歐氏距離計算方式相似的L2范數(shù)
A.交叉熵?fù)p失函數(shù)主要用于分類問題,特別是多類別分類問題,而均方差誤差損失函數(shù)主要用于回歸問題
B.對于二分類問題,交叉熵?fù)p失函數(shù)的取值范圍是[0,∞),而均方差誤差損失函數(shù)沒有明確的取值范圍限制
C.交叉熵?fù)p失函數(shù)能夠更好地反映概率分布之間的差異性,因為它使用了對數(shù)函數(shù),而均方差誤差損失函數(shù)沒有這一特性
D.交叉熵?fù)p失函數(shù)能夠有效解決梯度消失問題,而均方差誤差損失函數(shù)在處理梯度消失方面表現(xiàn)較差
A.樹的深度
B.葉子節(jié)點的數(shù)量
C.樹的分裂方式
D.葉子節(jié)點的權(quán)重
A.準(zhǔn)確率
B.信息增益比
C.信息增益
D.基尼系數(shù)
A.適用于小樣本、高維數(shù)據(jù)
B.適用于非線性分類問題
C.是一種基于概率的分類方法
D.對噪聲數(shù)據(jù)不敏感
![](https://static.ppkao.com/ppmg/img/appqrcode.png)
最新試題
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時會將數(shù)據(jù)集劃分為()。
人工智能發(fā)展的早期階段主要側(cè)重于哪方面的研究()?
反向傳播算法的主要目的是什么()?
在自然語言處理中,哪些技術(shù)可以用于改善實體識別和文本生成任務(wù)的性能()?
Xpath 語言有()的構(gòu)成。
在強化學(xué)習(xí)中,什么是“動態(tài)規(guī)劃”(DynamicProgramming)()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?
反向傳播算法的基本原理是基于什么()?
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。