A.卷積層
B.池化層
C.全連接層
D.激活層
您可能感興趣的試卷
你可能感興趣的試題
A.降低模型的偏差。
B.減少模型的方差。
C.增加模型的復(fù)雜度。
D.提高模型的泛化能力。
A.生成候選目標(biāo)框
B.預(yù)測目標(biāo)的類別
C.定位目標(biāo)的精確位置
D.提高目標(biāo)分辨率
A.減輕梯度消失問題
B.加速模型收斂
C.增加模型的泛化能力
D.減少模型參數(shù)
A.用于將文本轉(zhuǎn)換為模型可處理的數(shù)值向量的工具
B.用于評(píng)估模型性能的指標(biāo)
C.模型訓(xùn)練時(shí)的優(yōu)化算法
D.模型輸出的文本格式
A.全模型微調(diào)
B.參數(shù)共享
C.自適應(yīng)微調(diào)
D.重學(xué)習(xí)
最新試題
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。
反向傳播算法的主要目的是什么()?
在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)可以用于加速模型收斂和提高穩(wěn)定性()?
在深度學(xué)習(xí)模型訓(xùn)練中,"早停法"(EarlyStopping)策略的應(yīng)用目的是什么()?
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。
數(shù)量歸約中無參數(shù)的方法一般使用()。
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?