A.更換神經(jīng)網(wǎng)絡(luò)模型
B.增加數(shù)據(jù)庫的數(shù)據(jù)量
C.加強(qiáng)GPU計算能力
D.降低深度學(xué)習(xí)模型的復(fù)雜度
E.重新切割數(shù)據(jù)集再重新訓(xùn)練
您可能感興趣的試卷
你可能感興趣的試題
A.訓(xùn)練集資料很少
B.訓(xùn)練集資料多樣化
C.GPU計算能力過強(qiáng)
D.使用錯誤的算法
E.模型參數(shù)過多
A.驗(yàn)證集像是一場模擬考
B.訓(xùn)練集就像是深度學(xué)習(xí)模型的教科書
C.測試集對于模型來說則是最終決定成果的考試
D.驗(yàn)證集對于模型來說則是最終決定成果的考試
E.測試集像是一場模擬考
A.正交集(orthogonalset)
B.訓(xùn)練集(trainingset)
C.驗(yàn)證集(validationset)
D.平行集(parallelset)
E.測試集(testingset)
A.使用Sigmoid(S形函數(shù))激活函數(shù)
B.架構(gòu)中總共運(yùn)用了五層卷積層與三層全連接層
C.在第一、二、四個卷積層后接上了池化層
D.在網(wǎng)絡(luò)的后端接上三層全連接層
E.使用ReLU激活函數(shù)
A.Sigmoid(S函數(shù))
B.正弦函數(shù)
C.Tanh
D.二次方函數(shù)
E.ReLU
最新試題
反向傳播算法的基本原理是基于什么()?
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
Xpath 語言有()的構(gòu)成。
在自然語言處理中,哪些技術(shù)可以用于改善實(shí)體識別和文本生成任務(wù)的性能()?
數(shù)量歸約中無參數(shù)的方法一般使用()。
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
屬性值約束主要有()。
模型微調(diào)中的提示學(xué)習(xí)是指:()。
集成學(xué)習(xí)在強(qiáng)化學(xué)習(xí)中的一個常見應(yīng)用是什么()?