A.選擇合適的損失函數(shù)
B.選擇合適的Mini-batchsize
C.選擇合適的激活函數(shù)
D.選擇合適的自適應(yīng)學(xué)習(xí)率
您可能感興趣的試卷
你可能感興趣的試題
A.訓(xùn)練數(shù)據(jù)太少
B.模型過(guò)于復(fù)雜
C.訓(xùn)練時(shí)間過(guò)長(zhǎng)
D.使用了過(guò)多的正則化
A.梯度下降
B.學(xué)習(xí)率調(diào)整
C.權(quán)重初始化
D.特征選擇
A.權(quán)重剪枝
B.模型量化
C.增加網(wǎng)絡(luò)層數(shù)
D.使用1x1卷積
A.重新采樣
B.修改損失函數(shù)
C.使用類別權(quán)重
D.早停法
A.學(xué)習(xí)率的大小
B.優(yōu)化算法的選擇
C.數(shù)據(jù)集的規(guī)模
D.網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜度
最新試題
模型微調(diào)中的提示學(xué)習(xí)是指:()。
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識(shí)別和關(guān)系抽取的效果()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過(guò)擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?
人工智能中的“序列到序列”模型主要用于處理什么類型的數(shù)據(jù)()?
在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?
在深度學(xué)習(xí)中,哪些方法可以用于優(yōu)化模型訓(xùn)練過(guò)程并提高模型在特定任務(wù)上的表現(xiàn)()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
在深度學(xué)習(xí)中,哪些技術(shù)可以用于加速模型訓(xùn)練并提高模型在圖像分類和文本處理任務(wù)上的精確度()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。