A.訓(xùn)練數(shù)據(jù)太少
B.模型過于復(fù)雜
C.訓(xùn)練時(shí)間過長
D.使用了過多的正則化
您可能感興趣的試卷
你可能感興趣的試題
A.梯度下降
B.學(xué)習(xí)率調(diào)整
C.權(quán)重初始化
D.特征選擇
A.權(quán)重剪枝
B.模型量化
C.增加網(wǎng)絡(luò)層數(shù)
D.使用1x1卷積
A.重新采樣
B.修改損失函數(shù)
C.使用類別權(quán)重
D.早停法
A.學(xué)習(xí)率的大小
B.優(yōu)化算法的選擇
C.數(shù)據(jù)集的規(guī)模
D.網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜度
A.梯度裁剪
B.權(quán)重衰減
C.早停法
D.集成學(xué)習(xí)
最新試題
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?
在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?
智能運(yùn)維AIOps 的核心技術(shù)是什么()?
數(shù)量歸約中無參數(shù)的方法一般使用()。
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
相對(duì)化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點(diǎn)是()。
在自然語言處理中,哪些方法可以用于提升文本分類、情感分析和實(shí)體識(shí)別的準(zhǔn)確性()?
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。
人工智能發(fā)展的早期階段主要側(cè)重于哪方面的研究()?
在自然語言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識(shí)別和關(guān)系抽取的效果()?