A.從輸入層到輸出層計(jì)算網(wǎng)絡(luò)每層的結(jié)果
B.更新網(wǎng)絡(luò)的權(quán)重和偏差
C.計(jì)算損失函數(shù)
D.以上選項(xiàng)都對(duì)
您可能感興趣的試卷
你可能感興趣的試題
A.目標(biāo)檢測(cè)需要確定目標(biāo)的位置和類別,而目標(biāo)識(shí)別只需要確定目標(biāo)的類別
B.目標(biāo)檢測(cè)需要處理圖像中的多個(gè)目標(biāo),而目標(biāo)識(shí)別只需要處理單個(gè)目標(biāo)
C.目標(biāo)檢測(cè)需要使用特定的特征提取器,而目標(biāo)識(shí)別不需要
D.以上選項(xiàng)都對(duì)
A.K-means
B.基于密度的聚類
C.基于網(wǎng)格的聚類
D.基于層次的聚類
A.一種損失函數(shù)的計(jì)算方法
B.一種正則化技術(shù),用于防止過(guò)擬合
C.一種優(yōu)化算法,用于更新模型參數(shù)
D.一種模型結(jié)構(gòu)設(shè)計(jì)方法,有助于解決梯度消失和梯度爆炸問(wèn)題
A.訓(xùn)練時(shí)間
B.模型大小
C.收斂速度
D.輸入數(shù)據(jù)格式
A.模型簡(jiǎn)單,易于理解
B.特征之間相互獨(dú)立
C.適用于小數(shù)據(jù)集
D.只能處理二分類問(wèn)題
最新試題
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
在深度學(xué)習(xí)中,哪些技術(shù)可以用于加速模型訓(xùn)練并提高模型在圖像分類和文本處理任務(wù)上的精確度()?
在深度學(xué)習(xí)模型訓(xùn)練中,"早停法"(EarlyStopping)策略的應(yīng)用目的是什么()?
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過(guò)擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
反向傳播算法的基本原理是基于什么()?
依存句法分析(DependencyParsing)主要用于分析什么()?