A.Encoder用于將輸入序列轉(zhuǎn)換成隱藏表示的模塊
B.Decoder的輸入是Encoder的輸出和前面生成的部分輸出序列
C.Encoder和Decoder的結(jié)構(gòu)和功能完全相同
D.Decoder的輸出是生成的下一個(gè)位置的詞
您可能感興趣的試卷
你可能感興趣的試題
A.卷積層主要負(fù)責(zé)特征提取,池化層主要負(fù)責(zé)特征壓縮
B.卷積層的輸出深度會(huì)增加,池化層的輸出深度會(huì)減少
C.卷積層通過(guò)滑動(dòng)窗口進(jìn)行卷積運(yùn)算,池化層通過(guò)下采樣操作選擇特征
D.卷積層用于分類任務(wù),池化層用于檢測(cè)任務(wù)
A.激活函數(shù)
B.卷積核大小
C.步長(zhǎng)(stride)
D.填充(padding)
A.L1正則化計(jì)算效率高
B.L2正則化可以用來(lái)進(jìn)行特征選擇
C.L1正則化可以得到稀疏的權(quán)重向量
D.L2正則化使用了與歐氏距離計(jì)算方式相似的L2范數(shù)
A.交叉熵?fù)p失函數(shù)主要用于分類問(wèn)題,特別是多類別分類問(wèn)題,而均方差誤差損失函數(shù)主要用于回歸問(wèn)題
B.對(duì)于二分類問(wèn)題,交叉熵?fù)p失函數(shù)的取值范圍是[0,∞),而均方差誤差損失函數(shù)沒(méi)有明確的取值范圍限制
C.交叉熵?fù)p失函數(shù)能夠更好地反映概率分布之間的差異性,因?yàn)樗褂昧藢?duì)數(shù)函數(shù),而均方差誤差損失函數(shù)沒(méi)有這一特性
D.交叉熵?fù)p失函數(shù)能夠有效解決梯度消失問(wèn)題,而均方差誤差損失函數(shù)在處理梯度消失方面表現(xiàn)較差
A.樹(shù)的深度
B.葉子節(jié)點(diǎn)的數(shù)量
C.樹(shù)的分裂方式
D.葉子節(jié)點(diǎn)的權(quán)重
![](https://static.ppkao.com/ppmg/img/appqrcode.png)
最新試題
人工智能中的“序列到序列”模型主要用于處理什么類型的數(shù)據(jù)()?
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
在自然語(yǔ)言處理中,哪些技術(shù)可以用于改善實(shí)體識(shí)別和文本生成任務(wù)的性能()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。
在強(qiáng)化學(xué)習(xí)中,什么是“馬爾可夫性質(zhì)”()?
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于提升文本分類的性能()?
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。
在深度學(xué)習(xí)中,哪些方法可以用于優(yōu)化模型訓(xùn)練過(guò)程并提高模型在特定任務(wù)上的表現(xiàn)()?