A.全0初始化
B.均勻分布初始化
C.正態(tài)分布初始化
D.He初始化
您可能感興趣的試卷
你可能感興趣的試題
A.利用相關(guān)性矩陣分析特征間的相關(guān)性,去掉其中一個(gè)高度相關(guān)的特征
B.使用主成分分析(PCA)進(jìn)行特征降維
C.使用L1正則化(Lasso)進(jìn)行特征選擇
D.利用樹(shù)模型(如隨機(jī)森林)計(jì)算特征的重要性,去除重要性較低的特征
A.刪除包含缺失值的樣本
B.用均值、中位數(shù)或眾數(shù)填充缺失值
C.使用插值方法估計(jì)缺失值
D.用特定值標(biāo)記缺失值
A.一種用于優(yōu)化網(wǎng)絡(luò)訓(xùn)練過(guò)程的技術(shù)
B.從大型神經(jīng)網(wǎng)絡(luò)模型中提取知識(shí),用于構(gòu)建小型模型
C.通過(guò)在教師模型和學(xué)生模型之間進(jìn)行權(quán)重蒸餾來(lái)提高網(wǎng)絡(luò)性能
D.通過(guò)在模型中添加額外的知識(shí)層來(lái)提高網(wǎng)絡(luò)泛化能力
A.Encoder用于將輸入序列轉(zhuǎn)換成隱藏表示的模塊
B.Decoder的輸入是Encoder的輸出和前面生成的部分輸出序列
C.Encoder和Decoder的結(jié)構(gòu)和功能完全相同
D.Decoder的輸出是生成的下一個(gè)位置的詞
A.卷積層主要負(fù)責(zé)特征提取,池化層主要負(fù)責(zé)特征壓縮
B.卷積層的輸出深度會(huì)增加,池化層的輸出深度會(huì)減少
C.卷積層通過(guò)滑動(dòng)窗口進(jìn)行卷積運(yùn)算,池化層通過(guò)下采樣操作選擇特征
D.卷積層用于分類任務(wù),池化層用于檢測(cè)任務(wù)
![](https://static.ppkao.com/ppmg/img/appqrcode.png)
最新試題
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)可以用于加速模型收斂和提高穩(wěn)定性()?
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。
屬性值約束主要有()。
在深度學(xué)習(xí)模型訓(xùn)練中,"早停法"(EarlyStopping)策略的應(yīng)用目的是什么()?
依存句法分析(DependencyParsing)主要用于分析什么()?
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于提升文本分類的性能()?
人工智能中的“序列到序列”模型主要用于處理什么類型的數(shù)據(jù)()?
相對(duì)化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點(diǎn)是()。
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識(shí)別和關(guān)系抽取的效果()?