多項(xiàng)選擇題以下哪些初始化方法不會(huì)導(dǎo)致梯度消失的問(wèn)題?()

A.全0初始化
B.均勻分布初始化
C.正態(tài)分布初始化
D.He初始化


您可能感興趣的試卷

你可能感興趣的試題

1.多項(xiàng)選擇題在訓(xùn)練模型時(shí),以下哪種方法可以找出相似性高的特征并去掉?()

A.利用相關(guān)性矩陣分析特征間的相關(guān)性,去掉其中一個(gè)高度相關(guān)的特征
B.使用主成分分析(PCA)進(jìn)行特征降維
C.使用L1正則化(Lasso)進(jìn)行特征選擇
D.利用樹(shù)模型(如隨機(jī)森林)計(jì)算特征的重要性,去除重要性較低的特征

2.多項(xiàng)選擇題在訓(xùn)練模型時(shí)遇到缺值的情況,可以采取哪些方法來(lái)處理?()

A.刪除包含缺失值的樣本
B.用均值、中位數(shù)或眾數(shù)填充缺失值
C.使用插值方法估計(jì)缺失值
D.用特定值標(biāo)記缺失值

3.多項(xiàng)選擇題下列有關(guān)知識(shí)蒸餾說(shuō)法正確的是()

A.一種用于優(yōu)化網(wǎng)絡(luò)訓(xùn)練過(guò)程的技術(shù)
B.從大型神經(jīng)網(wǎng)絡(luò)模型中提取知識(shí),用于構(gòu)建小型模型
C.通過(guò)在教師模型和學(xué)生模型之間進(jìn)行權(quán)重蒸餾來(lái)提高網(wǎng)絡(luò)性能
D.通過(guò)在模型中添加額外的知識(shí)層來(lái)提高網(wǎng)絡(luò)泛化能力

4.多項(xiàng)選擇題關(guān)于Transformer中的Encoder和Decoder,以下哪些描述是正確的?()

A.Encoder用于將輸入序列轉(zhuǎn)換成隱藏表示的模塊
B.Decoder的輸入是Encoder的輸出和前面生成的部分輸出序列
C.Encoder和Decoder的結(jié)構(gòu)和功能完全相同
D.Decoder的輸出是生成的下一個(gè)位置的詞

5.多項(xiàng)選擇題在卷積神經(jīng)網(wǎng)絡(luò)中,卷積層和池化層的主要區(qū)別是什么?()

A.卷積層主要負(fù)責(zé)特征提取,池化層主要負(fù)責(zé)特征壓縮
B.卷積層的輸出深度會(huì)增加,池化層的輸出深度會(huì)減少
C.卷積層通過(guò)滑動(dòng)窗口進(jìn)行卷積運(yùn)算,池化層通過(guò)下采樣操作選擇特征
D.卷積層用于分類任務(wù),池化層用于檢測(cè)任務(wù)