單項(xiàng)選擇題在深度學(xué)習(xí)中,哪個(gè)層通常用于減少特征圖的維度并增加感受野()?

A.卷積層
B.池化層
C.全連接層
D.激活層


您可能感興趣的試卷

你可能感興趣的試題

1.單項(xiàng)選擇題在機(jī)器學(xué)習(xí)中,提升方法(Boosting)的主要目的是什么()?

A.降低模型的偏差。
B.減少模型的方差。
C.增加模型的復(fù)雜度。
D.提高模型的泛化能力。

2.單項(xiàng)選擇題目標(biāo)檢測中的FPN(FeaturePyramidNetwork)用于:()。

A.生成候選目標(biāo)框
B.預(yù)測目標(biāo)的類別
C.定位目標(biāo)的精確位置
D.提高目標(biāo)分辨率

3.單項(xiàng)選擇題在深度學(xué)習(xí)中,批量歸一化的效果不包括:()。

A.減輕梯度消失問題
B.加速模型收斂
C.增加模型的泛化能力
D.減少模型參數(shù)

4.單項(xiàng)選擇題在大語言模型中,什么是tokenizer()?

A.用于將文本轉(zhuǎn)換為模型可處理的數(shù)值向量的工具
B.用于評(píng)估模型性能的指標(biāo)
C.模型訓(xùn)練時(shí)的優(yōu)化算法
D.模型輸出的文本格式

5.單項(xiàng)選擇題微調(diào)過程中使用的技術(shù),旨在通過少量參數(shù)調(diào)整來適應(yīng)新任務(wù)的是:()。

A.全模型微調(diào)
B.參數(shù)共享
C.自適應(yīng)微調(diào)
D.重學(xué)習(xí)

最新試題

度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。

題型:多項(xiàng)選擇題

進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。

題型:多項(xiàng)選擇題

反向傳播算法的主要目的是什么()?

題型:單項(xiàng)選擇題

在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?

題型:單項(xiàng)選擇題

反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?

題型:多項(xiàng)選擇題

在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)可以用于加速模型收斂和提高穩(wěn)定性()?

題型:多項(xiàng)選擇題

在深度學(xué)習(xí)模型訓(xùn)練中,"早停法"(EarlyStopping)策略的應(yīng)用目的是什么()?

題型:單項(xiàng)選擇題

根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。

題型:單項(xiàng)選擇題

數(shù)量歸約中無參數(shù)的方法一般使用()。

題型:多項(xiàng)選擇題

反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?

題型:多項(xiàng)選擇題