A.刪除包含缺失值的樣本
B.用均值、中位數(shù)或眾數(shù)填充缺失值
C.使用插值方法估計缺失值
D.用特定值標(biāo)記缺失值
您可能感興趣的試卷
你可能感興趣的試題
A.一種用于優(yōu)化網(wǎng)絡(luò)訓(xùn)練過程的技術(shù)
B.從大型神經(jīng)網(wǎng)絡(luò)模型中提取知識,用于構(gòu)建小型模型
C.通過在教師模型和學(xué)生模型之間進(jìn)行權(quán)重蒸餾來提高網(wǎng)絡(luò)性能
D.通過在模型中添加額外的知識層來提高網(wǎng)絡(luò)泛化能力
A.Encoder用于將輸入序列轉(zhuǎn)換成隱藏表示的模塊
B.Decoder的輸入是Encoder的輸出和前面生成的部分輸出序列
C.Encoder和Decoder的結(jié)構(gòu)和功能完全相同
D.Decoder的輸出是生成的下一個位置的詞
A.卷積層主要負(fù)責(zé)特征提取,池化層主要負(fù)責(zé)特征壓縮
B.卷積層的輸出深度會增加,池化層的輸出深度會減少
C.卷積層通過滑動窗口進(jìn)行卷積運算,池化層通過下采樣操作選擇特征
D.卷積層用于分類任務(wù),池化層用于檢測任務(wù)
A.激活函數(shù)
B.卷積核大小
C.步長(stride)
D.填充(padding)
A.L1正則化計算效率高
B.L2正則化可以用來進(jìn)行特征選擇
C.L1正則化可以得到稀疏的權(quán)重向量
D.L2正則化使用了與歐氏距離計算方式相似的L2范數(shù)
![](https://static.ppkao.com/ppmg/img/appqrcode.png)
最新試題
相對化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點是()。
在深度學(xué)習(xí)模型訓(xùn)練中,"早停法"(EarlyStopping)策略的應(yīng)用目的是什么()?
反向傳播算法的主要目的是什么()?
人工智能中的“序列到序列”模型主要用于處理什么類型的數(shù)據(jù)()?
在自然語言處理中,哪些方法可以用于提升文本分類、情感分析和實體識別的準(zhǔn)確性()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
在自然語言處理中,哪些方法可以用于提升自動對話系統(tǒng)和文本摘要生成的自然性和流暢性()?
在自然語言處理中,哪些技術(shù)可以用于改善實體識別和文本生成任務(wù)的性能()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)可以用于加速模型收斂和提高穩(wěn)定性()?
智能運維AIOps 的核心技術(shù)是什么()?